JP2010244207A - Moving object tracking device, moving object tracking method, and moving object tracking program - Google Patents

Moving object tracking device, moving object tracking method, and moving object tracking program Download PDF

Info

Publication number
JP2010244207A
JP2010244207A JP2009090489A JP2009090489A JP2010244207A JP 2010244207 A JP2010244207 A JP 2010244207A JP 2009090489 A JP2009090489 A JP 2009090489A JP 2009090489 A JP2009090489 A JP 2009090489A JP 2010244207 A JP2010244207 A JP 2010244207A
Authority
JP
Japan
Prior art keywords
moving object
image
unit
contour
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009090489A
Other languages
Japanese (ja)
Other versions
JP5371040B2 (en
Inventor
Shunsuke Kamijo
俊介 上條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2009090489A priority Critical patent/JP5371040B2/en
Priority to PCT/JP2010/002015 priority patent/WO2010113417A1/en
Publication of JP2010244207A publication Critical patent/JP2010244207A/en
Application granted granted Critical
Publication of JP5371040B2 publication Critical patent/JP5371040B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving object tracking device which detects a moving object in an image accurately, even in an image whose background changes. <P>SOLUTION: A moving object tracking device, which is a device for tracking a moving object in an image, detects the moving object in the image by applying image processing to time series images, and includes an object map storage unit, a contour extraction unit, and a correction unit. The object map storage unit allows each image in the time series images to be divided into a plurality of blocks, attaches an identification code indicating the moving object in the image to a block corresponding to the moving object, and stores the identification code. The contour extraction unit extracts the contour of the moving object from the time series images. The correction unit corrects the identification code of the block stored in the object map storage unit based on the contour extracted by the contour extraction unit. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、時系列画像を画像処理して画像中の移動物体(車、自転車、動物等の移動可能なもの)を追跡する移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラムに関する。   The present invention relates to a moving object tracking device, a moving object tracking method, and a moving object tracking program that process time-series images and track moving objects (movable objects such as cars, bicycles, and animals) in the images.

近年、カメラで撮像された画像を画像処理して、画像中の移動物体を正確に検出する技術が求められている。たとえば、交通事故の早期発見は、迅速な救助活動により人命救助の成功率を高めるだけでなく、警察の実地検分などを迅速にすることにより事故渋滞を緩和することもできるので、様々な交通事故の認識自動化が期待されている。このように交通事故の認識率を高めるためには、カメラで撮像された画像を画像処理して移動物体を正確に検出する必要がある。   In recent years, there has been a demand for a technique for accurately detecting a moving object in an image by processing an image captured by a camera. For example, early detection of traffic accidents can not only increase the success rate of lifesaving through quick rescue activities, but also reduce traffic jams by speeding up on-site inspection by the police. Recognition automation is expected. Thus, in order to increase the recognition rate of traffic accidents, it is necessary to accurately detect a moving object by performing image processing on an image captured by a camera.

図20は、高速道路の中央線上方に設置されたカメラで撮像された時刻t=1〜4の画像を模式的に示す。   FIG. 20 schematically shows an image at time t = 1 to 4 captured by a camera installed above the center line of the expressway.

画像上で車両同士が頻繁に重なるので、画像処理により各車両を追跡するのが困難になる。この問題を解決するには、道路に沿って複数台のカメラを設置し、それらの画像を総合的に画像処理する必要がある。   Since vehicles frequently overlap each other on an image, it is difficult to track each vehicle by image processing. In order to solve this problem, it is necessary to install a plurality of cameras along the road and comprehensively process these images.

しかし、カメラ及び画像処理装置を複数台備える必要があるので、コスト高になる。また、各カメラの撮影画像を関係付けて総合的に画像処理しなければならないので、画像処理が複雑になる。   However, since it is necessary to provide a plurality of cameras and image processing apparatuses, the cost increases. In addition, the image processing becomes complicated because the captured images of the respective cameras must be related to each other and comprehensively processed.

そこで、本願発明者らは、次のように時間を遡って移動物体を検出する方法でこの問題を解決した(特許文献1および特許文献2参照。)。   Therefore, the inventors of the present application solved this problem by detecting the moving object by going back in time as follows (see Patent Document 1 and Patent Document 2).

たとえば、時刻t=1〜4の時系列画像を一時記憶しておき、時刻t=4から出発して車両M1とM2を識別し、車両M1とM2の動きベクトルを求め、この動きベクトルで時刻t=4の画像中の車両M1とM2を移動させて、車両M1とM2が識別されている時刻t=3の画像を想定し、これと時刻t=3の実際の画像との相関関係から、時刻t=3の画像中の車両M1とM2を識別する。   For example, time-series images at time t = 1 to 4 are temporarily stored, vehicles M1 and M2 are identified starting from time t = 4, and motion vectors of the vehicles M1 and M2 are obtained. Assuming an image at time t = 3 in which the vehicles M1 and M2 are identified by moving the vehicles M1 and M2 in the image at t = 4, from the correlation between this and the actual image at time t = 3 The vehicles M1 and M2 in the image at time t = 3 are identified.

次に、時刻t=3と時刻t=2との画像について同様の画像処理により、時刻t=2の画像中の車両M1とM2を識別する。次に、時刻t=2と時刻t=1の画像について同様の画像処理により、時刻t=1の画像中の車両M1とM2を識別する。   Next, vehicles M1 and M2 in the image at time t = 2 are identified by similar image processing for the images at time t = 3 and time t = 2. Next, vehicles M1 and M2 in the image at time t = 1 are identified by similar image processing for the images at time t = 2 and time t = 1.

このような画像処理により、1台のカメラで車両M1とM2とを追跡することが可能となる。   Such image processing makes it possible to track the vehicles M1 and M2 with a single camera.

特開2002−133421号公報JP 2002-133421 A 特開2004−207786号公報Japanese Patent Laid-Open No. 2004-207786

このような従来技術においては、カメラが固定されている状態で撮像された画像、すなわち、背景が固定されている画像を画像処理して、画像中の移動物体を正確に検出していた。   In such a conventional technique, an image picked up with a camera fixed, that is, an image with a fixed background is subjected to image processing to accurately detect a moving object in the image.

これに対して、カメラをパンニングまたはズーミングした場合には、それまで固定されていた背景画像も、カメラをパンニングまたはズーミングに応じて変動してしまう。このように背景が変動する画像を画像処理した場合には、移動物体の画像領域と背景画像との境界が明確でなくなり、画像中の移動物体を正確に検出できないという問題があった。   On the other hand, when the camera is panned or zoomed, the background image that has been fixed so far also changes according to the panning or zooming of the camera. When image processing is performed on an image whose background changes in this way, there is a problem that the boundary between the image area of the moving object and the background image is not clear, and the moving object in the image cannot be accurately detected.

本発明は、このような事情に鑑みてなされたもので、その目的は、背景が変動する画像からでも、画像中の移動物体を正確に検出することができる移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is a moving object tracking device and a moving object tracking method capable of accurately detecting a moving object in an image even from an image with a changing background. And providing a moving object tracking program.

この発明は上述した課題を解決するためになされたもので、請求項1に記載の発明は、時系列画像を画像処理して画像中の移動物体を検出する画像上移動物体追跡装置であって、前記時系列画像の各画像が複数のブロックに分割され、当該画像中の移動物体を示す識別符号が前記移動物体に対応する前記ブロックに付けられて記憶されているオブジェクトマップ記憶部と、前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出部と、前記輪郭抽出部が抽出した輪郭に基づいて、前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正する補正部と、を有することを特徴とする移動物体追跡装置である。   The present invention has been made to solve the above-described problems, and the invention according to claim 1 is an on-image moving object tracking device that detects a moving object in an image by processing a time-series image. Each of the time-series images is divided into a plurality of blocks, and an identification code indicating a moving object in the image is attached to the block corresponding to the moving object and stored therein, and the object map storage unit, A contour extracting unit that extracts the contour of the moving object from a time-series image, and a correction that corrects the block identification code stored in the object map storage unit based on the contour extracted by the contour extracting unit. And a moving object tracking device.

請求項2に記載の発明は、前記輪郭抽出部が、前記オブジェクトマップ記憶部に記憶されている前記移動物体のブロックに対応する画像領域に基づいて、前記移動物体の輪郭を抽出する対象領域を設定する対象領域設定部と、前記対象領域設定部が設定した対象領域に対して、前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出処理部と、を有することを特徴とする請求項1に記載の移動物体追跡装置である。   According to a second aspect of the present invention, the contour extracting unit extracts a target region from which the contour of the moving object is extracted based on an image region corresponding to the block of the moving object stored in the object map storage unit. A target region setting unit to be set; and a contour extraction processing unit that extracts a contour of the moving object from the image of the time-series image with respect to the target region set by the target region setting unit. A moving object tracking device according to claim 1.

請求項3に記載の発明は、前記輪郭抽出部が、前記時系列画像の画像をエッジ抽出処理した画像に対して、前記対象領域設定部が設定した対象領域内でエッジに対応する画素数の個数についてのヒストグラムを座標軸毎に射影して生成し、当該座標軸毎に生成したヒストグラムに基づいて前記対象領域設定部が設定した対象領域を前記座標軸毎に補正する対象領域補正部、を有し、前記輪郭抽出処理部が、前記対象領域補正部が補正した対象領域に対して、前記時系列画像の画像から前記移動物体の輪郭を抽出する、ことを特徴とする請求項2に記載の移動物体追跡装置である。   According to a third aspect of the present invention, the contour extraction unit has the number of pixels corresponding to an edge in the target region set by the target region setting unit with respect to an image obtained by performing edge extraction processing on the time-series image. A target area correction unit that generates a histogram for the number of projections for each coordinate axis and corrects the target area set by the target area setting unit based on the histogram generated for each coordinate axis, for each coordinate axis, The moving object according to claim 2, wherein the contour extraction processing unit extracts a contour of the moving object from the image of the time-series image with respect to the target region corrected by the target region correction unit. A tracking device.

請求項4に記載の発明は、前記輪郭抽出部が、オクルージョンが発生している複数の移動物体を一体の移動物体とし、前記時系列画像の画像から前記一体とした移動物体の輪郭を抽出する、ことを特徴とする請求項1から請求項3のいずれかに記載の移動物体追跡装置である。   According to a fourth aspect of the present invention, the contour extracting unit extracts a plurality of moving objects in which occlusion occurs as an integral moving object, and extracts the contour of the integral moving object from the images of the time-series images. The moving object tracking device according to claim 1, wherein the moving object tracking device is a moving object tracking device according to claim 1.

請求項5に記載の発明は、前記補正部は、前記オブジェクトマップ記憶部に記憶されている前記オクルージョンが発生している複数の移動物体に対応する識別符号に基づいた当該複数の移動物体の境界を示す情報と、前記輪郭抽出部により前記オクルージョンが発生している複数の移動物体を一体とした抽出された移動物体の輪郭とに基づいて、前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正する、ことを特徴とする請求項4に記載の移動物体追跡装置である。   According to a fifth aspect of the present invention, the correction unit includes a boundary between the plurality of moving objects based on identification codes corresponding to the plurality of moving objects in which the occlusion occurs, which is stored in the object map storage unit. Of the block stored in the object map storage unit based on the information indicating the contour of the moving object extracted by integrating the plurality of moving objects in which the occlusion is generated by the contour extraction unit. 5. The moving object tracking device according to claim 4, wherein the identification code is corrected.

請求項6に記載の発明は、背景画像が変動しているか否かを判定する判定部と、前記判定部が背景画像が変動していると判定した場合に、前記輪郭抽出部を制御して輪郭を抽出させ、前記補正部を制御して前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正させる第1の制御部と、を有することを特徴とする請求項1から請求項5に記載の移動物体追跡装置である。   According to a sixth aspect of the present invention, when the determination unit determines whether or not the background image is fluctuating, and the determination unit determines that the background image is fluctuating, the contour extraction unit is controlled. A first control unit that extracts a contour and controls the correction unit to correct the identification code of the block stored in the object map storage unit. 5. The moving object tracking device according to 5.

請求項7に記載の発明は、前記オブジェクトマップ記憶部に記憶されている移動物体のサイズまたは移動量の変動量を、前記識別符号に基づいて単位時間毎に検出する移動物体変動量検出部と、前記移動物体変動量検出部により検出された単位時間毎の前記移動物体のサイズまたは移動量の変動量が、予め定められているサイズまたは移動量の変動量よりも大きい場合に、前記輪郭抽出部を制御して輪郭を抽出させ、前記補正部を制御して前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正させる第2の制御部と、を有することを特徴とする請求項1から請求項6に記載の移動物体追跡装置である。   According to a seventh aspect of the present invention, there is provided a moving object fluctuation amount detection unit that detects a fluctuation amount of the size or movement amount of the moving object stored in the object map storage unit per unit time based on the identification code. The contour extraction is performed when the moving object size or moving amount variation amount per unit time detected by the moving object variation detecting unit is larger than a predetermined size or moving amount variation amount. And a second control unit that controls the unit to extract a contour and controls the correction unit to correct the identification code of the block stored in the object map storage unit. The moving object tracking device according to any one of claims 1 to 6.

請求項8に記載の発明は、前記オブジェクトマップ記憶部には、前記識別符号が前記移動物体に対応する前記ブロックに付けられているとともに、前記ブロックに対応する前記移動物体の動きベクトルが前記ブロックに付けられて記憶されており、前記時系列画像を画像処理した結果に基づいて、前記オブジェクトマップ記憶部に記憶されているブロックの識別符号と動きベクトルとを更新する移動物体追跡部、を有し、前記移動物体追跡部は、前記時系列画像のうち連続するN画像(N≧2)の各々について、隣り合うブロックの動きベクトルの差の絶対値が所定値以内のブロックに同一の識別符号を付けることにより、画像上で互いに重なった移動物体に互いに異なる識別符号を付ける識別符号手順と、前記N画像の各々において、第1識別符号が付けられたブロック群である第1オブジェクトと第2識別符号が付けられたブロック群である第2オブジェクトとが接し、かつ、前記N画像について時間的に隣り合う画像の第1オブジェクト間の相関度が所定値以上であるか否かを判定する判定手順と、前記判定手順で肯定と判定された後に、時間を遡って前記第1オブジェクトと前記第2オブジェクトとを追跡する追跡手順と、前記追跡手順により時間を遡って追跡された前記第1オブジェクトと前記第2オブジェクトとに基づいて、前記オブジェクトマップ記憶部に記憶されているブロックの識別符号と動きベクトルとを更新する更新手順と、を実行することを特徴とする請求項1から請求項7に記載の移動物体追跡装置である。   In the invention according to claim 8, in the object map storage unit, the identification code is attached to the block corresponding to the moving object, and the motion vector of the moving object corresponding to the block is the block. And a moving object tracking unit that updates a block identification code and a motion vector stored in the object map storage unit based on the result of image processing of the time-series image. The moving object tracking unit, for each of the consecutive N images (N ≧ 2) of the time-series images, has the same identification code as the block whose absolute value of the motion vector difference between adjacent blocks is within a predetermined value. In each of the N images, an identification code procedure for attaching different identification codes to moving objects that overlap each other on the image, A first object that is a group of blocks to which another code is attached and a second object that is a group of blocks to which a second identification code is attached, and between the first objects of images that are temporally adjacent to the N images A determination procedure for determining whether or not the degree of correlation is greater than or equal to a predetermined value, and a tracking procedure for tracking the first object and the second object retroactively after it is determined affirmative in the determination procedure; An update procedure for updating a block identification code and a motion vector stored in the object map storage unit based on the first object and the second object tracked back in time by the tracking procedure; The moving object tracking device according to claim 1, wherein:

請求項9に記載の発明は、時系列画像を画像処理して画像中の移動物体を検出する画像上移動物体追跡装置において用いられる画像上移動物体追跡方法であって、輪郭抽出部が、前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出手順と、補正部が、前記時系列画像の各画像が複数のブロックに分割され、当該画像中の移動物体を示す識別符号が前記移動物体に対応する前記ブロックに付けられて記憶されているオブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を、前記輪郭抽出部が抽出した輪郭に基づいて補正する補正手順と、を有することを特徴とする移動物体追跡方法である。   The invention according to claim 9 is an on-image moving object tracking method used in an on-image moving object tracking device that performs time-series image processing to detect a moving object in an image, wherein the contour extraction unit includes the contour extracting unit, The contour extraction procedure for extracting the contour of the moving object from the image of the time-series image, and the correction unit divides each image of the time-series image into a plurality of blocks, and the identification code indicating the moving object in the image is A correction procedure for correcting the block identification code stored in the object map storage unit attached to the block corresponding to the moving object based on the contour extracted by the contour extraction unit. This is a moving object tracking method.

請求項10に記載の発明は、時系列画像を画像処理して画像中の移動物体を検出する画像上移動物体追跡装置としてのコンピュータに、輪郭抽出部が、前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出手順を実行し、補正部が、前記時系列画像の各画像が複数のブロックに分割され、当該画像中の移動物体を示す識別符号が前記移動物体に対応する前記ブロックに付けられて記憶されているオブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を、前記輪郭抽出部が抽出した輪郭に基づいて補正する補正手順を実行する、ようにさせるための移動物体追跡プログラムである。   According to a tenth aspect of the present invention, in a computer as an on-image moving object tracking device that performs image processing on a time-series image and detects a moving object in the image, a contour extraction unit includes the movement from the image of the time-series image. A contour extraction procedure for extracting the contour of the object is executed, and the correction unit divides each image of the time-series image into a plurality of blocks, and an identification code indicating the moving object in the image corresponds to the moving object. Movement for causing the block identification code stored in the object map storage unit attached to the block to be corrected based on the contour extracted by the contour extraction unit It is an object tracking program.

この本発明によれば、抽出した輪郭に基づいて、オブジェクトマップ記憶部に記憶されているブロックの識別符号を補正することにより、背景が変動する画像からでも、画像中の移動物体を正確に検出することができるという効果を奏する。   According to the present invention, by correcting the block identification code stored in the object map storage unit based on the extracted contour, it is possible to accurately detect a moving object in the image even from an image whose background changes. There is an effect that can be done.

交差点及びこれに配置された本発明の移動物体追跡装置を用いた移動物体追跡システムの概略を示すブロック図である。It is a block diagram which shows the outline of the moving object tracking system using the intersection and the moving object tracking apparatus of this invention arrange | positioned at this. 図1の移動物体追跡装置の一例としての構成を示すブロック図である。It is a block diagram which shows the structure as an example of the moving object tracking apparatus of FIG. フレーム画像内の、交差点への4つの入口及び交差点からの4つの出口にそれぞれ設定されたスリット及びブロックに付与された移動物体のIDを示す説明図である。It is explanatory drawing which shows ID of the moving object provided to the slit and block which were each set to the four entrances to an intersection and the four exits from an intersection in a frame image. (A)及び(B)はそれぞれ時刻t−1及びtの画像をブロック境界線とともに模式的に示す図である。(A) And (B) is a figure which shows typically the image of the time t-1 and t with a block boundary line, respectively. (A)及び(B)はそれぞれ時刻t−1及びtの画像を画素境界線とともに模式的に示す図である。(A) And (B) is a figure which shows typically the image of the time t-1 and t with a pixel boundary line, respectively. (A)及び(B)はそれぞれ時刻t−1及びtの画像を、ブロックに付与された動きベクトルとともに模式的に示す図である。(A) And (B) is a figure which shows typically the image of the time t-1 and t with the motion vector provided to the block, respectively. (A)及び(B)はそれぞれ時刻t−1及びtのオブジェクトマップに付与された動きベクトル及びオブジェクト境界を模式的に示す図である。(A) and (B) are diagrams schematically showing motion vectors and object boundaries assigned to the object maps at times t-1 and t, respectively. 未定動きベクトルの推定方法を示すフローチャートである。It is a flowchart which shows the estimation method of an undetermined motion vector. (A)及び(B)は図8の処理を説明するための、オブジェクトマップに付与された動きベクトル及びオブジェクト境界を模式的に示す図である。(A) And (B) is a figure which shows typically the motion vector and object boundary provided to the object map for demonstrating the process of FIG. (A)〜(C)は図8の処理を説明するための、オブジェクトマップに付与された動きベクトル及びオブジェクト境界を模式的に示す図である。(A)-(C) is a figure which shows typically the motion vector and object boundary provided to the object map for demonstrating the process of FIG. 移動物体追跡装置20におけるモードの状態遷移を示す状態遷移図である。FIG. 6 is a state transition diagram showing state transition of modes in the moving object tracking device 20. 図11の補正モードにおける移動物体追跡装置20の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the moving object tracking device 20 in the correction mode of FIG. 面積項Eareaを示す説明図である。It is explanatory drawing which shows the area term Earea. 一例としてのSnakes処理結果を示す説明図である。It is explanatory drawing which shows the Snakes process result as an example. 一例としてのエッジ分布およびヒストグラムの生成を示す説明図である。It is explanatory drawing which shows the generation of edge distribution and a histogram as an example. Snakesによるオブジェクトマップの修正例を示す説明図である。It is explanatory drawing which shows the example of correction of the object map by Snakes. カメラ10が変動する場合において、階層間協調アルゴリズムが無い場合における移動物体検出の結果を示す結果図である。It is a result figure which shows the result of a moving object detection in case the camera 10 fluctuates, when there is no cooperation algorithm between layers. カメラ10が変動する場合において、階層間協調アルゴリズムがある場合における移動物体検出の結果を示す結果図である。It is a result figure which shows the result of a moving object detection in case the camera 10 fluctuates, when there exists a cooperation algorithm between layers. カメラ10が変動する場合において、オクルージョンが発生している場合における移動物体検出の結果を示す結果図である。It is a result figure which shows the result of a moving object detection in case the occlusion has generate | occur | produced when the camera 10 fluctuates. 高速道路の中央線上方に設置されたカメラで撮像された時刻t=1〜4の画像を模式的に示す図である。It is a figure which shows typically the image of the time t = 1-4 imaged with the camera installed above the center line of the highway.

以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の一実施形態による移動物体追跡装置20を用いた移動物体追跡システムの構成を示す概略ブロック図である。この移動物体追跡システムは、一例として図1に示すように、交差点を撮像して画像信号を出力する電子カメラ10と、その画像を処理して移動物体を追跡する移動物体追跡装置20とを備えている。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing a configuration of a moving object tracking system using a moving object tracking device 20 according to an embodiment of the present invention. As shown in FIG. 1 as an example, this moving object tracking system includes an electronic camera 10 that captures an intersection and outputs an image signal, and a moving object tracking device 20 that processes the image and tracks the moving object. ing.

電子カメラ10で撮影された時系列画像は、例えば12フレーム/秒のレートで、移動物体追跡装置20が有する後述する画像メモリ21に格納され、最も古いフレームが新しいフレーム画像で書き換えられる。この電子カメラ10は、パンニングまたはズーミングされ、撮影する画像領域を変更することができる。この電子カメラ10に対するパンニングまたはズーミングは、たとえば、移動物体追跡装置20が制御してもよいし、当該移動物体追跡システムを制御する上位制御装置が制御してもよい。   A time-series image captured by the electronic camera 10 is stored in an image memory 21 (described later) of the moving object tracking device 20 at a rate of 12 frames / second, for example, and the oldest frame is rewritten with a new frame image. The electronic camera 10 can be panned or zoomed to change the image area to be photographed. The panning or zooming for the electronic camera 10 may be controlled by, for example, the moving object tracking device 20 or may be controlled by a host control device that controls the moving object tracking system.

移動物体追跡装置20は、電子カメラ10で撮影された時系列画像(後述する画像メモリ21に格納された時系列画像)を画像処理して、時系列画像を画像処理して画像中の移動物体を検出する。   The moving object tracking device 20 performs image processing on a time-series image (a time-series image stored in an image memory 21 to be described later) taken by the electronic camera 10 and performs image processing on the time-series image to move the moving object in the image. Is detected.

次に図2を用いて、移動物体追跡装置20の一例としての構成について説明する。   Next, a configuration as an example of the moving object tracking device 20 will be described with reference to FIG.

画像変換部22は、画像メモリ21内の各フレーム画像について、これをフレームバッファメモリ23にコピーし、コピーされた画像のデータを用いて画像メモリ21内の対応するフレーム画像を空間的差分フレーム画像に変換する。この変換は2段階で行われる。   The image conversion unit 22 copies each frame image in the image memory 21 to the frame buffer memory 23, and uses the copied image data to convert the corresponding frame image in the image memory 21 into a spatial difference frame image. Convert to This conversion is performed in two stages.

元のフレーム画像の第i行第j列の画素値(輝度値)をG(i,j)とすると、第1段階における変換後の第i行第j列の画素値H(i,j)は、次式で表される。   If the pixel value (luminance value) of the i-th row and j-th column of the original frame image is G (i, j), the pixel value H (i, j) of the i-th row and j-th column after the conversion in the first stage. Is expressed by the following equation.

H(i,j)=Σneighberpixcels|G(i+di,j+dj)−G(i,j)| ・・・(式1)   H (i, j) = Σneighberpixcels | G (i + di, j + dj) −G (i, j) | (Expression 1)

ここにΣneighberpixcelsは、cを自然数とすると、di=−c〜c及びdj=−c〜cにわたっての総和を意味し、例えばc=1のとき、第i行第j列の画素と隣り合う8画素にわたる総和である。照度が変化すると、画素値G(i,j)とその付近の画素値G(i+di,j+dj)が同様に変化するので、H(i,j)の画像は、照度の変化に対し不変である。   Here, Σneighberpixcels means the sum of di = −c to c and dj = −c to c, where c is a natural number. For example, when c = 1, 8 adjacent to the pixel in the i-th row and j-th column. The sum over the pixels. When the illuminance changes, the pixel value G (i, j) and the neighboring pixel value G (i + di, j + dj) change in the same manner, so the image of H (i, j) is invariant to the change in illuminance. .

ここで、隣り合う画素の差分の絶対値は、一般に画素値が大きいほど大きい。移動物体追跡の成功率を高めるには、画素値が小さくて差分が小さい場合も、画素値及び差分が大きい場合とほぼ等価にエッジ情報を取得した方が好ましい。そこで、H(i,j)を次のように規格化する。   Here, the absolute value of the difference between adjacent pixels is generally larger as the pixel value is larger. In order to increase the success rate of moving object tracking, it is preferable to acquire edge information almost equivalently to the case where the pixel value and the difference are large even when the pixel value is small and the difference is small. Therefore, H (i, j) is normalized as follows.

H(i,j)=Σneighberpixcels|G(i+di,j+dj)−G(i,j)|/(Gi,j,max/Gmax) ・・・(式2)   H (i, j) = Σneighberpixcels | G (i + di, j + dj) −G (i, j) | / (Gi, j, max / Gmax) (Expression 2)

ここに、Gi,j,maxは、H(i,j)の計算に用いた元の画素の値の最大値であり、例えばc=1の場合、第i行第j列の画素を中心とする3×3画素の値の最大値であり、Gmaxは画素値G(i,j)の取りうる最大値、例えば画素値が8ビットで表される場合、255である。以下、c=1、Gmax=255である場合について説明する。   Here, Gi, j, max is the maximum value of the original pixel value used in the calculation of H (i, j). For example, when c = 1, the pixel in the i-th row and j-th column is the center. Gmax is the maximum value that can be taken by the pixel value G (i, j), for example, 255 when the pixel value is represented by 8 bits. Hereinafter, a case where c = 1 and Gmax = 255 will be described.

H(i,j)の取りうる最大値は、移動物体毎に異なる。例えばG(i,j)=Gmaxで第i行第j列の画素に隣り合う8画素の値がいずれも0で有る場合、H(i,j)=8Gmaxとなって、H(i,j)を8ビットで表すことができない。   The maximum value that H (i, j) can take differs for each moving object. For example, if G (i, j) = Gmax and the values of 8 pixels adjacent to the pixel in the i-th row and j-th column are all 0, H (i, j) = 8Gmax and H (i, j ) Cannot be represented by 8 bits.

一方、移動物体のエッジ部のH(i,j)の値のヒストグラムを作成してみると、頻度の大部分がH=50〜110の範囲に含まれることがわかった。すなわち、Hの値が約110より大きくなるほど移動物体追跡のためのエッジ情報の数が少ないので、重要度が低い。   On the other hand, when a histogram of the value of H (i, j) at the edge portion of the moving object was created, it was found that most of the frequency was included in the range of H = 50 to 110. That is, since the number of edge information for tracking a moving object is smaller as the value of H is larger than about 110, the importance is lower.

したがって、Hの値の大きい部分を抑圧して変換画素のビット長を短くすることにより、画像処理を高速に行なったほうが好ましい。そこで、第2段階として、このH(i,j)を、シグモイド関数を用いた次式により、I(i,j)に変換する。   Therefore, it is preferable to perform image processing at high speed by suppressing the portion with a large value of H and shortening the bit length of the converted pixel. Therefore, as a second stage, this H (i, j) is converted to I (i, j) by the following equation using a sigmoid function.

I=Gmax/{1+exp〔−β(H−α)〕} ・・・(式3)   I = Gmax / {1 + exp [−β (H−α)]} (Equation 3)

シグモイド関数はH=αの付近で線形性が良い。そこで、閾値αの値を、エッジ情報を持つHの度数分布の最頻値、例えば80にする。   The sigmoid function has good linearity in the vicinity of H = α. Therefore, the threshold value α is set to the most frequent value of the frequency distribution of H having edge information, for example, 80.

画像変換部22は、上式(2)及び(3)に基づいて、画素値G(i,j)の画像を画素値I(i,j)の空間的差分フレーム画像に変換し、これを画像メモリ21に格納する。   Based on the above equations (2) and (3), the image conversion unit 22 converts the image having the pixel value G (i, j) into a spatial difference frame image having the pixel value I (i, j). Store in the image memory 21.

背景画像生成部24、ID生成/消滅部25及び移動物体追跡部27は、画像メモリ21中の空間的差分フレーム画像に基づいて処理を行う。以下においては、空間的差分フレーム画像を単にフレーム画像と称す。   The background image generation unit 24, the ID generation / annihilation unit 25, and the moving object tracking unit 27 perform processing based on the spatial difference frame image in the image memory 21. Hereinafter, the spatial difference frame image is simply referred to as a frame image.

背景画像生成部24は、記憶部と処理部とを備え、処理部は、画像メモリ21をアクセスし、例えば過去10分間の全てのフレーム画像の対応する画素について画素値のヒストグラムを作成し、その最頻値(モード)をその画素の画素値とする画像を、移動物体が存在しない背景画像として生成し、これを該記憶部に格納する。背景画像は、この処理が定期的に行われて更新される。   The background image generation unit 24 includes a storage unit and a processing unit. The processing unit accesses the image memory 21 and creates a histogram of pixel values for pixels corresponding to all frame images for the past 10 minutes, for example. An image having the mode value (mode) as the pixel value of the pixel is generated as a background image in which no moving object exists, and is stored in the storage unit. The background image is updated by performing this process periodically.

ID生成/消滅部25には、図3に示す如くフレーム画像内の、交差点への4つの入口及び交差点からの4つの出口にそれぞれ配置されるスリットEN1〜EN4及びEX1〜EX4の位置及びサイズのデータが予め設定されている。ID生成/消滅部25は、画像メモリ21から入口スリットEN1〜EN4内の画像データを読み込み、これら入口スリット内に移動物体が存在するかどうかをブロック単位で判定する。図3中のメッシュの升目はブロックであり、1ブロックは例えば8×8画素であり、1フレームが480×640画素の場合、1フレームは60×80ブロックに分割される。あるブロックに移動物体が存在するかどうかは、このブロック内の各画素と背景画像の対応する画素との差の絶対値の総和が所定値以上であるかどうかにより判定する。この判定は、移動物体追跡部27においても行われる。   As shown in FIG. 3, the ID generation / annihilation unit 25 has positions and sizes of slits EN1 to EN4 and EX1 to EX4 arranged at four entrances to the intersection and four exits from the intersection, respectively, in the frame image. Data is preset. The ID generation / annihilation unit 25 reads the image data in the entrance slits EN1 to EN4 from the image memory 21, and determines in block units whether or not a moving object exists in these entrance slits. The meshes in FIG. 3 are blocks, and one block is, for example, 8 × 8 pixels. When one frame is 480 × 640 pixels, one frame is divided into 60 × 80 blocks. Whether there is a moving object in a certain block is determined by whether the sum of absolute values of differences between the pixels in the block and the corresponding pixels in the background image is equal to or greater than a predetermined value. This determination is also performed in the moving object tracking unit 27.

ID生成/消滅部25は、ブロック内に移動物体が存在すると判定すると、このブロックに新たなオブジェクト識別符号(ID)を付与する。ID生成/消滅部25は、ID付与済ブロックと隣接しているブロックに移動物体が存在すると判定すると、この隣接ブロックに付与済ブロックと同一のIDを付与する。このID付与済ブロックは入口スリットに隣接しているブロックも含まれる。例えば図3中の入口スリットEN1内のブロックにはID=1が付与される。   If the ID generation / annihilation unit 25 determines that there is a moving object in the block, the ID generation / annihilation unit 25 assigns a new object identification code (ID) to the block. If the ID generation / annihilation unit 25 determines that a moving object is present in a block adjacent to the ID-assigned block, the ID generation / annihilation unit 25 assigns the same ID as the assigned block to this adjacent block. This ID-added block includes a block adjacent to the entrance slit. For example, ID = 1 is assigned to the block in the entrance slit EN1 in FIG.

IDの付与は、オブジェクトマップ記憶部26内の対応するブロックに対して行われる。オブジェクトマップ記憶部26は、上述の場合60×80ブロックのオブジェクトマップを記憶するためのものであり、各ブロックには、IDが付与されているかどうかのフラグ、IDが付与されている場合にはその番号と後述のブロック動きベクトルとがブロック情報として付与される。なお、該フラグを用いずに、ID=0のときIDが付与されていないと判定してもよい。また、IDの最上位ビットをフラグとしてもよい。   The ID is assigned to the corresponding block in the object map storage unit 26. The object map storage unit 26 is for storing an object map of 60 × 80 blocks in the above-described case, and each block has a flag indicating whether or not an ID is assigned. The number and a block motion vector described later are given as block information. Instead of using the flag, it may be determined that no ID is assigned when ID = 0. The most significant bit of the ID may be used as a flag.

入口スリットを通過したクラスタに対しては、移動物体追跡部27により、移動方向のブロックに対するIDの付与及び移動と反対方向のブロックに対するIDの消滅、すなわちクラスタの追跡処理が行われる。移動物体追跡部27による追跡処理は、各クラスタについて出口スリット内まで行われる。   For the cluster that has passed through the entrance slit, the moving object tracking unit 27 assigns an ID to the block in the moving direction and extinguishes the ID of the block in the direction opposite to the movement, that is, a cluster tracking process. The tracking processing by the moving object tracking unit 27 is performed up to the inside of the exit slit for each cluster.

ID生成/消滅部25はさらに、オブジェクトマップ記憶部26の内容に基づき出口スリットEX1〜EX4内のブロックにIDが付与されているかどうかを調べ、付与されていれば、出口スリットをクラスタが通過したときにそのIDを消滅させる。例えば図3中の出口スリットEX1内のブロックにID=3が付されている状態から、IDが付されない状態に変化したときに、ID=3を消滅させる。消滅IDは、次の生成IDとして用いることができる。   The ID generation / annihilation unit 25 further checks whether an ID is assigned to the blocks in the exit slits EX1 to EX4 based on the contents of the object map storage unit 26, and if so, the cluster has passed through the exit slit. Sometimes the ID disappears. For example, when the block in the exit slit EX1 in FIG. 3 changes from a state where ID = 3 is assigned to a block where no ID is assigned, ID = 3 is extinguished. The disappearance ID can be used as the next generation ID.

移動物体追跡部27は、オブジェクトマップ記憶部26に格納されている時刻(t−1)のオブジェクトマップと、画像メモリ21に格納されている時刻(t−1)及びtのフレーム画像とに基づいて、時刻tのオブジェクトマップをオブジェクトマップ記憶部26内に作成する。以下、これを説明する。   The moving object tracking unit 27 is based on the object map at time (t−1) stored in the object map storage unit 26 and the frame image at time (t−1) and t stored in the image memory 21. Thus, an object map at time t is created in the object map storage unit 26. This will be described below.

図4〜図7はいずれも、時刻t−1とtの画像を模式的に示す。図4、図6及び図7中の点線はブロックの境界線であり、図5中の点線は画素の境界線である。   4 to 7 schematically show images at times t-1 and t. The dotted lines in FIGS. 4, 6 and 7 are block boundaries, and the dotted lines in FIG. 5 are pixel boundaries.

第i行第j列のブロックをB(i,j)、時刻tでの第i行第j列のブロックをB(t:i,j)と表記する。ブロックB(t−1:1,4)の動きベクトルがMVであるとする。ブロックB(t−1:1,4)をMV移動させた領域に最も対応する、時刻tのブロックを見つける。図4(B)の場合、このブロックはB(t:1,5)である。図5に示すように、ブロックB(t:1,5)の画像と、時刻t−1のブロックサイズの領域AXの画像との相関度を、所定範囲AM内で領域AXを1画素移動させる毎に求める(ブロックマッチング)。   The block in the i-th row and the j-th column is denoted as B (i, j), and the block in the i-th row and the j-th column at the time t is denoted as B (t: i, j). It is assumed that the motion vector of the block B (t−1: 1, 4) is MV. Find the block at time t that most corresponds to the area where block B (t−1: 1, 4) has been moved by MV. In the case of FIG. 4B, this block is B (t: 1, 5). As shown in FIG. 5, the correlation between the image of the block B (t: 1, 5) and the image of the block size area AX at time t−1 is moved by one pixel within the predetermined range AM. Calculate every block (block matching).

範囲AMはブロックよりも大きく、その一辺は例えばブロックの一辺の画素数の1.5倍である。範囲AMの中心は、ブロックB(t:1,5)の中心を略−MV移動させた位置にある画素である。   The range AM is larger than the block, and one side thereof is, for example, 1.5 times the number of pixels on one side of the block. The center of the range AM is a pixel at a position obtained by moving the center of the block B (t: 1, 5) by approximately −MV.

相関度は、例えば時空的テクスチャ相関度であり、ブロックB(t:1,5)と領域AXの対応する画素値の差の絶対値の総和である評価値UDが小さいほど、大きいとする。   The correlation degree is, for example, a spatio-temporal texture correlation degree, and it is assumed that the smaller the evaluation value UD, which is the sum of absolute values of the difference between corresponding pixel values in the block B (t: 1, 5) and the region AX, is larger.

範囲AM内で相関度が最大になる領域AXを求め、この領域の中心を始点としブロックB(1,5)の中心を終点とするベクトルを、ブロックB(t:1,5)の動きベクトルと決定する。また、相関度が最大になる領域AXに最も近い、時刻t−1のブロックのIDを、ブロックB(t:1,5)のIDと決定する。   An area AX having the maximum degree of correlation within the range AM is obtained, and a vector starting from the center of this area and ending at the center of the block B (1, 5) is defined as a motion vector of the block B (t: 1, 5). And decide. Further, the ID of the block at time t−1 that is closest to the region AX where the degree of correlation is maximum is determined as the ID of the block B (t: 1, 5).

移動物体追跡部27は、隣り合うブロックの動きベクトルの差の絶対値が所定値以下のブロックに同一のIDを付与する。これにより、1つのクラスタであっても、互いに異なるIDをもつ複数のオブジェクト(移動物体)に分割される。図6では、オブジェクト間の境界を太線で示している。   The moving object tracking unit 27 assigns the same ID to blocks whose absolute value of the difference between the motion vectors of adjacent blocks is a predetermined value or less. Thereby, even one cluster is divided into a plurality of objects (moving objects) having different IDs. In FIG. 6, the boundary between objects is indicated by a bold line.

オブジェクトマップ上には移動物体の画像が存在しないが、図6では理解を容易にするためにオブジェクトマップ上に移動物体が模式的に描かれている。図7は、オブジェクトマップにオブジェクトの境界を太線で示したものであり、図6に対応している。   Although an image of a moving object does not exist on the object map, in FIG. 6, the moving object is schematically drawn on the object map for easy understanding. FIG. 7 shows the boundary of an object in the object map with a thick line, and corresponds to FIG.

例えば図3の入口スリットEN1で1つのクラスタが検出され、複数のオブジェクトに分割されず、その後、時刻t1に上記のようにして複数のオブジェクトに分割された場合、時刻t1から時間を遡って、時間が正方向の場合と同様にオブジェクトマップを求めることにより、時刻t1よりも前のオブジェクトマップに対し、複数のオブジェクトに分割する。これにより、分割できなかったオブジェクトを分割して認識することができ、個々のオブジェクトを追跡することができる。   For example, when one cluster is detected at the entrance slit EN1 of FIG. 3 and is not divided into a plurality of objects, and then divided into a plurality of objects as described above at time t1, the time goes back from time t1, By obtaining the object map in the same way as when the time is in the positive direction, the object map before time t1 is divided into a plurality of objects. Thereby, an object that could not be divided can be divided and recognized, and individual objects can be tracked.

特許文献1では、1つのクラスタが複数のクラスタに分離してから時間を遡って個々のオブジェクトを追跡していたが、本実施形態によれば、複数のクラスタに分離する前に、例えば図20のt=4より前のt=2から、時間を遡って個々のオブジェクトを追跡することができるので、画像メモリ21の記憶容量を低減でき、また、画像処理量を低減してCPUの負担を軽くすることができる。   In Patent Document 1, individual objects are traced back in time after one cluster is separated into a plurality of clusters. However, according to the present embodiment, before separation into a plurality of clusters, for example, FIG. Since t = 2 before t = 4, each object can be traced back in time, so that the storage capacity of the image memory 21 can be reduced, and the image processing amount can be reduced to reduce the burden on the CPU. Can be lightened.

上記説明では、クラスタ内のブロックの動きベクトルが求まる場合について説明したが、図9(A)に示すように、動きベクトルが求まらないブロックが存在する場合、その位置によっては該ブロックがどちらのオブジェクトに属するのか不明である。ある移動物体に属するブロック内の各画素の色がほぼ同一であった場合、上述のブロックマッチングにより動きベクトルを決定することができない。例えば、画像(空間的差分フレーム画像)を2値画像に変換し、ブロック内に‘1’の画素の数が所定値以下であれば、上記方法により動きベクトルを求めるのに適しないブロックと判定する。   In the above description, the case where the motion vector of the block in the cluster is obtained has been described. However, as shown in FIG. 9A, when there is a block for which the motion vector cannot be obtained, which block depends on the position. It is unknown whether it belongs to any object. When the color of each pixel in a block belonging to a certain moving object is almost the same, the motion vector cannot be determined by the block matching described above. For example, if an image (spatial difference frame image) is converted into a binary image, and the number of “1” pixels in the block is equal to or less than a predetermined value, the block is determined to be unsuitable for obtaining a motion vector by the above method. To do.

このようなブロックの動きベクトルを、図8に示す方法で推定する。   The motion vector of such a block is estimated by the method shown in FIG.

(S1)未定の動きベクトルが存在すればステップS2へ進み、そうでなければ未定動きベクトル推定処理を終了する。   (S1) If there is an undetermined motion vector, the process proceeds to step S2, and if not, the undetermined motion vector estimation process is terminated.

(S2)動きベクトルが未定のブロックB(i,j)の回りの8個のブロックのうち、決定されている動きベクトルMV1〜MVnを取り出す。   (S2) The determined motion vectors MV1 to MVn are extracted from the eight blocks around the block B (i, j) whose motion vector is undetermined.

(S3)ステップS2で決定済動きベクトルが存在すればステップS4へ進み、そうでなければステップS6へ進む。   (S3) If there is a motion vector determined in step S2, the process proceeds to step S4, and if not, the process proceeds to step S6.

(S4)動きベクトルMV1〜MVnを、ベクトル間の差の絶対値が所定値以内のグループに分ける。   (S4) The motion vectors MV1 to MVn are divided into groups in which the absolute value of the difference between the vectors is within a predetermined value.

(S5))動きベクトル数が最大のグループの動きベクトルの平均値を、ブロックB(i,j)の動きベクトルと推定する。動きベクトル数が最大のグループが複数存在する場合、任意の1つのグループの動きベクトルの平均値を、ブロックB(i,j)の動きベクトルと推定する。次にステップS1へ戻る。   (S5)) The average value of the motion vectors of the group having the largest number of motion vectors is estimated as the motion vector of the block B (i, j). When there are a plurality of groups having the largest number of motion vectors, the average value of the motion vectors of any one group is estimated as the motion vector of the block B (i, j). Next, the process returns to step S1.

なお、同一グループの動きベクトルは互いに略等しいので、該同一グループの動きベクトルの任意の1つをブロックB(i,j)の動きベクトルと推定してもよい。   Since the motion vectors of the same group are substantially equal to each other, any one of the motion vectors of the same group may be estimated as the motion vector of the block B (i, j).

(S6)ステップS5で推定された動きベクトルを、決定された動きベクトルとみなし、ステップS1へ戻る。   (S6) The motion vector estimated in step S5 is regarded as the determined motion vector, and the process returns to step S1.

このような処理により、未定動きベクトルを一意的に推定することができる。   By such processing, the undetermined motion vector can be estimated uniquely.

次に具体例を説明する。図9(A)において、第i行第j列のブロックB(i,j)の動きベクトルをMV(i,j)と表記する。図9(A)では、ブロックB(2,2)、B(2,4)及びB(3,3)の動きベクトルが未定である。   Next, a specific example will be described. In FIG. 9A, the motion vector of the block B (i, j) in the i-th row and j-th column is denoted as MV (i, j). In FIG. 9A, the motion vectors of the blocks B (2,2), B (2,4) and B (3,3) are undetermined.

ブロックB(2,2)の回りのブロックの動きベクトルは、MV(2,1)、MV(3,1)、MV(3,2)及びMV(2,3)のグループと、MV(1,2)及びMV(1,3)のグループに分けられるので、前者のグループを選択し、
MV(2,2)=(MV(2,1)+MV(3,1)+MV(3,2)+MV(2,3))/4
と推定する。
The motion vectors of the blocks around the block B (2, 2) are the group of MV (2, 1), MV (3, 1), MV (3, 2) and MV (2, 3), and MV (1 , 2) and MV (1, 3), so select the former group,
MV (2,2) = (MV (2,1) + MV (3,1) + MV (3,2) + MV (2,3)) / 4
Estimated.

ブロックB(2,4)の回りのブロックの動きベクトルは、MV(2,3)、MV(3,4)及びMV(3,5)のグループと、MV(1,3)、MV(1,4)、MV(1,5)及びMV(2,5)のグループに分けられるので、後者のグループを選択し、
MV(2,4)=(MV(1,3)+MV(1,4)+MV(1,5)+MV(2,5))/4
と推定する。
The motion vectors of the blocks around the block B (2, 4) are a group of MV (2, 3), MV (3, 4) and MV (3, 5), and MV (1, 3), MV (1 4), MV (1,5) and MV (2,5), so select the latter group,
MV (2,4) = (MV (1,3) + MV (1,4) + MV (1,5) + MV (2,5)) / 4
Estimated.

ブロックB(3,3)の回りのブロックの動きベクトルは、MV(2,3)、MV(3,2)、MV(4,2)、MV(4,4)及びMV(3,4)の1グループであるので、
MV(3,3)=(MV(2,3)+MV(3,2)+MV(4,2)+MV(4,4)+MV(3,4))/5
と推定する。
The block motion vectors around block B (3, 3) are MV (2, 3), MV (3, 2), MV (4, 2), MV (4, 4) and MV (3,4). Because it is one group of
MV (3,3) = (MV (2,3) + MV (3,2) + MV (4,2) + MV (4,4) + MV (3,4))) / 5
Estimated.

このようにして、図9(B)に示すようなオブジェクトマップが生成される。図9(B)では、オブジェクトの境界を太線で示している。   In this way, an object map as shown in FIG. 9B is generated. In FIG. 9B, the boundary of the object is indicated by a bold line.

図10(A)のように未定動きベクトルの数が多い場合であっても、ステップS3で否定判定されるまで、ステップS1〜S5を繰り返すと、一意的に動きベクトルが推定されて図10(B)のようになる。次に、ステップS6で推定動きベクトルを、決定された動きベクトルとみなして、再度ステップS1〜S5を実行することにより、ブロックB(3,4)の動きベクトルが一意的に推定されて、図10(C)のようになる。次に、隣り合うブロックの動きベクトルの差の絶対値が所定値以下のブロックに同一のIDを付与することにより、1つのクラスタが、互いに異なるIDをもつ複数のオブジェクトに分割される。   Even when the number of undetermined motion vectors is large as shown in FIG. 10A, when steps S1 to S5 are repeated until a negative determination is made in step S3, motion vectors are uniquely estimated and FIG. B). Next, in step S6, the estimated motion vector is regarded as the determined motion vector, and by executing steps S1 to S5 again, the motion vector of the block B (3,4) is uniquely estimated. 10 (C). Next, by assigning the same ID to blocks whose absolute values of motion vector differences between adjacent blocks are equal to or less than a predetermined value, one cluster is divided into a plurality of objects having different IDs.

なお、移動物体追跡部27は、オブジェクトマップ記憶部26に格納されているオブジェクトマップの時系列を、追跡結果として不図示のハードディスクに格納する。   The moving object tracking unit 27 stores the time series of the object map stored in the object map storage unit 26 in a hard disk (not shown) as a tracking result.

上述したような処理により、オブジェクトマップ記憶部26には、時系列画像の各画像が複数のブロックに分割され、当該画像中の移動物体を示す識別符号が移動物体に対応するブロックに付けられているとともに、ブロックに対応する移動物体の動きベクトルがブロックに付けられて記憶されている。   Through the processing described above, each image of the time-series image is divided into a plurality of blocks in the object map storage unit 26, and an identification code indicating the moving object in the image is attached to the block corresponding to the moving object. In addition, the motion vector of the moving object corresponding to the block is attached to the block and stored.

そして移動物体追跡部27は、上述したように時系列画像を画像処理した結果に基づいて、オブジェクトマップ記憶部26に記憶されているブロックの識別符号と動きベクトルとを更新する。具体的には、移動物体追跡部27は、次の(1)から(4)の手順により、オブジェクトマップ記憶部26に記憶されているブロックの識別符号と動きベクトルとを更新する。   Then, the moving object tracking unit 27 updates the block identification code and the motion vector stored in the object map storage unit 26 based on the result of image processing of the time-series image as described above. Specifically, the moving object tracking unit 27 updates the block identification code and the motion vector stored in the object map storage unit 26 according to the following procedures (1) to (4).

(1)時系列画像のうち連続するN画像(N≧2)の各々について、隣り合うブロックの動きベクトルの差の絶対値が所定値以内のブロックに同一の識別符号を付けることにより、画像上で互いに重なった移動物体に互いに異なる識別符号を付ける識別符号手順。 (1) For each of consecutive N images (N ≧ 2) of time-series images, by adding the same identification code to blocks whose absolute values of motion vector differences between adjacent blocks are within a predetermined value, An identification code procedure for attaching different identification codes to moving objects that overlap each other.

(2)N画像の各々において、第1識別符号が付けられたブロック群である第1オブジェクトと第2識別符号が付けられたブロック群である第2オブジェクトとが接し、かつ、N画像について時間的に隣り合う画像の第1オブジェクト間の相関度が所定値以上であるか否かを判定する判定手順。 (2) In each of the N images, a first object that is a block group to which a first identification code is attached is in contact with a second object that is a block group to which a second identification code is attached, and the time for the N image A determination procedure for determining whether or not the degree of correlation between first objects of adjacent images is equal to or greater than a predetermined value.

(3)判定手順で肯定と判定された後に、時間を遡って第1オブジェクトと第2オブジェクトとを追跡する追跡手順。 (3) A tracking procedure in which the first object and the second object are traced back in time after it is determined affirmative in the determination procedure.

(4)追跡手順により時間を遡って追跡された第1オブジェクトと第2オブジェクトとに基づいて、オブジェクトマップ記憶部26に記憶されているブロックの識別符号と動きベクトルとを更新する更新手順。 (4) An update procedure for updating the block identification code and the motion vector stored in the object map storage unit 26 based on the first object and the second object tracked back in time by the tracking procedure.

輪郭抽出部30は、時系列画像の画像から移動物体の輪郭を抽出する。また、この輪郭抽出部30は、オクルージョンが発生している複数の移動物体を一体の移動物体とし、時系列画像の画像から一体とした移動物体の輪郭を抽出する。   The contour extraction unit 30 extracts the contour of the moving object from the time-series image. The contour extracting unit 30 extracts a plurality of moving objects having occlusions as a single moving object, and extracts a contour of the moving object as a single unit from a time-series image.

この輪郭抽出部30は、対象領域設定部301と、対象領域補正部302と、輪郭抽出処理部303とを、有している。   The contour extraction unit 30 includes a target region setting unit 301, a target region correction unit 302, and a contour extraction processing unit 303.

対象領域設定部301は、オブジェクトマップ記憶部26に記憶されている移動物体のブロックに対応する画像領域に基づいて、移動物体の輪郭を抽出する対象領域を設定する。   The target area setting unit 301 sets a target area for extracting the contour of the moving object based on the image area corresponding to the block of the moving object stored in the object map storage unit 26.

輪郭抽出処理部303は、対象領域設定部301が設定した対象領域に対して、時系列画像の画像から移動物体の輪郭を抽出する。   The contour extraction processing unit 303 extracts the contour of the moving object from the time-series image for the target region set by the target region setting unit 301.

対象領域補正部302は、時系列画像の画像をエッジ抽出処理した画像に対して、対象領域設定部301が設定した対象領域内でエッジに対応する画素数の個数についてのヒストグラムを座標軸毎に射影して生成し、当該座標軸毎に生成したヒストグラムに基づいて対象領域設定部301が設定した対象領域を座標軸毎に補正する。   The target area correction unit 302 projects, for each coordinate axis, a histogram of the number of pixels corresponding to the edges in the target area set by the target area setting unit 301 with respect to an image obtained by performing edge extraction processing on a time-series image. The target area set by the target area setting unit 301 is corrected for each coordinate axis based on the histogram generated for each coordinate axis.

そして上述した輪郭抽出処理部303は、対象領域補正部302が補正した対象領域に対して、時系列画像の画像から移動物体の輪郭を抽出してもよい。   The contour extraction processing unit 303 described above may extract the contour of the moving object from the time-series image for the target region corrected by the target region correction unit 302.

補正部31は、輪郭抽出部30の輪郭抽出処理部303が抽出した輪郭に基づいて、オブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正する。   The correction unit 31 corrects the block identification code and the motion vector stored in the object map storage unit 26 based on the contour extracted by the contour extraction processing unit 303 of the contour extraction unit 30.

また、この補正部31は、オブジェクトマップ記憶部26に記憶されているオクルージョンが発生している複数の移動物体に対応する識別符号に基づいた当該複数の移動物体の境界を示す情報と、輪郭抽出部30によりオクルージョンが発生している複数の移動物体を一体とした抽出された移動物体の輪郭とに基づいて、オブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正する。   In addition, the correction unit 31 includes information indicating boundaries of the plurality of moving objects based on identification codes corresponding to the plurality of moving objects in which occlusion occurs and stored in the object map storage unit 26, and contour extraction The block identification code and the motion vector stored in the object map storage unit 26 are corrected based on the extracted outline of the moving object obtained by integrating the plurality of moving objects in which occlusion has occurred.

判定部32は、背景画像が変動しているか否かを判定する。たとえば判定部32は、カメラ10がパンニングまたはズーミングされたことを示す信号がカメラ10から入力され、この信号に基づいて、背景画像が変動しているか否かを判定する。   The determination unit 32 determines whether or not the background image is changing. For example, the determination unit 32 receives a signal indicating that the camera 10 has been panned or zoomed from the camera 10, and determines whether or not the background image has changed based on this signal.

または判定部32は、背景画像生成部24が生成した背景画像と、カメラ10から入力される画像とを比較して、背景画像が変動しているか否かを判定してもよい。または、背景となる領域に予めマーカが埋め込まれており、判定部32は、カメラ10から入力される画像に含まれているマーカの画像における位置の変動を検出することにより、背景画像が変動しているか否かを判定してもよい。   Alternatively, the determination unit 32 may compare the background image generated by the background image generation unit 24 with the image input from the camera 10 and determine whether or not the background image has changed. Alternatively, a marker is embedded in the background region in advance, and the determination unit 32 detects a change in the position of the marker image included in the image input from the camera 10, thereby changing the background image. It may be determined whether or not.

制御部34(第1の制御部)は、判定部32が背景画像が変動していると判定した場合に、たとえば予め定められている所定期間毎にまたは所定フレーム毎に、輪郭抽出部30を制御して輪郭を抽出させ、補正部31を制御してオブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正させる。   When the determination unit 32 determines that the background image is fluctuating, the control unit 34 (first control unit) controls the contour extraction unit 30 for example every predetermined period or every predetermined frame. The contour is extracted by control, and the correction unit 31 is controlled to correct the block identification code and the motion vector stored in the object map storage unit 26.

移動物体変動量検出部33については、後述する。   The moving object fluctuation amount detection unit 33 will be described later.

<背景ブロック>
上記の説明においては、ブロック単位で背景画像と比較することにより、オブジェクトが存在するかどうかを調べているので、背景画像を特別扱いしなければならない。また、例えば過去10分間の撮影画像に基づいて背景画像を生成しているので、カメラが揺れた場合には、この揺れを背景画像に反映させることができない。
<Background block>
In the above description, whether or not an object exists is examined by comparing it with the background image in units of blocks, so the background image must be treated specially. Further, for example, since the background image is generated based on the photographed images for the past 10 minutes, when the camera shakes, this shake cannot be reflected in the background image.

そこで、背景画像もオブジェクトとみなしてオブジェクトマップを作成してもよい。オブジェクトマップ生成方法は、背景画像と比較してブロックに移動物体が存在するかどうかを判定する点のみが異なる。背景画像もオブジェクトとみなすので、全てのブロックについて、ブロックマッチングを行うことによりIDを付与しMVを決定する。   Therefore, the object map may be created by regarding the background image as an object. The object map generation method is different from the background image only in determining whether or not a moving object exists in the block. Since the background image is also regarded as an object, block matching is performed on all the blocks to assign IDs and determine MVs.

なお、この背景画像には、背景画像に対して予め定められているIDを付与するようにしてもよい。この予め定められているIDにより背景画像と、移動物体とが識別しやすくなる。   The background image may be given a predetermined ID for the background image. The background ID and the moving object can be easily identified by this predetermined ID.

このように、背景画像を1つのブロックとして、背景画像に対してIDを付与するようにしても、背景画像と移動物体との間で図4から図7に示したようにブロックの属する画像を判定することが可能である。   As described above, even if the background image is set as one block and an ID is given to the background image, the image to which the block belongs is displayed between the background image and the moving object as shown in FIGS. It is possible to determine.

このように、背景画像を1つのブロックとすることにより、カメラがパンニングまたはズーミングされたことに応じて背景画像が変動する場合においても、背景画像が固定されていた場合と同様に処理できるようになる。   In this way, by making the background image into one block, even when the background image fluctuates according to the panning or zooming of the camera, it can be processed in the same manner as when the background image is fixed. Become.

<移動物体追跡装置20に動作>
次に図11と図12とを用いて、移動物体追跡装置20の動作ついて説明する。まず図11を用いて、移動物体追跡装置20に動作モードについて説明する。
<Operation on Moving Object Tracking Device 20>
Next, the operation of the moving object tracking device 20 will be described with reference to FIGS. 11 and 12. First, the operation mode of the moving object tracking device 20 will be described with reference to FIG.

まず、移動物体追跡装置20は、カメラ固定モードの状態にあるとする。このカメラ固定モードにおいては、背景画像はオブジェクトとしてのIDが付与されることなしに、背景画像生成部24により生成されている画像を背景画像として用いている。これはカメラが固定されているため、背景画像に変動がないためである。   First, it is assumed that the moving object tracking device 20 is in the camera fixing mode. In this camera fixing mode, an image generated by the background image generation unit 24 is used as a background image without being given an ID as an object. This is because the camera is fixed and the background image does not change.

このカメラ固定モードの状態にある場合には、背景画像が固定されているために、移動物体追跡部27により移動物体を識別されている。   In the camera fixing mode, the moving object tracking unit 27 identifies the moving object because the background image is fixed.

次にカメラがパンニングまたはズーミングされたことに応じて、判定部32が、背景画像が変動していることを判定する。この判定に応じて制御部34が、カメラ固定モードから、カメラ変動モードに遷移させるとともに(ステップS1)、背景画像をオブジェクトに登録してIDを付与する。   Next, in response to the panning or zooming of the camera, the determination unit 32 determines that the background image has changed. In response to this determination, the control unit 34 shifts from the camera fixing mode to the camera variation mode (step S1), registers the background image in the object, and assigns an ID.

カメラ変動モードにおいて、予め定められている所定期間毎にまたは所定フレーム毎に、制御部34は、補正モードに遷移させる(ステップS2)。この補正モードにおいて、制御部34は、輪郭抽出部30を制御して輪郭を抽出させ、補正部31を制御してオブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正させる。   In the camera variation mode, the control unit 34 makes a transition to the correction mode every predetermined period or every predetermined frame (step S2). In this correction mode, the control unit 34 controls the contour extraction unit 30 to extract a contour, and controls the correction unit 31 to correct the block identification code and motion vector stored in the object map storage unit 26. .

制御部34は、補正モードにおいて補正が完了すると、補正モードからカメラ変動モードに遷移させる(ステップS3)。   When the correction is completed in the correction mode, the control unit 34 transitions from the correction mode to the camera fluctuation mode (step S3).

その後、カメラ10が変動している期間においては、制御部34は、カメラ変動モードと補正モードとを交互に遷移させる。   Thereafter, during a period in which the camera 10 is changing, the control unit 34 alternately changes between the camera change mode and the correction mode.

その後、カメラ10の変動が停止したことを判定部32が判定したことに応じて、制御部34は、背景画像に付与されているIDを削除し、背景画像生成部24により生成されている画像を背景画像として用いる。   Thereafter, in response to the determination unit 32 determining that the fluctuation of the camera 10 has stopped, the control unit 34 deletes the ID assigned to the background image, and the image generated by the background image generation unit 24. Is used as a background image.

なお、背景画像生成部24により背景画像が生成されるには、たとえば10分などの所定の期間を要する。そのため、背景画像生成部24により背景画像が生成されるまでは、背景画像をオブジェクトとして用いることが望ましい。   In addition, for the background image generation unit 24 to generate the background image, a predetermined period such as 10 minutes is required. Therefore, it is desirable to use the background image as an object until the background image is generated by the background image generation unit 24.

次に図12を用いて、図11の補正モードにおいて、制御部34が、輪郭抽出部30を制御して輪郭を抽出させ、補正部31を制御してオブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正させる動作について説明する。   Next, referring to FIG. 12, in the correction mode of FIG. 11, the control unit 34 controls the contour extraction unit 30 to extract a contour, controls the correction unit 31, and is stored in the object map storage unit 26. An operation for correcting the block identification code and the motion vector will be described.

まず、オクルージョン検出部35が、オブジェクトマップ記憶部26に記憶されているオブジェクトマップに基づいて、オクルージョンの発生の有無を判定する(ステップS1201)。   First, the occlusion detection unit 35 determines whether or not occlusion has occurred based on the object map stored in the object map storage unit 26 (step S1201).

このステップS1201でオクルージョンの発生が無いと判定された場合には、対象領域設定部301が、オクルージョンが無い移動物体に対して対象領域を設定する(ステップS1202)。   If it is determined in step S1201 that no occlusion has occurred, the target area setting unit 301 sets a target area for a moving object without occlusion (step S1202).

次に、対象領域補正部302が、上述したヒストグラムを生成し、生成したヒストグラムに基づいて対象領域設定部301が設定した対象領域を座標軸毎に補正する(ステップS1203)。   Next, the target region correction unit 302 generates the above-described histogram, and corrects the target region set by the target region setting unit 301 for each coordinate axis based on the generated histogram (step S1203).

次に輪郭抽出処理部303は、対象領域補正部302が補正した対象領域に対して、時系列画像の画像から移動物体の輪郭を抽出する(ステップS1204)。   Next, the contour extraction processing unit 303 extracts the contour of the moving object from the time-series image for the target region corrected by the target region correction unit 302 (step S1204).

次に補正部31は、輪郭抽出部30が抽出した輪郭に基づいて、オブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正する(ステップS1205)。   Next, the correction unit 31 corrects the block identification code and the motion vector stored in the object map storage unit 26 based on the contour extracted by the contour extraction unit 30 (step S1205).

一方ステップS1201でオクルージョンの発生があると判定された場合には、輪郭抽出部30の対象領域設定部301が、オクルージョンが発生している複数の移動物体を一体の移動物体とする(ステップS1212)。   On the other hand, if it is determined in step S1201 that occlusion has occurred, the target area setting unit 301 of the contour extraction unit 30 sets a plurality of moving objects in which occlusion has occurred as an integrated moving object (step S1212). .

次に対象領域設定部301が、一体とした移動物体に対して対象領域を設定する(ステップS1213)。   Next, the target area setting unit 301 sets a target area for an integrated moving object (step S1213).

次に、対象領域補正部302が、一体とした移動物体に対して上述したヒストグラムを生成し、生成したヒストグラムに基づいて対象領域設定部301が設定した対象領域を座標軸毎に補正する(ステップS1214)。   Next, the target area correction unit 302 generates the above-described histogram for the moving object integrated, and corrects the target area set by the target area setting unit 301 for each coordinate axis based on the generated histogram (step S1214). ).

次に輪郭抽出処理部303は、対象領域補正部302が補正した対象領域に対して、時系列画像の画像から、一体とした移動物体移動物体の輪郭を抽出する(ステップS1215)。   Next, the contour extraction processing unit 303 extracts the contour of the moving object integrated with the target region corrected by the target region correction unit 302 from the image of the time-series image (step S1215).

次に補正部31は、図4から図7を用いて説明したようにして検出されているオクルージョンが生じている移動物体の境界と、輪郭抽出部30が抽出した輪郭とに基づいて、オブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正する(ステップS1216)。   Next, the correction unit 31 performs an object map based on the boundary of the moving object where the occlusion detected as described with reference to FIGS. 4 to 7 and the contour extracted by the contour extraction unit 30 are performed. The block identification code and the motion vector stored in the storage unit 26 are corrected (step S1216).

上記に説明した処理が、オブジェクトマップ記憶部26に記憶されている全ての移動物体に対して終了した後、制御部34は、補正モードからカメラ変動モードへと遷移させる。   After the processing described above is completed for all moving objects stored in the object map storage unit 26, the control unit 34 transitions from the correction mode to the camera variation mode.

以上図11と図12とを用いて説明したようにして、移動物体追跡装置20は、カメラが固定している場合でも変動している場合でも、移動物体を追跡することができる。なおカメラ固定モードでは背景画像をオブジェクトに登録していないことにより、図4から図7に示すような処理を背景画像のオブジェクトに対して実行する必要がないために、移動物体追跡装置20における処理量または負荷を軽減することができる。   As described above with reference to FIGS. 11 and 12, the moving object tracking device 20 can track a moving object regardless of whether the camera is fixed or fluctuating. In the camera fixed mode, since the background image is not registered in the object, it is not necessary to execute the processes shown in FIGS. 4 to 7 on the object of the background image. The amount or load can be reduced.

以降、オブジェクトマップ記憶部26に記憶されているブロック毎の識別符号および動きベクトルを、「時空間MRF(Markov Random Field)」と称して説明する。次に、上記図12を用いて説明した動作とその結果について、図13から図19を用いて具体的に説明する。   Hereinafter, the identification code and motion vector for each block stored in the object map storage unit 26 will be referred to as “space-time MRF (Markov Random Field)”. Next, the operation and the result described with reference to FIG. 12 will be specifically described with reference to FIGS.

<Snakes>
まず、輪郭抽出部30による画像から移動物体の輪郭を抽出について説明する。輪郭抽出部30の構成のうち、まず、輪郭抽出処理部303による移動物体の輪郭を抽出する一例としての技術について詳述する。ここでは、輪郭を抽出する技術としてSnakes(文献1参照)を用いる場合について説明する。
<Snakes>
First, extraction of the contour of the moving object from the image by the contour extraction unit 30 will be described. Of the configuration of the contour extraction unit 30, first, a technique as an example of extracting the contour of a moving object by the contour extraction processing unit 303 will be described in detail. Here, the case where Snakes (refer literature 1) is used as a technique which extracts an outline is demonstrated.

(文献1)Kass et.al “Snakes: Active contour models”, Proc. of 1st ICCV, pp.259-268, 1987 (Reference 1) Kass et.al “Snakes: Active contour models”, Proc. Of 1st ICCV, pp.259-268, 1987

最初に、このSnakesの概要について説明する。一般にSnakesは、画像平面(x, y)上で媒介変数表現されたスプライン(制御点の集合)v(s)=(x(s)、y(s))(0≦s≦1)を、次式(4)で定義されるエネルギー関数を最小化するように変形し、エネルギーの極小状態としてその形状が決まる輪郭抽出のモデルである。   First, an outline of the Snakes will be described. In general, Snakes expresses a spline (set of control points) v (s) = (x (s), y (s)) (0 ≦ s ≦ 1) expressed as a parameter on the image plane (x, y), This is a contour extraction model that is deformed so as to minimize the energy function defined by the following equation (4) and whose shape is determined as a minimum state of energy.

Figure 2010244207
Figure 2010244207

この式(4)の第一項Eintは、内部エネルギーと呼ばれ、これにより、Snakesのスプラインが凸型に滑らかに収縮する性質をもつ。理論上の定義は次式(5)で表され、式(5)における第一項によりスプラインが凸型に滑らかになり、第二項によりスプラインが収縮する性質をもつ。   The first term Eint of the equation (4) is called internal energy, and has the property that the Snakes spline contracts smoothly into a convex shape. The theoretical definition is expressed by the following equation (5). The spline is smoothed by the first term in equation (5), and the spline is contracted by the second term.

Figure 2010244207
Figure 2010244207

次に、式(4)の第二項Eimageは画像エネルギーと呼ばれ、スプライン全体として、エッジ(輪郭などの輝度の勾配が大きい箇所)上に存在する割合が大きいほど、その値が小さくなるという性質をもつ。本エネルギーは画像の輝度I(v(s))により次式(6)で定義する。今回、照度によらず安定して輪郭エッジを抽出するために、これまで我々が開発してきた照度不変フィルタ画像を画像エネルギーとして用いた。   Next, the second term Eimage of Equation (4) is called image energy, and the larger the ratio of the spline as a whole on the edge (the portion where the luminance gradient such as the outline is large), the smaller the value. Has properties. This energy is defined by the following equation (6) according to the luminance I (v (s)) of the image. This time, in order to extract contour edges stably regardless of illuminance, we used the illuminance invariant filter image that we have developed so far as image energy.

Figure 2010244207
Figure 2010244207

ここで、照度不変フィルタ画像とは、画像変換部22により上述した式1から式3により変換された画像のことである。   Here, the illuminance invariant filter image is an image converted by the image conversion unit 22 according to Expressions 1 to 3 described above.

そして、式(4)の第三項Econは外部エネルギーと言われ、Snakesに外部から強制的に力を働かせる場合に用いる。このエネルギーは必要に応じて定義できる。今回は、内部エネルギーに用いられるEintの影響で抽出が困難であった凹形状の輪郭抽出用に提案された面積項(文献2参照)を外部エネルギーとして定義した。面積項Eareaは次式(7)で導出される(図13参照)。   The third term Econ in the formula (4) is called external energy, and is used when force is applied to Snakes from the outside. This energy can be defined as needed. This time, the area term proposed for extracting the contour of the concave shape, which was difficult to extract due to the influence of Eint used for internal energy (see Document 2), was defined as external energy. The area term Earea is derived by the following equation (7) (see FIG. 13).

Figure 2010244207
Figure 2010244207

(文献2)荒木昭一, 横矢直和, 岩佐英彦, 竹村治雄:“複数物体の抽出を目的とした交差判定により分裂する動的輪郭モデル”, 電子情報通信学会論文誌(D-II)Vol.J79-DII, No.10,pp1704-1711(Oct,1996) (Reference 2) Shoichi Araki, Naokazu Yokoya, Hidehiko Iwasa, Haruo Takemura: “A dynamic contour model that splits by intersection detection for the purpose of extracting multiple objects”, IEICE Transactions (D-II) Vol. J79-DII, No.10, pp1704-1711 (Oct, 1996)

図14にSnakes処理結果を示す。まず、輪郭を抽出したい対象の周囲に、初期制御点を配置する(図14(a))。次に、Snakesは収縮を始め(図14(b))、最後に輪郭線付近で収縮が止まる(図14(c))。   FIG. 14 shows the Snakes processing result. First, initial control points are arranged around the object whose contour is to be extracted (FIG. 14A). Next, Snakes starts to contract (FIG. 14B), and finally stops contracting near the contour line (FIG. 14C).

ここで、この図14に示す初期制御点が、対象領域設定部301が設定した対象領域に対応する。   Here, the initial control points shown in FIG. 14 correspond to the target area set by the target area setting unit 301.

<局所領域におけるエッジ分布の解析>
次に、局所領域におけるエッジ分布の解析について説明する。Snakesは,エネルギー関数Esnakesを最小化するようにスプラインを変形し,極小状態をもってその探索を終えるアルゴリズムである。背景エッジが多く含まれる場合に初期制御点を輪郭から離れた場所に配置すると、スプラインがオブジェクトの輪郭線に収束する前に背景エッジに捉われ、エネルギーが極小状態になり、オブジェクトの輪郭線抽出に失敗してしまうことがある。
<Analysis of edge distribution in local region>
Next, analysis of edge distribution in the local region will be described. Snakes is an algorithm that transforms a spline so as to minimize the energy function E_snakes and ends the search with a minimal state. If there are many background edges and the initial control points are placed away from the outline, the spline will be caught by the background edges before converging on the object outline, and the energy will be minimal, extracting the object outline May fail.

そのため、初期制御点をある程度オブジェクトの輪郭付近に配置しなければならない。一方、時空間MRFで得られる人物の局所領域は、パンニング中は背景オブジェクトと人物オブジェクトの境界が曖昧になることが時折見受けられる。   Therefore, the initial control points must be arranged to some extent near the contour of the object. On the other hand, in the local region of the person obtained by the spatio-temporal MRF, it is sometimes seen that the boundary between the background object and the person object becomes ambiguous during panning.

そこで、オブジェクトマップによって得られる人物オブジェクトの周辺矩形内におけるエッジ分布(照度不変フィルタ画像の2値分布)を解析し、人物領域を推定し、その周囲に初期制御点を配置することで、輪郭抽出の精度を向上する。エッジ分布の解析は、水平軸、鉛直軸にそれぞれ射影し、ヒストグラムを生成することで解析を行う(図15参照)。   Therefore, by analyzing the edge distribution (binary distribution of the illuminance invariant filter image) in the surrounding rectangle of the human object obtained by the object map, estimating the human area and placing the initial control points around it, the contour extraction Improve accuracy. The analysis of the edge distribution is performed by projecting onto the horizontal axis and the vertical axis and generating a histogram (see FIG. 15).

次に、一例としてのエッジ分布解析の手順について説明する。エッジ分布解析は、次のSTEP1からSTEP3の手順により実行される。   Next, an example of an edge distribution analysis procedure will be described. The edge distribution analysis is executed by the following steps STEP1 to STEP3.

(STEP1:エッジ分布の前処理)
エッジ画像をラベリングし、面積の小さいものをノイズとして除外する。
(STEP 1: Preprocessing of edge distribution)
The edge image is labeled, and a small area is excluded as noise.

(STEP2:水平軸ヒストグラム解析)
STEP1で得られたエッジ分布から水平軸ヒストグラムを生成する。人物は縦に連続する長いエッジを持つことから、縦方向の連続性の弱いエッジを除去した後、一度水平軸に正射影し、縦方向の強い分布から人物の水平領域を絞る。
(STEP 2: Horizontal axis histogram analysis)
A horizontal axis histogram is generated from the edge distribution obtained in STEP 1. Since a person has long continuous edges, after removing edges with low vertical continuity, the person is orthogonally projected once to narrow down the horizontal region of the person from a strong vertical distribution.

その後、絞られた領域内において、得られたエッジ分布を水平軸に射影し、ヒストグラムを生成する。そして、得られた水平軸ヒストグラムにおいてウインドウをスキャンし、連続して分布する領域を求めることで、水平成分における人物エッジの分布領域の推定を行う(図15(a))。   Thereafter, the obtained edge distribution is projected onto the horizontal axis in the narrowed region, and a histogram is generated. Then, a window is scanned in the obtained horizontal axis histogram to obtain a continuously distributed region, thereby estimating a human edge distribution region in the horizontal component (FIG. 15A).

(STEP3:鉛直軸ヒストグラム解析)
STEP1で得られたエッジ分布から鉛直軸ヒストグラムを生成する。人物は横方向にもある程度長い連続エッジを持つことから、横方向の連続性の弱いエッジを除去した後、一度鉛直軸に射影し、横方向の分布から人物の鉛直領域を絞る。
(STEP3: Vertical axis histogram analysis)
A vertical axis histogram is generated from the edge distribution obtained in STEP 1. Since a person has continuous edges that are somewhat long in the horizontal direction, after removing edges with low horizontal continuity, the person is projected once onto the vertical axis, and the vertical region of the person is narrowed down from the distribution in the horizontal direction.

その後、絞られた領域内において、エッジ分布を鉛直軸に射影し、ヒストグラムを生成する。そして、得られた水平軸ヒストグラムにおいてウインドウをスキャンし、連続して分布する領域を求めることで、水平成分における人物エッジの分布領域の推定を行う(図15(b))。   Thereafter, within the narrowed region, the edge distribution is projected onto the vertical axis, and a histogram is generated. Then, a window is scanned in the obtained horizontal axis histogram to obtain a continuously distributed region, thereby estimating a human edge distribution region in the horizontal component (FIG. 15B).

なお、このSTEP3において、STEP1で得られたエッジ分布から鉛直軸ヒストグラムを生成しているが、鉛直軸ヒストグラムは、STEP2で狭められた局所領域内のエッジ分布から生成することもできる。   In this STEP 3, the vertical axis histogram is generated from the edge distribution obtained in STEP 1. However, the vertical axis histogram can also be generated from the edge distribution in the local region narrowed in STEP 2.

以上のステップにより、エッジの分布情報を参照することで、より正確な人物の外接矩形領域を得ることができる(図15(c))。   By referring to the edge distribution information through the above steps, a more accurate circumscribed rectangular region of the person can be obtained (FIG. 15C).

なお、ヒストグラム閾値(初期制御点)の設定方法として次のようにしてもよい。
まず、ヒストグラムの頻度値を2つのグループにクラスタリングする。クラスタリング方法はk-mean法(1次元)など、いずれの方法でもよい。これにより、高頻度クラスタと低頻度クラスタに分かれることになる。
Note that the histogram threshold (initial control point) may be set as follows.
First, the histogram frequency values are clustered into two groups. The clustering method may be any method such as a k-mean method (one-dimensional). Thereby, it will be divided into a high frequency cluster and a low frequency cluster.

次に、画像の両端から内側へ探索して、初めて高頻度クラスタに属する頻度値に当たった場合、直前の低頻度の位置と当該高頻度の位置との間を境界とする。この場合、高頻度のさらに内側に低頻度のものがあったとしても問題ない。   Next, when searching from the both ends of the image to the inside and hitting a frequency value belonging to the high frequency cluster for the first time, a boundary is set between the immediately preceding low frequency position and the high frequency position. In this case, there is no problem even if there is a low frequency inside the high frequency.

<階層間協調アルゴリズム>
ここで、時空間MRFとSnakesとの階層間協調によるトラッキングの処理ステップを述べる。以降、時空間MRFとSnakesとを相互に用いてオブジェクトマップを修正することを、階層間協調と称して説明する。
<Inter-layer cooperation algorithm>
Here, a processing step of tracking by cooperation between layers of the spatio-temporal MRF and Snakes will be described. Hereinafter, correcting the object map using the spatio-temporal MRF and Snakes will be referred to as inter-layer cooperation.

まず、Snakesによるオブジェクトマップの修正(オクルージョンなし)の場合、すなわち、図12のステップS1202からS1205に対応する処理について説明する。   First, in the case of object map correction (without occlusion) by Snakes, that is, processing corresponding to steps S1202 to S1205 in FIG. 12 will be described.

STEP1:時空間MRFの出力として、オブジェクトマップを受け取り、各オブジェクトにおける外接矩形領域の情報を得る。 STEP 1: An object map is received as an output of the spatio-temporal MRF, and information on a circumscribed rectangular area in each object is obtained.

STEP2:各オブジェクトにおいて、STEP2で得られた局所領域においてエッジの分布解析を行い、オブジェクトの輪郭周辺にSnakesの初期制御点を配置する。 STEP 2: For each object, an edge distribution analysis is performed in the local region obtained in STEP 2, and Snakes initial control points are placed around the contour of the object.

STEP3:各オブジェクトにおいて、Snakesを実行する。STEP1で得られた外接矩形の大きさと比較し、スプラインが収縮しすぎてしまったオブジェクトに関してはオブジェクトマップを修正せず、それ以外のオブジェクトに対してはSnakesの処理結果を反映し、オブジェクトマップを修正する。 STEP 3: Execute Snakes in each object. Compared with the size of the circumscribed rectangle obtained in STEP 1, the object map is not modified for objects whose splines are contracted too much, and the object map is reflected for the other objects. Correct it.

次に、Snakesによるオブジェクトマップの修正(オクルージョンあり)の場合、すなわち、図12のステップS1212からS1215に対応する処理について説明する。   Next, in the case of object map correction by Snakes (with occlusion), that is, processing corresponding to steps S1212 to S1215 in FIG. 12 will be described.

STEP1:時空間MRFの出力として、オブジェクトマップを受け取り、各オブジェクトにおける外接矩形領域の情報を得る。オクルージョンが検知された(他のオブジェクトの外接矩形と重複領域をもつ)オブジェクトに対しては、オクルージョンし合っているものを一つのグループとして外接矩形領域を求める。 STEP 1: An object map is received as an output of the spatio-temporal MRF, and information on a circumscribed rectangular area in each object is obtained. For objects in which occlusion is detected (having overlapping areas with circumscribed rectangles of other objects), the circumscribed rectangular area is obtained with the objects that are occluded as one group.

STEP2:STEP2で得られた局所領域においてエッジの分布解析を行い、オブジェクトの輪郭周辺にSnakesの初期制御点を配置する。 STEP 2: An edge distribution analysis is performed in the local region obtained in STEP 2, and initial control points of Snakes are arranged around the contour of the object.

STEP3:Snakesを実行する。STEP1で得られた外接矩形の大きさと比較し、スプラインが収縮しすぎてしまったオブジェクトに関してはオブジェクトマップを修正せず、それ以外のオブジェクトに対してはSnakesの処理結果を反映し、オブジェクトマップを修正する。その際、Snakesで抽出された輪郭に囲まれた内部領域の各オブジェクトのID番号のラベリングにおいては、時空間MRFモデルの出力結果によりラベリングを行なう。ただし、当該輪郭内部領域において、背景オブジェクトと認識されたブロックについては、ラベルを背景オブジェクトから不定へ変更することで、次フレームにおいて時空間MRFモデルによるID割り当てが行われる。あるいは、現フレームにおいて、当該ブロックのみ時空間MRFモデルによるID割り当てを再度行なうことも可能である。 STEP3: Execute Snakes. Compared to the size of the circumscribed rectangle obtained in STEP 1, the object map is not modified for objects whose splines are contracted too much, and the object map is reflected for the other objects. Correct it. At that time, in the labeling of the ID number of each object in the inner region surrounded by the contour extracted by Snakes, the labeling is performed based on the output result of the spatio-temporal MRF model. However, for the block recognized as a background object in the contour inner region, the ID is assigned by the spatiotemporal MRF model in the next frame by changing the label from the background object to indefinite. Alternatively, in the current frame, it is also possible to perform ID assignment by the spatiotemporal MRF model only for that block.

図16にSnakesによるオブジェクトマップの修正例を示す。図16(1−a)と(1−b)はオクルージョンのない場合の例、図16(2−a)と(2−b)はオクルージョン時の例である。   FIG. 16 shows a modification example of the object map by Snakes. 16 (1-a) and (1-b) are examples in the case where there is no occlusion, and FIGS. 16 (2-a) and (2-b) are examples in the case of occlusion.

図16(2−a)と(2−b)では、一度ID番号6とID番号7の人物を一つのグループとし、Snakesによりグループの輪郭線(背景と人物との境界)を求めている。そして、グループ内の領域分割は、時空間MRFによる出力情報を反映している。   In FIGS. 16 (2-a) and (2-b), the persons with ID numbers 6 and 7 are once made into one group, and the outline of the group (the boundary between the background and the person) is obtained by Snakes. The area division within the group reflects the output information by the spatiotemporal MRF.

<Snakesによるオブジェクトマップの修正>
次に図17と図18とを用いて、カメラ10が変動する場合における階層間協調アルゴリズムによる効果を示す。ここでは図17と図18とに示すように、同じシーンの同じフレームに対して、階層間協調なしと階層間協調ありとの場合における移動物体検出の処理結果を対比して説明する。
<Correction of object map by Snakes>
Next, FIG. 17 and FIG. 18 are used to show the effect of the inter-layer cooperation algorithm when the camera 10 changes. Here, as shown in FIGS. 17 and 18, the processing results of moving object detection in the case of no inter-layer cooperation and inter-layer cooperation for the same frame of the same scene will be described.

図17(a)は階層間協調なしの処理結果であり、図17(b)はそのオブジェクトマップである。図18(a)は階層間協調ありの処理結果であり、図18(b)はそのオブジェクトマップである。   FIG. 17A shows a processing result without cooperation between layers, and FIG. 17B shows an object map thereof. FIG. 18A shows a processing result with cooperation between layers, and FIG. 18B shows an object map thereof.

カメラのパンニングはフレーム番号80の直後から始まる。階層間協調アルゴリズムを行わない場合、20フレーム超のトラッキングに成功しているものの、人物オブジェクトと背景オブジェクトとの境界は、その徐々に曖昧になってしまっている(フレーム95およびフレーム107)。   Camera panning begins immediately after frame number 80. When the inter-layer cooperation algorithm is not performed, although the tracking of more than 20 frames is successful, the boundary between the person object and the background object gradually becomes ambiguous (frame 95 and frame 107).

その一方で、Snakesにより協調させた場合、時空間MRFの出力を参照することでオブジェクト間の境界を補正することができており、長時間のトラッキングが可能となることがわかる。また、ズーミングした場合においても、階層間協調アルゴリズムの効果があることがわかる(フレーム142およびフレーム153の右2列)。   On the other hand, when coordinated by Snakes, it is understood that the boundary between objects can be corrected by referring to the output of the spatiotemporal MRF, and tracking for a long time is possible. In addition, even when zooming, it can be seen that there is an effect of the cooperation algorithm between layers (the right two columns of the frame 142 and the frame 153).

図19はオクルージョンが発生している場合に、カメラ10が変動した場合に移動物体を検出した結果である。図19(a)ではオクルージョンが発生しておらず、その後、図19(b)でオクルージョンが発生している。いずれの場合においても、本実施形態による移動物体追跡装置20は、移動物体を追跡できていることがわかる。   FIG. 19 shows the result of detecting a moving object when the camera 10 fluctuates when occlusion occurs. In FIG. 19A, no occlusion has occurred, and thereafter, in FIG. 19B, occlusion has occurred. In any case, it can be seen that the moving object tracking device 20 according to the present embodiment can track the moving object.

以上説明したように、本実施形態による移動物体追跡装置20は、抽出した輪郭に基づいて、オブジェクトマップ記憶部に記憶されているブロックの識別符号および動きベクトルを補正することにより、背景が変動する画像からでも、画像中の移動物体を正確に検出することができる。   As described above, the moving object tracking device 20 according to the present embodiment changes the background by correcting the block identification code and the motion vector stored in the object map storage unit based on the extracted contour. Even from an image, a moving object in the image can be accurately detected.

なお、上記の実施形態の説明においては、オブジェクトマップ記憶部に記憶されているブロックの識別符号とともに動きベクトルを補正するものとして説明したが、識別符号のみを補正してもよい。このようにしても、同様に、背景が変動する画像からでも、画像中の移動物体を正確に検出することができる。   In the above description of the embodiment, the motion vector is corrected together with the block identification code stored in the object map storage unit. However, only the identification code may be corrected. Even in this case, similarly, a moving object in an image can be accurately detected from an image with a changing background.

なお、上述した移動物体変動量検出部33は、オブジェクトマップ記憶部26に記憶されている移動物体のサイズまたは移動量の変動量を、識別符号または動きベクトルに基づいて単位時間毎に検出する。   The moving object variation detection unit 33 described above detects the size of the moving object or the variation of the movement amount stored in the object map storage unit 26 based on the identification code or the motion vector for each unit time.

そして制御部34(第2の制御部)は、移動物体変動量検出部33により検出された単位時間毎の移動物体のサイズまたは移動量の変動量が、予め定められているサイズまたは移動量の変動量よりも大きい場合に、輪郭抽出部30を制御して輪郭を抽出させ、補正部31を制御してオブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正させる。   Then, the control unit 34 (second control unit) determines that the size of the moving object or the amount of movement of the moving object per unit time detected by the moving object fluctuation amount detection unit 33 is a predetermined size or movement amount. When it is larger than the fluctuation amount, the contour extraction unit 30 is controlled to extract the contour, and the correction unit 31 is controlled to correct the block identification code and the motion vector stored in the object map storage unit 26.

このようにオブジェクトマップ記憶部26に記憶されている移動物体のサイズまたは移動量の変動量も応じて、オブジェクトマップ記憶部26に記憶されているブロックの識別符号および動きベクトルを補正させてもよい。   As described above, the block identification code and the motion vector stored in the object map storage unit 26 may be corrected in accordance with the size of the moving object stored in the object map storage unit 26 or the variation amount of the movement amount. .

これにより制御部34が、単に予め定められている所定期間毎にまたは所定フレーム毎にオブジェクトマップを補正する場合に対比して、移動物体を検出することに失敗しそうなタイミングで、オブジェクトマップを補正することが可能となる。そのために、移動物体をより的確に検出して追跡することが可能となる。   As a result, the control unit 34 corrects the object map at a timing at which it is likely to fail to detect the moving object, as compared with the case where the control unit 34 simply corrects the object map every predetermined period or every predetermined frame. It becomes possible to do. Therefore, it becomes possible to detect and track a moving object more accurately.

なお上述した図2のフレームバッファメモリ3、画像メモリ21またはオブジェクトマップ記憶部26などの記憶部は、ハードディスク装置や光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記憶媒体、RAM(Random Access Memory)のような揮発性のメモリ、あるいはこれらの組み合わせにより構成されるものとする。   The storage unit such as the frame buffer memory 3, the image memory 21, or the object map storage unit 26 of FIG. 2 described above is a non-volatile memory such as a hard disk device, a magneto-optical disk device, a flash memory, or a CD-ROM. Only a storage medium that can only be used, a volatile memory such as a RAM (Random Access Memory), or a combination thereof.

また図2における画像変換部22、背景生成部24、ID生成/消滅部25、移動物体追跡部27、輪郭抽出部30、補正部31、判定部32、移動物体変動量検出部33、制御部34またはオクルージョン検出部35という処理部は、専用のハードウェアにより実現されるものであってもよく、また、この処理部はメモリおよびCPU(中央演算装置)により構成され、処理部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。   2, the image conversion unit 22, the background generation unit 24, the ID generation / annihilation unit 25, the moving object tracking unit 27, the contour extraction unit 30, the correction unit 31, the determination unit 32, the moving object fluctuation amount detection unit 33, and the control unit. The processing unit 34 or the occlusion detection unit 35 may be realized by dedicated hardware, and this processing unit is configured by a memory and a CPU (central processing unit) to realize the function of the processing unit. The function may be realized by loading a program to be executed into a memory and executing the program.

また、図1における画像変換部22、背景生成部24、ID生成/消滅部25、移動物体追跡部27、輪郭抽出部30、補正部31、判定部32、移動物体変動量検出部33、制御部34またはオクルージョン検出部35という処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、この処理部による処理を実行してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Also, the image conversion unit 22, the background generation unit 24, the ID generation / annihilation unit 25, the moving object tracking unit 27, the contour extraction unit 30, the correction unit 31, the determination unit 32, the moving object variation detection unit 33, and the control in FIG. By recording a program for realizing the function of the processing unit called the unit 34 or the occlusion detection unit 35 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, You may perform the process by this process part. The “computer system” here includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.

10…カメラ、20…移動物体追跡装置、21…画像メモリ、22…画像変換部、23…フレームバッファメモリ、24…背景画像生成部、25…ID生成/消滅部、26…オブジェクトマップ記憶部、27…移動物体追跡部、30…輪郭抽出部、31…補正部、32…判定部、33…移動物体変動量検出部、34…制御部、35…オクルージョン検出部、301…対象領域設定部、302…対象領域補正部、303…輪郭抽出処理部   DESCRIPTION OF SYMBOLS 10 ... Camera, 20 ... Moving object tracking apparatus, 21 ... Image memory, 22 ... Image conversion part, 23 ... Frame buffer memory, 24 ... Background image generation part, 25 ... ID production | generation / annihilation part, 26 ... Object map storage part, 27 ... Moving object tracking unit, 30 ... Contour extraction unit, 31 ... Correction unit, 32 ... Determination unit, 33 ... Moving object fluctuation amount detection unit, 34 ... Control unit, 35 ... Occlusion detection unit, 301 ... Target region setting unit, 302: Target area correction unit, 303 ... Contour extraction processing unit

Claims (10)

時系列画像を画像処理して画像中の移動物体を検出する画像上移動物体追跡装置であって、
前記時系列画像の各画像が複数のブロックに分割され、当該画像中の移動物体を示す識別符号が前記移動物体に対応する前記ブロックに付けられて記憶されているオブジェクトマップ記憶部と、
前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出部と、
前記輪郭抽出部が抽出した輪郭に基づいて、前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正する補正部と、
を有することを特徴とする移動物体追跡装置。
A moving object tracking device on an image that detects a moving object in an image by processing a time-series image,
Each image of the time-series image is divided into a plurality of blocks, and an identification code indicating a moving object in the image is attached to the block corresponding to the moving object, and is stored.
A contour extracting unit that extracts a contour of the moving object from the image of the time series image;
A correction unit that corrects the identification code of the block stored in the object map storage unit based on the contour extracted by the contour extraction unit;
A moving object tracking device comprising:
前記輪郭抽出部が、
前記オブジェクトマップ記憶部に記憶されている前記移動物体のブロックに対応する画像領域に基づいて、前記移動物体の輪郭を抽出する対象領域を設定する対象領域設定部と、
前記対象領域設定部が設定した対象領域に対して、前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出処理部と、
を有することを特徴とする請求項1に記載の移動物体追跡装置。
The contour extraction unit
A target area setting unit that sets a target area for extracting the contour of the moving object based on an image area corresponding to the block of the moving object stored in the object map storage unit;
A contour extraction processing unit that extracts a contour of the moving object from the image of the time-series image with respect to the target region set by the target region setting unit;
The moving object tracking device according to claim 1, comprising:
前記輪郭抽出部が、
前記時系列画像の画像をエッジ抽出処理した画像に対して、前記対象領域設定部が設定した対象領域内でエッジに対応する画素数の個数についてのヒストグラムを座標軸毎に射影して生成し、当該座標軸毎に生成したヒストグラムに基づいて前記対象領域設定部が設定した対象領域を前記座標軸毎に補正する対象領域補正部、
を有し、
前記輪郭抽出処理部が、
前記対象領域補正部が補正した対象領域に対して、前記時系列画像の画像から前記移動物体の輪郭を抽出する、
ことを特徴とする請求項2に記載の移動物体追跡装置。
The contour extraction unit
A histogram of the number of pixels corresponding to the edge in the target region set by the target region setting unit is generated by projecting the image of the time series image by edge extraction processing for each coordinate axis, A target region correction unit that corrects the target region set by the target region setting unit for each coordinate axis based on a histogram generated for each coordinate axis;
Have
The contour extraction processing unit
For the target region corrected by the target region correction unit, the contour of the moving object is extracted from the image of the time series image.
The moving object tracking device according to claim 2.
前記輪郭抽出部が、
オクルージョンが発生している複数の移動物体を一体の移動物体とし、前記時系列画像の画像から前記一体とした移動物体の輪郭を抽出する、
ことを特徴とする請求項1から請求項3のいずれかに記載の移動物体追跡装置。
The contour extraction unit
A plurality of moving objects in which occlusion occurs are defined as an integral moving object, and the contour of the integral moving object is extracted from the image of the time series image.
The moving object tracking device according to claim 1, wherein the moving object tracking device is a moving object tracking device.
前記補正部は、
前記オブジェクトマップ記憶部に記憶されている前記オクルージョンが発生している複数の移動物体に対応する識別符号に基づいた当該複数の移動物体の境界を示す情報と、前記輪郭抽出部により前記オクルージョンが発生している複数の移動物体を一体とした抽出された移動物体の輪郭とに基づいて、前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正する、
ことを特徴とする請求項4に記載の移動物体追跡装置。
The correction unit is
Information indicating boundaries of the plurality of moving objects based on identification codes corresponding to the plurality of moving objects in which the occlusion occurs, which is stored in the object map storage unit, and the occlusion is generated by the contour extraction unit Correcting the identification code of the block stored in the object map storage unit based on the outline of the extracted moving object integrated with a plurality of moving objects that are integrated,
The moving object tracking device according to claim 4.
背景画像が変動しているか否かを判定する判定部と、
前記判定部が背景画像が変動していると判定した場合に、前記輪郭抽出部を制御して輪郭を抽出させ、前記補正部を制御して前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正させる第1の制御部と、
を有することを特徴とする請求項1から請求項5に記載の移動物体追跡装置。
A determination unit that determines whether or not the background image is fluctuating;
When the determination unit determines that the background image is fluctuating, the contour extraction unit is controlled to extract a contour, and the correction unit is controlled to store the block stored in the object map storage unit. A first control unit for correcting the identification code;
The moving object tracking device according to claim 1, further comprising:
前記オブジェクトマップ記憶部に記憶されている移動物体のサイズまたは移動量の変動量を、前記識別符号に基づいて単位時間毎に検出する移動物体変動量検出部と、
前記移動物体変動量検出部により検出された単位時間毎の前記移動物体のサイズまたは移動量の変動量が、予め定められているサイズまたは移動量の変動量よりも大きい場合に、前記輪郭抽出部を制御して輪郭を抽出させ、前記補正部を制御して前記オブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を補正させる第2の制御部と、
を有することを特徴とする請求項1から請求項6に記載の移動物体追跡装置。
A moving object fluctuation amount detection unit that detects a fluctuation amount of the size or movement amount of the moving object stored in the object map storage unit per unit time based on the identification code;
The contour extracting unit when the moving object size or moving amount variation amount per unit time detected by the moving object variation detecting unit is larger than a predetermined size or moving amount variation amount. A second control unit that extracts the contour by controlling the correction unit, and controls the correction unit to correct the identification code of the block stored in the object map storage unit;
The moving object tracking device according to claim 1, further comprising:
前記オブジェクトマップ記憶部には、
前記識別符号が前記移動物体に対応する前記ブロックに付けられているとともに、前記ブロックに対応する前記移動物体の動きベクトルが前記ブロックに付けられて記憶されており、
前記時系列画像を画像処理した結果に基づいて、前記オブジェクトマップ記憶部に記憶されているブロックの識別符号と動きベクトルとを更新する移動物体追跡部、
を有し、
前記移動物体追跡部は、
前記時系列画像のうち連続するN画像(N≧2)の各々について、隣り合うブロックの動きベクトルの差の絶対値が所定値以内のブロックに同一の識別符号を付けることにより、画像上で互いに重なった移動物体に互いに異なる識別符号を付ける識別符号手順と、
前記N画像の各々において、第1識別符号が付けられたブロック群である第1オブジェクトと第2識別符号が付けられたブロック群である第2オブジェクトとが接し、かつ、前記N画像について時間的に隣り合う画像の第1オブジェクト間の相関度が所定値以上であるか否かを判定する判定手順と、
前記判定手順で肯定と判定された後に、時間を遡って前記第1オブジェクトと前記第2オブジェクトとを追跡する追跡手順と、
前記追跡手順により時間を遡って追跡された前記第1オブジェクトと前記第2オブジェクトとに基づいて、前記オブジェクトマップ記憶部に記憶されているブロックの識別符号と動きベクトルとを更新する更新手順と、
を実行することを特徴とする請求項1から請求項7に記載の移動物体追跡装置。
In the object map storage unit,
The identification code is attached to the block corresponding to the moving object, and a motion vector of the moving object corresponding to the block is attached to the block and stored.
A moving object tracking unit that updates a block identification code and a motion vector stored in the object map storage unit based on a result of image processing of the time-series image;
Have
The moving object tracking unit includes:
For each of consecutive N images (N ≧ 2) of the time-series images, by attaching the same identification code to blocks whose absolute values of motion vector differences between adjacent blocks are within a predetermined value, An identification code procedure for attaching different identification codes to overlapping moving objects;
In each of the N images, a first object that is a block group to which a first identification code is attached is in contact with a second object that is a block group to which a second identification code is attached, and the N image is temporally related. A determination procedure for determining whether or not the degree of correlation between the first objects of images adjacent to each other is equal to or greater than a predetermined value;
A tracking procedure for tracking the first object and the second object retroactively after being determined affirmative in the determination procedure;
An update procedure for updating a block identification code and a motion vector stored in the object map storage unit based on the first object and the second object tracked back in time by the tracking procedure;
The moving object tracking device according to claim 1, wherein:
時系列画像を画像処理して画像中の移動物体を検出する画像上移動物体追跡装置において用いられる画像上移動物体追跡方法であって、
輪郭抽出部が、前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出手順と、
補正部が、前記時系列画像の各画像が複数のブロックに分割され、当該画像中の移動物体を示す識別符号が前記移動物体に対応する前記ブロックに付けられて記憶されているオブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を、前記輪郭抽出部が抽出した輪郭に基づいて補正する補正手順と、
を有することを特徴とする移動物体追跡方法。
An on-image moving object tracking method used in an on-image moving object tracking device that detects time-series images and detects a moving object in the image,
A contour extracting unit that extracts a contour of the moving object from the image of the time-series image;
An object map storage unit in which each image of the time-series image is divided into a plurality of blocks and an identification code indicating the moving object in the image is attached to the block corresponding to the moving object and stored in the correction unit A correction procedure for correcting the identification code of the block stored in the image based on the contour extracted by the contour extraction unit;
A moving object tracking method comprising:
時系列画像を画像処理して画像中の移動物体を検出する画像上移動物体追跡装置としてのコンピュータに、
輪郭抽出部が、前記時系列画像の画像から前記移動物体の輪郭を抽出する輪郭抽出手順を実行し、
補正部が、前記時系列画像の各画像が複数のブロックに分割され、当該画像中の移動物体を示す識別符号が前記移動物体に対応する前記ブロックに付けられて記憶されているオブジェクトマップ記憶部に記憶されている前記ブロックの識別符号を、前記輪郭抽出部が抽出した輪郭に基づいて補正する補正手順を実行する、
ようにさせるための移動物体追跡プログラム。
To the computer as a moving object tracking device on the image that detects the moving object in the image by processing the time series image,
A contour extraction unit executes a contour extraction procedure for extracting the contour of the moving object from the image of the time series image,
An object map storage unit in which each image of the time-series image is divided into a plurality of blocks and an identification code indicating the moving object in the image is attached to the block corresponding to the moving object and stored in the correction unit Executing a correction procedure for correcting the identification code of the block stored in the block based on the contour extracted by the contour extraction unit;
Moving object tracking program to make
JP2009090489A 2009-04-02 2009-04-02 Moving object tracking device, moving object tracking method, and moving object tracking program Expired - Fee Related JP5371040B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009090489A JP5371040B2 (en) 2009-04-02 2009-04-02 Moving object tracking device, moving object tracking method, and moving object tracking program
PCT/JP2010/002015 WO2010113417A1 (en) 2009-04-02 2010-03-19 Moving object tracking device, moving object tracking method, and moving object tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009090489A JP5371040B2 (en) 2009-04-02 2009-04-02 Moving object tracking device, moving object tracking method, and moving object tracking program

Publications (2)

Publication Number Publication Date
JP2010244207A true JP2010244207A (en) 2010-10-28
JP5371040B2 JP5371040B2 (en) 2013-12-18

Family

ID=42827733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009090489A Expired - Fee Related JP5371040B2 (en) 2009-04-02 2009-04-02 Moving object tracking device, moving object tracking method, and moving object tracking program

Country Status (2)

Country Link
JP (1) JP5371040B2 (en)
WO (1) WO2010113417A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101180259B1 (en) 2011-06-10 2012-09-06 엘아이지넥스원 주식회사 Target tracking method
KR101284815B1 (en) 2012-06-18 2013-07-10 엘아이지넥스원 주식회사 Target tracking apparatus
JP2013246651A (en) * 2012-05-25 2013-12-09 Toshiba Corp Object detection device, object detection method and object detection program
WO2014181726A1 (en) * 2013-05-09 2014-11-13 国立大学法人東京大学 Background-differential extraction device and background-differential extraction method
KR101619956B1 (en) * 2015-08-03 2016-05-11 주식회사 영국전자 Apparatus for image processing of surveilance camera by using auto multi-tracing
KR101619953B1 (en) * 2015-08-03 2016-05-23 주식회사 영국전자 Method for image processing of surveilance camera by using auto multi-tracing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310465B (en) * 2013-06-27 2016-02-03 东南大学 A kind of occlusion disposal route based on markov random file
CN112085953B (en) * 2019-06-12 2022-08-05 杭州海康威视系统技术有限公司 Traffic command method, device and equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2006024148A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science Moving object tracking method and device on image
JP2008217706A (en) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology Labeling device, labeling method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167282A (en) * 1999-12-10 2001-06-22 Toshiba Corp Device and method for extracting moving object
JP2006024148A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science Moving object tracking method and device on image
JP2008217706A (en) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology Labeling device, labeling method and program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200201355010; 上條俊介 外3名: '時空間Markov Random Fieldモデルによる隠れにロバストなトラッキングアルゴリズム' 電子情報通信学会論文誌 情報・システムII-パターン処理 第J83-D-II巻 第12号, 20001225, 第2597〜2609頁, 社団法人電子情報通信学会 *
CSNG200701387005; 上條俊介 外1名: '時空間MRFモデルと階層間協調アルゴリズムによる車両分割' 電子情報通信学会論文誌 基礎・境界 第J91-A巻 第1号, 20080101, 第55〜67頁, 社団法人電子情報通信学会 *
JPN6013039778; 上條俊介 外3名: '時空間Markov Random Fieldモデルによる隠れにロバストなトラッキングアルゴリズム' 電子情報通信学会論文誌 情報・システムII-パターン処理 第J83-D-II巻 第12号, 20001225, 第2597〜2609頁, 社団法人電子情報通信学会 *
JPN6013039780; 上條俊介 外1名: '時空間MRFモデルと階層間協調アルゴリズムによる車両分割' 電子情報通信学会論文誌 基礎・境界 第J91-A巻 第1号, 20080101, 第55〜67頁, 社団法人電子情報通信学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101180259B1 (en) 2011-06-10 2012-09-06 엘아이지넥스원 주식회사 Target tracking method
JP2013246651A (en) * 2012-05-25 2013-12-09 Toshiba Corp Object detection device, object detection method and object detection program
KR101284815B1 (en) 2012-06-18 2013-07-10 엘아이지넥스원 주식회사 Target tracking apparatus
WO2014181726A1 (en) * 2013-05-09 2014-11-13 国立大学法人東京大学 Background-differential extraction device and background-differential extraction method
JP2014219874A (en) * 2013-05-09 2014-11-20 国立大学法人東京大学 Background difference extraction device and background difference extraction method
US9924104B2 (en) 2013-05-09 2018-03-20 The University Of Tokyo Background-differential extraction device and background-differential extraction method
KR101619956B1 (en) * 2015-08-03 2016-05-11 주식회사 영국전자 Apparatus for image processing of surveilance camera by using auto multi-tracing
KR101619953B1 (en) * 2015-08-03 2016-05-23 주식회사 영국전자 Method for image processing of surveilance camera by using auto multi-tracing

Also Published As

Publication number Publication date
JP5371040B2 (en) 2013-12-18
WO2010113417A1 (en) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
CN108985259B (en) Human body action recognition method and device
JP5102410B2 (en) Moving body detection apparatus and moving body detection method
JP4217876B2 (en) Method and apparatus for tracking moving object in image
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
JP2000011133A (en) Device and method for detecting moving object
JP4187448B2 (en) Method and apparatus for tracking moving object in image
US20220366570A1 (en) Object tracking device and object tracking method
KR101139930B1 (en) Apparatus and method for object recognition based on part-template matching
JP2009059073A (en) Unit and method for imaging, and unit and method for person recognition
KR100994367B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP4283532B2 (en) Image recognition apparatus and method
JP4070558B2 (en) Image tracking apparatus and method
KR100566629B1 (en) System for detecting moving objects and method thereof
KR101827114B1 (en) Apparatus and method for detecting proximal entity in pen
US11507768B2 (en) Information processing apparatus, information processing method, and storage medium
JP3763279B2 (en) Object extraction system, object extraction method, and object extraction program
JPH11328365A (en) Device and method for monitoring image
JP2001307104A (en) Object extraction device for moving image
JP2017005582A (en) Image processing system, image processing method and program
JP2020181268A (en) Body homologizing device, body homologizing system, body homologizing method, and computer program
JP4543106B2 (en) Method and apparatus for tracking moving object in image
CN111563912B (en) Pedestrian tracking system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130912

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees