JP2008158984A - Image processor and area tracing program - Google Patents

Image processor and area tracing program Download PDF

Info

Publication number
JP2008158984A
JP2008158984A JP2006350114A JP2006350114A JP2008158984A JP 2008158984 A JP2008158984 A JP 2008158984A JP 2006350114 A JP2006350114 A JP 2006350114A JP 2006350114 A JP2006350114 A JP 2006350114A JP 2008158984 A JP2008158984 A JP 2008158984A
Authority
JP
Japan
Prior art keywords
area
tracking
region
information
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006350114A
Other languages
Japanese (ja)
Other versions
JP4427052B2 (en
Inventor
Akira Wada
亮 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Teli Corp
Original Assignee
Toshiba Teli Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Teli Corp filed Critical Toshiba Teli Corp
Priority to JP2006350114A priority Critical patent/JP4427052B2/en
Publication of JP2008158984A publication Critical patent/JP2008158984A/en
Application granted granted Critical
Publication of JP4427052B2 publication Critical patent/JP4427052B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an area tracing program for extremely reducing the processing load of area tracing processing, and for quickening processing by simplifying hardware and software. <P>SOLUTION: This image processor is provided with: an area processing part 156 for extracting a rectangular area including changed pixels; a new object registration part 157c for registering the newly extracted area as a new object; an undetermined object tracing part 157b for, by defining the registered object as the undecided object, tracing an undecided object on the basis of the information of the area extracted this time and the information of the previously extracted area; and a determined object tracing part 157a for, by defining the undetermined object traced continuously in a prescribed time by the undetermined object tracing part 157b as the determined object, tracing the determined object on the basis the information of the area extracted this time and the predicted area information predicted on the basis of the information of each of the time-sequentially changed areas of the undetermined object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、単眼カメラで撮影した特定画像の追跡処理に適用して好適な画像処理装置および領域追跡プログラムに関する。   The present invention relates to an image processing apparatus and a region tracking program that are suitable for application to tracking processing of a specific image captured by a monocular camera.

カメラで撮影した画像から動きを伴う画像領域を抽出し追跡する追跡処理技術として、従来では、焦点距離やCCDサイズ等の各種カメラ情報から、抽出された領域の実サイズや位置を計測し、動きを伴う領域を追跡する技術が存在する。しかしながら、この種の領域追跡処理技術においては、カメラ情報を含む膨大な情報の管理や多大な設定工数を必要とし、三次元計測処理等の複雑な処理が必要となることから、ソフトウェア及びハードウェアにかかる処理負荷が大きいという問題があった。   As a tracking processing technology that extracts and tracks image areas with movement from images taken with a camera, conventionally, the actual size and position of the extracted area are measured from various camera information such as focal length and CCD size, and the movement There are techniques for tracking regions with However, this type of area tracking processing technology requires management of enormous information including camera information and a large amount of setting man-hours, and requires complicated processing such as three-dimensional measurement processing. There is a problem that the processing load on the system is large.

また、特定の領域を対象とした追跡処理技術として、カメラで撮影した変化領域の濃淡画像から、実空間の平面に擬似的に投影変換した画像を作成し、作成した画像を個別の領域に分離し、個々に追跡して、フレーム間の動きベクトルから移動軌跡を抽出する技術が存在した。しかしながらこの種、従来の領域追跡処理手段においては、実空間変換用マップの作成処理、実空間への画像変換処理等、種々の煩雑な処理を必要とすることから、ソフトウェア及びハードウェアにかかる処理負荷が大きいという問題があった。
特開平9−91439号公報
In addition, as a tracking processing technology for a specific area, an image that is simulated and converted to a real space plane is created from the gray image of the change area captured by the camera, and the created image is separated into individual areas. However, there has been a technique of individually tracking and extracting a movement locus from a motion vector between frames. However, since this type of conventional area tracking processing means requires various complicated processes such as a process for creating a map for real space conversion and an image conversion process to real space, the process related to software and hardware There was a problem that the load was large.
Japanese Patent Laid-Open No. 9-91439

本発明は、上記した従来の問題点を解決するためになされたもので、撮影した画像から変化画素を含む領域を抽出し追跡する領域追跡処理の処理負荷を著しく軽減でき、ハードウェアおよびソフトウェアを簡素化して処理の高速化が図れる画像処理装置および領域追跡プログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and can significantly reduce the processing load of the area tracking process for extracting and tracking the area including the changed pixel from the photographed image. An object of the present invention is to provide an image processing apparatus and an area tracking program that can be simplified and speed up processing.

本発明は、所定の周期で入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理手段と、前記領域抽出処理手段が抽出した領域のうち、新たに抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理手段と、前記新規オブジェクトの登録処理手段により登録されたオブジェクトを未確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理手段と、前記未確定オブジェクトの追跡処理手段が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報に基づいて予測した予測領域情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理手段とを具備した画像処理装置を提供する。   The present invention includes a region extraction processing unit that extracts a rectangular region including a changed pixel by performing a difference process between a current image on a screen and a past image input at a predetermined period, and a region extracted by the region extraction processing unit Among these, the newly extracted region is registered as a new object to be tracked and a new object registration processing unit, and the object registered by the new object registration processing unit is used as an unconfirmed object to extract the region. Each time the processing means extracts an area, the unconfirmed object tracking processing means for tracking the unconfirmed object based on the information of the area extracted this time and the information of the area extracted last time, and the tracking process of the unconfirmed object For an indeterminate object that has been tracked for a predetermined time by the means, Each time the region extraction processing means extracts a region, the confirmation is based on the information on the extracted region and the predicted region information predicted based on the information on each region changed in time series of the unconfirmed object. Provided is an image processing apparatus including a tracking processing unit for a confirmed object that tracks an object.

また、本発明は、カメラで撮影した撮像画面を所定の周期で入力し、入力した画面上の現在画像と過去画像から変化画素を含む領域を抽出し追跡する画像処理装置としてコンピュータを機能させるための領域追跡プログラムであって、今回入力した画面上の画像と前回入力した画面上の画像とを差分処理して画面上の変化した画素を含む矩形の領域を抽出する領域抽出機能と、前記領域抽出機能により抽出された領域が、前記画面上で新たに抽出された領域であるか否かを判定し、新たに抽出された領域であるとき、当該抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理機能と、前記新規オブジェクトの登録処理機能により登録されたオブジェクトについて、当該オブジェクトを未確定オブジェクトとして、前記領域抽出機能が前記領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理機能と、前記未確定オブジェクトの追跡処理機能が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理機能が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報とに基づき、追跡の都度更新される予測方向に従う予測領域の情報と移動速度情報をもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理機能とをコンピュータに実現させるための領域追跡プログラムを提供する。   In addition, the present invention allows a computer to function as an image processing apparatus that inputs an imaging screen shot by a camera at a predetermined cycle and extracts and tracks a region including a change pixel from the current image and past image on the input screen. A region extraction function for extracting a rectangular region including a changed pixel on the screen by performing a difference process between the image on the screen input this time and the image on the screen input last time, and the region It is determined whether the area extracted by the extraction function is a newly extracted area on the screen. When the area is newly extracted, the extracted area is a target of the tracking process. For an object registered by a new object registration processing function to be registered as a new object and the new object registration processing function, the object is indeterminate. As an object, each time the region extraction function extracts the region, the unconfirmed object tracking processing function for tracking the unconfirmed object based on the information on the region extracted this time and the information on the region extracted last time, For an indeterminate object that has been tracked for a predetermined time by the indeterminate object tracking function, each time the area extraction process function extracts an area with the object as a definite object, the extracted area information and the indeterminate Based on the information of each region that has changed in time series of the object, based on the prediction region information updated according to the prediction direction and the moving speed information, the tracking processing function of the confirmed object that tracks the confirmed object; An area tracking program for realizing the above on a computer is provided.

本発明によれば、カメラで撮影した画像から変化画素を含む領域を抽出し追跡する領域追跡処理の処理負荷を著しく軽減できる。これによりハードウェアおよびソフトウェアを簡素化して処理の高速化を図ることができる。   According to the present invention, it is possible to remarkably reduce the processing load of the area tracking process for extracting and tracking an area including a change pixel from an image captured by a camera. As a result, hardware and software can be simplified to increase the processing speed.

本発明は、単眼カメラ(1台のカメラ)の画像処理において、画像を取り込む毎に、過去画像と現在画像との差から画像中の変化画素領域を矩形の領域として抽出し、時系列に得られた抽出領域の情報から現在の領域の対応付けを行い、領域の移動を追跡する。   In the image processing of a monocular camera (one camera), the present invention extracts a change pixel region in an image as a rectangular region from the difference between a past image and a current image each time an image is captured, and obtains it in time series. The current region is associated with the extracted region information, and the movement of the region is tracked.

この領域追跡処理を実現するため、本発明は、画面上の変化画素領域を矩形の領域として抽出し、この領域を追跡する二種の領域追跡処理手段を有して、これら各領域追跡処理手段により段階的に継続して領域追跡を行うことで、処理負荷の軽減と処理速度の高速化を図った効率の良い領域追跡を可能にしている。   In order to realize this area tracking processing, the present invention has two types of area tracking processing means for extracting the changed pixel area on the screen as a rectangular area and tracking this area, and each of these area tracking processing means Thus, the region tracking is performed step by step, thereby enabling efficient region tracking with reduced processing load and increased processing speed.

上記した二種の領域追跡処理手段として、未確定オブジェクトの追跡処理手段と、確定オブジェクトの追跡処理手段とを備える。未確定オブジェクトの追跡手段は、時系列に抽出した領域の領域情報をもとに前回抽出した矩形の領域を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとしてオブジェクトの追跡を行う。確定オブジェクトの追跡手段は、抽出した領域の領域情報と、未確定オブジェクトの追跡に伴う時系列の位置情報に基づく最小自乗(二乗)近似により求め、追跡の都度更新される予測方向に従い生成した予測領域情報と移動速度情報をもとに、確定オブジェクトの追跡を行う。   As the above-described two types of area tracking processing means, an unconfirmed object tracking processing means and a confirmed object tracking processing means are provided. The indeterminate object tracking means temporarily generates a prediction area obtained by enlarging the previously extracted rectangular area based on the area information of the area extracted in time series, and the rectangular area extracted this time is included in the prediction area. When the two intersect, the object is traced with the rectangular area extracted this time as an undetermined object. The deterministic object tracking means obtains the prediction generated by the least square (square) approximation based on the region information of the extracted region and the time-series position information associated with the tracking of the undetermined object, and is generated according to the prediction direction updated at each tracking. The confirmed object is tracked based on the area information and the moving speed information.

以下図面を参照して本発明の実施形態を説明する。
本発明の実施形態にかかる画像処理装置の構成を図1に示す。なお、この実施形態では、カメラから取り込んだ1フレーム分の画像データを、単に画像若しくは画面上の画像若しくは一画面分の画像と称している。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows the configuration of an image processing apparatus according to an embodiment of the present invention. In this embodiment, image data for one frame captured from the camera is simply referred to as an image, an image on a screen, or an image for one screen.

本発明の実施形態に係る画像処理装置は、図1に示すように、カメラ11と、キャプチャ部12と、画像処理記憶部13と、画像処理部15と、表示部16とを具備して構成される。   As shown in FIG. 1, the image processing apparatus according to the embodiment of the present invention includes a camera 11, a capture unit 12, an image processing storage unit 13, an image processing unit 15, and a display unit 16. Is done.

カメラ11は、レンズユニットとレンズユニットの結像位置に設けられた撮像素子(例えばCCD固体撮像素子、若しくはCMOSイメージセンサ)とを具備して、屋外若しくは屋内の動きを伴う被写体(動物体)を対象に、撮像した一画面分の画像を所定の画素単位(例えば1フレーム320×240画素=QVGA)で出力する。   The camera 11 includes a lens unit and an image pickup device (for example, a CCD solid-state image pickup device or a CMOS image sensor) provided at an image forming position of the lens unit, so that a subject (animal body) that moves outdoors or indoors can be used. A captured image for one screen is output to a target in a predetermined pixel unit (for example, one frame 320 × 240 pixels = QVGA).

キャプチャ部12は、カメラ11が撮像したフレーム単位の画像を画像処理部15の処理対象画像(入力画像)として取り込み、画像処理記憶部13内の画像バッファ14に保持する処理機能をもつ。この画像バッファ14に取り込む画面上の入力画像は、ここでは原画像とするが、エッジ画像であってもよい。   The capture unit 12 has a processing function of capturing an image in frame units captured by the camera 11 as a processing target image (input image) of the image processing unit 15 and holding it in the image buffer 14 in the image processing storage unit 13. The input image on the screen captured in the image buffer 14 is an original image here, but may be an edge image.

画像処理記憶部13は、画像処理部15の処理に供される、キャプチャ部12が取り込んだ入力画像および処理中の各画像を含む各種データを記憶する。この画像処理記憶部13には、画像処理部15の制御の下に、キャプチャ部12が取り込んだフレーム単位の画像のうち、今回取り込んだ一画面分の画像(現在画像)と、前回取り込んだ一画面分の画像(過去画像)をそれぞれ処理対象画像として保持する画像バッファ14を構成する領域が確保されるとともに、画像処理部15の処理に用いられる画像領域が確保される。さらに画像処理記憶部13には、画像処理部15の処理に供される各種のパラメータおよび制御データを記憶する記憶領域、確定および未確定オブジェクトの登録並びに追跡処理に於いて生成若しくは取得される各種情報の記憶領域等も確保される。   The image processing storage unit 13 stores various data including the input image captured by the capture unit 12 and each image being processed, which is used for the processing of the image processing unit 15. In this image processing storage unit 13, under the control of the image processing unit 15, among the frame-unit images captured by the capture unit 12, an image for one screen captured this time (current image) and one previously captured image are stored. An area constituting the image buffer 14 that holds images for the screen (past images) as processing target images is secured, and an image area used for the processing of the image processing unit 15 is secured. Further, the image processing storage unit 13 stores various parameters and control data used for the processing of the image processing unit 15, various kinds of information generated or obtained in registration and tracking processing of the confirmed and unconfirmed objects. An information storage area is also secured.

画像処理部15は、画像バッファ14に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この差分二値化画像から、変化画素を含む矩形の領域を抽出し、当該矩形の領域を処理対象に、領域を追跡する一連の画像処理を行うもので、前処理部151、差分処理部152、二値化処理部153、ノイズ除去フィルタ154、領域化処理部156、領域追跡処理部157等を具備して構成される。   The image processing unit 15 generates a difference binarized image obtained by binarizing the past image and the current image held in the image buffer 14 and removing noise included in the difference binarized image. In this difference binarized image, a rectangular region including a change pixel is extracted, and a series of image processing for tracking the region is performed on the rectangular region as a processing target. The preprocessing unit 151, the difference processing unit 152, a binarization processing unit 153, a noise removal filter 154, a regionization processing unit 156, a region tracking processing unit 157, and the like.

これら画像処理部15の構成要素のうち、前処理部151、差分処理部152、二値化処理部153、ノイズ除去フィルタ154、および領域化処理部156は、カメラ11から所定の周期で取り込んだ画面上の現在画像(今回取り込んだ画面上の画像)と過去画像(前回取り込んだ画面上の画像)とを差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理機能を実現する。さらに上記した画像処理部15の構成要素のうち、前処理部151、差分処理部152、および二値化処理部153は、今回取り込んだ現在画像と前回取り込んだ過去画像とを差分処理して二値化した差分二値化画像を生成する差分二値化画像生成手段を実現する。   Among these components of the image processing unit 15, the preprocessing unit 151, the difference processing unit 152, the binarization processing unit 153, the noise removal filter 154, and the regionalization processing unit 156 are captured from the camera 11 at a predetermined cycle. Realizes an area extraction processing function that extracts a rectangular area including changed pixels by performing a differential process on the current image on the screen (the image on the screen captured this time) and the past image (the image on the screen captured last time). To do. Further, among the components of the image processing unit 15 described above, the preprocessing unit 151, the difference processing unit 152, and the binarization processing unit 153 perform differential processing on the current image captured this time and the past image captured last time, A difference binarized image generating unit that generates a binarized difference binarized image is realized.

上記した画像処理部15の各構成要素のうち、前処理部151は、画像バッファ13に貯えた過去画像と現在画像との比較(変化画素領域を抽出するための差分処理)に際し、キャプチャ部12が取り込んだ一画面分の入力画像に対して予め定められた前処理(平滑化処理、エッジ処理等)を実行する。差分処理部152は前処理部151を介した過去画像と現在画像とを画素単位で比較して差分領域を抽出する。   Among the components of the image processing unit 15 described above, the preprocessing unit 151 performs the capture unit 12 when comparing the past image stored in the image buffer 13 with the current image (difference processing for extracting the changed pixel region). Pre-processing (smoothing processing, edge processing, etc.) determined in advance is performed on the input image for one screen captured by the. The difference processing unit 152 compares the past image and the current image that have passed through the preprocessing unit 151 in pixel units, and extracts a difference region.

二値化処理部153は、差分処理部152で差分処理した画像を画像記憶部13に保持されている予め設定された閾値に従い二値化して、差分二値化画像を生成する。この差分二値化画像は、画像処理記憶部13に予め確保した領域(差分二値化画像領域)に記憶される。   The binarization processing unit 153 binarizes the image subjected to the difference processing by the difference processing unit 152 according to a preset threshold value stored in the image storage unit 13 to generate a difference binarized image. The difference binarized image is stored in an area (difference binarized image area) secured in advance in the image processing storage unit 13.

ノイズ除去フィルタ154は、拡散フィルタ154aと収縮フィルタ154bとを有して構成され、上記差分二値化画像から動物体領域の抽出に不要なノイズ(ごま塩状の変化画素)を除去する。このノイズ除去フィルタ154の構成要素をなす拡散フィルタ154aは、上記差分二値化画像の最外周を除く各画素に対して注目画素を順次設定し、設定した注目画素に隣接する斜め方向の画素中(4画素中)に変化画素が存在するとき、上記注目画素を変化画素とする拡散フィルタリング処理を行う。収縮フィルタ154bは、上記拡散フィルタ154aで処理した画像に対して注目画素に隣接する周囲8画素若しくは4画素をもとに収縮フィルタリング処理を行う。このノイズ除去フィルタ154でノイズ除去した各フレーム(画面)毎の差分二値化画像は画像処理記憶部13の画像領域に記憶される。   The noise removal filter 154 includes a diffusion filter 154a and a contraction filter 154b, and removes noise (sesame salt-like change pixels) unnecessary for extraction of a moving body region from the difference binary image. The diffusion filter 154a that constitutes a component of the noise removal filter 154 sequentially sets a target pixel for each pixel except the outermost periphery of the difference binarized image, and in a diagonal pixel adjacent to the set target pixel. When a change pixel exists in (four pixels), a diffusion filtering process using the target pixel as the change pixel is performed. The contraction filter 154b performs contraction filtering processing on the image processed by the diffusion filter 154a based on the surrounding 8 pixels or 4 pixels adjacent to the target pixel. The difference binarized image for each frame (screen) from which noise has been removed by the noise removal filter 154 is stored in the image area of the image processing storage unit 13.

領域化処理部156は、上記ノイズ除去フィルタ154でノイズ除去した差分二値化画像を画面上の矩形の領域に領域化する処理を行う。この領域化処理では、差分二値化画像として抽出された画面上の変化画素領域を矩形で囲い、画面上からこの矩形の領域を抽出することによって、差分二値化画像を画面上の矩形の領域に領域化する。領域化処理部156は、この矩形の領域を示す、画面上に於ける位置及び大きさを示す左上(x0,y0)および右下(x1,y1)の座標データを矩形の領域情報として領域追跡処理部157に送出する。   The area processing unit 156 performs a process for converting the difference binarized image from which noise has been removed by the noise removal filter 154 into a rectangular area on the screen. In this area conversion process, the change pixel area on the screen extracted as the difference binarized image is surrounded by a rectangle, and this rectangle area is extracted from the screen, whereby the difference binarized image is Region into regions. The region processing unit 156 performs region tracking using the upper left (x0, y0) and lower right (x1, y1) coordinate data indicating the position and size on the screen indicating the rectangular region as rectangular region information. The data is sent to the processing unit 157.

領域追跡処理部157は、領域化処理部156から受けた矩形の領域情報をもとに、領域化処理部156が抽出した矩形の領域を追跡する処理を行う。領域追跡処理部157は、領域化処理部156が矩形の領域を抽出する都度、画面上の動きを伴う画像(動物体画像)の比較により抽出された差分二値化画像に代わって、領域化処理部156が抽出した矩形の領域を追跡処理対象オブジェクトとして追跡処理する。この領域追跡処理部157は、確定オブジェクト追跡部157aと、未確定オブジェクト追跡部157bと、新規オブジェクト登録部157cと、不要オブジェクト除去部157dとを具備して構成される。   The region tracking processing unit 157 performs processing for tracking the rectangular region extracted by the regioning processing unit 156 based on the rectangular region information received from the regioning processing unit 156. The area tracking processing unit 157 replaces the difference binarized image extracted by comparing images (animal body images) with motion on the screen every time the area processing unit 156 extracts a rectangular area. The rectangular area extracted by the processing unit 156 is tracked as a tracking target object. The area tracking processing unit 157 includes a confirmed object tracking unit 157a, an unconfirmed object tracking unit 157b, a new object registration unit 157c, and an unnecessary object removing unit 157d.

未確定オブジェクト追跡部157bは、確定オブジェクト追跡部157aが追跡しているオブジェクト(確定オブジェクト)を除く画面上の領域を対象に、オブジェクト(未確定オブジェクト)の追跡を行う。   The unconfirmed object tracking unit 157b tracks an object (unconfirmed object) for an area on the screen excluding the object (confirmed object) tracked by the confirmed object tracking unit 157a.

新規オブジェクト登録部157cは、確定オブジェクト追跡部157aが追跡しているオブジェクト、および未確定オブジェクト追跡部157bが追跡しているオブジェクトを除く画面上の領域を対象に、新規オブジェクトの登録処理を行う。   The new object registration unit 157c performs a new object registration process for the area on the screen excluding the object tracked by the confirmed object tracking unit 157a and the object tracked by the indeterminate object tracking unit 157b.

未確定オブジェクト追跡部157bは、領域追跡の都度、追跡している領域について、確定オブジェクト追跡部157aが領域予測に用いる所定の情報を生成し蓄積する処理機能をもつ。また、確定オブジェクト追跡部157aは、領域追跡の都度、未確定オブジェクト追跡部157bが生成した領域情報を用いて追跡オブジェクトを確定(確定オブジェクトとする)し、追跡を継続するとともに、追跡に用いた領域情報を用いて、領域予測に用いる所定の情報を更新する処理機能をもつ。   The unconfirmed object tracking unit 157b has a processing function for generating and storing predetermined information used by the confirmed object tracking unit 157a for region prediction for each region being tracked. In addition, the confirmed object tracking unit 157a uses the region information generated by the unconfirmed object tracking unit 157b each time region tracking is performed (confirms the tracking object), continues tracking, and is used for tracking. It has a processing function of updating predetermined information used for region prediction using region information.

確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bが複数回に亘り連続して追跡した(追跡に成功した)未確定オブジェクトを、確定オブジェクトとし、継続してオブジェクトを追跡処理するもので、領域化処理部156が矩形の領域を抽出する都度、領域化処理部156が抽出した矩形の領域の情報と、未確定オブジェクト追跡部157bが未確定オブジェクトの追跡時において生成した時系列の位置情報に基づく最小自乗近似により求めた予測方向に従う予測位置および予測領域の情報とをもとに、オブジェクト(確定オブジェクト)の追跡を行う。確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bが一定の期間に亘るオブジェクトの追跡処理で取得した情報(後述する、領域の幅、高さの平均値と標準偏差、および連続する画面相互の対応付けによって得られた画面上を移動する矩形の領域の速度の平均値と標準偏差等)を用いて、追跡に利用する領域の妥当性をチェックする。領域が不適当な場合は、予測情報を利用して追跡を継続する。さらに上記未確定オブジェクトの追跡処理で取得した領域の位置および速度の情報をもとに最小自乗(二乗)近似式により求めた予測移動方向情報を用いて現在領域の位置を予測し、その位置付近に出現した領域との対応付けを実施する。この確定オブジェクトの追跡処理は、設定されたパラメータの値に従う予測情報による連続追跡回数(例えば5回)又は総追跡回数(例えば300回)をもって終了する。さらに確定オブジェクト追跡部157aは、オブジェクトの追跡処理に於いて、未確定オブジェクト追跡部157bが生成した、オブジェクト情報を含む領域情報および移動速度情報、予測方向を更新する。これら各情報の具体例については後述する。   The confirmed object tracking unit 157a uses the unconfirmed object that has been continuously tracked (successfully tracked) by the unconfirmed object tracking unit 157b as a confirmed object, and continuously tracks the object. Each time the segmentation processing unit 156 extracts a rectangular region, the information on the rectangular region extracted by the segmentation processing unit 156 and the time-series position information generated by the unconfirmed object tracking unit 157b when tracking the unconfirmed object are included. The object (determined object) is tracked based on the prediction position and the prediction area information according to the prediction direction obtained by the least square approximation. The confirmed object tracking unit 157a receives information acquired by the unconfirmed object tracking unit 157b in the object tracking process over a certain period (the area width, the average value and the standard deviation of the height, and the mutual mutual screens described later). The validity of the area used for tracking is checked using the average speed and standard deviation of the rectangular area moving on the screen obtained by the association. If the area is inappropriate, tracking is continued using the prediction information. Further, the position of the current area is predicted using the predicted moving direction information obtained by the least square (square) approximation formula based on the position and speed information of the area acquired by the tracking process of the uncertain object, and the vicinity of the position Correspondence with the region that appeared in is performed. The tracking process of the definite object ends with the number of continuous tracking (for example, 5 times) or the total number of tracking (for example, 300 times) based on the prediction information according to the set parameter value. Further, the confirmed object tracking unit 157a updates the area information including the object information, the moving speed information, and the prediction direction generated by the unconfirmed object tracking unit 157b in the object tracking process. Specific examples of these pieces of information will be described later.

未確定オブジェクト追跡部157bは、新規オブジェクト登録部157cが登録した新規オブジェクトを未確定オブジェクトとして追跡処理するもので、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域(領域の幅及び高さ)を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行う。   The unconfirmed object tracking unit 157b tracks the new object registered by the new object registration unit 157c as an unconfirmed object, and whenever the regionizing processing unit 156 extracts a rectangular region, the previously extracted rectangular region ( A prediction region with an enlarged region width and height) is temporarily generated, and when the rectangular region extracted this time intersects with the prediction region, the currently extracted rectangular region is regarded as an undetermined object and object tracking is performed. I do.

未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域について、領域の幅(x方向)及び高さ(y方向)を拡大し、この拡大した領域を予測領域として、この予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行う。この実施形態では、予め設定したパラメータの値(ew/eh)に従い領域の幅と高さを拡げた予測領域を生成することによって、追跡処理のより簡素化並びに高速化を図っているが、追跡の都度、時系列に変化する領域の情報をもとに予測領域の幅と高さを設定し、予測領域の拡げる幅および高さを可変にすることも可能である。   The unconfirmed object tracking unit 157b enlarges the width (x direction) and height (y direction) of the previously extracted rectangular area each time the area processing unit 156 extracts the rectangular area. When the rectangular area extracted this time intersects with this prediction area as the prediction area, the object is traced with the rectangular area extracted this time as an undetermined object. In this embodiment, the tracking process is simplified and speeded up by generating a prediction area in which the width and height of the area are expanded in accordance with a preset parameter value (ew / eh). In each case, it is possible to set the width and height of the prediction region based on the information of the region that changes in time series, and to make the width and height that the prediction region expands variable.

さらに、未確定オブジェクト追跡部157bは、オブジェクトの追跡処理に於いて、時系列に変化する領域の情報をもとに、確定オブジェクト追跡部157aが継続してオブジェクトを追跡する際に必要とする情報を生成する。ここでは、オブジェクトの追跡処理に於いて、時系列に変化する領域の情報をもとに、オブジェクト情報を含む領域情報と、移動速度情報とを含む所定の情報を生成する。オブジェクト情報には、領域を特定する矩形および面積の情報、および領域切出画像(領域追跡には必要としない)が含まれ、領域情報には、領域幅情報(領域幅、領域幅二乗値)、領域高さ情報(領域高さ、領域高さ二乗値)、領域幅統計情報(平均値、標準偏差、変動率、総和、二乗総和(平均値と変動率は予測情報生成時に利用))、領域高さ統計情報(平均値、標準偏差、変動率、総和、二乗総和等(平均値と変動率は予測情報生成時に利用))等が含まれる。移動速度情報には、移動速度情報(移動速度、移動速度二乗値)、移動速度統計情報(平均値、標準偏差、変動率、総和、二乗総和(平均値と変動率は予測情報生成時に利用))等が含まれる。   Further, the unconfirmed object tracking unit 157b is information necessary for the object tracking unit 157a to continuously track the object based on the information of the region that changes in time series in the object tracking process. Is generated. Here, in the object tracking process, predetermined information including area information including object information and moving speed information is generated based on information of areas changing in time series. Object information includes rectangle and area information that identifies the area, and area cutout image (not required for area tracking), and area information includes area width information (area width, area width square value) , Region height information (region height, region height square value), region width statistical information (average value, standard deviation, variation rate, sum, square sum (average value and variation rate are used when generating forecast information)), Region height statistical information (average value, standard deviation, variation rate, sum, sum of squares, etc. (average value and variation rate are used when generating prediction information)) and the like are included. Moving speed information includes moving speed information (moving speed, moving speed square value), moving speed statistical information (average value, standard deviation, fluctuation rate, sum, square sum (average value and fluctuation rate are used when generating forecast information) ) Etc. are included.

確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bの追跡処理で生成した、これらの情報を使用し、更新しながら確定オブジェクトの追跡処理を行う。   The confirmed object tracking unit 157a uses the information generated by the tracking process of the unconfirmed object tracking unit 157b to perform the tracking process of the confirmed object while updating the information.

新規オブジェクト登録部157cは、上記確定オブジェクト追跡部157a、および未確定オブジェクト追跡部157bが追跡処理しているオブジェクトの追跡領域を除く画面上の領域に新たに出現した矩形の領域を新規オブジェクトとして認識し登録する処理を行う。この新規オブジェクトの登録処理では、領域化処理部156から受けた領域情報をもとに、矩形領域の位置(座標)および面積を示すオブジェクト情報を生成し、このオブジェクト情報を画像処理記憶部13の予め定められた記憶領域に格納する。   The new object registration unit 157c recognizes as a new object a rectangular area newly appearing in an area on the screen excluding the tracking area of the object being tracked by the confirmed object tracking part 157a and the unconfirmed object tracking part 157b. And register it. In this new object registration process, object information indicating the position (coordinates) and area of a rectangular area is generated based on the area information received from the area processing unit 156, and this object information is stored in the image processing storage unit 13. Store in a predetermined storage area.

不要オブジェクト除去部157dは、不要なオブジェクト(確定オブジェクトおよび不確定オブジェクト)を削除する処理を行う。不要オブジェクト除去部157dは、例えば未確定オブジェクト若しくは確定オブジェクトとして追跡しているオブジェクトが終了となった場合に、当該未確定オブジェクト若しくは確定オブジェクトを削除する(不要オブジェクトを画像処理記憶部13から消去する)。   The unnecessary object removing unit 157d performs a process of deleting unnecessary objects (determined objects and indeterminate objects). The unnecessary object removing unit 157d deletes the unconfirmed object or the confirmed object, for example, when the object being tracked as the unconfirmed object or the confirmed object ends (deletes the unnecessary object from the image processing storage unit 13). ).

表示部16は上記画像処理部15で画像処理された動物体領域を表示出力する。   The display unit 16 displays and outputs the moving object region image-processed by the image processing unit 15.

ここで、図2乃至図7を参照して上記画像処理部15に於けるオブジェクトの追跡処理動作を説明する。   Here, the object tracking processing operation in the image processing unit 15 will be described with reference to FIGS.

上記した画像処理部15に於けるオブジェクトの追跡処理手順を図2に示す。   FIG. 2 shows the object tracking processing procedure in the image processing unit 15 described above.

画像処理部15において、差分処理部152は、画像バッファ14に保持された過去画像と現在画像とを画素単位で比較し、変化した画素単位の領域を差分領域として抽出する(ステップS11)。この差分処理部152で差分処理した画像は、二値化処理部153により二値化され、領域化処理部156により画面上の矩形の領域に領域化される(ステップS12)。   In the image processing unit 15, the difference processing unit 152 compares the past image and the current image held in the image buffer 14 in pixel units, and extracts the changed pixel unit region as a difference region (step S11). The image subjected to the difference processing by the difference processing unit 152 is binarized by the binarization processing unit 153, and is segmented into a rectangular area on the screen by the area processing unit 156 (step S12).

領域追跡処理部157は、領域化処理部156が領域化した矩形の領域情報を入力すると、当該入力した矩形の領域情報を追跡対象オブジェクトとして追跡処理する。   When the area information processing unit 156 inputs the rectangular area information that has been converted into an area by the area processing unit 156, the area tracking processing unit 157 performs tracking processing on the input rectangular area information as a tracking target object.

初期動作時においては、追跡処理の対象となるオブジェクト(未確定オブジェクトおよび確定オブジェクト)が存在しないので、領域化処理部156から入力された矩形の領域が新規オブジェクト登録部157cにおいて、新規オブジェクトとして登録される(ステップS15)。   At the time of initial operation, there are no objects (undetermined objects and confirmed objects) to be tracked, so the rectangular area input from the area processing unit 156 is registered as a new object in the new object registration unit 157c. (Step S15).

新規オブジェクト登録部157cにおいて、新規オブジェクトが登録されると、領域化処理部156が再び矩形の領域を抽出する、次の処理サイクル以降において、未確定オブジェクト追跡部157bは、新規オブジェクト登録部157cが登録した新規オブジェクトを未確定オブジェクトとして追跡処理を開始する(ステップS14)。   When a new object is registered in the new object registration unit 157c, the region processing unit 156 extracts a rectangular region again. In the next processing cycle and thereafter, the unconfirmed object tracking unit 157b is updated by the new object registration unit 157c. The tracking process is started with the registered new object as an undetermined object (step S14).

この未確定オブジェクト追跡部157bにおける未確定オブジェクトの追跡は、新規オブジェクト登録部157cの登録処理にてエントリーされているオブジェクトに対して、前回抽出されたオブジェクトの位置と領域情報を利用して、現在の出現領域位置(以下予測領域と呼ぶ)を以下のように予測する。   The tracking of the unconfirmed object in the unconfirmed object tracking unit 157b is performed by using the position and area information of the object extracted last time for the object entered in the registration process of the new object registration unit 157c. The position of the appearance area (hereinafter referred to as the prediction area) is predicted as follows.

未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、図3に示すように、前回抽出した矩形の領域301を拡大した予測領域302を生成し、この予測領域302に、今回抽出した矩形の領域303が交差するとき、今回抽出した矩形の領域303を未確定オブジェクトとして、オブジェクトの追跡を行う。   As shown in FIG. 3, each time the uncertain object tracking unit 157 b extracts a rectangular region, the regionizing processing unit 156 generates a prediction region 302 obtained by enlarging the previously extracted rectangular region 301. In addition, when the rectangular area 303 extracted this time intersects, the object is traced with the rectangular area 303 extracted this time as an undetermined object.

未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域301に対して、当該領域の位置座標(x0,y0),(x1,y1)、およびこの座標値をもとに生成された領域の幅および高さの情報から求まる中心座標(重心位置)cp(mid X,mid Y)と、設定されたパラメータの値(ex/eh)をもとに、領域幅をexピクセル分、領域高さをehピクセル分、それぞれ両方向に拡大した、予測領域302を生成し、この予測領域302に、今回抽出した矩形の領域303が交差するとき、今回抽出した矩形の領域303を未確定オブジェクトとして、オブジェクトの追跡を続行する。なお、予測領域302は、今回の追跡処理の終了に伴い消滅する一時的な領域である。   Each time the region processing unit 156 extracts a rectangular region, the unconfirmed object tracking unit 157b performs the position coordinates (x0, y0), (x1, y1) of the region on the previously extracted rectangular region 301, Also, the center coordinates (center of gravity position) cp (mid X, mid Y) obtained from the width and height information of the area generated based on the coordinate values and the set parameter values (ex / eh) are also obtained. In addition, a prediction region 302 is generated in which the region width is expanded by ex pixels and the region height is expanded by eh pixels in both directions, and when the rectangular region 303 extracted this time intersects with the prediction region 302, The extracted rectangular area 303 is set as an undetermined object, and object tracking is continued. Note that the prediction area 302 is a temporary area that disappears with the end of the current tracking process.

この際、今回抽出した矩形の領域が1つも予測領域に交差しないときは、不要オブジェクト除去部157dにより、当該未確定オブジェクトを不要オブジェクトであるとして、削除する(ステップS16)。   At this time, when no rectangular area extracted this time intersects the prediction area, the unnecessary object removing unit 157d deletes the unconfirmed object as an unnecessary object (step S16).

さらに未確定オブジェクト追跡部157bは、領域化処理部156が抽出した矩形の領域が追跡対象領域であるとき、当該領域の位置座標(x0,y0)、(x1,y1)と、この位置座標をもとに生成した、領域の幅(x1−x0)および高さ(y1−y0)、面積、中心座標cp(mid X,mid Y)等の各情報を画像処理記憶部13の予め定められた記憶領域に格納する。   Further, when the rectangular area extracted by the area processing unit 156 is a tracking target area, the unconfirmed object tracking section 157b determines the position coordinates (x0, y0), (x1, y1) of the area and the position coordinates. Each information such as the width (x1-x0) and height (y1-y0), area, and center coordinates cp (mid X, mid Y) of the generated area is determined in advance in the image processing storage unit 13. Store in the storage area.

上記した未確定オブジェクト追跡部157bの追跡処理により、ある未確定オブジェクトが連続して複数回追跡され、その追跡処理の回数が、予め設定されたパラメータの値に従う追跡回数(例えば5回)になったとき、この未確定オブジェクトを確定オブジェクトにするか否かの判定を行う。この判定処理は、確定オブジェクト追跡部157a、未確定オブジェクト追跡部157bのいずれで行ってもよいが、ここでは未確定オブジェクト追跡部157bが行うものとする。   By the tracking process of the above-mentioned unconfirmed object tracking unit 157b, a certain unconfirmed object is continuously tracked a plurality of times, and the number of tracking processes becomes the number of tracking according to a preset parameter value (for example, five times). At this time, it is determined whether or not this unconfirmed object is to be a confirmed object. This determination process may be performed by either the confirmed object tracking unit 157a or the unconfirmed object tracking unit 157b, but here, it is assumed that the unconfirmed object tracking unit 157b performs.

未確定オブジェクト追跡部157bは、未確定オブジェクトを所定回数(ここでは5回)連続して追跡したとき、未確定オブジェクトを連続して追跡した際に生成し採取した各領域の情報をもとに、領域幅、領域高さ、移動速度の各標準偏差を求め、この各標準偏差をパラメータにより予め設定した図4に示す許容標準偏差(s)(領域幅、領域高さ、移動速度にそれぞれで許容標準偏差は異なるパラメータで設定する)と比較することにより行う。ここで、未確定オブジェクトの情報をもとに生成した、領域幅、領域高さ、移動速度の各標準偏差が、それぞれパラメータにより設定された許容標準偏差(s)以内であるとき、その未確定オブジェクトを確定オブジェクトとする。未確定オブジェクトの情報をもとに生成した、領域幅、領域高さ、移動速度の各標準偏差のうち、少なくとも一つの標準偏差が、パラメータにより設定された許容標準偏差(s)より大きいとき、出現領域のばらつきが大きいとして、この未確定オブジェクトの追跡を終了する。不要オブジェクト除去部157dによりこの未確定オブジェクトを削除する。   When the unconfirmed object is continuously tracked for a predetermined number of times (here, 5 times), the unconfirmed object tracking unit 157b is based on the information of each region generated and collected when the unconfirmed object is continuously tracked. , Area width, area height, and moving speed standard deviations are obtained, and the standard deviations are set in advance by parameters according to the allowable standard deviation (s) shown in FIG. The allowable standard deviation is set with different parameters). Here, when each standard deviation of the region width, region height, and moving speed generated based on the information of the unconfirmed object is within the allowable standard deviation (s) set by the parameters, the unconfirmed Let the object be a definite object. When at least one standard deviation among the standard deviations of the area width, area height, and moving speed generated based on the information of the undefined object is larger than the allowable standard deviation (s) set by the parameter, The tracking of this undetermined object is terminated because the variation of the appearance area is large. The undetermined object is deleted by the unnecessary object removing unit 157d.

この判定で、確定オブジェクトと判定されたオブジェクトに対して、確定オブジェクト追跡部157aは、予測方向と領域幅、領域高さ、移動速度の変動率を算出し、これらの情報を用いて領域予測を行い、上記確定オブジェクトと判定されたオブジェクトについて継続して追跡処理を行う(ステップS13)。   With this determination, the confirmed object tracking unit 157a calculates a prediction direction, a region width, a region height, and a moving rate variation rate for the object determined to be a confirmed object, and uses these information to perform region prediction. Then, the tracking process is continuously performed for the object determined as the confirmed object (step S13).

確定オブジェクト追跡部157aは、領域化処理部156が矩形の領域を抽出する都度、この領域化処理部156が抽出した矩形の領域に対し、未確定オブジェクト追跡部157bが未確定オブジェクトの追跡時において生成した時系列の位置情報に基づく最小自乗近似により求めた予測方向に従う予測位置に予測領域を生成し、この予測領域を用いて確定オブジェクトの追跡を開始する。   Whenever the region processing unit 156 extracts a rectangular region, the confirmed object tracking unit 157a performs the unconfirmed object tracking unit 157b at the time of tracking the uncertain object with respect to the rectangular region extracted by the region processing unit 156. A prediction area is generated at a prediction position according to the prediction direction obtained by the least square approximation based on the generated time-series position information, and tracking of the definite object is started using the prediction area.

この確定オブジェクトの追跡処理は、図5に示すように、前回抽出した矩形の領域(過去の領域)501の位置及び領域と、当該領域の重心位置cp(mid X,mid Y)と、予測方向(d)から求まる予測移動方向Pd(角度θb)と、移動速度とをもとに予測領域502を生成し、この予測領域502に、今回抽出した矩形の領域(現在の領域)503が交差するとき、今回抽出した矩形の領域503を確定オブジェクトとして、オブジェクトの追跡を続行する。この際の予測移動方向Pd(角度θb)の算出は、図6に示すように、位置統計情報から、最小二乗法による係数Aと係数Bを求め、相関係数を算出する。そして、現在位置情報(x)と最も古い位置情報(x)を利用して、近似直線の相関係数が高い場合は、最新、最古の位置情報xに対する近似直線上のYを求め、それぞれの位置情報から予測移動方向Pd(角度θa)を求める。相関が低い場合には最新、最古の座標情報yから予測移動方向(角度θb)を求め利用する。   As shown in FIG. 5, the tracking process of the fixed object includes the position and area of the previously extracted rectangular area (past area) 501, the barycentric position cp (mid X, mid Y) of the area, and the prediction direction. A prediction area 502 is generated based on the predicted movement direction Pd (angle θb) obtained from (d) and the movement speed, and the rectangular area (current area) 503 extracted this time intersects with this prediction area 502. At this time, the rectangular area 503 extracted this time is set as a confirmed object, and the object tracking is continued. In this case, as shown in FIG. 6, the predicted moving direction Pd (angle θb) is calculated by obtaining a coefficient A and a coefficient B by the least square method from the position statistical information and calculating a correlation coefficient. Then, using the current position information (x) and the oldest position information (x), when the correlation coefficient of the approximate line is high, Y on the approximate line with respect to the latest and oldest position information x is obtained, The predicted movement direction Pd (angle θa) is obtained from the position information of When the correlation is low, the predicted moving direction (angle θb) is obtained from the latest and oldest coordinate information y and used.

この確定オブジェクトの追跡処理において、予測領域502に、複数の領域が交差するときは、この複数の領域をそれぞれ候補領域として、交差面積が最も大きい候補領域から、順に、領域の妥当性判断を行い、妥当性の高い候補の領域を追跡対象領域(追跡する確定オブジェクト)とする。この際の妥当性の判定は、図7の領域幅、領域高さ、移動速度、それぞれの統計情報における各標準偏差×3(3σ)を用いて、領域幅、領域高さ、移動速度の各妥当性を判断し、(3σ)よりも差が大きいとき、妥当でないと判断する。領域幅、領域高さ、移動速度の少なくともいずれか2つの妥当性が確認されたとき、その候補領域を追跡対象領域(追跡する確定オブジェクト)とする。上記の妥当性が確認されないときは次の候補領域に対して上記同様の判定処理を行う。追跡対象領域が確定した時、その領域情報を追加して、領域幅統計情報、領域高さ統計情報、移動速度統計情報、予測方向の更新を行う。追跡対象領域が確定できなかった場合は、予測領域を現在領域としてこれら統計情報、予測方向の更新を行う。この確定オブジェクトの追跡処理は、予測領域上に1つも交差する領域が存在しない状態が連続して発生し、設定されたパラメータ値に従う予測情報による連続追跡回数(例えば5回)に達した場合、又は総追跡回数(例えば300回)に達した場合をもって終了する。   In the tracking process of the definite object, when a plurality of regions intersect the predicted region 502, the plurality of regions are set as candidate regions, and the validity of the region is judged in order from the candidate region having the largest intersection area. A candidate area with high validity is set as a tracking target area (a confirmed object to be tracked). In this case, the validity is determined by using the area width, area height, moving speed, standard deviation of each statistical information × 3 (3σ) in FIG. The validity is judged, and when the difference is larger than (3σ), it is judged not valid. When the validity of at least two of the area width, area height, and moving speed is confirmed, the candidate area is set as a tracking target area (determined object to be tracked). When the validity is not confirmed, the same determination process is performed on the next candidate area. When the tracking target region is determined, the region information is added, and the region width statistical information, the region height statistical information, the moving speed statistical information, and the prediction direction are updated. If the tracking target area cannot be determined, the statistical information and the prediction direction are updated using the prediction area as the current area. In the tracking process of the definite object, when a state where no region intersects the predicted region continuously occurs and the number of continuous tracking by the prediction information according to the set parameter value (for example, five times) is reached, Alternatively, the process ends when the total number of tracking times (for example, 300 times) is reached.

上記した、新規オブジェクトの登録処理(ステップS15)と、未確定オブジェクトの追跡処理(ステップS13)と、確定オブジェクトの追跡処理(ステップS14)とを繰り返し実行することによって、カメラ11で撮影した画面上の変化領域の追跡処理を効率よく実行することができる。また、上記した領域追跡処理部157の各処理機能をプログラムパッケージ化して提供することにより、既存の画像処理システムにおいて、未確定オブジェクト追跡処理機能と、確定オブジェクト追跡処理機能とを組み合わせた、簡素で高速な処理を可能にした画像追跡処理システムを容易に構築することができる。   By repeatedly executing the new object registration process (step S15), the unconfirmed object tracking process (step S13), and the confirmed object tracking process (step S14) as described above, It is possible to efficiently execute the tracking process of the change area. Further, by providing each processing function of the area tracking processing unit 157 as a program package, a simple and simple combination of an unconfirmed object tracking processing function and a confirmed object tracking processing function in an existing image processing system. An image tracking processing system capable of high-speed processing can be easily constructed.

本発明の実施形態に係る画像処理装置の構成を示すブロック図。1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 上記実施形態に係る画像処理装置の処理手順を示すフローチャート。6 is a flowchart showing a processing procedure of the image processing apparatus according to the embodiment. 上記実施形態に係る未確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation | movement of the undetermined object tracking part which concerns on the said embodiment. 上記実施形態に係る未確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation | movement of the undetermined object tracking part which concerns on the said embodiment. 上記実施形態に係る確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation of the definite object tracking part which concerns on the said embodiment. 上記実施形態に係る確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation of the definite object tracking part which concerns on the said embodiment. 上記実施形態に係る確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation of the definite object tracking part which concerns on the said embodiment.

符号の説明Explanation of symbols

11…カメラ、12…キャプチャ部、13…画像処理記憶部、15…画像処理部、16…表示部、151…前処理部、152…差分処理部、153…二値化処理部、154…ノイズ除去フィルタ、156…領域化処理部、157…領域追跡処理部、157a…確定オブジェクト追跡部、157b…未確定オブジェクト追跡部、157c…新規オブジェクト登録部、157d…不要オブジェクト除去部。   DESCRIPTION OF SYMBOLS 11 ... Camera, 12 ... Capture part, 13 ... Image processing memory | storage part, 15 ... Image processing part, 16 ... Display part, 151 ... Pre-processing part, 152 ... Difference processing part, 153 ... Binarization processing part, 154 ... Noise Removal filter, 156... Regionalization processing unit, 157... Region tracking processing unit, 157a... Confirmed object tracking unit, 157b... Unconfirmed object tracking unit, 157c ... new object registration unit, 157d.

Claims (8)

所定の周期で入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理手段と、
前記領域抽出処理手段が抽出した領域のうち、新たに抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理手段と、
前記新規オブジェクトの登録処理手段により登録されたオブジェクトを未確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理手段と、
前記未確定オブジェクトの追跡処理手段が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報に基づいて予測した予測領域情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理手段と、
を具備したことを特徴とする画像処理装置。
A region extraction processing means for extracting a rectangular region including a changed pixel by differentially processing a current image on the screen and a past image input at a predetermined cycle;
A new object registration processing means for registering a newly extracted area as a new object to be tracked among the areas extracted by the area extraction processing means;
The object registered by the new object registration processing unit is set as an unconfirmed object, and each time the region extraction processing unit extracts a region, the unregistered object is extracted based on the currently extracted region information and the previously extracted region information. A tracking processing means for an indeterminate object for tracking a confirmed object;
For each unconfirmed object that has been tracked by the unconfirmed object tracking processing unit for a predetermined time, each time the region extraction processing unit extracts a region using the object as a confirmed object, the extracted region information and the unconfirmed object Based on the prediction area information predicted based on the information of each area that has changed in time series of the confirmation object, the confirmation object tracking processing means for tracking the confirmation object,
An image processing apparatus comprising:
前記未確定オブジェクトの追跡処理手段は、前記確定オブジェクトの追跡処理手段が追跡しているオブジェクトを除く画面上の領域を対象に未確定オブジェクトの追跡を行い、
前記新規オブジェクトの登録処理手段は、前記確定オブジェクトの追跡処理手段が追跡しているオブジェクト、および前記未確定オブジェクトの追跡処理手段が追跡しているオブジェクトを除く画面上の領域を対象に新規オブジェクトの登録を行うことを特徴とする請求項1に記載の画像処理装置。
The indeterminate object tracking processing means performs tracking of the indeterminate object for an area on the screen excluding the object being tracked by the confirmed object tracking processing means,
The new object registration processing means includes a new object for an area on the screen excluding an object tracked by the confirmed object tracking processing means and an object tracked by the indeterminate object tracking processing means. The image processing apparatus according to claim 1, wherein registration is performed.
前記未確定オブジェクトの追跡処理手段は、領域追跡の都度、追跡している領域について、前記確定オブジェクトの追跡処理手段が領域予測に用いる所定の情報を生成し蓄積する処理手段を具備し、前記確定オブジェクトの追跡処理手段は、領域追跡の都度、前記確定オブジェクトの追跡処理手段が生成した前記所定の情報を用いて前記確定オブジェクトを追跡し当該追跡に用いた情報を更新する処理手段を具備することを特徴とする請求項2に記載の画像処理装置。   The unconfirmed object tracking processing means includes processing means for generating and storing predetermined information used by the confirmed object tracking processing means for region prediction, for each area being tracked, for the region to be tracked. The object tracking processing means includes processing means for tracking the confirmed object and updating the information used for the tracking using the predetermined information generated by the confirmed object tracking processing means every time the area is tracked. The image processing apparatus according to claim 2. 前記未確定オブジェクトの追跡処理手段は、前記抽出した領域の情報をもとに前回抽出した矩形の領域を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行うことを特徴とする請求項3に記載の画像処理装置。   The unconfirmed object tracking processing unit temporarily generates a prediction area obtained by enlarging the previously extracted rectangular area based on the extracted area information, and the rectangular area extracted this time is included in the prediction area. 4. The image processing apparatus according to claim 3, wherein, when intersecting, the object is traced by using the rectangular area extracted this time as an undetermined object. 前記確定オブジェクトの追跡手段は、前記抽出した領域の情報と、前記未確定オブジェクトの追跡時における時系列の位置情報に基づく最小自乗近似により求め、追跡の都度更新される予測方向に従う予測領域の情報と移動速度情報をもとに、オブジェクトの追跡を行うことを特徴とする請求項3または4に記載の画像処理装置。   The confirmed object tracking means obtains the information of the extracted region and the information of the predicted region according to the prediction direction which is obtained by the least square approximation based on the time-series position information at the time of tracking the unconfirmed object and is updated each time tracking is performed. The image processing apparatus according to claim 3, wherein the object is tracked based on the movement speed information. カメラで撮影した撮像画面を所定の周期で入力し、入力した画面上の現在画像と過去画像から変化画素を含む領域を抽出し追跡する画像処理装置としてコンピュータを機能させるための領域追跡プログラムであって、
今回入力した画面上の画像と前回入力した画面上の画像とを差分処理して画面上の変化した画素を含む矩形の領域を抽出する領域抽出機能と、
前記領域抽出機能により抽出された領域が、前記画面上で新たに抽出された領域であるか否かを判定し、新たに抽出された領域であるとき、当該抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理機能と、
前記新規オブジェクトの登録処理機能により登録されたオブジェクトについて、当該オブジェクトを未確定オブジェクトとして、前記領域抽出機能が前記領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理機能と、
前記未確定オブジェクトの追跡処理機能が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理機能が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報とに基づいて予測した予測領域情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理機能と
をコンピュータに実現させるための領域追跡プログラム。
This is an area tracking program that allows a computer to function as an image processing device that inputs an imaged screen shot by a camera at a predetermined cycle and extracts and tracks a region including changed pixels from the current image and past image on the input screen. And
An area extraction function for extracting a rectangular area including a changed pixel on the screen by performing a difference process between the image on the screen input this time and the image on the screen previously input;
It is determined whether or not the region extracted by the region extraction function is a newly extracted region on the screen. When the region is a newly extracted region, the extracted region is subject to tracking processing. A new object registration process function to be registered as a new object,
For each object registered by the new object registration processing function, each time the region extraction function extracts the region with the object as an undetermined object, the information of the region extracted this time and the information of the region extracted last time are included. And a tracking processing function for an indeterminate object for tracking the indeterminate object;
With respect to an indeterminate object that has been continuously tracked by the indeterminate object tracking process function for a predetermined time, each time the area extraction process function extracts an area with the object as a confirmed object, the extracted area information and the undetermined object An area tracking program for causing a computer to realize a tracking process function of a confirmed object that tracks the confirmed object based on predicted area information predicted based on information of each area that has changed in time series of the confirmed object .
前記未確定オブジェクトの追跡処理機能は、前記抽出した領域の領域情報をもとに前回抽出した矩形の領域を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行う追跡処理機能をコンピュータに実現させることを特徴とする請求項6に記載の領域追跡プログラム。   The indeterminate object tracking processing function temporarily generates a prediction area obtained by enlarging the previously extracted rectangular area based on the area information of the extracted area, and the rectangular area extracted this time is generated in the prediction area. 7. The area tracking program according to claim 6, wherein when the two intersect each other, the computer realizes a tracking processing function for tracking the object using the rectangular area extracted this time as an undetermined object. 前記確定オブジェクトの追跡処理機能は、前記抽出した領域の情報と、前記未確定オブジェクトの追跡時における時系列の位置情報に基づく最小自乗近似により求め追跡の都度更新される予測方向に従う予測領域の情報と移動速度情報をもとに、オブジェクトの追跡を行う追跡処理機能をコンピュータに実現させることを特徴とする請求項6または7に記載の領域追跡プログラム。   The confirmed object tracking processing function includes information on the extracted area and prediction area information according to a prediction direction obtained by least square approximation based on time series position information at the time of tracking the undefined object and updated each time tracking is performed. The area tracking program according to claim 6 or 7, wherein a computer realizes a tracking processing function for tracking an object based on the movement speed information.
JP2006350114A 2006-12-26 2006-12-26 Image processing apparatus and area tracking program Active JP4427052B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006350114A JP4427052B2 (en) 2006-12-26 2006-12-26 Image processing apparatus and area tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006350114A JP4427052B2 (en) 2006-12-26 2006-12-26 Image processing apparatus and area tracking program

Publications (2)

Publication Number Publication Date
JP2008158984A true JP2008158984A (en) 2008-07-10
JP4427052B2 JP4427052B2 (en) 2010-03-03

Family

ID=39659792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006350114A Active JP4427052B2 (en) 2006-12-26 2006-12-26 Image processing apparatus and area tracking program

Country Status (1)

Country Link
JP (1) JP4427052B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210286A (en) * 2008-02-29 2009-09-17 Toshiba Teli Corp Apparatus and program for image processing
JP2014074977A (en) * 2012-10-03 2014-04-24 National Institute Of Advanced Industrial & Technology Image processing apparatus, image processing method, and image processing program
KR20160037643A (en) * 2014-09-29 2016-04-06 에스케이텔레콤 주식회사 Method and Apparatus for Setting Candidate Area of Object for Recognizing Object
KR102310613B1 (en) * 2021-05-14 2021-10-12 주식회사 인피닉 Method for tracking object in continuous 2D image, and computer program recorded on record-medium for executing method therefor
KR102310611B1 (en) * 2021-06-17 2021-10-13 주식회사 인피닉 Method for tracking object through 2D path inference, and computer program recorded on record-medium for executing method therefor
KR102313940B1 (en) * 2021-05-14 2021-10-18 주식회사 인피닉 Method for tracking object in continuous 3D data, and computer program recorded on record-medium for executing method therefor
KR102313938B1 (en) * 2021-06-17 2021-10-18 주식회사 인피닉 Method for tracking object through 3D path inference, and computer program recorded on record-medium for executing method therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6286474B2 (en) * 2016-04-19 2018-02-28 東芝テリー株式会社 Image processing apparatus and area tracking program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210286A (en) * 2008-02-29 2009-09-17 Toshiba Teli Corp Apparatus and program for image processing
JP2014074977A (en) * 2012-10-03 2014-04-24 National Institute Of Advanced Industrial & Technology Image processing apparatus, image processing method, and image processing program
KR20160037643A (en) * 2014-09-29 2016-04-06 에스케이텔레콤 주식회사 Method and Apparatus for Setting Candidate Area of Object for Recognizing Object
KR102085035B1 (en) * 2014-09-29 2020-03-05 에스케이 텔레콤주식회사 Method and Apparatus for Setting Candidate Area of Object for Recognizing Object
KR102310613B1 (en) * 2021-05-14 2021-10-12 주식회사 인피닉 Method for tracking object in continuous 2D image, and computer program recorded on record-medium for executing method therefor
KR102313940B1 (en) * 2021-05-14 2021-10-18 주식회사 인피닉 Method for tracking object in continuous 3D data, and computer program recorded on record-medium for executing method therefor
KR102310611B1 (en) * 2021-06-17 2021-10-13 주식회사 인피닉 Method for tracking object through 2D path inference, and computer program recorded on record-medium for executing method therefor
KR102313938B1 (en) * 2021-06-17 2021-10-18 주식회사 인피닉 Method for tracking object through 3D path inference, and computer program recorded on record-medium for executing method therefor

Also Published As

Publication number Publication date
JP4427052B2 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
JP6286474B2 (en) Image processing apparatus and area tracking program
JP4427052B2 (en) Image processing apparatus and area tracking program
JP6204659B2 (en) Video processing apparatus and video processing method
US7940957B2 (en) Object tracker for visually tracking object motion
KR101121034B1 (en) System and method for obtaining camera parameters from multiple images and computer program products thereof
CN108876804B (en) Matting model training and image matting method, device and system and storage medium
CN108986152B (en) Foreign matter detection method and device based on difference image
JP5538868B2 (en) Image processing apparatus, image processing method and program
JP2013524593A (en) Methods and configurations for multi-camera calibration
JP2016194895A (en) Method, device, and system for creating indoor two-dimentional (2d) floor plan
JP2019114103A (en) Object recognition processing device, object recognition processing method and program
CN110926330A (en) Image processing apparatus, image processing method, and program
CN108875500B (en) Pedestrian re-identification method, device and system and storage medium
JP2009211122A (en) Image processor and object estimation program
CN110673607A (en) Feature point extraction method and device in dynamic scene and terminal equipment
US9305235B1 (en) System and method for identifying and locating instances of a shape under large variations in linear degrees of freedom and/or stroke widths
US9135715B1 (en) Local feature cameras for structure from motion (SFM) problems with generalized cameras
JPH04130587A (en) Three-dimensional picture evaluation device
CN116503567A (en) Intelligent modeling management system based on AI big data
CN116051736A (en) Three-dimensional reconstruction method, device, edge equipment and storage medium
Yang et al. Design flow of motion based single camera 3D mapping
CN113592777A (en) Image fusion method and device for double-shooting and electronic system
Skłodowski et al. Movement tracking in terrain conditions accelerated with CUDA
JP6641313B2 (en) Region extraction device and program
Depraz et al. Real-time object detection and tracking in omni-directional surveillance using GPU

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091211

R150 Certificate of patent or registration of utility model

Ref document number: 4427052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250