JP2008158984A - Image processor and area tracing program - Google Patents
Image processor and area tracing program Download PDFInfo
- Publication number
- JP2008158984A JP2008158984A JP2006350114A JP2006350114A JP2008158984A JP 2008158984 A JP2008158984 A JP 2008158984A JP 2006350114 A JP2006350114 A JP 2006350114A JP 2006350114 A JP2006350114 A JP 2006350114A JP 2008158984 A JP2008158984 A JP 2008158984A
- Authority
- JP
- Japan
- Prior art keywords
- area
- tracking
- region
- information
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 51
- 239000000284 extract Substances 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 17
- 238000012790 confirmation Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 17
- 238000007781 pre-processing Methods 0.000 description 7
- 238000009792 diffusion process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 230000007261 regionalization Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241000207961 Sesamum Species 0.000 description 1
- 235000003434 Sesamum indicum Nutrition 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、単眼カメラで撮影した特定画像の追跡処理に適用して好適な画像処理装置および領域追跡プログラムに関する。 The present invention relates to an image processing apparatus and a region tracking program that are suitable for application to tracking processing of a specific image captured by a monocular camera.
カメラで撮影した画像から動きを伴う画像領域を抽出し追跡する追跡処理技術として、従来では、焦点距離やCCDサイズ等の各種カメラ情報から、抽出された領域の実サイズや位置を計測し、動きを伴う領域を追跡する技術が存在する。しかしながら、この種の領域追跡処理技術においては、カメラ情報を含む膨大な情報の管理や多大な設定工数を必要とし、三次元計測処理等の複雑な処理が必要となることから、ソフトウェア及びハードウェアにかかる処理負荷が大きいという問題があった。 As a tracking processing technology that extracts and tracks image areas with movement from images taken with a camera, conventionally, the actual size and position of the extracted area are measured from various camera information such as focal length and CCD size, and the movement There are techniques for tracking regions with However, this type of area tracking processing technology requires management of enormous information including camera information and a large amount of setting man-hours, and requires complicated processing such as three-dimensional measurement processing. There is a problem that the processing load on the system is large.
また、特定の領域を対象とした追跡処理技術として、カメラで撮影した変化領域の濃淡画像から、実空間の平面に擬似的に投影変換した画像を作成し、作成した画像を個別の領域に分離し、個々に追跡して、フレーム間の動きベクトルから移動軌跡を抽出する技術が存在した。しかしながらこの種、従来の領域追跡処理手段においては、実空間変換用マップの作成処理、実空間への画像変換処理等、種々の煩雑な処理を必要とすることから、ソフトウェア及びハードウェアにかかる処理負荷が大きいという問題があった。
本発明は、上記した従来の問題点を解決するためになされたもので、撮影した画像から変化画素を含む領域を抽出し追跡する領域追跡処理の処理負荷を著しく軽減でき、ハードウェアおよびソフトウェアを簡素化して処理の高速化が図れる画像処理装置および領域追跡プログラムを提供することを目的とする。 The present invention has been made to solve the above-described conventional problems, and can significantly reduce the processing load of the area tracking process for extracting and tracking the area including the changed pixel from the photographed image. An object of the present invention is to provide an image processing apparatus and an area tracking program that can be simplified and speed up processing.
本発明は、所定の周期で入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理手段と、前記領域抽出処理手段が抽出した領域のうち、新たに抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理手段と、前記新規オブジェクトの登録処理手段により登録されたオブジェクトを未確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理手段と、前記未確定オブジェクトの追跡処理手段が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報に基づいて予測した予測領域情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理手段とを具備した画像処理装置を提供する。 The present invention includes a region extraction processing unit that extracts a rectangular region including a changed pixel by performing a difference process between a current image on a screen and a past image input at a predetermined period, and a region extracted by the region extraction processing unit Among these, the newly extracted region is registered as a new object to be tracked and a new object registration processing unit, and the object registered by the new object registration processing unit is used as an unconfirmed object to extract the region. Each time the processing means extracts an area, the unconfirmed object tracking processing means for tracking the unconfirmed object based on the information of the area extracted this time and the information of the area extracted last time, and the tracking process of the unconfirmed object For an indeterminate object that has been tracked for a predetermined time by the means, Each time the region extraction processing means extracts a region, the confirmation is based on the information on the extracted region and the predicted region information predicted based on the information on each region changed in time series of the unconfirmed object. Provided is an image processing apparatus including a tracking processing unit for a confirmed object that tracks an object.
また、本発明は、カメラで撮影した撮像画面を所定の周期で入力し、入力した画面上の現在画像と過去画像から変化画素を含む領域を抽出し追跡する画像処理装置としてコンピュータを機能させるための領域追跡プログラムであって、今回入力した画面上の画像と前回入力した画面上の画像とを差分処理して画面上の変化した画素を含む矩形の領域を抽出する領域抽出機能と、前記領域抽出機能により抽出された領域が、前記画面上で新たに抽出された領域であるか否かを判定し、新たに抽出された領域であるとき、当該抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理機能と、前記新規オブジェクトの登録処理機能により登録されたオブジェクトについて、当該オブジェクトを未確定オブジェクトとして、前記領域抽出機能が前記領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理機能と、前記未確定オブジェクトの追跡処理機能が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理機能が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報とに基づき、追跡の都度更新される予測方向に従う予測領域の情報と移動速度情報をもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理機能とをコンピュータに実現させるための領域追跡プログラムを提供する。 In addition, the present invention allows a computer to function as an image processing apparatus that inputs an imaging screen shot by a camera at a predetermined cycle and extracts and tracks a region including a change pixel from the current image and past image on the input screen. A region extraction function for extracting a rectangular region including a changed pixel on the screen by performing a difference process between the image on the screen input this time and the image on the screen input last time, and the region It is determined whether the area extracted by the extraction function is a newly extracted area on the screen. When the area is newly extracted, the extracted area is a target of the tracking process. For an object registered by a new object registration processing function to be registered as a new object and the new object registration processing function, the object is indeterminate. As an object, each time the region extraction function extracts the region, the unconfirmed object tracking processing function for tracking the unconfirmed object based on the information on the region extracted this time and the information on the region extracted last time, For an indeterminate object that has been tracked for a predetermined time by the indeterminate object tracking function, each time the area extraction process function extracts an area with the object as a definite object, the extracted area information and the indeterminate Based on the information of each region that has changed in time series of the object, based on the prediction region information updated according to the prediction direction and the moving speed information, the tracking processing function of the confirmed object that tracks the confirmed object; An area tracking program for realizing the above on a computer is provided.
本発明によれば、カメラで撮影した画像から変化画素を含む領域を抽出し追跡する領域追跡処理の処理負荷を著しく軽減できる。これによりハードウェアおよびソフトウェアを簡素化して処理の高速化を図ることができる。 According to the present invention, it is possible to remarkably reduce the processing load of the area tracking process for extracting and tracking an area including a change pixel from an image captured by a camera. As a result, hardware and software can be simplified to increase the processing speed.
本発明は、単眼カメラ(1台のカメラ)の画像処理において、画像を取り込む毎に、過去画像と現在画像との差から画像中の変化画素領域を矩形の領域として抽出し、時系列に得られた抽出領域の情報から現在の領域の対応付けを行い、領域の移動を追跡する。 In the image processing of a monocular camera (one camera), the present invention extracts a change pixel region in an image as a rectangular region from the difference between a past image and a current image each time an image is captured, and obtains it in time series. The current region is associated with the extracted region information, and the movement of the region is tracked.
この領域追跡処理を実現するため、本発明は、画面上の変化画素領域を矩形の領域として抽出し、この領域を追跡する二種の領域追跡処理手段を有して、これら各領域追跡処理手段により段階的に継続して領域追跡を行うことで、処理負荷の軽減と処理速度の高速化を図った効率の良い領域追跡を可能にしている。 In order to realize this area tracking processing, the present invention has two types of area tracking processing means for extracting the changed pixel area on the screen as a rectangular area and tracking this area, and each of these area tracking processing means Thus, the region tracking is performed step by step, thereby enabling efficient region tracking with reduced processing load and increased processing speed.
上記した二種の領域追跡処理手段として、未確定オブジェクトの追跡処理手段と、確定オブジェクトの追跡処理手段とを備える。未確定オブジェクトの追跡手段は、時系列に抽出した領域の領域情報をもとに前回抽出した矩形の領域を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとしてオブジェクトの追跡を行う。確定オブジェクトの追跡手段は、抽出した領域の領域情報と、未確定オブジェクトの追跡に伴う時系列の位置情報に基づく最小自乗(二乗)近似により求め、追跡の都度更新される予測方向に従い生成した予測領域情報と移動速度情報をもとに、確定オブジェクトの追跡を行う。 As the above-described two types of area tracking processing means, an unconfirmed object tracking processing means and a confirmed object tracking processing means are provided. The indeterminate object tracking means temporarily generates a prediction area obtained by enlarging the previously extracted rectangular area based on the area information of the area extracted in time series, and the rectangular area extracted this time is included in the prediction area. When the two intersect, the object is traced with the rectangular area extracted this time as an undetermined object. The deterministic object tracking means obtains the prediction generated by the least square (square) approximation based on the region information of the extracted region and the time-series position information associated with the tracking of the undetermined object, and is generated according to the prediction direction updated at each tracking. The confirmed object is tracked based on the area information and the moving speed information.
以下図面を参照して本発明の実施形態を説明する。
本発明の実施形態にかかる画像処理装置の構成を図1に示す。なお、この実施形態では、カメラから取り込んだ1フレーム分の画像データを、単に画像若しくは画面上の画像若しくは一画面分の画像と称している。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows the configuration of an image processing apparatus according to an embodiment of the present invention. In this embodiment, image data for one frame captured from the camera is simply referred to as an image, an image on a screen, or an image for one screen.
本発明の実施形態に係る画像処理装置は、図1に示すように、カメラ11と、キャプチャ部12と、画像処理記憶部13と、画像処理部15と、表示部16とを具備して構成される。
As shown in FIG. 1, the image processing apparatus according to the embodiment of the present invention includes a
カメラ11は、レンズユニットとレンズユニットの結像位置に設けられた撮像素子(例えばCCD固体撮像素子、若しくはCMOSイメージセンサ)とを具備して、屋外若しくは屋内の動きを伴う被写体(動物体)を対象に、撮像した一画面分の画像を所定の画素単位(例えば1フレーム320×240画素=QVGA)で出力する。
The
キャプチャ部12は、カメラ11が撮像したフレーム単位の画像を画像処理部15の処理対象画像(入力画像)として取り込み、画像処理記憶部13内の画像バッファ14に保持する処理機能をもつ。この画像バッファ14に取り込む画面上の入力画像は、ここでは原画像とするが、エッジ画像であってもよい。
The
画像処理記憶部13は、画像処理部15の処理に供される、キャプチャ部12が取り込んだ入力画像および処理中の各画像を含む各種データを記憶する。この画像処理記憶部13には、画像処理部15の制御の下に、キャプチャ部12が取り込んだフレーム単位の画像のうち、今回取り込んだ一画面分の画像(現在画像)と、前回取り込んだ一画面分の画像(過去画像)をそれぞれ処理対象画像として保持する画像バッファ14を構成する領域が確保されるとともに、画像処理部15の処理に用いられる画像領域が確保される。さらに画像処理記憶部13には、画像処理部15の処理に供される各種のパラメータおよび制御データを記憶する記憶領域、確定および未確定オブジェクトの登録並びに追跡処理に於いて生成若しくは取得される各種情報の記憶領域等も確保される。
The image
画像処理部15は、画像バッファ14に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この差分二値化画像から、変化画素を含む矩形の領域を抽出し、当該矩形の領域を処理対象に、領域を追跡する一連の画像処理を行うもので、前処理部151、差分処理部152、二値化処理部153、ノイズ除去フィルタ154、領域化処理部156、領域追跡処理部157等を具備して構成される。
The
これら画像処理部15の構成要素のうち、前処理部151、差分処理部152、二値化処理部153、ノイズ除去フィルタ154、および領域化処理部156は、カメラ11から所定の周期で取り込んだ画面上の現在画像(今回取り込んだ画面上の画像)と過去画像(前回取り込んだ画面上の画像)とを差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理機能を実現する。さらに上記した画像処理部15の構成要素のうち、前処理部151、差分処理部152、および二値化処理部153は、今回取り込んだ現在画像と前回取り込んだ過去画像とを差分処理して二値化した差分二値化画像を生成する差分二値化画像生成手段を実現する。
Among these components of the
上記した画像処理部15の各構成要素のうち、前処理部151は、画像バッファ13に貯えた過去画像と現在画像との比較(変化画素領域を抽出するための差分処理)に際し、キャプチャ部12が取り込んだ一画面分の入力画像に対して予め定められた前処理(平滑化処理、エッジ処理等)を実行する。差分処理部152は前処理部151を介した過去画像と現在画像とを画素単位で比較して差分領域を抽出する。
Among the components of the
二値化処理部153は、差分処理部152で差分処理した画像を画像記憶部13に保持されている予め設定された閾値に従い二値化して、差分二値化画像を生成する。この差分二値化画像は、画像処理記憶部13に予め確保した領域(差分二値化画像領域)に記憶される。
The
ノイズ除去フィルタ154は、拡散フィルタ154aと収縮フィルタ154bとを有して構成され、上記差分二値化画像から動物体領域の抽出に不要なノイズ(ごま塩状の変化画素)を除去する。このノイズ除去フィルタ154の構成要素をなす拡散フィルタ154aは、上記差分二値化画像の最外周を除く各画素に対して注目画素を順次設定し、設定した注目画素に隣接する斜め方向の画素中(4画素中)に変化画素が存在するとき、上記注目画素を変化画素とする拡散フィルタリング処理を行う。収縮フィルタ154bは、上記拡散フィルタ154aで処理した画像に対して注目画素に隣接する周囲8画素若しくは4画素をもとに収縮フィルタリング処理を行う。このノイズ除去フィルタ154でノイズ除去した各フレーム(画面)毎の差分二値化画像は画像処理記憶部13の画像領域に記憶される。
The
領域化処理部156は、上記ノイズ除去フィルタ154でノイズ除去した差分二値化画像を画面上の矩形の領域に領域化する処理を行う。この領域化処理では、差分二値化画像として抽出された画面上の変化画素領域を矩形で囲い、画面上からこの矩形の領域を抽出することによって、差分二値化画像を画面上の矩形の領域に領域化する。領域化処理部156は、この矩形の領域を示す、画面上に於ける位置及び大きさを示す左上(x0,y0)および右下(x1,y1)の座標データを矩形の領域情報として領域追跡処理部157に送出する。
The area processing unit 156 performs a process for converting the difference binarized image from which noise has been removed by the
領域追跡処理部157は、領域化処理部156から受けた矩形の領域情報をもとに、領域化処理部156が抽出した矩形の領域を追跡する処理を行う。領域追跡処理部157は、領域化処理部156が矩形の領域を抽出する都度、画面上の動きを伴う画像(動物体画像)の比較により抽出された差分二値化画像に代わって、領域化処理部156が抽出した矩形の領域を追跡処理対象オブジェクトとして追跡処理する。この領域追跡処理部157は、確定オブジェクト追跡部157aと、未確定オブジェクト追跡部157bと、新規オブジェクト登録部157cと、不要オブジェクト除去部157dとを具備して構成される。
The region
未確定オブジェクト追跡部157bは、確定オブジェクト追跡部157aが追跡しているオブジェクト(確定オブジェクト)を除く画面上の領域を対象に、オブジェクト(未確定オブジェクト)の追跡を行う。
The unconfirmed
新規オブジェクト登録部157cは、確定オブジェクト追跡部157aが追跡しているオブジェクト、および未確定オブジェクト追跡部157bが追跡しているオブジェクトを除く画面上の領域を対象に、新規オブジェクトの登録処理を行う。
The new
未確定オブジェクト追跡部157bは、領域追跡の都度、追跡している領域について、確定オブジェクト追跡部157aが領域予測に用いる所定の情報を生成し蓄積する処理機能をもつ。また、確定オブジェクト追跡部157aは、領域追跡の都度、未確定オブジェクト追跡部157bが生成した領域情報を用いて追跡オブジェクトを確定(確定オブジェクトとする)し、追跡を継続するとともに、追跡に用いた領域情報を用いて、領域予測に用いる所定の情報を更新する処理機能をもつ。
The unconfirmed
確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bが複数回に亘り連続して追跡した(追跡に成功した)未確定オブジェクトを、確定オブジェクトとし、継続してオブジェクトを追跡処理するもので、領域化処理部156が矩形の領域を抽出する都度、領域化処理部156が抽出した矩形の領域の情報と、未確定オブジェクト追跡部157bが未確定オブジェクトの追跡時において生成した時系列の位置情報に基づく最小自乗近似により求めた予測方向に従う予測位置および予測領域の情報とをもとに、オブジェクト(確定オブジェクト)の追跡を行う。確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bが一定の期間に亘るオブジェクトの追跡処理で取得した情報(後述する、領域の幅、高さの平均値と標準偏差、および連続する画面相互の対応付けによって得られた画面上を移動する矩形の領域の速度の平均値と標準偏差等)を用いて、追跡に利用する領域の妥当性をチェックする。領域が不適当な場合は、予測情報を利用して追跡を継続する。さらに上記未確定オブジェクトの追跡処理で取得した領域の位置および速度の情報をもとに最小自乗(二乗)近似式により求めた予測移動方向情報を用いて現在領域の位置を予測し、その位置付近に出現した領域との対応付けを実施する。この確定オブジェクトの追跡処理は、設定されたパラメータの値に従う予測情報による連続追跡回数(例えば5回)又は総追跡回数(例えば300回)をもって終了する。さらに確定オブジェクト追跡部157aは、オブジェクトの追跡処理に於いて、未確定オブジェクト追跡部157bが生成した、オブジェクト情報を含む領域情報および移動速度情報、予測方向を更新する。これら各情報の具体例については後述する。
The confirmed
未確定オブジェクト追跡部157bは、新規オブジェクト登録部157cが登録した新規オブジェクトを未確定オブジェクトとして追跡処理するもので、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域(領域の幅及び高さ)を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行う。
The unconfirmed
未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域について、領域の幅(x方向)及び高さ(y方向)を拡大し、この拡大した領域を予測領域として、この予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行う。この実施形態では、予め設定したパラメータの値(ew/eh)に従い領域の幅と高さを拡げた予測領域を生成することによって、追跡処理のより簡素化並びに高速化を図っているが、追跡の都度、時系列に変化する領域の情報をもとに予測領域の幅と高さを設定し、予測領域の拡げる幅および高さを可変にすることも可能である。
The unconfirmed
さらに、未確定オブジェクト追跡部157bは、オブジェクトの追跡処理に於いて、時系列に変化する領域の情報をもとに、確定オブジェクト追跡部157aが継続してオブジェクトを追跡する際に必要とする情報を生成する。ここでは、オブジェクトの追跡処理に於いて、時系列に変化する領域の情報をもとに、オブジェクト情報を含む領域情報と、移動速度情報とを含む所定の情報を生成する。オブジェクト情報には、領域を特定する矩形および面積の情報、および領域切出画像(領域追跡には必要としない)が含まれ、領域情報には、領域幅情報(領域幅、領域幅二乗値)、領域高さ情報(領域高さ、領域高さ二乗値)、領域幅統計情報(平均値、標準偏差、変動率、総和、二乗総和(平均値と変動率は予測情報生成時に利用))、領域高さ統計情報(平均値、標準偏差、変動率、総和、二乗総和等(平均値と変動率は予測情報生成時に利用))等が含まれる。移動速度情報には、移動速度情報(移動速度、移動速度二乗値)、移動速度統計情報(平均値、標準偏差、変動率、総和、二乗総和(平均値と変動率は予測情報生成時に利用))等が含まれる。
Further, the unconfirmed
確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bの追跡処理で生成した、これらの情報を使用し、更新しながら確定オブジェクトの追跡処理を行う。
The confirmed
新規オブジェクト登録部157cは、上記確定オブジェクト追跡部157a、および未確定オブジェクト追跡部157bが追跡処理しているオブジェクトの追跡領域を除く画面上の領域に新たに出現した矩形の領域を新規オブジェクトとして認識し登録する処理を行う。この新規オブジェクトの登録処理では、領域化処理部156から受けた領域情報をもとに、矩形領域の位置(座標)および面積を示すオブジェクト情報を生成し、このオブジェクト情報を画像処理記憶部13の予め定められた記憶領域に格納する。
The new
不要オブジェクト除去部157dは、不要なオブジェクト(確定オブジェクトおよび不確定オブジェクト)を削除する処理を行う。不要オブジェクト除去部157dは、例えば未確定オブジェクト若しくは確定オブジェクトとして追跡しているオブジェクトが終了となった場合に、当該未確定オブジェクト若しくは確定オブジェクトを削除する(不要オブジェクトを画像処理記憶部13から消去する)。
The unnecessary
表示部16は上記画像処理部15で画像処理された動物体領域を表示出力する。
The
ここで、図2乃至図7を参照して上記画像処理部15に於けるオブジェクトの追跡処理動作を説明する。
Here, the object tracking processing operation in the
上記した画像処理部15に於けるオブジェクトの追跡処理手順を図2に示す。
FIG. 2 shows the object tracking processing procedure in the
画像処理部15において、差分処理部152は、画像バッファ14に保持された過去画像と現在画像とを画素単位で比較し、変化した画素単位の領域を差分領域として抽出する(ステップS11)。この差分処理部152で差分処理した画像は、二値化処理部153により二値化され、領域化処理部156により画面上の矩形の領域に領域化される(ステップS12)。
In the
領域追跡処理部157は、領域化処理部156が領域化した矩形の領域情報を入力すると、当該入力した矩形の領域情報を追跡対象オブジェクトとして追跡処理する。
When the area information processing unit 156 inputs the rectangular area information that has been converted into an area by the area processing unit 156, the area
初期動作時においては、追跡処理の対象となるオブジェクト(未確定オブジェクトおよび確定オブジェクト)が存在しないので、領域化処理部156から入力された矩形の領域が新規オブジェクト登録部157cにおいて、新規オブジェクトとして登録される(ステップS15)。
At the time of initial operation, there are no objects (undetermined objects and confirmed objects) to be tracked, so the rectangular area input from the area processing unit 156 is registered as a new object in the new
新規オブジェクト登録部157cにおいて、新規オブジェクトが登録されると、領域化処理部156が再び矩形の領域を抽出する、次の処理サイクル以降において、未確定オブジェクト追跡部157bは、新規オブジェクト登録部157cが登録した新規オブジェクトを未確定オブジェクトとして追跡処理を開始する(ステップS14)。
When a new object is registered in the new
この未確定オブジェクト追跡部157bにおける未確定オブジェクトの追跡は、新規オブジェクト登録部157cの登録処理にてエントリーされているオブジェクトに対して、前回抽出されたオブジェクトの位置と領域情報を利用して、現在の出現領域位置(以下予測領域と呼ぶ)を以下のように予測する。
The tracking of the unconfirmed object in the unconfirmed
未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、図3に示すように、前回抽出した矩形の領域301を拡大した予測領域302を生成し、この予測領域302に、今回抽出した矩形の領域303が交差するとき、今回抽出した矩形の領域303を未確定オブジェクトとして、オブジェクトの追跡を行う。
As shown in FIG. 3, each time the uncertain
未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域301に対して、当該領域の位置座標(x0,y0),(x1,y1)、およびこの座標値をもとに生成された領域の幅および高さの情報から求まる中心座標(重心位置)cp(mid X,mid Y)と、設定されたパラメータの値(ex/eh)をもとに、領域幅をexピクセル分、領域高さをehピクセル分、それぞれ両方向に拡大した、予測領域302を生成し、この予測領域302に、今回抽出した矩形の領域303が交差するとき、今回抽出した矩形の領域303を未確定オブジェクトとして、オブジェクトの追跡を続行する。なお、予測領域302は、今回の追跡処理の終了に伴い消滅する一時的な領域である。
Each time the region processing unit 156 extracts a rectangular region, the unconfirmed
この際、今回抽出した矩形の領域が1つも予測領域に交差しないときは、不要オブジェクト除去部157dにより、当該未確定オブジェクトを不要オブジェクトであるとして、削除する(ステップS16)。
At this time, when no rectangular area extracted this time intersects the prediction area, the unnecessary
さらに未確定オブジェクト追跡部157bは、領域化処理部156が抽出した矩形の領域が追跡対象領域であるとき、当該領域の位置座標(x0,y0)、(x1,y1)と、この位置座標をもとに生成した、領域の幅(x1−x0)および高さ(y1−y0)、面積、中心座標cp(mid X,mid Y)等の各情報を画像処理記憶部13の予め定められた記憶領域に格納する。
Further, when the rectangular area extracted by the area processing unit 156 is a tracking target area, the unconfirmed
上記した未確定オブジェクト追跡部157bの追跡処理により、ある未確定オブジェクトが連続して複数回追跡され、その追跡処理の回数が、予め設定されたパラメータの値に従う追跡回数(例えば5回)になったとき、この未確定オブジェクトを確定オブジェクトにするか否かの判定を行う。この判定処理は、確定オブジェクト追跡部157a、未確定オブジェクト追跡部157bのいずれで行ってもよいが、ここでは未確定オブジェクト追跡部157bが行うものとする。
By the tracking process of the above-mentioned unconfirmed
未確定オブジェクト追跡部157bは、未確定オブジェクトを所定回数(ここでは5回)連続して追跡したとき、未確定オブジェクトを連続して追跡した際に生成し採取した各領域の情報をもとに、領域幅、領域高さ、移動速度の各標準偏差を求め、この各標準偏差をパラメータにより予め設定した図4に示す許容標準偏差(s)(領域幅、領域高さ、移動速度にそれぞれで許容標準偏差は異なるパラメータで設定する)と比較することにより行う。ここで、未確定オブジェクトの情報をもとに生成した、領域幅、領域高さ、移動速度の各標準偏差が、それぞれパラメータにより設定された許容標準偏差(s)以内であるとき、その未確定オブジェクトを確定オブジェクトとする。未確定オブジェクトの情報をもとに生成した、領域幅、領域高さ、移動速度の各標準偏差のうち、少なくとも一つの標準偏差が、パラメータにより設定された許容標準偏差(s)より大きいとき、出現領域のばらつきが大きいとして、この未確定オブジェクトの追跡を終了する。不要オブジェクト除去部157dによりこの未確定オブジェクトを削除する。
When the unconfirmed object is continuously tracked for a predetermined number of times (here, 5 times), the unconfirmed
この判定で、確定オブジェクトと判定されたオブジェクトに対して、確定オブジェクト追跡部157aは、予測方向と領域幅、領域高さ、移動速度の変動率を算出し、これらの情報を用いて領域予測を行い、上記確定オブジェクトと判定されたオブジェクトについて継続して追跡処理を行う(ステップS13)。
With this determination, the confirmed
確定オブジェクト追跡部157aは、領域化処理部156が矩形の領域を抽出する都度、この領域化処理部156が抽出した矩形の領域に対し、未確定オブジェクト追跡部157bが未確定オブジェクトの追跡時において生成した時系列の位置情報に基づく最小自乗近似により求めた予測方向に従う予測位置に予測領域を生成し、この予測領域を用いて確定オブジェクトの追跡を開始する。
Whenever the region processing unit 156 extracts a rectangular region, the confirmed
この確定オブジェクトの追跡処理は、図5に示すように、前回抽出した矩形の領域(過去の領域)501の位置及び領域と、当該領域の重心位置cp(mid X,mid Y)と、予測方向(d)から求まる予測移動方向Pd(角度θb)と、移動速度とをもとに予測領域502を生成し、この予測領域502に、今回抽出した矩形の領域(現在の領域)503が交差するとき、今回抽出した矩形の領域503を確定オブジェクトとして、オブジェクトの追跡を続行する。この際の予測移動方向Pd(角度θb)の算出は、図6に示すように、位置統計情報から、最小二乗法による係数Aと係数Bを求め、相関係数を算出する。そして、現在位置情報(x)と最も古い位置情報(x)を利用して、近似直線の相関係数が高い場合は、最新、最古の位置情報xに対する近似直線上のYを求め、それぞれの位置情報から予測移動方向Pd(角度θa)を求める。相関が低い場合には最新、最古の座標情報yから予測移動方向(角度θb)を求め利用する。
As shown in FIG. 5, the tracking process of the fixed object includes the position and area of the previously extracted rectangular area (past area) 501, the barycentric position cp (mid X, mid Y) of the area, and the prediction direction. A
この確定オブジェクトの追跡処理において、予測領域502に、複数の領域が交差するときは、この複数の領域をそれぞれ候補領域として、交差面積が最も大きい候補領域から、順に、領域の妥当性判断を行い、妥当性の高い候補の領域を追跡対象領域(追跡する確定オブジェクト)とする。この際の妥当性の判定は、図7の領域幅、領域高さ、移動速度、それぞれの統計情報における各標準偏差×3(3σ)を用いて、領域幅、領域高さ、移動速度の各妥当性を判断し、(3σ)よりも差が大きいとき、妥当でないと判断する。領域幅、領域高さ、移動速度の少なくともいずれか2つの妥当性が確認されたとき、その候補領域を追跡対象領域(追跡する確定オブジェクト)とする。上記の妥当性が確認されないときは次の候補領域に対して上記同様の判定処理を行う。追跡対象領域が確定した時、その領域情報を追加して、領域幅統計情報、領域高さ統計情報、移動速度統計情報、予測方向の更新を行う。追跡対象領域が確定できなかった場合は、予測領域を現在領域としてこれら統計情報、予測方向の更新を行う。この確定オブジェクトの追跡処理は、予測領域上に1つも交差する領域が存在しない状態が連続して発生し、設定されたパラメータ値に従う予測情報による連続追跡回数(例えば5回)に達した場合、又は総追跡回数(例えば300回)に達した場合をもって終了する。
In the tracking process of the definite object, when a plurality of regions intersect the predicted
上記した、新規オブジェクトの登録処理(ステップS15)と、未確定オブジェクトの追跡処理(ステップS13)と、確定オブジェクトの追跡処理(ステップS14)とを繰り返し実行することによって、カメラ11で撮影した画面上の変化領域の追跡処理を効率よく実行することができる。また、上記した領域追跡処理部157の各処理機能をプログラムパッケージ化して提供することにより、既存の画像処理システムにおいて、未確定オブジェクト追跡処理機能と、確定オブジェクト追跡処理機能とを組み合わせた、簡素で高速な処理を可能にした画像追跡処理システムを容易に構築することができる。
By repeatedly executing the new object registration process (step S15), the unconfirmed object tracking process (step S13), and the confirmed object tracking process (step S14) as described above, It is possible to efficiently execute the tracking process of the change area. Further, by providing each processing function of the area
11…カメラ、12…キャプチャ部、13…画像処理記憶部、15…画像処理部、16…表示部、151…前処理部、152…差分処理部、153…二値化処理部、154…ノイズ除去フィルタ、156…領域化処理部、157…領域追跡処理部、157a…確定オブジェクト追跡部、157b…未確定オブジェクト追跡部、157c…新規オブジェクト登録部、157d…不要オブジェクト除去部。
DESCRIPTION OF
Claims (8)
前記領域抽出処理手段が抽出した領域のうち、新たに抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理手段と、
前記新規オブジェクトの登録処理手段により登録されたオブジェクトを未確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理手段と、
前記未確定オブジェクトの追跡処理手段が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報に基づいて予測した予測領域情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理手段と、
を具備したことを特徴とする画像処理装置。 A region extraction processing means for extracting a rectangular region including a changed pixel by differentially processing a current image on the screen and a past image input at a predetermined cycle;
A new object registration processing means for registering a newly extracted area as a new object to be tracked among the areas extracted by the area extraction processing means;
The object registered by the new object registration processing unit is set as an unconfirmed object, and each time the region extraction processing unit extracts a region, the unregistered object is extracted based on the currently extracted region information and the previously extracted region information. A tracking processing means for an indeterminate object for tracking a confirmed object;
For each unconfirmed object that has been tracked by the unconfirmed object tracking processing unit for a predetermined time, each time the region extraction processing unit extracts a region using the object as a confirmed object, the extracted region information and the unconfirmed object Based on the prediction area information predicted based on the information of each area that has changed in time series of the confirmation object, the confirmation object tracking processing means for tracking the confirmation object,
An image processing apparatus comprising:
前記新規オブジェクトの登録処理手段は、前記確定オブジェクトの追跡処理手段が追跡しているオブジェクト、および前記未確定オブジェクトの追跡処理手段が追跡しているオブジェクトを除く画面上の領域を対象に新規オブジェクトの登録を行うことを特徴とする請求項1に記載の画像処理装置。 The indeterminate object tracking processing means performs tracking of the indeterminate object for an area on the screen excluding the object being tracked by the confirmed object tracking processing means,
The new object registration processing means includes a new object for an area on the screen excluding an object tracked by the confirmed object tracking processing means and an object tracked by the indeterminate object tracking processing means. The image processing apparatus according to claim 1, wherein registration is performed.
今回入力した画面上の画像と前回入力した画面上の画像とを差分処理して画面上の変化した画素を含む矩形の領域を抽出する領域抽出機能と、
前記領域抽出機能により抽出された領域が、前記画面上で新たに抽出された領域であるか否かを判定し、新たに抽出された領域であるとき、当該抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理機能と、
前記新規オブジェクトの登録処理機能により登録されたオブジェクトについて、当該オブジェクトを未確定オブジェクトとして、前記領域抽出機能が前記領域を抽出する都度、今回抽出した領域の情報と前回抽出した領域の情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理機能と、
前記未確定オブジェクトの追跡処理機能が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理機能が領域を抽出する都度、当該抽出した領域の情報と、前記未確定オブジェクトの時系列に変化した各領域の情報とに基づいて予測した予測領域情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理機能と
をコンピュータに実現させるための領域追跡プログラム。 This is an area tracking program that allows a computer to function as an image processing device that inputs an imaged screen shot by a camera at a predetermined cycle and extracts and tracks a region including changed pixels from the current image and past image on the input screen. And
An area extraction function for extracting a rectangular area including a changed pixel on the screen by performing a difference process between the image on the screen input this time and the image on the screen previously input;
It is determined whether or not the region extracted by the region extraction function is a newly extracted region on the screen. When the region is a newly extracted region, the extracted region is subject to tracking processing. A new object registration process function to be registered as a new object,
For each object registered by the new object registration processing function, each time the region extraction function extracts the region with the object as an undetermined object, the information of the region extracted this time and the information of the region extracted last time are included. And a tracking processing function for an indeterminate object for tracking the indeterminate object;
With respect to an indeterminate object that has been continuously tracked by the indeterminate object tracking process function for a predetermined time, each time the area extraction process function extracts an area with the object as a confirmed object, the extracted area information and the undetermined object An area tracking program for causing a computer to realize a tracking process function of a confirmed object that tracks the confirmed object based on predicted area information predicted based on information of each area that has changed in time series of the confirmed object .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006350114A JP4427052B2 (en) | 2006-12-26 | 2006-12-26 | Image processing apparatus and area tracking program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006350114A JP4427052B2 (en) | 2006-12-26 | 2006-12-26 | Image processing apparatus and area tracking program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008158984A true JP2008158984A (en) | 2008-07-10 |
JP4427052B2 JP4427052B2 (en) | 2010-03-03 |
Family
ID=39659792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006350114A Active JP4427052B2 (en) | 2006-12-26 | 2006-12-26 | Image processing apparatus and area tracking program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4427052B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009210286A (en) * | 2008-02-29 | 2009-09-17 | Toshiba Teli Corp | Apparatus and program for image processing |
JP2014074977A (en) * | 2012-10-03 | 2014-04-24 | National Institute Of Advanced Industrial & Technology | Image processing apparatus, image processing method, and image processing program |
KR20160037643A (en) * | 2014-09-29 | 2016-04-06 | 에스케이텔레콤 주식회사 | Method and Apparatus for Setting Candidate Area of Object for Recognizing Object |
KR102310613B1 (en) * | 2021-05-14 | 2021-10-12 | 주식회사 인피닉 | Method for tracking object in continuous 2D image, and computer program recorded on record-medium for executing method therefor |
KR102310611B1 (en) * | 2021-06-17 | 2021-10-13 | 주식회사 인피닉 | Method for tracking object through 2D path inference, and computer program recorded on record-medium for executing method therefor |
KR102313940B1 (en) * | 2021-05-14 | 2021-10-18 | 주식회사 인피닉 | Method for tracking object in continuous 3D data, and computer program recorded on record-medium for executing method therefor |
KR102313938B1 (en) * | 2021-06-17 | 2021-10-18 | 주식회사 인피닉 | Method for tracking object through 3D path inference, and computer program recorded on record-medium for executing method therefor |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6286474B2 (en) * | 2016-04-19 | 2018-02-28 | 東芝テリー株式会社 | Image processing apparatus and area tracking program |
-
2006
- 2006-12-26 JP JP2006350114A patent/JP4427052B2/en active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009210286A (en) * | 2008-02-29 | 2009-09-17 | Toshiba Teli Corp | Apparatus and program for image processing |
JP2014074977A (en) * | 2012-10-03 | 2014-04-24 | National Institute Of Advanced Industrial & Technology | Image processing apparatus, image processing method, and image processing program |
KR20160037643A (en) * | 2014-09-29 | 2016-04-06 | 에스케이텔레콤 주식회사 | Method and Apparatus for Setting Candidate Area of Object for Recognizing Object |
KR102085035B1 (en) * | 2014-09-29 | 2020-03-05 | 에스케이 텔레콤주식회사 | Method and Apparatus for Setting Candidate Area of Object for Recognizing Object |
KR102310613B1 (en) * | 2021-05-14 | 2021-10-12 | 주식회사 인피닉 | Method for tracking object in continuous 2D image, and computer program recorded on record-medium for executing method therefor |
KR102313940B1 (en) * | 2021-05-14 | 2021-10-18 | 주식회사 인피닉 | Method for tracking object in continuous 3D data, and computer program recorded on record-medium for executing method therefor |
KR102310611B1 (en) * | 2021-06-17 | 2021-10-13 | 주식회사 인피닉 | Method for tracking object through 2D path inference, and computer program recorded on record-medium for executing method therefor |
KR102313938B1 (en) * | 2021-06-17 | 2021-10-18 | 주식회사 인피닉 | Method for tracking object through 3D path inference, and computer program recorded on record-medium for executing method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP4427052B2 (en) | 2010-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6286474B2 (en) | Image processing apparatus and area tracking program | |
JP4427052B2 (en) | Image processing apparatus and area tracking program | |
JP6204659B2 (en) | Video processing apparatus and video processing method | |
US7940957B2 (en) | Object tracker for visually tracking object motion | |
KR101121034B1 (en) | System and method for obtaining camera parameters from multiple images and computer program products thereof | |
CN108876804B (en) | Matting model training and image matting method, device and system and storage medium | |
CN108986152B (en) | Foreign matter detection method and device based on difference image | |
JP5538868B2 (en) | Image processing apparatus, image processing method and program | |
JP2013524593A (en) | Methods and configurations for multi-camera calibration | |
JP2016194895A (en) | Method, device, and system for creating indoor two-dimentional (2d) floor plan | |
JP2019114103A (en) | Object recognition processing device, object recognition processing method and program | |
CN110926330A (en) | Image processing apparatus, image processing method, and program | |
CN108875500B (en) | Pedestrian re-identification method, device and system and storage medium | |
JP2009211122A (en) | Image processor and object estimation program | |
CN110673607A (en) | Feature point extraction method and device in dynamic scene and terminal equipment | |
US9305235B1 (en) | System and method for identifying and locating instances of a shape under large variations in linear degrees of freedom and/or stroke widths | |
US9135715B1 (en) | Local feature cameras for structure from motion (SFM) problems with generalized cameras | |
JPH04130587A (en) | Three-dimensional picture evaluation device | |
CN116503567A (en) | Intelligent modeling management system based on AI big data | |
CN116051736A (en) | Three-dimensional reconstruction method, device, edge equipment and storage medium | |
Yang et al. | Design flow of motion based single camera 3D mapping | |
CN113592777A (en) | Image fusion method and device for double-shooting and electronic system | |
Skłodowski et al. | Movement tracking in terrain conditions accelerated with CUDA | |
JP6641313B2 (en) | Region extraction device and program | |
Depraz et al. | Real-time object detection and tracking in omni-directional surveillance using GPU |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091208 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4427052 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131218 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |