JP2017194787A - Image processing device and area tracking program - Google Patents

Image processing device and area tracking program Download PDF

Info

Publication number
JP2017194787A
JP2017194787A JP2016083716A JP2016083716A JP2017194787A JP 2017194787 A JP2017194787 A JP 2017194787A JP 2016083716 A JP2016083716 A JP 2016083716A JP 2016083716 A JP2016083716 A JP 2016083716A JP 2017194787 A JP2017194787 A JP 2017194787A
Authority
JP
Japan
Prior art keywords
area
tracking
pattern
image
rectangular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016083716A
Other languages
Japanese (ja)
Other versions
JP6286474B2 (en
Inventor
亮 和田
Akira Wada
亮 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Teli Corp
Original Assignee
Toshiba Teli Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Teli Corp filed Critical Toshiba Teli Corp
Priority to JP2016083716A priority Critical patent/JP6286474B2/en
Publication of JP2017194787A publication Critical patent/JP2017194787A/en
Application granted granted Critical
Publication of JP6286474B2 publication Critical patent/JP6286474B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device and an area tracking program that improve tracking performance of a specific image imaged with a monocular camera.SOLUTION: To realize area tracking processing, the image processing device extracts a changing pixel area on a screen as a rectangular area, has two kinds of area tracking processing means for tracking this area, and continually performs area tracking gradually by these respective area tracking processing means. The image processing device comprises, as this two kinds of area tracking processing means, tracking processing means of an undetermined object and tracking processing means of a determined object. For the object, which is being tracked, migrated from the undetermined object to the determined object, the image processing device executes identification processing of the determined object to confirm that the determined object existing in a prediction area is the determined object being currently tracked.SELECTED DRAWING: Figure 9

Description

本発明は、単眼カメラで撮影した特定画像の追跡処理に適用して好適な画像処理装置および領域追跡プログラムに関する。   The present invention relates to an image processing apparatus and a region tracking program that are suitable for application to tracking processing of a specific image captured by a monocular camera.

単眼カメラで撮影した監視画像を処理対象とする画像処理装置として、所定の周期で入力した画面上の現在画像と過去画像から変化画素を含む矩形の領域を抽出し、抽出した矩形の領域を処理対象オブジェクトとして追跡する画像処理装置が知られている(特許第4427052号)。この画像処理装置は、上記抽出された領域が、画面上で新たに抽出された領域であるか否かを判定し、新たに抽出された領域であるとき、当該抽出した領域を追跡処理の対象となる新規オブジェクトとして登録し、登録されたオブジェクトを未確定オブジェクトとして、今回抽出した領域の位置および大きさを示す情報と前回抽出した領域の位置および大きさを示す情報とをもとに追跡し、さらに所定時間継続して追跡した未確定オブジェクトを確定オブジェクトとして未確定オブジェクトの追跡時における時系列の位置情報に基づく最小自乗近似により求める予測方向に従い追跡の都度更新される予測領域の位置および大きさを示す情報と移動速度情報とをもとに追跡する追跡処理機能を実現している。   As an image processing device that targets monitoring images captured with a monocular camera, a rectangular area including changed pixels is extracted from the current image and past image input on the screen at predetermined intervals, and the extracted rectangular area is processed. An image processing apparatus that tracks as a target object is known (Japanese Patent No. 4427052). This image processing apparatus determines whether or not the extracted area is a newly extracted area on the screen. When the extracted area is a newly extracted area, the extracted area is a target of the tracking process. As a new object, the registered object is an unconfirmed object and is tracked based on the information indicating the position and size of the area extracted this time and the information indicating the position and size of the previously extracted area. In addition, the position and size of the prediction area updated each time tracking is performed according to the prediction direction obtained by the least square approximation based on time-series position information when tracking an undefined object as a confirmed object continuously tracked for a predetermined time. A tracking processing function for tracking based on the information indicating the speed and the moving speed information is realized.

この画像処理装置は既に監視カメラシステムとして実用化されているが、追跡対象が一旦停止した場合の時間経過を伴う特定の監視パターンにおいて追跡対象を誤認識する追跡性能上の不具合な事象が認識され、追跡性能をより向上させた画像処理技術が要望された。   Although this image processing device has already been put into practical use as a surveillance camera system, it has been recognized that there is a problem in tracking performance that misrecognizes the tracking target in a specific monitoring pattern with the passage of time when the tracking target is temporarily stopped. Therefore, there has been a demand for an image processing technique with improved tracking performance.

特開平9−91439号公報Japanese Patent Laid-Open No. 9-91439 特開平10−111946号公報JP 10-111946 A 特開平11−136664号公報Japanese Patent Laid-Open No. 11-136664

上述した不具合な事象を、処理負荷の大幅増を招くことなく経済的に有利な構成で解消し、追跡性能をより向上させた画像処理装置および領域追跡プログラムを提供することを目的とする。   An object of the present invention is to provide an image processing apparatus and an area tracking program that solve the above-mentioned troublesome events with an economically advantageous configuration without causing a significant increase in processing load, and further improve tracking performance.

本発明の実施形態は、所定の周期で入力された撮影画像を入力順に順次差分処理して、変化した画素を含む矩形の領域を抽出し、抽出した矩形の領域を過去の複数の矩形の領域から生成した予測領域をもとに追跡する画像処理装置において、前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定手段と、追跡している矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出手段と、前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持手段と、前記局所領域のパターン抽出手段が前記画像パターンを切り出す都度、切り出した画像パターンと前記局所領域のパターン保持手段に保持されている画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、前記追跡している矩形の領域の相関有無を判定する類似判定手段と、前記類似判定手段が前記追跡している矩形の領域の相関有りを判定したとき、前記局所領域のパターン保持手段に保持されている画像パターンを前記局所領域のパターン抽出手段が切り出した最新の画像パターンに更新するテンプレート更新手段とを具備した画像処理装置を提供する。   In an embodiment of the present invention, a captured image input at a predetermined cycle is sequentially subjected to differential processing in the order of input, a rectangular region including changed pixels is extracted, and the extracted rectangular region is converted into a plurality of past rectangular regions. In the image processing apparatus that tracks based on the prediction area generated from the above, a plurality of local areas are set in the rectangular area, and a threshold value for pattern matching determination in pixel units at the pixel position that constitutes the rectangular area An external parameter setting means for setting a local area pattern extracting means for cutting out each image pattern of the local area from the rectangular area being tracked, and a local area for holding the image pattern as a template for matching evaluation Each time the pattern holding means and the local area pattern extraction means cut out the image pattern, Similarity determination means for comparing the image pattern held in the pattern holding means of the local area, performing matching evaluation based on the threshold value, and determining the presence or absence of correlation of the rectangular area being tracked, When the similarity determination unit determines that there is a correlation between the rectangular regions being tracked, the latest image pattern obtained by the local region pattern extraction unit cutting out the image pattern held in the local region pattern holding unit. There is provided an image processing apparatus comprising a template updating means for updating to the above.

また本発明の実施形態は、所定の周期で入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理手段と、前記領域抽出処理手段が抽出した領域のうち、新たに抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理手段と、前記新規オブジェクトの登録処理手段により登録されたオブジェクトを未確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、今回抽出した領域の位置および大きさを示す情報と前回抽出した領域の位置および大きさを示す情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理手段と、前記未確定オブジェクトの追跡処理手段が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、当該抽出した領域の位置および大きさを示す情報と、前記未確定オブジェクトの追跡時における時系列の位置情報に基づく最小自乗近似により求める予測方向に従い追跡の都度更新される予測領域の位置および大きさを示す情報と移動速度情報をもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理手段とを具備した画像処理装置において、前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定手段と、前記未確定オブジェクトから確定オブジェクトになった新規確定オブジェクトを初回の処理対象として、前記確定オブジェクトが判定される都度、当該オブジェクトの矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出手段と、前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持手段と、前記局所領域のパターン抽出手段が前記画像パターンを切り出す都度、切り出した画像パターンと前記局所領域のパターン保持手段に保持されている画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、追跡している確定オブジェクトの相関有無を判定する追跡オブジェクトの類似判定手段と、前記追跡オブジェクトの類似判定手段が前記追跡している確定オブジェクトの相関有りを判定したとき、現在追跡中の確定オブジェクトを同定して前記局所領域のパターン保持手段に保持されている画像パターンを前記局所領域のパターン抽出手段が切り出した最新の画像パターンに更新するテンプレート更新手段とを具備した画像処理装置を提供する。   In addition, the embodiment of the present invention includes a region extraction processing unit that performs a differential process between a current image on the screen and a past image input at a predetermined period, and extracts a rectangular region including a changed pixel, and the region extraction processing unit Among the extracted areas, the newly extracted area is registered as a new object to be tracked, and the object registered by the new object registration process is defined as an undetermined object. Each time the area extraction processing means extracts an area, the unconfirmed object is tracked based on information indicating the position and size of the area extracted this time and information indicating the position and size of the area extracted last time. An indeterminate object tracking processing means and an indeterminate object tracked for a predetermined time by the indeterminate object tracking processing means. Each time the region extraction processing means extracts a region, the information indicating the position and size of the extracted region and the time-series position information at the time of tracking the unconfirmed object. Based on information indicating the position and size of the prediction region updated each time tracking is performed according to the prediction direction obtained by the least square approximation based on the information and the moving speed information, and a tracking processing unit for the determined object for tracking the determined object. In the image processing apparatus, a plurality of local regions are set in the rectangular region, and an external parameter setting unit that sets a threshold for pattern matching determination in a pixel unit at a pixel position constituting the rectangular region; A new confirmed object that has become a confirmed object from an undefined object is processed for the first time. As a target, each time the determined object is determined, a local region pattern extraction unit that extracts an image pattern of each local region from a rectangular region of the object, and a local region that holds the image pattern as a template for matching evaluation Each time the pattern holding unit of the area and the pattern extracting unit of the local area cut out the image pattern, the cut-out image pattern is collated with the image pattern held in the pattern holding unit of the local area, and the threshold value is set. The tracking object similarity determination means for determining the presence or absence of the correlation of the confirmed object being tracked and the tracking object similarity determination means determine whether the tracking of the confirmed object is correlated. When you identify the definitive object you are currently tracking There is provided an image processing apparatus comprising a template updating unit that updates an image pattern held in the local region pattern holding unit to a latest image pattern cut out by the local region pattern extracting unit.

また本発明の実施形態は、所定の周期で入力された撮影画像を入力順に順次差分処理して、変化した画素を含む矩形の領域を抽出し、抽出した矩形の領域を過去の複数の矩形の領域から生成した予測領域をもとに追跡する画像処理装置としてコンピュータを機能させるための領域追跡プログラムであって、前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定機能と、追跡している矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出機能と、前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持機能と、前記局所領域のパターン抽出手段が前記画像パターンを切り出す都度、切り出した画像パターンと前記局所領域のパターン保持手段に保持されている画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、前記追跡している矩形の領域の相関有無を判定する類似判定機能と、前記マッチング評価で相関有りと判定されたとき、前記保持されている画像パターンを前記切り出された最新の画像パターンに更新するテンプレート更新機能とをコンピュータに実現させるための領域追跡プログラムを提供する。   In the embodiment of the present invention, a captured image input at a predetermined period is sequentially subjected to differential processing in the order of input to extract a rectangular area including a changed pixel, and the extracted rectangular area is converted into a plurality of past rectangular shapes. An area tracking program for causing a computer to function as an image processing apparatus that tracks based on a prediction area generated from an area, wherein a plurality of local areas are set in the rectangular area, and the rectangular area is configured A function for setting an external parameter for setting a threshold for pattern matching determination in a pixel unit at a pixel position to be performed, a pattern extraction function for a local region that cuts out an image pattern of each of the local regions from a rectangular region being tracked, and the image A local area pattern holding function for holding a pattern as a template for matching evaluation, and the local area pattern extracting means includes: Each time the recorded image pattern is cut out, the cut out image pattern is collated with the image pattern held in the pattern holding unit in the local area, and the matching rectangle is evaluated based on the threshold value, and the rectangle being tracked A similarity determination function for determining the presence or absence of correlation in a region, and a template update function for updating the stored image pattern to the latest cut out image pattern when it is determined that there is correlation in the matching evaluation. An area tracking program for realizing the above is provided.

また本発明の実施形態は、カメラで撮影した撮像画面を所定の周期で入力し、今回入力した画面上の画像と前回入力した画面上の画像とを差分処理して画面上の変化した画素を含む矩形の領域を抽出する領域抽出機能と、前記領域抽出機能により抽出された領域が、前記画面上で新たに抽出された領域であるか否かを判定し、新たに抽出された領域であるとき、当該抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理機能と、前記新規オブジェクトの登録処理機能により登録されたオブジェクトについて、当該オブジェクトを未確定オブジェクトとして、前記領域抽出機能が前記領域を抽出する都度、今回抽出した領域の位置および大きさを示す情報と前回抽出した領域の位置および大きさを示す情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理機能と、前記未確定オブジェクトの追跡処理機能が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理機能が領域を抽出する都度、当該抽出した領域の位置および大きさを示す情報と、前記未確定オブジェクトの追跡時における時系列の位置情報に基づく最小自乗近似により求める予測方向に従い追跡の都度更新される予測領域の位置および大きさを示す情報と移動速度情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理機能とを有した画像処理装置としてコンピュータを機能させるための領域追跡プログラムであって、前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定機能と、前記未確定オブジェクトから確定オブジェクトになった新規確定オブジェクトを初回の処理対象として、前記確定オブジェクトが判定される都度、当該オブジェクトの矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出機能と、前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持機能と、前記画像パターンが切り出される都度、切り出された画像パターンと前記保持された画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、追跡している確定オブジェクトの相関有無を判定する追跡オブジェクトの類似判定機能と、前記マッチング評価で相関有りと判定されたとき、現在追跡中の確定オブジェクトを同定して前記保持されている画像パターンを前記切り出された最新の画像パターンに更新し次回のマッチング評価の実施に備えるテンプレート更新機能とをコンピュータに実現させるための領域追跡プログラムを提供する。   Further, in the embodiment of the present invention, an imaging screen shot by a camera is input at a predetermined cycle, and a difference between the image on the screen input this time and the image on the screen input last time is subjected to differential processing, and changed pixels on the screen are detected. A region extraction function for extracting a rectangular region including the region extracted and a region extracted by the region extraction function is a newly extracted region by determining whether or not the region extracted by the region extraction function is a newly extracted region on the screen. When the object is registered by the new object registration processing function for registering the extracted area as a new object to be tracked and the new object registration processing function, Each time the area extraction function extracts the area, information indicating the position and size of the area extracted this time and the position and size of the previously extracted area An unconfirmed object tracking processing function that tracks the unconfirmed object based on the information indicated, and an unconfirmed object that the unconfirmed object tracking processing function has continuously tracked for a predetermined period of time Each time the region extraction processing function extracts a region, according to the prediction direction obtained by the least square approximation based on the information indicating the position and size of the extracted region and the time-series position information at the time of tracking the uncertain object The computer is caused to function as an image processing apparatus having a confirmed object tracking processing function for tracking the confirmed object based on the information indicating the position and size of the prediction region updated each time tracking is performed and the moving speed information. An area tracking program for a plurality of local areas in the rectangular area A function for setting an external parameter that sets a threshold for pattern matching determination in pixel units at the pixel position that constitutes the rectangular area, and a new confirmed object that has become a confirmed object from the unconfirmed object for the first time Each time the determined object is determined as a processing target, a local region pattern extraction function for cutting out each local region image pattern from the rectangular region of the object, and the image pattern as a template for matching evaluation A local area pattern holding function, and each time the image pattern is cut out, the cut out image pattern is compared with the held image pattern, and matching evaluation is performed based on the threshold value, and tracking is performed. A tracking object that determines the presence or absence of correlation between certain objects When it is determined that there is a correlation in the similarity determination function of the object and the matching evaluation, the confirmed object currently being tracked is identified, and the held image pattern is updated to the latest cut out image pattern. Provided is an area tracking program for causing a computer to implement a template update function for performing matching evaluation.

本発明の実施形態に係る画像処理装置の構成を示すブロック図。1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 上記実施形態に係る画像処理装置の処理手順を示すフローチャート。5 is a flowchart showing a processing procedure of the image processing apparatus according to the embodiment. 上記実施形態に係る未確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation | movement of the undetermined object tracking part which concerns on the said embodiment. 上記実施形態に係る未確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation | movement of the undetermined object tracking part which concerns on the said embodiment. 上記実施形態に係る確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation of the definite object tracking part which concerns on the said embodiment. 上記実施形態に係る確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation of the definite object tracking part which concerns on the said embodiment. 上記実施形態に係る確定オブジェクト追跡部の処理動作を説明するための動作説明図。Operation | movement explanatory drawing for demonstrating the processing operation of the definite object tracking part which concerns on the said embodiment. 上記実施形態に係る確定オブジェクトの同定処理機能を実現する要部の構成要素を示す機能ブロック図。The functional block diagram which shows the component of the principal part which implement | achieves the identification processing function of the fixed object which concerns on the said embodiment. 上記実施形態に係る確定オブジェクトの追跡処理手順を示すフローチャート。The flowchart which shows the tracking process procedure of the fixed object which concerns on the said embodiment. 上記確定オブジェクトの追跡処理において実施されるパターンマッチングによる類似判定処理手順を示すフローチャート。The flowchart which shows the similarity determination process procedure by the pattern matching implemented in the tracking process of the said definite object. 上記パターンマッチングによる類似判定処理動作を説明するための相関判定用パラメータテーブルと追跡オブジェクトの存在位置(例えば、矩形下端中央位置とする場合は、オブジェクトの足元位置)との関係を示す図。The figure which shows the relationship between the parameter table for correlation determination for demonstrating the similarity determination processing operation | movement by the said pattern matching, and the presence position (for example, a foot position of an object when it is set as a rectangular lower end center position). 上記パターンマッチングが実施される局所領域の設定例を示す図。The figure which shows the example of a setting of the local area | region where the said pattern matching is implemented. 上記パターンマッチングが実施される局所領域の設定例を示す図。The figure which shows the example of a setting of the local area | region where the said pattern matching is implemented. 上記パターンマッチングが実施される局所領域の設定例を示す図。The figure which shows the example of a setting of the local area | region where the said pattern matching is implemented.

以下図面を参照して本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

この実施形態は、単眼カメラ(1台のカメラ)の画像処理において、画像を取り込む毎に、過去画像と現在画像との差から画像中の変化画素領域を矩形の領域として抽出し、時系列に得られた抽出領域の情報から現在の領域の対応付けを行い、領域の移動を追跡する。この領域追跡処理を実現するため、画面上の変化画素領域を矩形の領域として抽出し、この領域を追跡する二種の領域追跡処理手段を有して、これら各領域追跡処理手段により段階的に継続して領域追跡を行うことで、処理負荷の軽減と処理速度の高速化を図った効率の良い領域追跡を可能にしている。この二種の領域追跡処理手段として、未確定オブジェクトの追跡処理手段と、確定オブジェクトの追跡処理手段とを備える。未確定オブジェクトの追跡手段は、時系列に抽出した領域の領域情報をもとに前回抽出した矩形の領域を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとしてオブジェクトの追跡を行う。確定オブジェクトの追跡手段は、抽出した領域の領域情報と、未確定オブジェクトの追跡に伴う時系列の位置情報に基づく最小自乗(二乗)近似により求め、追跡の都度更新される予測方向に従い生成した予測領域情報と移動速度情報をもとに、確定オブジェクトの追跡を行う。   In this embodiment, in the image processing of a monocular camera (one camera), every time an image is captured, a change pixel area in the image is extracted as a rectangular area from the difference between the past image and the current image, and is time-sequentially. The current area is associated from the obtained extracted area information, and the movement of the area is tracked. In order to realize this area tracking processing, the change pixel area on the screen is extracted as a rectangular area, and has two types of area tracking processing means for tracking this area. Continuous area tracking enables efficient area tracking with reduced processing load and increased processing speed. As these two types of area tracking processing means, an unconfirmed object tracking processing means and a confirmed object tracking processing means are provided. The indeterminate object tracking means temporarily generates a prediction area obtained by enlarging the previously extracted rectangular area based on the area information of the area extracted in time series, and the rectangular area extracted this time is included in the prediction area. When the two intersect, the object is traced with the rectangular area extracted this time as an undetermined object. The deterministic object tracking means obtains the prediction generated by the least square (square) approximation based on the region information of the extracted region and the time-series position information associated with the tracking of the undetermined object, and is generated according to the prediction direction updated at each tracking. The confirmed object is tracked based on the area information and the moving speed information.

この未確定オブジェクトから確定オブジェクトに移行した追跡中のオブジェクトについて、予測領域に存在する確定オブジェクトが現在追跡中の確定オブジェクトであることを確認する追跡オブジェクト確認処理を実施する。すなわち追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理を実施する。この現在追跡中の確定オブジェクトの同定処理はパターンマッチングによる相関チェックにより実施される。   A tracking object confirmation process for confirming that the confirmed object existing in the prediction area is the confirmed object currently being tracked is performed for the object being tracked that has been transferred from the unconfirmed object to the confirmed object. In other words, a confirmation process for identifying a confirmed object to be tracked is performed. The identification process of the confirmed object currently being tracked is performed by a correlation check by pattern matching.

この実施形態に係る確定オブジェクトの同定処理機構は、図8に示すように、上記矩形の領域内に複数の局所領域を設定するとともに、上記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定手段Paと、上記未確定オブジェクトから確定オブジェクトになった新規確定オブジェクトの矩形の領域から上記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出手段Pbと、上記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持手段Pcと、上記局所領域のパターン保持手段Pcにテンプレートが保持された状態で上記確定オブジェクトが判定される都度、当該オブジェクトの矩形の領域から上記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出手段Pdと、上記局所領域のパターン抽出手段Pdが上記画像パターンを切り出す都度、切り出した画像パターンと上記局所領域のパターン保持手段Pcに保持されている画像パターンとを照合し、上記閾値をもとにマッチング評価を実施して、追跡している確定オブジェクトの相関有無を判定する追跡オブジェクトの類似判定手段Peと、上記追跡オブジェクトの類似判定手段Peが上記追跡している確定オブジェクトの相関有りを判定したとき、現在追跡中の確定オブジェクトを同定して上記局所領域のパターン保持手段Pcに保持されている画像パターンを上記局所領域のパターン抽出手段Pdが切り出した最新の画像パターンに更新するテンプレート更新手段Pfとを具備している。上記局所領域のパターン抽出手段Pbは後述する未確定オブジェクト追跡部157bに付加機能部として設けられ、上記局所領域のパターン抽出手段Pdと類似判定手段Peとテンプレート更新手段Pfは後述する確定オブジェクト追跡部157aに付加機能部として設けられる。   As shown in FIG. 8, the fixed object identification processing mechanism according to this embodiment sets a plurality of local areas in the rectangular area, and performs pattern matching on a pixel basis at the pixel positions constituting the rectangular area. An external parameter setting means Pa for setting a threshold for determination, and a local area pattern extracting means Pb for cutting out the image pattern of each of the local areas from a rectangular area of a new confirmed object that has become a confirmed object from the undefined object. Each time the local object pattern holding means Pc that holds the image pattern as a template for matching evaluation and the determined object is determined in a state where the template is held in the local area pattern holding means Pc, the object From the rectangular area of A local region pattern extracting unit Pd for cutting out a pattern, and each time the local region pattern extracting unit Pd cuts out the image pattern, a cut image pattern and an image pattern held in the local region pattern holding unit Pc The tracking object similarity determination means Pe for determining the presence / absence of correlation of the tracked confirmed object and the tracking object similarity determination means Pe When the determined object is determined to have a correlation, the latest object obtained by identifying the currently tracked confirmed object and cutting out the image pattern held in the local area pattern holding means Pc by the local area pattern extracting means Pd. Template updating means Pf for updating the image pattern. The local area pattern extraction means Pb is provided as an additional function section in an undefined object tracking section 157b described later, and the local area pattern extraction means Pd, similarity determination means Pe, and template update means Pf are determined object tracking sections described later. 157a is provided as an additional function unit.

このようにパターンマッチングによる相関チェックは、変化画素領域を矩形で囲った画像領域を対象に行うのではなく、上記矩形で囲った画像領域内に設定された複数箇所の局所領域から切り出した画像パターンの相関チェックによるマッチング評価により実施される。   In this way, the correlation check by pattern matching is not performed on the image area surrounded by the rectangle of the changed pixel area, but is an image pattern cut out from a plurality of local areas set in the image area surrounded by the rectangle. This is performed by matching evaluation based on the correlation check.

この局所領域の画像パターンの相関チェックによるマッチング評価により、変化画素領域を矩形で囲った画像領域全体を相関チェックの対象とする場合に比し、マッチング評価のための処理負荷を大幅に低減できる。これにより既存の画像処理システムにおいて実時間処理機能に影響を及ぼすことなく確定オブジェクトの同定処理が実施可能となり、追跡性能をより向上させた画像処理システムを構築することができる。   The matching evaluation based on the correlation check of the image pattern in the local area can greatly reduce the processing load for the matching evaluation as compared with the case where the entire image area surrounded by the rectangle is subjected to the correlation check. This makes it possible to carry out identification object identification processing without affecting the real-time processing function in an existing image processing system, and it is possible to construct an image processing system with improved tracking performance.

この図8に示す確定オブジェクトの同定処理機構の詳細については図9乃至図14を参照して後述する。   Details of the fixed object identification processing mechanism shown in FIG. 8 will be described later with reference to FIGS.

上記実施形態にかかる画像処理装置の構成を図1に示す。なお、この実施形態では、カメラから取り込んだ1フレーム分の画像データを、単に画像若しくは画面上の画像若しくは一画面分の画像と称している。   The configuration of the image processing apparatus according to the above embodiment is shown in FIG. In this embodiment, image data for one frame captured from the camera is simply referred to as an image, an image on a screen, or an image for one screen.

本発明の実施形態に係る画像処理装置は、図1に示すように、カメラ11と、キャプチャ部12と、画像処理記憶部13と、画像処理部15と、表示部16とを具備して構成される。   As shown in FIG. 1, the image processing apparatus according to the embodiment of the present invention includes a camera 11, a capture unit 12, an image processing storage unit 13, an image processing unit 15, and a display unit 16. Is done.

カメラ11は、レンズユニットとレンズユニットの結像位置に設けられた撮像素子(例えばCCD固体撮像素子、若しくはCMOSイメージセンサ)とを具備して、屋外若しくは屋内の動きを伴う被写体(動物体)を対象に、撮像した一画面分の画像を所定の画素単位(例えば1フレーム320×240画素=QVGA)で出力する。   The camera 11 includes a lens unit and an image pickup device (for example, a CCD solid-state image pickup device or a CMOS image sensor) provided at an image forming position of the lens unit, so that a subject (animal body) that moves outdoors or indoors can be used. A captured image for one screen is output to a target in a predetermined pixel unit (for example, one frame 320 × 240 pixels = QVGA).

キャプチャ部12は、カメラ11が撮像したフレーム単位の画像を画像処理部15の処理対象画像(入力画像)として取り込み、画像処理記憶部13内の画像バッファ14に保持する処理機能をもつ。この画像バッファ14に取り込む画面上の入力画像は、ここでは原画像とするが、エッジ画像であってもよい。   The capture unit 12 has a processing function of capturing an image in frame units captured by the camera 11 as a processing target image (input image) of the image processing unit 15 and holding it in the image buffer 14 in the image processing storage unit 13. The input image on the screen captured in the image buffer 14 is an original image here, but may be an edge image.

画像処理記憶部13は、画像処理部15の処理に供される、キャプチャ部12が取り込んだ入力画像および処理中の各画像を含む各種データを記憶する。この画像処理記憶部13には、画像処理部15の制御の下に、キャプチャ部12が取り込んだフレーム単位の画像のうち、今回取り込んだ一画面分の画像(現在画像)と、前回取り込んだ一画面分の画像(過去画像)をそれぞれ処理対象画像として保持する画像バッファ14を構成する領域が確保されるとともに、画像処理部15の処理に用いられる画像領域が確保される。さらに画像処理記憶部13には、画像処理部15の処理に供される各種のパラメータおよび制御データを記憶する記憶領域、確定および未確定オブジェクトの登録並びに追跡処理に於いて生成若しくは取得される各種情報の記憶領域等も確保される。   The image processing storage unit 13 stores various data including the input image captured by the capture unit 12 and each image being processed, which is used for the processing of the image processing unit 15. In this image processing storage unit 13, under the control of the image processing unit 15, among the frame-unit images captured by the capture unit 12, an image for one screen captured this time (current image) and one previously captured image are stored. An area constituting the image buffer 14 that holds images for the screen (past images) as processing target images is secured, and an image area used for the processing of the image processing unit 15 is secured. Further, the image processing storage unit 13 stores various parameters and control data used for the processing of the image processing unit 15, various kinds of information generated or obtained in registration and tracking processing of the confirmed and unconfirmed objects. An information storage area is also secured.

この記憶領域には、上記した画像バッファ14を含むワーク領域に加え、後述する確定オブジェクトの同定処理を実施するための各種領域が確保される。この確定オブジェクトの同定処理には、図11に示すように、入力画像の1フレームに相当する画素構成(320×240画素)のパターンマッチング判定用の閾値(相関係数)を設定する相関判定用パラメータテーブル(CC−TBL)、およびこの相関判定用パラメータテーブル(CC−TBL)に設定された閾値(相関係数)を参照してマッチング評価を行う、算出方法を異にする複数組のパターンマッチングの評価式(後述する)が予め用意される。さらに上記記憶領域には、後述する画像処理部15の領域抽出処理機能により抽出された矩形の領域(AS)内の複数箇所に、追跡オブジェクトの存在位置(例えば、矩形下端中央位置とする場合は、オブジェクトの足元位置)(PF)の位置座標、およびこの存在位置(PF)をもとに設定された追跡オブジェクトの小画像切り出し窓となる局所領域(A1〜A3)を設定する位置座標を保持するパラメータ領域や、この局所領域(A1〜A3)をもとに上記矩形の領域の画像から切り出された小画面の画像パターン(P1〜P3)をテンプレートとして保持するバッファ領域や、マッチング評価の結果(相関あり/なし)を保持するフラグ領域など、確定オブジェクトの同定処理に供される種々のワーク領域が確保される。ここでは局所領域から切り出された画像パターン(テンプレート)を保持するバッファをパターンモデル保持部と呼称する。またマッチング評価の結果を保持するフラグ領域を類似判定フラグと呼称する。   In this storage area, in addition to the work area including the image buffer 14 described above, various areas for performing a process for identifying a confirmed object, which will be described later, are secured. As shown in FIG. 11, in the identification process of the definite object, as shown in FIG. 11, a threshold value (correlation coefficient) for pattern matching determination of a pixel configuration (320 × 240 pixels) corresponding to one frame of the input image is set. A plurality of sets of pattern matching with different calculation methods for performing matching evaluation with reference to a parameter table (CC-TBL) and a threshold value (correlation coefficient) set in the parameter table for correlation determination (CC-TBL) The evaluation formula (described later) is prepared in advance. Further, in the storage area, the tracking object exists at a plurality of locations in the rectangular area (AS) extracted by the area extraction processing function of the image processing unit 15 to be described later (for example, when the position is the center position of the lower end of the rectangle). , The position coordinates of the object's foot position (PF), and the position coordinates for setting the local area (A1 to A3) to be a small image cutout window of the tracking object set based on the existence position (PF) Parameter areas to be used, buffer areas for holding small screen image patterns (P1 to P3) cut out from the rectangular area images based on the local areas (A1 to A3), and matching evaluation results Various work areas, such as a flag area for holding (with / without correlation), used for the identification object identification process are secured. Here, a buffer that holds an image pattern (template) cut out from a local region is referred to as a pattern model holding unit. A flag area that holds the result of matching evaluation is referred to as a similarity determination flag.

画像処理部15は、画像バッファ14に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この差分二値化画像から、変化画素を含む矩形の領域を抽出し、当該矩形の領域を処理対象に、領域を追跡する一連の画像処理を行うもので、前処理部151、差分処理部152、二値化処理部153、ノイズ除去フィルタ154、領域化処理部156、領域追跡処理部157等を具備して構成される。   The image processing unit 15 generates a difference binarized image obtained by binarizing the past image and the current image held in the image buffer 14 and removing noise included in the difference binarized image. In this difference binarized image, a rectangular region including a change pixel is extracted, and a series of image processing for tracking the region is performed on the rectangular region as a processing target. The preprocessing unit 151, the difference processing unit 152, a binarization processing unit 153, a noise removal filter 154, a regionization processing unit 156, a region tracking processing unit 157, and the like.

これら画像処理部15の構成要素のうち、前処理部151、差分処理部152、二値化処理部153、ノイズ除去フィルタ154、および領域化処理部156は、カメラ11から所定の周期で取り込んだ画面上の現在画像(今回取り込んだ画面上の画像)と過去画像(前回取り込んだ画面上の画像)とを差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理機能を実現する。さらに上記した画像処理部15の構成要素のうち、前処理部151、差分処理部152、および二値化処理部153は、今回取り込んだ現在画像と前回取り込んだ過去画像とを差分処理して二値化した差分二値化画像を生成する差分二値化画像生成手段を実現する。   Among these components of the image processing unit 15, the preprocessing unit 151, the difference processing unit 152, the binarization processing unit 153, the noise removal filter 154, and the regionalization processing unit 156 are captured from the camera 11 at a predetermined cycle. Realizes an area extraction processing function that extracts a rectangular area including changed pixels by performing a differential process on the current image on the screen (the image on the screen captured this time) and the past image (the image on the screen captured last time). To do. Further, among the components of the image processing unit 15 described above, the preprocessing unit 151, the difference processing unit 152, and the binarization processing unit 153 perform differential processing on the current image captured this time and the past image captured last time, A difference binarized image generating unit that generates a binarized difference binarized image is realized.

上記した画像処理部15の各構成要素のうち、前処理部151は、画像バッファ13に貯えた過去画像と現在画像との比較(変化画素領域を抽出するための差分処理)に際し、キャプチャ部12が取り込んだ一画面分の入力画像に対して予め定められた前処理(平滑化処理、エッジ処理等)を実行する。差分処理部152は前処理部151を介した過去画像と現在画像とを画素単位で比較して差分領域を抽出する。   Among the components of the image processing unit 15 described above, the preprocessing unit 151 performs the capture unit 12 when comparing the past image stored in the image buffer 13 with the current image (difference processing for extracting the changed pixel region). Pre-processing (smoothing processing, edge processing, etc.) determined in advance is performed on the input image for one screen captured by the. The difference processing unit 152 compares the past image and the current image that have passed through the preprocessing unit 151 in pixel units, and extracts a difference region.

二値化処理部153は、差分処理部152で差分処理した画像を画像記憶部13に保持されている予め設定された閾値に従い二値化して、差分二値化画像を生成する。この差分二値化画像は、画像処理記憶部13に予め確保した領域(差分二値化画像領域)に記憶される。   The binarization processing unit 153 binarizes the image subjected to the difference processing by the difference processing unit 152 according to a preset threshold value stored in the image storage unit 13 to generate a difference binarized image. The difference binarized image is stored in an area (difference binarized image area) secured in advance in the image processing storage unit 13.

ノイズ除去フィルタ154は、拡散フィルタ154aと収縮フィルタ154bとを有して構成され、上記差分二値化画像から動物体領域の抽出に不要なノイズ(ごま塩状の変化画素)を除去する。このノイズ除去フィルタ154の構成要素をなす拡散フィルタ154aは、上記差分二値化画像の最外周を除く各画素に対して注目画素を順次設定し、設定した注目画素に隣接する斜め方向の画素中(4画素中)に変化画素が存在するとき、上記注目画素を変化画素とする拡散フィルタリング処理を行う。収縮フィルタ154bは、上記拡散フィルタ154aで処理した画像に対して注目画素に隣接する周囲8画素若しくは4画素をもとに収縮フィルタリング処理を行う。このノイズ除去フィルタ154でノイズ除去した各フレーム(画面)毎の差分二値化画像は画像処理記憶部13の画像領域に記憶される。   The noise removal filter 154 includes a diffusion filter 154a and a contraction filter 154b, and removes noise (sesame salt-like change pixels) unnecessary for extraction of a moving body region from the difference binary image. The diffusion filter 154a that constitutes a component of the noise removal filter 154 sequentially sets a target pixel for each pixel except the outermost periphery of the difference binarized image, and in a diagonal pixel adjacent to the set target pixel. When a change pixel exists in (four pixels), a diffusion filtering process using the target pixel as the change pixel is performed. The contraction filter 154b performs contraction filtering processing on the image processed by the diffusion filter 154a based on the surrounding 8 pixels or 4 pixels adjacent to the target pixel. The difference binarized image for each frame (screen) from which noise has been removed by the noise removal filter 154 is stored in the image area of the image processing storage unit 13.

領域化処理部156は、上記ノイズ除去フィルタ154でノイズ除去した差分二値化画像を画面上の矩形の領域に領域化する処理を行う。この領域化処理では、差分二値化画像として抽出された画面上の変化画素領域を矩形で囲い、画面上からこの矩形の領域を抽出することによって、差分二値化画像を画面上の矩形の領域に領域化する。領域化処理部156は、この矩形の領域を示す、画面上に於ける位置及び大きさを示す左上(x0,y0)および右下(x1,y1)の座標データを矩形の領域情報として領域追跡処理部157に送出する。   The area processing unit 156 performs a process for converting the difference binarized image from which noise has been removed by the noise removal filter 154 into a rectangular area on the screen. In this area conversion process, the change pixel area on the screen extracted as the difference binarized image is surrounded by a rectangle, and this rectangle area is extracted from the screen, whereby the difference binarized image is Region into regions. The region processing unit 156 performs region tracking using the upper left (x0, y0) and lower right (x1, y1) coordinate data indicating the position and size on the screen indicating the rectangular region as rectangular region information. The data is sent to the processing unit 157.

領域追跡処理部157は、領域化処理部156から受けた矩形の領域情報をもとに、領域化処理部156が抽出した矩形の領域を追跡する処理を行う。領域追跡処理部157は、領域化処理部156が矩形の領域を抽出する都度、画面上の動きを伴う画像(動物体画像)の比較により抽出された差分二値化画像に代わって、領域化処理部156が抽出した矩形の領域を追跡処理対象オブジェクトとして追跡処理する。この領域追跡処理部157は、確定オブジェクト追跡部157aと、未確定オブジェクト追跡部157bと、新規オブジェクト登録部157cと、不要オブジェクト除去部157dとを具備して構成される。   The region tracking processing unit 157 performs processing for tracking the rectangular region extracted by the regioning processing unit 156 based on the rectangular region information received from the regioning processing unit 156. The area tracking processing unit 157 replaces the difference binarized image extracted by comparing images (animal body images) with motion on the screen every time the area processing unit 156 extracts a rectangular area. The rectangular area extracted by the processing unit 156 is tracked as a tracking target object. The area tracking processing unit 157 includes a confirmed object tracking unit 157a, an unconfirmed object tracking unit 157b, a new object registration unit 157c, and an unnecessary object removing unit 157d.

未確定オブジェクト追跡部157bは、確定オブジェクト追跡部157aが追跡しているオブジェクト(確定オブジェクト)を除く画面上の領域を対象に、オブジェクト(未確定オブジェクト)の追跡を行う。   The unconfirmed object tracking unit 157b tracks an object (unconfirmed object) for an area on the screen excluding the object (confirmed object) tracked by the confirmed object tracking unit 157a.

新規オブジェクト登録部157cは、確定オブジェクト追跡部157aが追跡しているオブジェクト、および未確定オブジェクト追跡部157bが追跡しているオブジェクトを除く画面上の領域を対象に、新規オブジェクトの登録処理を行う。   The new object registration unit 157c performs a new object registration process for the area on the screen excluding the object tracked by the confirmed object tracking unit 157a and the object tracked by the indeterminate object tracking unit 157b.

未確定オブジェクト追跡部157bは、領域追跡の都度、追跡している領域について、確定オブジェクト追跡部157aが領域予測に用いる所定の情報を生成し蓄積する処理機能をもつ。また、確定オブジェクト追跡部157aは、領域追跡の都度、未確定オブジェクト追跡部157bが生成した領域情報を用いて追跡オブジェクトを確定(確定オブジェクトとする)し、追跡を継続するとともに、追跡に用いた領域情報を用いて、領域予測に用いる所定の情報を更新する処理機能をもつ。   The unconfirmed object tracking unit 157b has a processing function for generating and storing predetermined information used by the confirmed object tracking unit 157a for region prediction for each region being tracked. In addition, the confirmed object tracking unit 157a uses the region information generated by the unconfirmed object tracking unit 157b each time region tracking is performed (confirms the tracking object), continues tracking, and is used for tracking. It has a processing function of updating predetermined information used for region prediction using region information.

確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bが複数回に亘り連続して追跡した(追跡に成功した)未確定オブジェクトを、確定オブジェクトとし、継続してオブジェクトを追跡処理するもので、領域化処理部156が矩形の領域を抽出する都度、領域化処理部156が抽出した矩形の領域の情報と、未確定オブジェクト追跡部157bが未確定オブジェクトの追跡時において生成した時系列の位置情報に基づく最小自乗近似により求めた予測方向に従う予測位置および予測領域の情報とをもとに、オブジェクト(確定オブジェクト)の追跡を行う。確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bが一定の期間に亘るオブジェクトの追跡処理で取得した情報(後述する、領域の幅、高さの平均値と標準偏差、および連続する画面相互の対応付けによって得られた画面上を移動する矩形の領域の速度の平均値と標準偏差等)を用いて、追跡に利用する領域(近傍領域)の妥当性をチェックする(図9ステップS25〜S27参照)。領域が不適当な場合は、予測情報を利用して追跡を継続する。さらに上記未確定オブジェクトの追跡処理で取得した領域の位置および速度の情報をもとに最小自乗(二乗)近似式により求めた予測移動方向情報を用いて現在領域の位置を予測し、その位置付近に出現した領域との対応付けを実施する。この確定オブジェクトの追跡処理は、設定されたパラメータの値に従う予測情報による連続追跡回数(例えば5回)又は総追跡回数(例えば300回)をもって終了する。さらに確定オブジェクト追跡部157aは、オブジェクトの追跡処理に於いて、未確定オブジェクト追跡部157bが生成した、オブジェクト情報を含む領域情報および移動速度情報、予測方向を更新する。これら各情報の具体例については後述する。   The confirmed object tracking unit 157a uses the unconfirmed object that has been continuously tracked (successfully tracked) by the unconfirmed object tracking unit 157b as a confirmed object, and continuously tracks the object. Each time the segmentation processing unit 156 extracts a rectangular region, the information on the rectangular region extracted by the segmentation processing unit 156 and the time-series position information generated by the unconfirmed object tracking unit 157b when tracking the unconfirmed object are included. The object (determined object) is tracked based on the prediction position and the prediction area information according to the prediction direction obtained by the least square approximation. The confirmed object tracking unit 157a receives information acquired by the unconfirmed object tracking unit 157b in the object tracking process over a certain period (the area width, the average value and the standard deviation of the height, and the mutual mutual screens described later). The validity of the area (neighboring area) used for tracking is checked using the average value and standard deviation of the speed of the rectangular area moving on the screen obtained by the association (steps S25 to S27 in FIG. 9). reference). If the area is inappropriate, tracking is continued using the prediction information. Further, the position of the current area is predicted using the predicted moving direction information obtained by the least square (square) approximation formula based on the position and speed information of the area acquired by the tracking process of the uncertain object, and the vicinity of the position Correspondence with the region that appeared in is performed. The tracking process of the definite object ends with the number of continuous tracking (for example, 5 times) or the total number of tracking (for example, 300 times) based on the prediction information according to the set parameter value. Further, the confirmed object tracking unit 157a updates the area information including the object information, the moving speed information, and the prediction direction generated by the unconfirmed object tracking unit 157b in the object tracking process. Specific examples of these pieces of information will be described later.

未確定オブジェクト追跡部157bは、新規オブジェクト登録部157cが登録した新規オブジェクトを未確定オブジェクトとして追跡処理するもので、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域(領域の幅及び高さ)を拡大した予測領域を一時的に生成し、当該予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行う。   The unconfirmed object tracking unit 157b tracks the new object registered by the new object registration unit 157c as an unconfirmed object, and whenever the regionizing processing unit 156 extracts a rectangular region, the previously extracted rectangular region ( A prediction region with an enlarged region width and height) is temporarily generated, and when the rectangular region extracted this time intersects with the prediction region, the currently extracted rectangular region is regarded as an undetermined object and object tracking is performed. I do.

未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域について、領域の幅(x方向)及び高さ(y方向)を拡大し、この拡大した領域を予測領域として、この予測領域に、今回抽出した矩形の領域が交差するとき、今回抽出した矩形の領域を未確定オブジェクトとして、オブジェクトの追跡を行う。この実施形態では、予め設定したパラメータの値(ew/eh)に従い領域の幅と高さを拡げた予測領域を生成することによって、追跡処理のより簡素化並びに高速化を図っているが、追跡の都度、時系列に変化する領域の情報をもとに予測領域の幅と高さを設定し、予測領域の拡げる幅および高さを可変にすることも可能である。   The unconfirmed object tracking unit 157b enlarges the width (x direction) and height (y direction) of the previously extracted rectangular area each time the area processing unit 156 extracts the rectangular area. When the rectangular area extracted this time intersects with this prediction area as the prediction area, the object is traced with the rectangular area extracted this time as an undetermined object. In this embodiment, the tracking process is simplified and speeded up by generating a prediction area in which the width and height of the area are expanded in accordance with a preset parameter value (ew / eh). In each case, it is possible to set the width and height of the prediction region based on the information of the region that changes in time series, and to make the width and height that the prediction region expands variable.

さらに、未確定オブジェクト追跡部157bは、オブジェクトの追跡処理に於いて、時系列に変化する領域の情報をもとに、確定オブジェクト追跡部157aが継続してオブジェクトを追跡する際に必要とする情報を生成する。ここでは、オブジェクトの追跡処理に於いて、時系列に変化する領域の情報をもとに、オブジェクト情報を含む領域情報と、移動速度情報とを含む所定の情報を生成する。オブジェクト情報には、領域を特定する矩形および面積の情報、および領域切出画像(領域追跡には必要としない)が含まれ、領域情報には、領域幅情報(領域幅、領域幅二乗値)、領域高さ情報(領域高さ、領域高さ二乗値)、領域幅統計情報(平均値、標準偏差、変動率、総和、二乗総和(平均値と変動率は予測情報生成時に利用))、領域高さ統計情報(平均値、標準偏差、変動率、総和、二乗総和等(平均値と変動率は予測情報生成時に利用))等が含まれる。移動速度情報には、移動速度情報(移動速度、移動速度二乗値)、移動速度統計情報(平均値、標準偏差、変動率、総和、二乗総和(平均値と変動率は予測情報生成時に利用))等が含まれる。   Further, the unconfirmed object tracking unit 157b is information necessary for the object tracking unit 157a to continuously track the object based on the information of the region that changes in time series in the object tracking process. Is generated. Here, in the object tracking process, predetermined information including area information including object information and moving speed information is generated based on information of areas changing in time series. Object information includes rectangle and area information that identifies the area, and area cutout image (not required for area tracking), and area information includes area width information (area width, area width square value) , Region height information (region height, region height square value), region width statistical information (average value, standard deviation, variation rate, sum, square sum (average value and variation rate are used when generating forecast information)), Region height statistical information (average value, standard deviation, variation rate, sum, sum of squares, etc. (average value and variation rate are used when generating prediction information)) and the like are included. Moving speed information includes moving speed information (moving speed, moving speed square value), moving speed statistical information (average value, standard deviation, fluctuation rate, sum, square sum (average value and fluctuation rate are used when generating forecast information) ) Etc. are included.

確定オブジェクト追跡部157aは、未確定オブジェクト追跡部157bの追跡処理で生成した、これらの情報を使用し、更新しながら確定オブジェクトの追跡処理を行う。   The confirmed object tracking unit 157a uses the information generated by the tracking process of the unconfirmed object tracking unit 157b to perform the tracking process of the confirmed object while updating the information.

上記した確定オブジェクト追跡部157aおよび未確定オブジェクト追跡部157bにおいて、追跡中の確定オブジェクトを同定する、確定オブジェクトの同定処理が付加機能として設けられる。   In the above-described confirmed object tracking unit 157a and unconfirmed object tracking unit 157b, a confirmed object identification process for identifying a confirmed object being tracked is provided as an additional function.

この付加機能の概要を図9に機能ブロックで示している。   An outline of this additional function is shown by functional blocks in FIG.

また、上記未確定オブジェクト追跡部157bは、複数回に亘り連続して追跡した(追跡に成功した)未確定オブジェクトを、確定オブジェクトとして引き続き確定オブジェクト追跡部157aに追跡させる際に、確定オブジェクトの同定処理を実施するため、上記確定オブジェクトとなる未確定オブジェクトについて、当該オブジェクトの矩形の領域から上記局所領域(A1〜A3)の画像パターン(P1〜P3)を切り出し、この切り出した画像パターン(P1〜P3)をマッチング評価の対象となる初回のパターンモデル(テンプレート)として画像処理記憶部13に設けられたパターンモデル保持部に保持する局所領域のパターン抽出処理機能を備えている。   The unconfirmed object tracking unit 157b identifies the confirmed object when the unconfirmed object that has been continuously tracked (successfully tracked) a plurality of times is continuously tracked as a confirmed object by the confirmed object tracking unit 157a. In order to carry out the processing, the image pattern (P1 to P3) of the local area (A1 to A3) is cut out from the rectangular area of the object, and the cut image pattern (P1 to P1) is determined. P3) is provided with a pattern extraction processing function of a local region that is held in a pattern model holding unit provided in the image processing storage unit 13 as an initial pattern model (template) to be subjected to matching evaluation.

また、確定オブジェクト追跡部157aは、確定オブジェクトの同定処理を実施するため、確定オブジェクトを判定する都度、当該新規確定オブジェクトの矩形の領域から上記局所領域(A1〜A3)の画像パターン(P1〜P3)を切り出し、この切り出した新規確定オブジェクトの画像パターン(P1〜P3)と、パターンモデル保持部にテンプレートとして保持された既確定オブジェクトの画像パターン(P1〜P3)とを照合し、上記相関判定用パラメータテーブル(CC−TBL)に設定された追跡オブジェクトの存在位置(例えば、矩形下端中央位置とする場合は、オブジェクトの足元位置)(PF)の相関係数をもとにマッチング評価を実施して、追跡している確定オブジェクトの相関有無を判定する追跡オブジェクトの類似判定処理機能、および当該類似判定処理で、追跡している確定オブジェクトの相関有りを判定したとき、現在追跡中の確定オブジェクトを同定して(最新の確定オブジェクトが現在追跡中の確定オブジェクトであることを確認して)パターンモデル保持部に保持されている画像パターン(P1〜P3)を新規確定オブジェクトから切り出した最新の画像パターン(P1〜P3)に更新し(テンプレートとなる画像を更新し)、次回のマッチング評価の実施に備える画像パターンの更新処理機能を備えている。   In addition, since the confirmed object tracking unit 157a performs the identification process of the confirmed object, every time the determined object is determined, the image pattern (P1 to P3) of the local area (A1 to A3) from the rectangular area of the new confirmed object is determined. ), And the image pattern (P1 to P3) of the newly confirmed object thus cut out is collated with the image pattern (P1 to P3) of the already confirmed object held as a template in the pattern model holding unit. Matching evaluation is performed based on the correlation coefficient of the tracking object existing position set in the parameter table (CC-TBL) (for example, the foot position of the object in the case of the center position of the lower end of the rectangle) (PF). , Similarities of tracking objects that determine the presence / absence of correlation of the tracking object When the fixed processing function and the similarity determination process determine that there is a correlation between the tracked confirmed objects, the currently tracked confirmed object is identified (the latest confirmed object is the currently tracked confirmed object) And update the image pattern (P1 to P3) held in the pattern model holding unit to the latest image pattern (P1 to P3) cut out from the newly confirmed object (update the template image), An image pattern update processing function is provided in preparation for the next matching evaluation.

この追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理については図9乃至図14を参照して後述する。   The confirmed object identifying process for identifying the confirmed object being tracked will be described later with reference to FIGS.

新規オブジェクト登録部157cは、上記確定オブジェクト追跡部157a、および未確定オブジェクト追跡部157bが追跡処理しているオブジェクトの追跡領域を除く画面上の領域に新たに出現した矩形の領域を新規オブジェクトとして認識し登録する処理を行う。この新規オブジェクトの登録処理では、領域化処理部156から受けた領域情報をもとに、矩形の領域の位置(座標)および面積を示すオブジェクト情報を生成し、このオブジェクト情報を画像処理記憶部13の予め定められた記憶領域に格納する。   The new object registration unit 157c recognizes as a new object a rectangular area newly appearing in an area on the screen excluding the tracking area of the object being tracked by the confirmed object tracking part 157a and the unconfirmed object tracking part 157b. And register it. In this new object registration process, object information indicating the position (coordinates) and area of a rectangular area is generated based on the area information received from the area processing unit 156, and this object information is stored in the image processing storage unit 13. Are stored in a predetermined storage area.

不要オブジェクト除去部157dは、不要なオブジェクト(確定オブジェクトおよび不確定オブジェクト)を削除する処理を行う。不要オブジェクト除去部157dは、例えば未確定オブジェクト若しくは確定オブジェクトとして追跡しているオブジェクトが終了となった場合に、当該未確定オブジェクト若しくは確定オブジェクトを削除する(不要オブジェクトを画像処理記憶部13から消去する)。   The unnecessary object removing unit 157d performs a process of deleting unnecessary objects (determined objects and indeterminate objects). The unnecessary object removing unit 157d deletes the unconfirmed object or the confirmed object, for example, when the object being tracked as the unconfirmed object or the confirmed object ends (deletes the unnecessary object from the image processing storage unit 13). ).

表示部16は上記画像処理部15で画像処理された動物体領域を表示出力する。   The display unit 16 displays and outputs the moving object region image-processed by the image processing unit 15.

ここで、図2乃至図7を参照して上記画像処理部15に於けるオブジェクトの追跡処理動作を説明する。   Here, the object tracking processing operation in the image processing unit 15 will be described with reference to FIGS.

上記した画像処理部15に於けるオブジェクトの追跡処理手順を図2に示す。   FIG. 2 shows the object tracking processing procedure in the image processing unit 15 described above.

画像処理部15において、差分処理部152は、画像バッファ14に保持された過去画像と現在画像とを画素単位で比較し、変化した画素単位の領域を差分領域として抽出する(ステップS11)。この差分処理部152で差分処理した画像は、二値化処理部153により二値化され、領域化処理部156により画面上の矩形の領域に領域化される(ステップS12)。   In the image processing unit 15, the difference processing unit 152 compares the past image and the current image held in the image buffer 14 in pixel units, and extracts the changed pixel unit region as a difference region (step S11). The image subjected to the difference processing by the difference processing unit 152 is binarized by the binarization processing unit 153, and is segmented into a rectangular area on the screen by the area processing unit 156 (step S12).

領域追跡処理部157は、領域化処理部156が領域化した矩形の領域情報を入力すると、当該入力した矩形の領域情報を追跡対象オブジェクトとして追跡処理する。   When the area information processing unit 156 inputs the rectangular area information that has been converted into an area by the area processing unit 156, the area tracking processing unit 157 performs tracking processing on the input rectangular area information as a tracking target object.

初期動作時においては、追跡処理の対象となるオブジェクト(未確定オブジェクトおよび確定オブジェクト)が存在しないので、領域化処理部156から入力された矩形の領域が新規オブジェクト登録部157cにおいて、新規オブジェクトとして登録される(ステップS15)。   At the time of initial operation, there are no objects (undetermined objects and confirmed objects) to be tracked, so the rectangular area input from the area processing unit 156 is registered as a new object in the new object registration unit 157c. (Step S15).

新規オブジェクト登録部157cにおいて、新規オブジェクトが登録されると、領域化処理部156が再び矩形の領域を抽出する、次の処理サイクル以降において、未確定オブジェクト追跡部157bは、新規オブジェクト登録部157cが登録した新規オブジェクトを未確定オブジェクトとして追跡処理を開始する(ステップS14)。   When a new object is registered in the new object registration unit 157c, the region processing unit 156 extracts a rectangular region again. In the next processing cycle and thereafter, the unconfirmed object tracking unit 157b is updated by the new object registration unit 157c. The tracking process is started with the registered new object as an undetermined object (step S14).

この未確定オブジェクト追跡部157bにおける未確定オブジェクトの追跡は、新規オブジェクト登録部157cの登録処理にてエントリーされているオブジェクトに対して、前回抽出されたオブジェクトの位置と領域情報を利用して、現在の出現領域位置(以下予測領域と呼ぶ)を以下のように予測する。   The tracking of the unconfirmed object in the unconfirmed object tracking unit 157b is performed by using the position and area information of the object extracted last time for the object entered in the registration process of the new object registration unit 157c. The position of the appearance area (hereinafter referred to as the prediction area) is predicted as follows.

未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、図3に示すように、前回抽出した矩形の領域301を拡大した予測領域302を生成し、この予測領域302に、今回抽出した矩形の領域303が交差するとき、今回抽出した矩形の領域303を未確定オブジェクトとして、オブジェクトの追跡を行う。   As shown in FIG. 3, each time the uncertain object tracking unit 157 b extracts a rectangular region, the regionizing processing unit 156 generates a prediction region 302 obtained by enlarging the previously extracted rectangular region 301. In addition, when the rectangular area 303 extracted this time intersects, the object is traced with the rectangular area 303 extracted this time as an undetermined object.

未確定オブジェクト追跡部157bは、領域化処理部156が矩形の領域を抽出する都度、前回抽出した矩形の領域301に対して、当該領域の位置座標(x0,y0),(x1,y1)、およびこの座標値をもとに生成された領域の幅および高さの情報から求まる中心座標(重心位置)cp(mid X,mid Y)と、設定されたパラメータの値(ex/eh)をもとに、領域幅をexピクセル分、領域高さをehピクセル分、それぞれ両方向に拡大した、予測領域302を生成し、この予測領域302に、今回抽出した矩形の領域303が交差するとき、今回抽出した矩形の領域303を未確定オブジェクトとして、オブジェクトの追跡を続行する。なお、予測領域302は、今回の追跡処理の終了に伴い消滅する一時的な領域である。   Each time the region processing unit 156 extracts a rectangular region, the unconfirmed object tracking unit 157b performs the position coordinates (x0, y0), (x1, y1) of the region on the previously extracted rectangular region 301, Also, the center coordinates (center of gravity position) cp (mid X, mid Y) obtained from the width and height information of the area generated based on the coordinate values and the set parameter values (ex / eh) are also obtained. In addition, a prediction region 302 is generated in which the region width is expanded by ex pixels and the region height is expanded by eh pixels in both directions, and when the rectangular region 303 extracted this time intersects with the prediction region 302, The extracted rectangular area 303 is set as an undetermined object, and object tracking is continued. Note that the prediction area 302 is a temporary area that disappears with the end of the current tracking process.

この際、今回抽出した矩形の領域が1つも予測領域に交差しないときは、不要オブジェクト除去部157dにより、当該未確定オブジェクトを不要オブジェクトであるとして、削除する(ステップS16)。   At this time, when no rectangular area extracted this time intersects the prediction area, the unnecessary object removing unit 157d deletes the unconfirmed object as an unnecessary object (step S16).

さらに未確定オブジェクト追跡部157bは、領域化処理部156が抽出した矩形の領域が追跡対象領域であるとき、当該領域の位置座標(x0,y0)、(x1,y1)と、この位置座標をもとに生成した、領域の幅(x1−x0)および高さ(y1−y0)、面積、中心座標cp(mid X,mid Y)等の各情報を画像処理記憶部13の予め定められた記憶領域に格納する。   Further, when the rectangular area extracted by the area processing unit 156 is a tracking target area, the unconfirmed object tracking section 157b determines the position coordinates (x0, y0), (x1, y1) of the area and the position coordinates. Each information such as the width (x1-x0) and height (y1-y0), area, and center coordinates cp (mid X, mid Y) of the generated area is determined in advance in the image processing storage unit 13. Store in the storage area.

上記した未確定オブジェクト追跡部157bの追跡処理により、ある未確定オブジェクトが連続して複数回追跡され、その追跡処理の回数が、予め設定されたパラメータの値に従う追跡回数(例えば5回)になったとき、この未確定オブジェクトを確定オブジェクトにするか否かの判定を行う。この判定処理は、確定オブジェクト追跡部157a、未確定オブジェクト追跡部157bのいずれで行ってもよいが、ここでは未確定オブジェクト追跡部157bが行うものとする。   By the tracking process of the above-mentioned unconfirmed object tracking unit 157b, a certain unconfirmed object is continuously tracked a plurality of times, and the number of tracking processes becomes the number of tracking according to a preset parameter value (for example, five times). At this time, it is determined whether or not this unconfirmed object is to be a confirmed object. This determination process may be performed by either the confirmed object tracking unit 157a or the unconfirmed object tracking unit 157b, but here, it is assumed that the unconfirmed object tracking unit 157b performs.

未確定オブジェクト追跡部157bは、未確定オブジェクトを所定回数(ここでは5回)連続して追跡したとき、未確定オブジェクトを連続して追跡した際に生成し採取した各領域の情報をもとに、領域幅、領域高さ、移動速度の各標準偏差を求め、この各標準偏差をパラメータにより予め設定した図4に示す許容標準偏差(s)(領域幅、領域高さ、移動速度にそれぞれで許容標準偏差は異なるパラメータで設定する)と比較することにより行う。ここで、未確定オブジェクトの情報をもとに生成した、領域幅、領域高さ、移動速度の各標準偏差が、それぞれパラメータにより設定された許容標準偏差(s)以内であるとき、その未確定オブジェクトを確定オブジェクトとする。未確定オブジェクトの情報をもとに生成した、領域幅、領域高さ、移動速度の各標準偏差のうち、少なくとも一つの標準偏差が、パラメータにより設定された許容標準偏差(s)より大きいとき、出現領域のばらつきが大きいとして、この未確定オブジェクトの追跡を終了する。不要オブジェクト除去部157dによりこの未確定オブジェクトを削除する。   When the unconfirmed object is continuously tracked for a predetermined number of times (here, 5 times), the unconfirmed object tracking unit 157b is based on the information of each region generated and collected when the unconfirmed object is continuously tracked. , Area width, area height, and moving speed standard deviations are obtained, and the standard deviations are set in advance by parameters according to the allowable standard deviation (s) shown in FIG. The allowable standard deviation is set with different parameters). Here, when each standard deviation of the region width, region height, and moving speed generated based on the information of the unconfirmed object is within the allowable standard deviation (s) set by the parameters, the unconfirmed Let the object be a definite object. When at least one standard deviation among the standard deviations of the area width, area height, and moving speed generated based on the information of the undefined object is larger than the allowable standard deviation (s) set by the parameter, The tracking of this undetermined object is terminated because the variation of the appearance area is large. The undetermined object is deleted by the unnecessary object removing unit 157d.

この未確定オブジェクトの追跡処理において、確定オブジェクトとなる未確定オブジェクトについて、当該オブジェクトの矩形の領域から局所領域(A1〜A3)の画像(P1〜P3)を切り出し、この切り出した画像パターン(P1〜P3)をマッチング評価の対象となる初回のパターンモデル(テンプレート)として画像処理記憶部13に設けられたパターンモデル保持部に保持する局所領域のパターン抽出処理が実施される。   In this unconfirmed object tracking process, images (P1 to P3) of the local regions (A1 to A3) are cut out from the rectangular regions of the object, and the cut image patterns (P1 to P1) are determined. The pattern extraction process of the local area | region hold | maintained in the pattern model holding | maintenance part provided in the image processing memory | storage part 13 is implemented by making P3) into the pattern model holding | maintenance part 13 provided as the first pattern model (template) used as the object of matching evaluation.

この判定で、確定オブジェクトと判定されたオブジェクトに対して、確定オブジェクト追跡部157aは、予測方向と領域幅、領域高さ、移動速度の変動率を算出し、これらの情報を用いて領域予測を行い、上記確定オブジェクトと判定されたオブジェクトについて継続して追跡処理を行う(ステップS13)。   With this determination, the confirmed object tracking unit 157a calculates a prediction direction, a region width, a region height, and a moving rate variation rate for the object determined to be a confirmed object, and uses these information to perform region prediction. Then, the tracking process is continuously performed for the object determined as the confirmed object (step S13).

確定オブジェクト追跡部157aは、領域化処理部156が矩形の領域を抽出する都度、この領域化処理部156が抽出した矩形の領域に対し、未確定オブジェクト追跡部157bが未確定オブジェクトの追跡時において生成した時系列の位置情報に基づく最小自乗近似により求めた予測方向に従う予測位置に予測領域を生成し、この予測領域を用いて確定オブジェクトの追跡を開始する。   Whenever the region processing unit 156 extracts a rectangular region, the confirmed object tracking unit 157a performs the unconfirmed object tracking unit 157b at the time of tracking the uncertain object with respect to the rectangular region extracted by the region processing unit 156. A prediction area is generated at a prediction position according to the prediction direction obtained by the least square approximation based on the generated time-series position information, and tracking of the definite object is started using the prediction area.

この確定オブジェクトの追跡処理は、図5に示すように、前回抽出した矩形の領域(過去の領域)501の位置及び領域と、当該領域の重心位置cp(mid X,mid Y)と、予測方向(d)から求まる予測移動方向Pd(角度θb)と、移動速度とをもとに予測領域502を生成し、この予測領域502に、今回抽出した矩形の領域(現在の領域)503が交差するとき、今回抽出した矩形の領域503を確定オブジェクトとして、オブジェクトの追跡を続行する。この際の予測移動方向Pd(角度θb)の算出は、図6に示すように、位置統計情報から、最小二乗法による係数Aと係数Bを求め、相関係数を算出する。そして、現在位置情報(x)と最も古い位置情報(x)を利用して、近似直線の相関係数が高い場合は、最新、最古の位置情報xに対する近似直線上のYを求め、それぞれの位置情報から予測移動方向Pd(角度θa)を求める。相関が低い場合には最新、最古の座標情報yから予測移動方向(角度θb)を求め利用する。   As shown in FIG. 5, the tracking process of the fixed object includes the position and area of the previously extracted rectangular area (past area) 501, the barycentric position cp (mid X, mid Y) of the area, and the prediction direction. A prediction area 502 is generated based on the predicted movement direction Pd (angle θb) obtained from (d) and the movement speed, and the rectangular area (current area) 503 extracted this time intersects with this prediction area 502. At this time, the rectangular area 503 extracted this time is set as a confirmed object, and the object tracking is continued. In this case, as shown in FIG. 6, the predicted moving direction Pd (angle θb) is calculated by obtaining a coefficient A and a coefficient B by the least square method from the position statistical information and calculating a correlation coefficient. Then, using the current position information (x) and the oldest position information (x), when the correlation coefficient of the approximate line is high, Y on the approximate line with respect to the latest and oldest position information x is obtained, The predicted movement direction Pd (angle θa) is obtained from the position information of When the correlation is low, the predicted moving direction (angle θb) is obtained from the latest and oldest coordinate information y and used.

この確定オブジェクトの追跡処理において、予測領域502に、複数の領域(近傍領域)が交差するときは、この複数の近傍領域をそれぞれ候補領域として、交差面積が最も大きい候補領域から、順に、領域の妥当性判断を行い、妥当性の高い候補の領域を追跡対象領域(追跡する確定オブジェクト)とする。この際の妥当性の判定は、図7の領域幅、領域高さ、移動速度、それぞれの統計情報における各標準偏差×3(3σ)を用いて、領域幅、領域高さ、移動速度の各妥当性を判断し、(3σ)よりも差が大きいとき、妥当でないと判断する。領域幅、領域高さ、移動速度の少なくともいずれか2つの妥当性が確認されたとき、その候補領域を追跡対象領域(追跡する確定オブジェクト)とする。上記の妥当性が確認されないときは次の候補領域に対して上記同様の判定処理を行う。追跡対象領域が確定した時、その領域情報を追加して、領域幅統計情報、領域高さ統計情報、移動速度統計情報、予測方向の更新を行う。追跡対象領域が確定できなかった場合は、予測領域を現在領域としてこれら統計情報、予測方向の更新を行う。この確定オブジェクトの追跡処理は、予測領域上に1つも交差する領域が存在しない状態が連続して発生し、設定されたパラメータ値に従う予測情報による連続追跡回数(例えば5回)に達した場合、又は総追跡回数(例えば300回)に達した場合をもって終了する。   In the tracking process of the definite object, when a plurality of regions (neighboring regions) intersect with the prediction region 502, the plurality of neighboring regions are set as candidate regions, respectively, and from the candidate region having the largest intersection area, A validity judgment is performed, and a candidate area with high validity is set as a tracking target area (a confirmed object to be tracked). In this case, the validity is determined by using the area width, area height, moving speed, standard deviation of each statistical information × 3 (3σ) in FIG. The validity is judged, and when the difference is larger than (3σ), it is judged not valid. When the validity of at least two of the area width, area height, and moving speed is confirmed, the candidate area is set as a tracking target area (determined object to be tracked). When the validity is not confirmed, the same determination process is performed on the next candidate area. When the tracking target region is determined, the region information is added, and the region width statistical information, the region height statistical information, the moving speed statistical information, and the prediction direction are updated. If the tracking target area cannot be determined, the statistical information and the prediction direction are updated using the prediction area as the current area. In the tracking process of the definite object, when a state where no region intersects the predicted region continuously occurs and the number of continuous tracking by the prediction information according to the set parameter value (for example, five times) is reached, Alternatively, the process ends when the total number of tracking times (for example, 300 times) is reached.

この確定オブジェクトの追跡処理において、追跡する確定オブジェクトであると判定され、妥当性が確認された追跡対象領域(近傍領域)に対して、すなわち妥当性ありと判定された確定オブジェクト(候補)に対して、追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理が実施される。この同定処理を含めた確定オブジェクトの追跡処理手順を図9に示している。同図において、上記した確定オブジェクトの追跡処理手順をステップS21〜S27に示し、確定オブジェクトを同定する確定オブジェクトの同定処理手順をステップS30(S31〜S34)に示している。また図9に示すステップS31の詳細を図10に示している。   In the tracking process of the confirmed object, it is determined that the object is a confirmed object to be tracked, and the validity is confirmed for the tracking target region (neighboring region), that is, for the confirmed object (candidate) determined to be valid. Thus, a process for identifying a confirmed object for identifying a confirmed object being tracked is performed. FIG. 9 shows a tracking process procedure of the confirmed object including this identification process. In the figure, the procedure for tracking a confirmed object described above is shown in steps S21 to S27, and the procedure for identifying a confirmed object for identifying a confirmed object is shown in steps S30 (S31 to S34). Details of step S31 shown in FIG. 9 are shown in FIG.

上記した、新規オブジェクトの登録処理(ステップS15)と、未確定オブジェクトの追跡処理(ステップS13)と、確定オブジェクトの追跡処理(ステップS14)とを繰り返し実行することによって、カメラ11で撮影した画面上の変化領域の追跡処理を効率よく実行することができる。また、上記した領域追跡処理部157の各処理機能をプログラムパッケージ化して提供することにより、既存の画像処理システムにおいて、未確定オブジェクト追跡処理機能と、確定オブジェクト追跡処理機能とを組み合わせた、簡素で高速な処理を可能にした画像追跡処理システムを容易に構築することができる。   By repeatedly executing the new object registration process (step S15), the unconfirmed object tracking process (step S13), and the confirmed object tracking process (step S14) as described above, It is possible to efficiently execute the tracking process of the change area. Further, by providing each processing function of the area tracking processing unit 157 as a program package, a simple and simple combination of an unconfirmed object tracking processing function and a confirmed object tracking processing function in an existing image processing system. An image tracking processing system capable of high-speed processing can be easily constructed.

次に図9乃至図14を参照して、追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理動作を説明する。確定オブジェクトの追跡処理手順を図9に示し、この図9に示す確定オブジェクトの追跡処理において実施されるパターンマッチングによる類似判定処理手順を図10に示し、このパターンマッチングによる類似判定処理動作を説明するための相関判定用パラメータテーブル(CC−TBL)と追跡オブジェクトの存在位置(PF)との関係を図11に示し、このパターンマッチングが実施される局所領域(A1〜A3)の設定例を図12乃至図14に示している。なお、ここでは一例として追跡オブジェクトの存在位置(PF)を、足元位置(矩形下端中央位置)としている。   Next, with reference to FIG. 9 to FIG. 14, the operation of identifying a confirmed object for identifying the confirmed object being tracked will be described. FIG. 9 shows a tracking process procedure for a confirmed object, FIG. 10 shows a similarity determination processing procedure based on pattern matching performed in the tracking process for the confirmed object shown in FIG. 9, and the similarity determination processing operation based on this pattern matching will be described. FIG. 11 shows the relationship between the correlation determination parameter table (CC-TBL) and the tracking object location (PF), and an example of setting the local areas (A1 to A3) in which this pattern matching is performed is shown in FIG. Thru | or FIG. Here, as an example, the position (PF) of the tracking object is the foot position (rectangular bottom center position).

また、追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理に用いられるマッチング評価式として、ここでは、(1)式に示されるSSD(輝度値の差の二乗和)と、(2)式に示されるSAD(輝度値の差の絶対値和)と、(3)式に示されるNCC(Normalized Cross-Correlation:正規化相互相関)と、(4)式に示されるZNCC(Zero-means Normalized Cross-Correlationゼロ平均正規化相互相関)の4種の評価式が用意され、その1種の評価式が外部パラメータにより選択される(式中のIm及びTmは、入力画像、テンプレート画像のそれぞれ平均値を表す)。(1)式に示されるSSDと(2)式に示されるSADは、それぞれ値が小さいほど類似性が高く、(3)式に示されるNCCと(4)式および(5)式に示されるZNCCは、それぞれ1(上限)に近いほど類似性が高くなることから、確定オブジェクトを同定する確定オブジェクトの同定処理に参照される相関判定用パラメータテーブル(CC−TBL)には、選択された評価式に固有の値をもつ閾値(相関係数)が設定される。

Figure 2017194787
In addition, as a matching evaluation expression used for the identification process of the deterministic object for identifying the deterministic object being tracked, here, the SSD (the sum of squares of the luminance value difference) represented by the expression (1) and the expression (2) SAD (absolute value sum of luminance value differences) shown, NCC (Normalized Cross-Correlation) shown in Expression (3), and ZNCC (Zero-means Normalized Cross shown in Expression (4) -Correlation Zero average normalized cross correlation) is prepared, and one evaluation formula is selected by external parameters (Im and Tm in the formula are average values of the input image and the template image, respectively) Represents). The SSD shown in the equation (1) and the SAD shown in the equation (2) are more similar as the values are smaller. The NCC shown in the equation (3) and the equations (4) and (5) are shown. Since each ZNCC is closer to 1 (upper limit), the similarity becomes higher. Therefore, the selected evaluation is included in the correlation determination parameter table (CC-TBL) referred to in the confirmation process of the confirmed object for identifying the confirmed object. A threshold value (correlation coefficient) having a value specific to the equation is set.
Figure 2017194787

Figure 2017194787
Figure 2017194787

Figure 2017194787
Figure 2017194787

Figure 2017194787
Figure 2017194787

Figure 2017194787
Figure 2017194787

追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理を実施するに際し、初期設定の段階で、追跡中の確定オブジェクトを同定するためのマッチング評価式が選択されるとともに、この評価式に適合したパターンマッチング判定用の閾値となる相関係数が相関判定用パラメータテーブル(CC−TBL)に設定される。またオブジェクトの追跡時に抽出される矩形の領域(AS)に対して、追跡オブジェクトの足元位置(PF)、およびこの足元位置(PF)を基準位置とした局所領域(A1〜A3)がそれぞれ外部パラメータとして設定される。   When performing the process of identifying a deterministic object that identifies a deterministic object being tracked, a matching evaluation formula for identifying the deterministic object being tracked is selected at the initial setting stage, and a pattern that conforms to this evaluation formula A correlation coefficient serving as a threshold for matching determination is set in the correlation determination parameter table (CC-TBL). In addition, for the rectangular area (AS) extracted when tracking the object, the foot position (PF) of the tracking object and the local area (A1 to A3) with the foot position (PF) as a reference position are external parameters. Set as

追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理では、上述した未確定オブジェクトの追跡処理(図2に示すステップS14の追跡処理)において、未確定オブジェクトから確定オブジェクトとなる追跡中のオブジェクトが存在すると、当該オブジェクトの矩形の領域(AS)から局所領域(A1〜A3)の画像(P1〜P3)を切り出し、この切り出した画像パターン(P1〜P3)をマッチング評価の対象となる初回のパターンモデル(テンプレート)として画像処理記憶部13に設けられたパターンモデル保持部に保持する局所領域のパターン抽出処理が実施される。   In the process of identifying a confirmed object for identifying a confirmed object being tracked, there is an object being tracked that becomes a confirmed object from the unconfirmed object in the tracking process of the undefined object described above (the tracking process in step S14 shown in FIG. 2). Then, the images (P1 to P3) of the local areas (A1 to A3) are cut out from the rectangular area (AS) of the object, and the cut out image patterns (P1 to P3) are the first pattern models to be subjected to matching evaluation. A pattern extraction process of a local area held in a pattern model holding unit provided in the image processing storage unit 13 as a (template) is performed.

確定オブジェクト追跡部157aは、すでに図2に示すステップS13の処理で説明したように、未確定オブジェクト追跡部157bが複数回に亘り連続して追跡に成功した未確定オブジェクトを、確定オブジェクトとし、継続してオブジェクトを追跡処理する。ここでは、領域化処理部156が矩形の領域を抽出する都度、領域化処理部156が抽出した矩形の領域の情報と、未確定オブジェクト追跡部157bが未確定オブジェクトの追跡時において生成した時系列の位置情報に基づく最小自乗近似により求めた予測方向に従う予測位置および予測領域の情報とをもとに、確定オブジェクトの追跡を行う。この追跡過程において未確定オブジェクト追跡部157bが一定の期間に亘るオブジェクトの追跡処理で取得した、領域の幅、高さの平均値と標準偏差、および連続する画面相互の対応付けによって得られた画面上を移動する矩形の領域の速度の平均値と標準偏差などの情報を用いて、追跡に利用する領域(近傍領域)の妥当性をチェックする(図9ステップS21〜S27)。領域が不適当な場合は、上記予測情報を利用して追跡を継続する。領域が妥当であると判定されると(図9ステップS27 Yes)、この妥当性ありと判定された確定オブジェクトについて、現在追跡中の確定オブジェクトの同定処理が実施される(図9ステップS30)。この同定処理は矩形の領域(AS)内に設定された3領域(A1〜A3)の画像集合(P1〜P3)を判定対象に実施される。   As already described in the process of step S13 shown in FIG. 2, the confirmed object tracking unit 157a sets the unconfirmed object that the unconfirmed object tracking unit 157b has successfully tracked for a plurality of times as a confirmed object, and continues. To track the object. Here, every time the region processing unit 156 extracts a rectangular region, information on the rectangular region extracted by the region processing unit 156 and the time series generated by the unconfirmed object tracking unit 157b during tracking of the unconfirmed object The confirmed object is tracked based on the predicted position and the prediction area information according to the prediction direction obtained by the least square approximation based on the position information. In this tracking process, the screen obtained by the uncertain object tracking unit 157b obtained by the tracking processing of the object over a certain period and obtained by associating the area width, height average value and standard deviation, and successive screens with each other The validity of the area (neighboring area) used for tracking is checked using information such as the average value and standard deviation of the speed of the rectangular area moving above (steps S21 to S27 in FIG. 9). If the area is inappropriate, tracking is continued using the prediction information. If it is determined that the area is valid (step S27 in FIG. 9), the process of identifying the confirmed object currently being tracked is performed for the confirmed object determined to be valid (step S30 in FIG. 9). This identification process is carried out with the image set (P1 to P3) of the three areas (A1 to A3) set in the rectangular area (AS) as a determination target.

この同定処理は、確定オブジェクトの妥当性ありを判定する都度、当該オブジェクトの矩形の領域(AS)から局所領域(A1〜A3)の画像(P1〜P3)を切り出して、この切り出した確定オブジェクトの画像パターン(P1〜P3)と、パターンモデル保持部にテンプレートとして保持された既確定オブジェクトの画像パターン(P1〜P3)とを照合し、相関判定用パラメータテーブル(CC−TBL)に設定された追跡オブジェクトの足元位置(PF)の相関係数をもとにマッチング評価を実施して、追跡している確定オブジェクトの相関有無を判定し、妥当性ありを判定された確定オブジェクトが現在追跡中の確定オブジェクトであるか否かの類似判定を行う(図9ステップS31)。   This identification process cuts out the images (P1 to P3) of the local areas (A1 to A3) from the rectangular area (AS) of the object each time the validity of the confirmed object is determined. The tracking set in the correlation determination parameter table (CC-TBL) by comparing the image patterns (P1 to P3) with the image patterns (P1 to P3) of the confirmed objects held as templates in the pattern model holding unit. Matching evaluation is performed based on the correlation coefficient of the object's foot position (PF) to determine the presence or absence of correlation of the confirmed object being tracked, and the confirmed object determined to be valid is currently being tracked Similarity determination is made as to whether or not the object is present (step S31 in FIG. 9).

この類似判定処理で、追跡している確定オブジェクトの相関有りを判定すると(図9ステップS32 Yes)、画像処理記憶部13に設けられた類似判定フラグに相関ありのフラグを立て、現在追跡中の確定オブジェクトを同定して(最新の確定オブジェクトが現在追跡中の確定オブジェクトであることを確認して)、パターンモデル保持部にテンプレートとして保持されている画像パターン(P1〜P3)を新規確定オブジェクトから切り出した最新の画像パターン(P1〜P3)に更新し(テンプレートを更新し)、次回のマッチング評価の実施に備える(図9ステップS33)。   If it is determined in this similarity determination process that the confirmed object being tracked has a correlation (Yes in step S32 in FIG. 9), a flag having a correlation is set in the similarity determination flag provided in the image processing storage unit 13, and the currently tracked object is being tracked. Identifying a confirmed object (confirming that the latest confirmed object is a confirmed object currently being tracked), and using the new confirmed object, image patterns (P1 to P3) held as templates in the pattern model holding unit The latest cut out image pattern (P1 to P3) is updated (the template is updated) to prepare for the next matching evaluation (step S33 in FIG. 9).

また、上記妥当性の判定で、妥当性なしと判定された場合(図9ステップS27 No)、若しくは相関有無の判定で相関なしと判定された場合(図9ステップS32 No)は、近傍領域が存在しない、すなわち予測位置の近傍に領域が存在しないと判定された場合(図9ステップS25 No)と同様に、今回判定の対象となった確定オブジェクトを追跡中のオブジェクトから除外した予測扱いとし、上記したテンプレートの更新を行わずに次回のマッチング評価の実施に備える(図9ステップS34)。   Further, when it is determined that there is no validity in the determination of validity (No in step S27 in FIG. 9), or in the case where it is determined that there is no correlation in the determination of the presence or absence of correlation (No in step S32 in FIG. 9), Similarly to the case where it is determined that the region does not exist, that is, the region does not exist in the vicinity of the predicted position (No in Step S25 in FIG. 9), the confirmed object that is the target of the current determination is treated as a prediction that is excluded from the tracked object, Preparation for the next matching evaluation is performed without updating the template (step S34 in FIG. 9).

上記した、妥当性ありを判定された確定オブジェクトが現在追跡中の確定オブジェクトであるか否かの類似判定(図9ステップS31)における処理手順を図10に示している。   FIG. 10 shows a processing procedure in the similarity determination (step S31 in FIG. 9) of whether or not the determined object determined to be valid is a determined object currently being tracked.

この類似判定処理では、画像処理記憶部13に設けられた類似判定フラグに相関ありが初期設定された後(図10ステップS311)、相関判定用パラメータテーブル(CC−TBL)を参照して、妥当性ありと判定された確定オブジェクトの矩形の領域(AS)の足元位置(PF)の相関係数を取得する(図10ステップS312)。   In this similarity determination process, after the similarity determination flag provided in the image processing storage unit 13 is initially set to be correlated (step S311 in FIG. 10), the correlation determination parameter table (CC-TBL) is referred to to determine the validity. The correlation coefficient of the foot position (PF) of the rectangular area (AS) of the confirmed object determined to have the property is acquired (step S312 in FIG. 10).

ここで足元位置(PF)の相関関数が未使用を示すoffであるときは、相関有無の判定処理を行わず、一意に相関ありと判定して次回の類似判定(マッチング評価の判定)に移行する(図10ステップS313 Yes)。   Here, when the correlation function of the foot position (PF) is off indicating that it is not used, it is determined that there is a correlation without performing the correlation presence / absence determination process, and the next similarity determination (matching evaluation determination) is performed. (Yes in step S313 in FIG. 10).

また、相関判定用パラメータテーブル(CC−TBL)から取得した足元位置(PF)の相関関数が1以下の小数であるときは、
妥当性ありと判定された確定オブジェクトの矩形の領域(AS)から局所領域(A1〜A3)の画像(P1〜P3)を現在確定領域のオブジェクトパターンモデルとして取得し(図10ステップS314)、取得した新規確定オブジェクトの画像パターン(P1〜P3)と、パターンモデル保持部にテンプレート(既存オブジェクトパターンモデル)として保持された既確定オブジェクトの画像パターン(P1〜P3)とを照合して、相関判定用パラメータテーブル(CC−TBL)に設定された足元位置(PF)の相関係数をもとにマッチング評価を実施する(図10ステップS315〜S316)。
When the correlation function of the foot position (PF) acquired from the correlation determination parameter table (CC-TBL) is a decimal number of 1 or less,
The images (P1 to P3) of the local areas (A1 to A3) are acquired from the rectangular area (AS) of the determined object determined to be valid as the object pattern model of the currently determined area (step S314 in FIG. 10). The image pattern (P1 to P3) of the newly confirmed object is collated with the image pattern (P1 to P3) of the already confirmed object held as a template (existing object pattern model) in the pattern model holding unit, for correlation determination Matching evaluation is performed based on the correlation coefficient of the foot position (PF) set in the parameter table (CC-TBL) (steps S315 to S316 in FIG. 10).

ここで相関ありと判定されたときは、類似判定フラグに相関ありのフラグを立てた状態のまま今回の類似判定(マッチング評価の判定)を終える(図10ステップS316 Yes)。   If it is determined that there is a correlation, the current similarity determination (matching evaluation determination) is terminated with the correlation determination flag set in the similarity determination flag (Yes in step S316 in FIG. 10).

また相関なしと判定されたときは(図10ステップS316 No)、類似判定フラグに相関なしのフラグを立て次回の類似判定(マッチング評価の判定)に移行する(図10ステップS317)。   If it is determined that there is no correlation (No in step S316 in FIG. 10), a non-correlation flag is set in the similarity determination flag and the process proceeds to the next similarity determination (matching evaluation determination) (step S317 in FIG. 10).

このように、確定オブジェクトの追跡処理の都度、追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理が実施されることから、追跡性能をより向上させた信頼性の高い動物体領域の移動監視が可能となる。   As described above, since the confirmation process for identifying the confirmed object being tracked is performed every time the tracking process for the confirmed object is performed, it is possible to monitor the movement of the moving object region with high reliability with improved tracking performance. It becomes possible.

この追跡対象となる、動物体を矩形で囲った確定オブジェクトの矩形の領域(AS)に、局所領域(A1〜A3)を設定する場合の具体例を図12乃至図14に示している。追跡対象となる動物体が人物である場合の局所領域(A1〜A3)の設定例を図12に示し、追跡対象となる動物体が車両である場合の局所領域(A1〜A3)の設定例を図13および図14に示している。道路上の斜め上方から車両を撮影した例を図13に示し、道路上の斜め上側方から車両を撮影した例を図14に示している。ここではいずれの場合も矩形の領域(AS)内において、局所領域を符号A1,A2,A3で示す3箇所に設定した例を示している。この局所領域(A1〜A3)は、各領域がそれぞれ8画素×8画素のドットマトリクスにより構成され、領域(AS)の高さサイズをHとし、幅をWとしたとき、領域(AS)の底辺の1/2位置を追跡オブジェクトの足元位置(PF)とし、この足元位置(PF)を鉛直方向下端として、領域(AS)の鉛直方向上端から下端に向けて3部位にそれぞれ係数(P1,P2,P3=外部パラメータ)を乗じた8画素×8画素の矩形画素集合(ブロック画像)を設定する。ここでは、いずれの場合も、1/2H以上の高さ位置を下限に、P1=11/12、P2=3/4、P3=1/2の3領域がデフォルト値として与えられ、それぞれテンプレートとして用いられる。   Specific examples in the case where local areas (A1 to A3) are set in a rectangular area (AS) of a definite object that surrounds a moving object and is a target to be tracked are shown in FIGS. FIG. 12 shows an example of setting the local area (A1 to A3) when the moving object to be tracked is a person. Example of setting the local area (A1 to A3) when the moving object to be tracked is a vehicle Is shown in FIG. 13 and FIG. FIG. 13 shows an example in which a vehicle is photographed from diagonally above the road, and FIG. 14 shows an example in which the vehicle is photographed from diagonally above the road. Here, in any case, an example is shown in which local regions are set at three locations indicated by reference signs A1, A2, and A3 in a rectangular region (AS). Each of the local areas (A1 to A3) is composed of a dot matrix of 8 pixels × 8 pixels. When the height size of the area (AS) is H and the width is W, the local area (AS) The half position of the base is the foot position (PF) of the tracking object, the foot position (PF) is the lower end in the vertical direction, and the coefficients (P1, A rectangular pixel set (block image) of 8 pixels × 8 pixels multiplied by P2, P3 = external parameters) is set. Here, in any case, three regions of P1 = 11/12, P2 = 3/4, and P3 = 1/2 are given as default values with a height position of 1 / 2H or more as a lower limit, and each is a template. Used.

因みにこの3領域は、図12に示す人物である場合、人物の生体計測から人体の身長を用いて人体寸法の概算値が求められ、急激な変化が激しい下半身を除き、急激な変化が少ない、頭部、胸部、腰部をテンプレートとして利用している。また図13および図14に示す車両の場合も、車両間隔や影部分やカメラの設置位置などを考慮して1/2H以上の高さ位置を下限に、P1=11/12、P2=3/4、P3=1/2の3領域がデフォルト値として与えられている。この領域(AS)内の3部位をテンプレートの抽出領域となる局所領域(A1〜A3)としたことで、最も効果の高い追跡性能が得られた。この局所領域(A1〜A3)によるピンポイントのパターンマッチング評価による確定オブジェクトの同定処理により、実時間処理機能に影響を及ぼすことのない軽度の処理負荷の増加で、追跡性能をより向上させた画像処理システムが構築可能である。 By the way, if these three regions are the person shown in FIG. 12, an approximate value of the human body size is obtained from the human body measurement using the height of the human body, and there is little rapid change except for the lower body where the rapid change is severe. The head, chest and waist are used as templates. In the case of the vehicle shown in FIGS. 13 and 14 as well, P1 = 11/12, P2 = 3 / 4, 3 areas of P3 = 1/2 are given as default values. By setting the three regions in this region (AS) as local regions (A1 to A3) as template extraction regions, the most effective tracking performance was obtained. Image with improved tracking performance with a slight increase in processing load that does not affect the real-time processing function due to the identification processing of the confirmed object by the pinpoint pattern matching evaluation by this local region (A1 to A3) A processing system can be constructed.

なお、上記した実施形態では、確定オブジェクトの矩形の領域(AS)内に、3部位の局所領域(A1〜A3)を設定しているが、これに限らず、システムの処理性能や処理能力を考慮して2部位以上の任意の部位の局所領域の設定が可能である。また、上記実施形態では、追跡中の確定オブジェクトを同定する確定オブジェクトの同定処理に用いられるマッチング評価式として、ここでは、(1)式に示されるSSD(輝度値の差の二乗和)と、(2)式に示されるSAD(輝度値の差の絶対値和)と、(3)式に示されるNCC(Normalized Cross-Correlation:正規化相互相関)と、(4)式に示されるZNCC(Zero-means Normalized Cross-Correlationゼロ平均正規化相互相関)の4種の評価式を用意した例を示したが、これに限らず、例えば1種の評価式のみを用いた機能設計であってもよい。要はこの発明の要旨を逸脱しない範囲で種々の設計変更や処理手順の変更が可能である。   In the above-described embodiment, three local regions (A1 to A3) are set in the rectangular region (AS) of the confirmed object. However, the present invention is not limited to this, and the processing performance and processing capability of the system are not limited. In consideration of this, it is possible to set a local region of any part of two or more parts. Further, in the above-described embodiment, as a matching evaluation expression used for the confirmation process of the confirmed object for identifying the confirmed object being tracked, here, the SSD (the sum of squares of the luminance value difference) represented by the expression (1), SAD (sum of absolute values of differences in luminance values) shown in equation (2), NCC (normalized cross-correlation) shown in equation (3), and ZNCC (in equation (4)) Although an example of preparing four types of evaluation formulas (Zero-means Normalized Cross-Correlation) has been shown, the present invention is not limited to this. For example, even in functional design using only one type of evaluation formula Good. In short, various design changes and processing procedure changes can be made without departing from the scope of the present invention.

11…カメラ、12…キャプチャ部、13…画像処理記憶部、15…画像処理部、16…表示部、151…前処理部、152…差分処理部、153…二値化処理部、154…ノイズ除去フィルタ、156…領域化処理部、157…領域追跡処理部、157a…確定オブジェクト追跡部、157b…未確定オブジェクト追跡部、157c…新規オブジェクト登録部、157d…不要オブジェクト除去部、CC−TBL…相関判定用パラメータテーブル、AS…矩形領域、PF…追跡オブジェクトの存在位置(例えば、矩形下端中央位置とする場合は、オブジェクトの足元位置)、A1〜A3…局所領域、P1〜P3…画像パターン。   DESCRIPTION OF SYMBOLS 11 ... Camera, 12 ... Capture part, 13 ... Image processing memory | storage part, 15 ... Image processing part, 16 ... Display part, 151 ... Pre-processing part, 152 ... Difference processing part, 153 ... Binarization processing part, 154 ... Noise Removal filter, 156... Regionalization processing unit, 157... Region tracking processing unit, 157 a... Confirmed object tracking unit, 157 b... Unconfirmed object tracking unit, 157 c. Correlation determination parameter table, AS... Rectangular area, PF... Tracking object existence position (for example, the position of the foot of the object when it is the center position of the lower end of the rectangle), A1 to A3.

この付加機能の概要を図8に機能ブロックで示している。 The outline of this additional function is shown in functional blocks in FIG.

上記した、新規オブジェクトの登録処理(ステップS15)と、未確定オブジェクトの追跡処理(ステップS14)と、確定オブジェクトの追跡処理(ステップS13)とを繰り返し実行することによって、カメラ11で撮影した画面上の変化領域の追跡処理を効率よく実行することができる。また、上記した領域追跡処理部157の各処理機能をプログラムパッケージ化して提供することにより、既存の画像処理システムにおいて、未確定オブジェクト追跡処理機能と、確定オブジェクト追跡処理機能とを組み合わせた、簡素で高速な処理を可能にした画像追跡処理システムを容易に構築することができる。 Above, registration of a new object and (step S15), and the tracking process undetermined object (step S 14), by repeatedly executing the tracking processing of the deterministic object (step S 13), captured by the camera 11 The tracking process of the change area on the screen can be executed efficiently. Further, by providing each processing function of the area tracking processing unit 157 as a program package, a simple and simple combination of an unconfirmed object tracking processing function and a confirmed object tracking processing function in an existing image processing system. An image tracking processing system capable of high-speed processing can be easily constructed.

Claims (11)

所定の周期で入力された撮影画像を入力順に順次差分処理して、変化した画素を含む矩形の領域を抽出し、抽出した矩形の領域を過去の複数の矩形の領域から生成した予測領域をもとに追跡する画像処理装置において、
前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定手段と、
追跡している矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出手段と、
前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持手段と、
前記局所領域のパターン抽出手段が前記画像パターンを切り出す都度、切り出した画像パターンと前記局所領域のパターン保持手段に保持されている画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、前記追跡している矩形の領域の相関有無を判定する類似判定手段と、
前記類似判定手段が前記追跡している矩形の領域の相関有りを判定したとき、前記局所領域のパターン保持手段に保持されている画像パターンを前記局所領域のパターン抽出手段が切り出した最新の画像パターンに更新するテンプレート更新手段と、
を具備したことを特徴とする画像処理装置。
The captured image input at a predetermined cycle is sequentially subjected to differential processing in the order of input, a rectangular area including the changed pixel is extracted, and the extracted rectangular area is generated from a plurality of past rectangular areas. In an image processing apparatus that tracks
A plurality of local regions in the rectangular region, and an external parameter setting means for setting a threshold value for pattern matching determination in pixel units at pixel positions constituting the rectangular region;
Pattern extraction means for local regions that cut out the image pattern of each of the local regions from the rectangular region being tracked;
A local area pattern holding means for holding the image pattern as a template for matching evaluation;
Each time the local area pattern extraction means cuts out the image pattern, the cut image pattern is compared with the image pattern held in the local area pattern holding means, and matching evaluation is performed based on the threshold value. Similarity determination means for determining the presence or absence of correlation of the rectangular region being tracked,
When the similarity determination unit determines that there is a correlation between the rectangular regions being tracked, the latest image pattern obtained by the local region pattern extraction unit cutting out the image pattern held in the local region pattern holding unit. A template updating means for updating to
An image processing apparatus comprising:
所定の周期で入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する領域抽出処理手段と、前記領域抽出処理手段が抽出した領域のうち、新たに抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理手段と、前記新規オブジェクトの登録処理手段により登録されたオブジェクトを未確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、今回抽出した領域の位置および大きさを示す情報と前回抽出した領域の位置および大きさを示す情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理手段と、前記未確定オブジェクトの追跡処理手段が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理手段が領域を抽出する都度、当該抽出した領域の位置および大きさを示す情報と、前記未確定オブジェクトの追跡時における時系列の位置情報に基づく最小自乗近似により求める予測方向に従い追跡の都度更新される予測領域の位置および大きさを示す情報と移動速度情報をもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理手段とを具備した画像処理装置において、
前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定手段と、
前記未確定オブジェクトから確定オブジェクトになった新規確定オブジェクトを初回の処理対象として、前記確定オブジェクトが判定される都度、当該オブジェクトの矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出手段と、
前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持手段と、
前記局所領域のパターン抽出手段が前記画像パターンを切り出す都度、切り出した画像パターンと前記局所領域のパターン保持手段に保持されている画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、追跡している確定オブジェクトの相関有無を判定する追跡オブジェクトの類似判定手段と、
前記追跡オブジェクトの類似判定手段が前記追跡している確定オブジェクトの相関有りを判定したとき、現在追跡中の確定オブジェクトを同定して前記局所領域のパターン保持手段に保持されている画像パターンを前記局所領域のパターン抽出手段が切り出した最新の画像パターンに更新するテンプレート更新手段と、
を具備したことを特徴とする画像処理装置。
A difference extraction process is performed between the current image and the past image on the screen input at a predetermined cycle to extract a rectangular area including the changed pixel, and a new one of the areas extracted by the area extraction processing means A new object registration processing means for registering the extracted area as a new object to be tracked and an object registered by the new object registration processing means as an undetermined object. An unconfirmed object tracking processing means for tracking the unconfirmed object based on information indicating the position and size of the region extracted this time and information indicating the position and size of the region extracted last time, The unconfirmed object tracked for a predetermined time by the unconfirmed object tracking processing means Each time the area extraction processing means extracts an area as a confirmed object, information indicating the position and size of the extracted area, and least square approximation based on time-series position information at the time of tracking the undefined object An image processing apparatus comprising: a confirmed object tracking processing unit that tracks the confirmed object based on information indicating the position and size of a prediction area that is updated each time tracking is performed according to a prediction direction obtained by the above and movement speed information. ,
A plurality of local regions in the rectangular region, and an external parameter setting means for setting a threshold value for pattern matching determination in pixel units at pixel positions constituting the rectangular region;
Extracting a local area pattern that cuts out an image pattern of each local area from a rectangular area of the object each time the deterministic object is determined, with a new definite object that has become a definite object from the undetermined object as an initial processing target Means,
A local area pattern holding means for holding the image pattern as a template for matching evaluation;
Each time the local area pattern extraction means cuts out the image pattern, the cut image pattern is compared with the image pattern held in the local area pattern holding means, and matching evaluation is performed based on the threshold value. Tracking object similarity determination means for determining the presence or absence of correlation of the confirmed object being tracked,
When the similarity determination unit of the tracking object determines that there is a correlation between the confirmed objects being tracked, the confirmed object currently being tracked is identified, and the image pattern held in the pattern holding unit of the local region is Template update means for updating to the latest image pattern extracted by the pattern extraction means of the area;
An image processing apparatus comprising:
前記局所領域は、前記矩形の領域内における底辺の予め定めた位置を前記矩形で囲われた追跡オブジェクトの存在位置として、この存在位置に対して前記矩形の領域内における位置が設定され、
前記追跡オブジェクトの類似判定手段は、前記入力した画面の画素を単位に前記閾値となるパターンマッチング評価のための相関係数が設定された相関判定テーブルを有し、前記存在位置における前記相関判定テーブル上の相関係数を用いて前記追跡オブジェクトの類似判定を行うことを特徴とする請求項1または2に記載の画像処理装置。
In the local area, the position in the rectangular area is set with respect to the existing position, with the predetermined position of the base in the rectangular area being the existing position of the tracking object surrounded by the rectangle,
The tracking object similarity determination unit includes a correlation determination table in which a correlation coefficient for pattern matching evaluation serving as the threshold is set in units of pixels of the input screen, and the correlation determination table at the existing position The image processing apparatus according to claim 1, wherein similarity determination of the tracking object is performed using the above correlation coefficient.
前記局所領域は、追跡対象となる動物体を想定したオブジェクトモデルを撮影した画像から抽出された矩形の領域内における変化画素の分布をもとに変化率の低い部分領域を対象に前記矩形の領域内の複数箇所に追跡オブジェクトの小画像切り出し窓として設定されていることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The local area is a rectangular area for a partial area having a low rate of change based on a distribution of changed pixels in a rectangular area extracted from an image obtained by photographing an object model assuming a moving object to be tracked. The image processing apparatus according to claim 1, wherein the image processing apparatus is set as a small image cutout window of the tracking object at a plurality of locations. 前記局所領域は、前記矩形の領域内に、前記存在位置からの高さHをもとに複数定義され、同領域内の各画像がオブジェクトモデルパターンとして前記マッチング評価の対象になることを特徴とする請求項3または4に記載の画像処理装置。   A plurality of local regions are defined in the rectangular region based on a height H from the existence position, and each image in the region is a target of the matching evaluation as an object model pattern. The image processing apparatus according to claim 3 or 4. 前記追跡オブジェクトの類似判定手段には、算出方法を異にする複数組のパターンマッチングの評価式が用意され、前記外部パラメータには、前記複数組のパターンマッチングの評価式のいずれか一組を前記追跡オブジェクトの類似判定手段が実施するパターンマッチングの評価式として指定するパラメータが含まれる請求項1乃至3のいずれか1項に記載の画像処理装置。   The tracking object similarity determination means includes a plurality of sets of pattern matching evaluation formulas having different calculation methods, and the external parameter includes any one of the plurality of sets of pattern matching evaluation formulas. The image processing apparatus according to claim 1, further comprising a parameter specified as an evaluation formula for pattern matching performed by the tracking object similarity determination unit. 複数組のパターンマッチングの評価式の中から選択された評価式をもとに前記相関判定テーブルに前記相関係数が設定されることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the correlation coefficient is set in the correlation determination table based on an evaluation formula selected from a plurality of sets of pattern matching evaluation formulas. 所定の周期で入力された撮影画像を入力順に順次差分処理して、変化した画素を含む矩形の領域を抽出し、抽出した矩形の領域を過去の複数の矩形の領域から生成した予測領域をもとに追跡する画像処理装置としてコンピュータを機能させるための領域追跡プログラムであって、
前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定機能と、
追跡している矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出機能と、
前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持機能と、
前記局所領域のパターン抽出手段が前記画像パターンを切り出す都度、切り出した画像パターンと前記局所領域のパターン保持手段に保持されている画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、前記追跡している矩形の領域の相関有無を判定する類似判定機能と、
前記マッチング評価で相関有りと判定されたとき、前記保持されている画像パターンを前記切り出された最新の画像パターンに更新するテンプレート更新機能とをコンピュータに実現させるための領域追跡プログラム。
The captured image input at a predetermined cycle is sequentially subjected to differential processing in the order of input, a rectangular area including the changed pixel is extracted, and the extracted rectangular area is generated from a plurality of past rectangular areas. An area tracking program for causing a computer to function as an image processing apparatus for tracking
A setting function of an external parameter that sets a plurality of local areas in the rectangular area, and sets a threshold value for pattern matching determination in pixel units at pixel positions constituting the rectangular area;
A pattern extraction function of a local area that cuts out an image pattern of each of the local areas from the rectangular area being tracked;
A local area pattern holding function for holding the image pattern as a template for matching evaluation;
Each time the local area pattern extraction means cuts out the image pattern, the cut image pattern is compared with the image pattern held in the local area pattern holding means, and matching evaluation is performed based on the threshold value. A similarity determination function for determining the presence or absence of correlation of the rectangular region being tracked,
An area tracking program for causing a computer to realize a template update function for updating the held image pattern to the cut-out latest image pattern when it is determined that there is a correlation in the matching evaluation.
カメラで撮影した撮像画面を所定の周期で入力し、今回入力した画面上の画像と前回入力した画面上の画像とを差分処理して画面上の変化した画素を含む矩形の領域を抽出する領域抽出機能と、前記領域抽出機能により抽出された領域が、前記画面上で新たに抽出された領域であるか否かを判定し、新たに抽出された領域であるとき、当該抽出した領域を、追跡処理の対象となる新規オブジェクトとして登録する新規オブジェクトの登録処理機能と、前記新規オブジェクトの登録処理機能により登録されたオブジェクトについて、当該オブジェクトを未確定オブジェクトとして、前記領域抽出機能が前記領域を抽出する都度、今回抽出した領域の位置および大きさを示す情報と前回抽出した領域の位置および大きさを示す情報とをもとに前記未確定オブジェクトを追跡する未確定オブジェクトの追跡処理機能と、前記未確定オブジェクトの追跡処理機能が所定時間継続して追跡した未確定オブジェクトについて、当該オブジェクトを確定オブジェクトとして、前記領域抽出処理機能が領域を抽出する都度、当該抽出した領域の位置および大きさを示す情報と、前記未確定オブジェクトの追跡時における時系列の位置情報に基づく最小自乗近似により求める予測方向に従い追跡の都度更新される予測領域の位置および大きさを示す情報と移動速度情報とをもとに、前記確定オブジェクトを追跡する確定オブジェクトの追跡処理機能とを有した画像処理装置としてコンピュータを機能させるための領域追跡プログラムであって、
前記矩形の領域内に複数の局所領域を設定するとともに、前記矩形の領域を構成する画素位置に画素単位でパターンマッチング判定用の閾値を設定する外部パラメータの設定機能と、
前記未確定オブジェクトから確定オブジェクトになった新規確定オブジェクトを初回の処理対象として、前記確定オブジェクトが判定される都度、当該オブジェクトの矩形の領域から前記局所領域それぞれの画像パターンを切り出す局所領域のパターン抽出機能と、
前記画像パターンをマッチング評価のためのテンプレートとして保持する局所領域のパターン保持機能と、
前記画像パターンが切り出される都度、切り出された画像パターンと前記保持された画像パターンとを照合し、前記閾値をもとにマッチング評価を実施して、追跡している確定オブジェクトの相関有無を判定する追跡オブジェクトの類似判定機能と、
前記マッチング評価で相関有りと判定されたとき、現在追跡中の確定オブジェクトを同定して前記保持されている画像パターンを前記切り出された最新の画像パターンに更新し次回のマッチング評価の実施に備えるテンプレート更新機能とをコンピュータに実現させるための領域追跡プログラム。
An area in which an imaged screen shot with a camera is input at a predetermined cycle, and a rectangular area including a changed pixel on the screen is extracted by performing a difference process on the image on the screen input this time and the image on the screen input last time. It is determined whether the area extracted by the extraction function and the area extraction function is a newly extracted area on the screen, and when the area is a newly extracted area, For a new object registration processing function to be registered as a new object to be tracked and an object registered by the new object registration processing function, the region extraction function extracts the region as an unconfirmed object. Each time, the information indicating the position and size of the area extracted this time and the information indicating the position and size of the area extracted last time are used. With respect to an indeterminate object tracking process function that tracks a deterministic object and an undetermined object that the undetermined object tracking process function has continuously tracked for a predetermined time, the area extraction process function sets the area as the definite object. A prediction area that is updated each time tracking is performed according to a prediction direction obtained by least square approximation based on information indicating the position and size of the extracted area and time-series position information at the time of tracking the undefined object. An area tracking program for causing a computer to function as an image processing apparatus having a tracking process function of a confirmed object that tracks the confirmed object based on information indicating position and size and movement speed information,
A setting function of an external parameter that sets a plurality of local areas in the rectangular area, and sets a threshold value for pattern matching determination in pixel units at pixel positions constituting the rectangular area;
Extracting a local area pattern that cuts out an image pattern of each local area from a rectangular area of the object each time the deterministic object is determined, with a new definite object that has become a definite object from the undetermined object as an initial processing target Function and
A local area pattern holding function for holding the image pattern as a template for matching evaluation;
Each time the image pattern is cut out, the cut-out image pattern and the held image pattern are collated, and matching evaluation is performed based on the threshold value to determine the presence or absence of correlation of the confirmed object being tracked. A tracking object similarity determination function,
When it is determined that there is a correlation in the matching evaluation, a template that is currently being tracked is identified and the held image pattern is updated to the cut-out latest image pattern to prepare for the next matching evaluation An area tracking program that allows a computer to implement an update function.
前記局所領域は、前記矩形の領域内における底辺の予め定めた位置を前記矩形で囲われた追跡オブジェクトの存在位置として、この存在位置に対して前記矩形の領域内における位置が設定され、
前記追跡オブジェクトの類似判定機能は、前記入力した画面の画素を単位にパターンマッチング評価のための相関係数が設定された相関判定テーブルを有して、前記存在位置における前記相関判定テーブル上の相関係数を用い、前記追跡オブジェクトの類似判定を行うことを特徴とする請求項8または9に記載の領域追跡プログラム。
In the local area, the position in the rectangular area is set with respect to the existing position, with the predetermined position of the base in the rectangular area being the existing position of the tracking object surrounded by the rectangle,
The tracking object similarity determination function includes a correlation determination table in which a correlation coefficient for pattern matching evaluation is set in units of pixels of the input screen, and a phase on the correlation determination table at the existing position. 10. The area tracking program according to claim 8, wherein similarity determination of the tracking object is performed using a relation number.
前記追跡オブジェクトの類似判定機能には、算出方法を異にする複数組のパターンマッチングの評価式が用意され、これら評価式の中から選択された評価式をもとに前記相関判定テーブルに前記相関係数が設定されることを特徴とする請求項10に記載の領域追跡プログラム。   The similarity determination function of the tracking object includes a plurality of sets of pattern matching evaluation expressions having different calculation methods, and the correlation determination table stores the phase matching expressions based on the evaluation expressions selected from these evaluation expressions. 11. The area tracking program according to claim 10, wherein a relation number is set.
JP2016083716A 2016-04-19 2016-04-19 Image processing apparatus and area tracking program Active JP6286474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016083716A JP6286474B2 (en) 2016-04-19 2016-04-19 Image processing apparatus and area tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016083716A JP6286474B2 (en) 2016-04-19 2016-04-19 Image processing apparatus and area tracking program

Publications (2)

Publication Number Publication Date
JP2017194787A true JP2017194787A (en) 2017-10-26
JP6286474B2 JP6286474B2 (en) 2018-02-28

Family

ID=60155591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016083716A Active JP6286474B2 (en) 2016-04-19 2016-04-19 Image processing apparatus and area tracking program

Country Status (1)

Country Link
JP (1) JP6286474B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145916A (en) * 2018-08-02 2019-01-04 福州利倍得网络技术有限公司 A kind of pictograph identification cutting method and a kind of storage equipment
JP2019149150A (en) * 2017-12-29 2019-09-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and apparatus for processing point cloud data
CN111768433A (en) * 2020-06-30 2020-10-13 杭州海康威视数字技术股份有限公司 Method and device for realizing tracking of moving target and electronic equipment
JP2021026731A (en) * 2019-08-09 2021-02-22 三菱電機インフォメーションシステムズ株式会社 Stagnation detector, stagnation detection method, and stagnation detection program
KR102310613B1 (en) * 2021-05-14 2021-10-12 주식회사 인피닉 Method for tracking object in continuous 2D image, and computer program recorded on record-medium for executing method therefor
KR102310611B1 (en) * 2021-06-17 2021-10-13 주식회사 인피닉 Method for tracking object through 2D path inference, and computer program recorded on record-medium for executing method therefor
KR102313938B1 (en) * 2021-06-17 2021-10-18 주식회사 인피닉 Method for tracking object through 3D path inference, and computer program recorded on record-medium for executing method therefor
KR102313940B1 (en) * 2021-05-14 2021-10-18 주식회사 인피닉 Method for tracking object in continuous 3D data, and computer program recorded on record-medium for executing method therefor
JP2022014135A (en) * 2020-07-06 2022-01-19 株式会社ハイシンク創研 Object recognition device and object conveyance system using the same
WO2022074701A1 (en) * 2020-10-05 2022-04-14 日本電気株式会社 Information processing device, information processing system, and information processing method
WO2024111795A1 (en) * 2022-11-25 2024-05-30 삼성전자주식회사 Electronic device and method for cropping subject in image frames

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102566738B1 (en) 2018-10-15 2023-08-16 삼성전자주식회사 Electronic apparatus and the control method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298591A (en) * 1992-04-24 1993-11-12 Hitachi Ltd Object recognition device
JP4427052B2 (en) * 2006-12-26 2010-03-03 東芝テリー株式会社 Image processing apparatus and area tracking program
JP2014157388A (en) * 2013-02-14 2014-08-28 Toshiba Teli Corp Image processing system and threshold setting processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298591A (en) * 1992-04-24 1993-11-12 Hitachi Ltd Object recognition device
JP4427052B2 (en) * 2006-12-26 2010-03-03 東芝テリー株式会社 Image processing apparatus and area tracking program
JP2014157388A (en) * 2013-02-14 2014-08-28 Toshiba Teli Corp Image processing system and threshold setting processing program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7167397B2 (en) 2017-12-29 2022-11-09 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド Method and apparatus for processing point cloud data
JP2019149150A (en) * 2017-12-29 2019-09-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and apparatus for processing point cloud data
US11037305B2 (en) 2017-12-29 2021-06-15 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for processing point cloud data
CN109145916B (en) * 2018-08-02 2021-08-27 福建多多云科技有限公司 Image character recognition and cutting method and storage device
CN109145916A (en) * 2018-08-02 2019-01-04 福州利倍得网络技术有限公司 A kind of pictograph identification cutting method and a kind of storage equipment
JP2021026731A (en) * 2019-08-09 2021-02-22 三菱電機インフォメーションシステムズ株式会社 Stagnation detector, stagnation detection method, and stagnation detection program
CN111768433A (en) * 2020-06-30 2020-10-13 杭州海康威视数字技术股份有限公司 Method and device for realizing tracking of moving target and electronic equipment
CN111768433B (en) * 2020-06-30 2024-05-24 杭州海康威视数字技术股份有限公司 Method and device for realizing tracking of moving target and electronic equipment
JP7333546B2 (en) 2020-07-06 2023-08-25 株式会社ハイシンク創研 Object recognition device and object transport system using the same
JP2022014135A (en) * 2020-07-06 2022-01-19 株式会社ハイシンク創研 Object recognition device and object conveyance system using the same
WO2022074701A1 (en) * 2020-10-05 2022-04-14 日本電気株式会社 Information processing device, information processing system, and information processing method
KR102310613B1 (en) * 2021-05-14 2021-10-12 주식회사 인피닉 Method for tracking object in continuous 2D image, and computer program recorded on record-medium for executing method therefor
KR102313940B1 (en) * 2021-05-14 2021-10-18 주식회사 인피닉 Method for tracking object in continuous 3D data, and computer program recorded on record-medium for executing method therefor
KR102310611B1 (en) * 2021-06-17 2021-10-13 주식회사 인피닉 Method for tracking object through 2D path inference, and computer program recorded on record-medium for executing method therefor
KR102313938B1 (en) * 2021-06-17 2021-10-18 주식회사 인피닉 Method for tracking object through 3D path inference, and computer program recorded on record-medium for executing method therefor
WO2024111795A1 (en) * 2022-11-25 2024-05-30 삼성전자주식회사 Electronic device and method for cropping subject in image frames

Also Published As

Publication number Publication date
JP6286474B2 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
JP6286474B2 (en) Image processing apparatus and area tracking program
KR101870902B1 (en) Image processing apparatus and image processing method
WO2020017190A1 (en) Image analysis device, person search system, and person search method
JP6428266B2 (en) COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM
EP2450832A1 (en) Image processing apparatus and image processing method
JP4427052B2 (en) Image processing apparatus and area tracking program
JPWO2016199244A1 (en) Object recognition device and object recognition system
JP2009055139A (en) Person tracking system, apparatus, and program
CN110926330A (en) Image processing apparatus, image processing method, and program
WO2018008702A1 (en) Behavior detection system
WO2016031314A1 (en) Individual identification device, individual identification method, and individual identification program
KR20160109761A (en) Method and System for Recognition/Tracking Construction Equipment and Workers Using Construction-Site-Customized Image Processing
JP5101429B2 (en) Image monitoring device
CN105957300B (en) A kind of wisdom gold eyeball identification is suspicious to put up masking alarm method and device
JP4691570B2 (en) Image processing apparatus and object estimation program
US9305235B1 (en) System and method for identifying and locating instances of a shape under large variations in linear degrees of freedom and/or stroke widths
JP6028972B2 (en) Image processing apparatus, image processing method, and image processing program
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP2022164949A (en) Bar arrangement inspection device, bar arrangement inspection method and program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2019012497A (en) Portion recognition method, device, program, and imaging control system
JP2005196359A (en) Moving object detection apparatus, moving object detection method and moving object detection program
JP2017016356A (en) Image processing apparatus, image processing method, and program
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2004295416A (en) Image processing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R150 Certificate of patent or registration of utility model

Ref document number: 6286474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250