JP2006024149A - On-image moving object recognition method and device - Google Patents

On-image moving object recognition method and device Download PDF

Info

Publication number
JP2006024149A
JP2006024149A JP2004203855A JP2004203855A JP2006024149A JP 2006024149 A JP2006024149 A JP 2006024149A JP 2004203855 A JP2004203855 A JP 2004203855A JP 2004203855 A JP2004203855 A JP 2004203855A JP 2006024149 A JP2006024149 A JP 2006024149A
Authority
JP
Japan
Prior art keywords
moving object
blocks
block
image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004203855A
Other languages
Japanese (ja)
Other versions
JP4628712B2 (en
Inventor
Shunsuke Kamijo
俊介 上條
Satoru Umagoe
悟 馬越
Kazuhiro Tomizawa
一博 富澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Foundation for the Promotion of Industrial Science
Original Assignee
Fujitsu Ltd
Foundation for the Promotion of Industrial Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Foundation for the Promotion of Industrial Science filed Critical Fujitsu Ltd
Priority to JP2004203855A priority Critical patent/JP4628712B2/en
Publication of JP2006024149A publication Critical patent/JP2006024149A/en
Application granted granted Critical
Publication of JP4628712B2 publication Critical patent/JP4628712B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an on-image moving object recognition method and device recognizing a moving object quickly and accurately. <P>SOLUTION: Each of time serial images is divided into a plurality of blocks, and the blocks are compared with corresponding blocks of a background image by a block unit to calculate nonsimilarity between both blocks, and the presence of the moving object within the block is determined when the nonsimilarity is a reference value or more. An outline of a moving object area is recognized quickly in the block unit, in the first step, and only the area is corrected in the block unit, in the second step. The reference value is made larger in the second step than that in the first step, a block size is made smaller in the second step than that in the first step, the isolated moving object block is integrated with a moving object cluster near thereto in the second step, alternatively only a brightness component is used in the first step and a color component is used in the second step. When the same moving object is separately recognized even executing any thereof, the reference value is made smaller in the second step than that in the first step. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、時系列画像を処理して画像中の移動物体(車、自転車、動物等の移動可能なもの)を認識する画像上移動物体認識方法及び装置に関する。   The present invention relates to an on-image moving object recognition method and apparatus for processing a time-series image and recognizing a moving object (movable object such as a car, a bicycle, or an animal) in the image.

ビデオカメラで移動物体を撮像し、画像処理して画像上の移動物体を認識し追跡することにより、交通状態や交通事故の検出、駐車場の車の出入り分析、店舗内の客の移動分析等を自動的に行うことができる。   By capturing moving objects with a video camera, image processing and recognizing and tracking moving objects on the image, detection of traffic conditions and traffic accidents, analysis of entering and exiting cars in parking lots, movement analysis of customers in stores, etc. Can be done automatically.

画像上の移動物体を認識し追跡する方法として、例えば480×640画素のフレームを8×8画素のブロックに分割して60×80ブロックの画像とし、各ブロックの画像を背景画像の対応するブロックの画像と比較して、ブロック単位で移動物体を検出し、時刻t−1とtのフレーム画像の時空相関に基づいてブロック単位で移動物体の識別符号(ID)及び動きベクトル(MV)を求める方法がある(例えば下記特許文献1〜3)。これにより、同一移動物体と認められるブロックには同一IDが付与される。   As a method of recognizing and tracking a moving object on an image, for example, a 480 × 640 pixel frame is divided into 8 × 8 pixel blocks to form 60 × 80 block images, and each block image is a corresponding block of a background image. The moving object is detected in units of blocks, and the identification code (ID) and motion vector (MV) of the moving object are obtained in units of blocks based on the space-time correlation of the frame images at times t-1 and t. There are methods (for example, Patent Documents 1 to 3 below). Thereby, the same ID is given to the blocks recognized as the same moving object.

このような方法では、フレーム画像内の複数の移動物体をリアルタイムで追跡処理する必要があるので、処理を高速化する必要がある。特に、移動物体の速度を計測する場合には、計測精度を高めるためフレーム30フレーム/秒の全てのフレーム画像が処理されるので、より高速化が要求される。   In such a method, since it is necessary to track and process a plurality of moving objects in the frame image in real time, it is necessary to increase the processing speed. In particular, when measuring the speed of a moving object, all frame images of 30 frames / second are processed in order to improve measurement accuracy, and thus higher speed is required.

この要求に応えるために、モノクロ画像を用いると、移動物体とその影とを区別することが困難となる。また、模様の無い移動物体が多く、特に移動物体の中間部のブロックの特徴量が少ないため、モノクロ画像では移動物体の中間部が背景と区別できない場合が生じ、この場合、同一移動物体でありながら前部と後部が異なる移動物体と認識される。逆に、濃度が類似している2つの移動物体が重なっている場合、1つの移動物体と認識される場合がある。   If a monochrome image is used to meet this requirement, it becomes difficult to distinguish a moving object and its shadow. In addition, there are many moving objects without patterns, and the feature amount of the block at the middle part of the moving object is particularly small.Therefore, in the monochrome image, the middle part of the moving object may not be distinguished from the background. However, the front part and the rear part are recognized as different moving objects. On the other hand, when two moving objects having similar densities overlap, it may be recognized as one moving object.

このような問題を解決するため、高解像度のカラー画像を処理すると、フレームを間引かなければリアルタイム処理ができなくなり、移動物体の位置や速度等の物理量の計測精度が低くなる。すなわち、処理の高速化と移動物体認識の正確化は、トレードオフの関係にある。   In order to solve such problems, when a high-resolution color image is processed, real-time processing cannot be performed unless frames are thinned out, and the measurement accuracy of physical quantities such as the position and speed of a moving object is lowered. That is, there is a trade-off between speeding up the processing and accuracy of moving object recognition.

下記特許文献4では、画像上で抽出すべき領域を大まかに位置指定するだけで対象画像を自動的に切り出すために、画像中の一次特徴データを高速に抽出し、その分布に基づいて画像の領域分割を行うことにより、抽出可能性のある画像領域を概略的に抽出し、次に候補領域を核とする二次特徴量(一次特徴と種別、属性などが異なる特徴量)に基づく領域成長を行うことにより、より精細な抽出を行う方法が開示されている。一次特徴としては低解像度データ(例えば画像を間引き処理または平均化などにより低解像化した後、動きベクトルを検出するか、または画像データをサイズの大きいブロックに分割して各ブロックごとの動きベクトルを算出する。)を用い、二次特徴は色成分または同じ種別の高解像度データを用いる。動きベクトル均質度の評価から領域成長核の設までは低解像度で行い、領域成長は高解像度で行うことにより精細な切り出しを行う。領域成長は、均質度に基づく部分領域の併合または分離処理を意味する。   In Patent Document 4 described below, primary feature data in an image is extracted at high speed in order to automatically extract a target image simply by roughly specifying a region to be extracted on the image. By performing region segmentation, image regions that can be extracted are roughly extracted, and then region growth based on secondary features (features with different primary features, types, attributes, etc.) centered on candidate regions A method of performing finer extraction by performing is disclosed. Primary features include low-resolution data (for example, after reducing the resolution by thinning or averaging the image, and then detecting a motion vector, or dividing the image data into large blocks and moving the motion vector for each block) The secondary features use color components or high resolution data of the same type. From the evaluation of the homogeneity of the motion vector to the setting of the region growth nucleus is performed at a low resolution, and the region growth is performed at a high resolution to perform fine segmentation. Region growth means a process of merging or separating partial regions based on homogeneity.

しかし、二次特徴量を具体的にどのように処理するのか開示されていない。画像上の複数の移動物体を切り出してより高精度で位置や速度等を計測するには、効率よく画像処理する必要があるが、この要求を満たす具体的な方法が特許文献4には開示されていない。
特開2002−133421号公報 特開2003−006655号公報 特開2003−263626号公報 特開平09−185720号公報
However, it is not disclosed how to specifically process the secondary feature value. In order to cut out a plurality of moving objects on an image and measure the position, speed, etc. with higher accuracy, it is necessary to perform image processing efficiently. A specific method that satisfies this requirement is disclosed in Patent Document 4. Not.
JP 2002-133421 A JP 2003-006655 A JP 2003-263626 A JP 09-185720 A

本発明の目的は、上記問題点に鑑み、移動物体を高速かつより正確に認識することができる画像上移動物体認識方法及び装置を提供することにある。   In view of the above problems, an object of the present invention is to provide a moving object recognition method and apparatus on an image that can recognize a moving object at high speed and more accurately.

本発明による画像上移動物体認識方法では、時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識方法において、第1段階で移動物体領域の概略をブロック単位で高速に認識し、第2段階で該領域のみについてブロック単位で修正することにより、移動物体を高速かつより正確に認識する。   In the on-image moving object recognition method according to the present invention, each of the time-series images is divided into a plurality of blocks, and the dissimilarity between them is calculated in comparison with the corresponding blocks of the background image in units of blocks. In the on-image moving object recognition method in which it is determined that a moving object exists in the block if it is equal to or greater than a reference value, the outline of the moving object area is recognized at a high speed in blocks in the first stage, and only the area in the second stage. By correcting in block units, moving objects are recognized more quickly and accurately.

本発明の第1態様では、
(a)該基準値を第1の値にして移動物体の存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識し、
(b)該基準値を該第1の値より大きい第2の値にし、該領域内において移動物体の存否をブロック単位で判定すことにより、ステップ(a)で移動物体と判定された影の領域をステップ(b)により狭くする。
In the first aspect of the present invention,
(A) By recognizing the presence or absence of a moving object in units of blocks using the reference value as a first value, a region in which blocks in which a moving object exists is connected is recognized;
(B) The reference value is set to a second value larger than the first value, and the presence / absence of a moving object in the region is determined in units of blocks, whereby the shadow determined as the moving object in step (a) is determined. The region is narrowed by step (b).

本発明による画像上移動物体認識方法の第2態様では、
(a)該ブロックのサイズを第1の値にして該非類似度に基づき移動物体存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識し、
(b)該領域の周縁部のブロックを、該第1の値より小さい第2の値のサイズのブロックに分割し、該分割された各ブロックにつき該非類似度に基づいて移動物体存否を判定する。
In the second aspect of the on-image moving object recognition method according to the present invention,
(A) Recognizing a region where blocks where moving objects exist are linked by determining the presence or absence of a moving object based on the dissimilarity with the block size as a first value,
(B) Dividing the peripheral block of the region into blocks having a second value smaller than the first value, and determining whether or not there is a moving object based on the dissimilarity for each of the divided blocks .

本発明による画像上移動物体認識方法の第3態様では、
(a)該基準値を第1の値にして移動物体の存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識し、
(b)2つの該領域が所定値以上接近し、かつ、該2つの領域の動きベクトルの差が所定値以下であれば、該2つの領域が内接する矩形を求め、
(c)該矩形内の各ブロックについて該非類似度が、該第1の値より小さい第2の値以上であれば移動物体が該ブロックに存在すると判定する。
In the third aspect of the on-image moving object recognition method according to the present invention,
(A) By recognizing the presence or absence of a moving object in units of blocks using the reference value as a first value, a region in which blocks in which a moving object exists is connected is recognized;
(B) If the two areas are close to each other by a predetermined value or more and the difference between the motion vectors of the two areas is not more than a predetermined value, a rectangle in which the two areas are inscribed is obtained.
(C) If the dissimilarity is not less than a second value smaller than the first value for each block in the rectangle, it is determined that a moving object exists in the block.

本発明による画像上移動物体認識方法の第4態様では、移動物体が存在するブロックが連なった第1及び第2の領域について、該第1の領域のブロック数が所定値以下であり、かつ、該第2の領域が該第1の領域から所定距離内に存在すれば、該第1及び第2の領域と両者の間の領域にも移動物体が存在するとみなし、該第1及び第2の領域と該両者の間の領域に同一移動物体が存在するとみなす。   In the fourth aspect of the moving object recognition method on the image according to the present invention, the number of blocks in the first area is equal to or less than a predetermined value for the first and second areas in which the blocks where the moving object exists are connected, and If the second region exists within a predetermined distance from the first region, it is considered that there is a moving object in the first and second regions and the region between them, and the first and second regions It is assumed that the same moving object exists in the region and the region between the two.

本発明による画像上移動物体認識方法第5態様では、
(a)輝度成分を用いて該方法によりブロック単位で移動物体存否を仮判定し、移動物体が存在すると仮判定したブロックが連なった領域を認識し、
(b)該領域について、色成分も用いて該方法によりブロック単位で移動物体存否を本判定する。
In the fifth aspect of the moving object recognition method according to the present invention,
(A) using the luminance component to temporarily determine the presence or absence of a moving object in units of blocks using the method, recognizing a region where blocks that have been temporarily determined to have a moving object are connected,
(B) With respect to the area, the presence / absence of a moving object is determined in block units by the method using color components.

上記第1〜5態様の構成によれば、第1段階で認識された移動物体存在領域に関してのみ第2段階で修正処理されるので、処理が高速になる。   According to the configuration of the first to fifth aspects, the correction process is performed in the second stage only with respect to the moving object existence area recognized in the first stage.

上記第1態様の構成によれば、非類似度の比較基準値を第1段階よりも大きくするので、第1段階で移動物体の影を移動物体と認識されても、第2段階でその一部又は全部が移動物体と認識されず、また、第2段階で新たな移動物体不存在ブロックが該領域の縁部を除く内側に生成されても、これらを同一移動物体みなして処理することが可能であるので、処理時間の増大を抑制するとともに、移動物体認識の正確化を図ることができる。   According to the configuration of the first aspect, the comparison reference value for the dissimilarity is set larger than that in the first stage. Therefore, even if the shadow of the moving object is recognized as a moving object in the first stage, the reference value is determined in the second stage. Even if a part or the whole is not recognized as a moving object, and a new moving object non-existing block is generated inside the area excluding the edge of the area in the second stage, these blocks can be treated as the same moving object. Since this is possible, it is possible to suppress an increase in processing time and to achieve accurate movement object recognition.

上記第2態様の構成によれば、第1段階で認識された移動物体領域の内側のブロックについては再分割されないので、該領域の周縁部形状が従来よりも高速かつ正確に求められ、また、第2段階で新たな移動物体不存在ブロックが該領域の内側に生成されないので、それを移動物体存在ブロックで埋める処理をする必要がない。   According to the configuration of the second aspect, since the block inside the moving object area recognized in the first stage is not subdivided, the peripheral edge shape of the area is obtained faster and more accurately than in the past, and Since a new moving object non-existing block is not generated inside the area in the second stage, it is not necessary to perform a process of filling it with the moving object existing block.

上記第3又は第4態様の構成によれば、例え上記第1又は第2態様の第1段階で同一移動物体が異なる移動物体として分離認識されても、これらを同一移動物体と認識することが可能となる。   According to the configuration of the third or fourth aspect, even if the same moving object is separated and recognized as different moving objects in the first stage of the first or second aspect, they can be recognized as the same moving object. It becomes possible.

上記第5態様の構成によれば、第1段階で認識された移動物体領域の画像とその背景画像との非類似度が、実際に移動物体が存在するブロックについて第2段階で大きくなるので、第2段階では、第1段階で移動物体と認識された影のブロックを除去したり、第1段階で移動物体の一部であるのに移動物体でないと判定されたブロックを移動物体存在ブロックと判定することが可能となる。このため、2つの移動物体の一方の影に他の移動物体が重なっていて、該2つの移動物体と該影とが1つの移動物体と認識されても、これら2つの移動物体を分離して認識することが可能となる。   According to the configuration of the fifth aspect, the dissimilarity between the image of the moving object region recognized in the first stage and the background image is increased in the second stage for the block in which the moving object actually exists. In the second stage, a shadow block recognized as a moving object in the first stage is removed, or a block that is part of the moving object but is determined not to be a moving object in the first stage is referred to as a moving object existence block. It becomes possible to judge. Therefore, even if another moving object overlaps one shadow of the two moving objects, and the two moving objects and the shadow are recognized as one moving object, the two moving objects are separated. It becomes possible to recognize.

本発明の他の目的、構成及び効果は以下の説明から明らかになる。   Other objects, configurations and effects of the present invention will become apparent from the following description.

以下、図面に基づいて本発明の実施例を説明する。図中、同一又は類似の要素には、同一又は類似の符号を付している。   Embodiments of the present invention will be described below with reference to the drawings. In the figure, the same or similar elements are denoted by the same or similar reference numerals.

図1は、ビデオカメラ(例えばITVカメラ)10で撮像された画像を処理して移動物体を追跡する移動物体追跡装置20の概略機能ブロック図である。ビデオカメラ10は、例えば交差点付近に配置されており、図2はこのビデオカメラ10で撮像された概略フレーム画像を示す。   FIG. 1 is a schematic functional block diagram of a moving object tracking apparatus 20 that processes an image captured by a video camera (for example, an ITV camera) 10 and tracks a moving object. For example, the video camera 10 is arranged near an intersection, and FIG. 2 shows a schematic frame image captured by the video camera 10.

移動物体追跡装置20のうち記憶部以外は、コンピュータソフトウェア、専用のハードウェア又はコンピュータソフトウエアと専用のハードウエアの組み合わせで構成することができる。   The moving object tracking device 20 other than the storage unit can be configured by computer software, dedicated hardware, or a combination of computer software and dedicated hardware.

ビデオカメラ10で撮影された時系列画像は、例えば30フレーム/秒のレートで、画像メモリ21に複数フレーム格納され、最も古いフレームが新しいフレーム画像で書き換えられる。   The time-series images captured by the video camera 10 are stored in the image memory 21 at a rate of, for example, 30 frames / second, and the oldest frame is rewritten with a new frame image.

本発明は、画像メモリ21に格納された画像データを構成要素23〜26により、リアルタイムで処理する場合のみならず、不図示の外部記憶装置に格納しておき、必要な部分のみ後で処理する場合にも適用できる。   In the present invention, the image data stored in the image memory 21 is not only processed in real time by the components 23 to 26 but also stored in an external storage device (not shown), and only necessary portions are processed later. It can also be applied to cases.

また、画像メモリ21に格納された画像(原画像)を直接、構成要素23〜26で処理しても、ラプラシアンフィルタ等のフィルタをかけて空間的差分フレーム画像に変換したもの又は2次元フーリエ変換し所定周波数以上の成分を強調した後逆フーリエ変換したもの(変換画像)を、構成要素23〜26で処理する構成であってもよい。以下、「画像」とは原画像又は変換画像を意味する。   Further, even if the image (original image) stored in the image memory 21 is directly processed by the constituent elements 23 to 26, it is converted into a spatial difference frame image by applying a filter such as a Laplacian filter or two-dimensional Fourier transform In addition, a configuration in which the components 23 to 26 are processed (transformed images) obtained by performing inverse Fourier transform after emphasizing components of a predetermined frequency or higher is also possible. Hereinafter, “image” means an original image or a converted image.

背景画像生成部22は、記憶部と処理部とを備え、処理部は、画像メモリ21をアクセスし、例えば過去1分間の全ての又は間引かれたもののフレーム画像の対応する画素について画素値のヒストグラムを作成し、その最頻値(モード)をその画素の値とする画像を、背景画像として生成し、これを該記憶部に格納する。背景画像は、この処理が定期的に行われて更新される。   The background image generation unit 22 includes a storage unit and a processing unit. The processing unit accesses the image memory 21, and for example, the pixel values of the corresponding pixels of the frame image of all or thinned out objects in the past one minute. A histogram is created, and an image having the mode value (mode) as the value of the pixel is generated as a background image and stored in the storage unit. The background image is updated by performing this process periodically.

ここで、図2に示す如くフレーム30内には、交差点への4つの入口及び交差点からの4つの出口にそれぞれ入口スリットEN1〜EN4及び出口スリットEX1〜EX4が配置される。ID生成/消滅部23には、フレーム30内の入口スリットEN1〜EN4及び出口スリットEX1〜EX4の位置及びサイズのデータが、予め設定されている。ID生成/消滅部23は、画像メモリ21から入口スリットEN1〜EN4内の画像データを読み込み、これら入口スリット内に移動物体が存在するかどうかを上述のブロック単位で判定する。あるブロックに移動物体が存在するかどうかは、ブロック非類似度NSが基準値RV1以上であるかどうかにより判定する。ブロック非類似度NSは例えば、ブロック内の各画素と背景画像の対応する画素との差の絶対値の総和である。   Here, in the frame 30, as shown in FIG. 2, entrance slits EN1 to EN4 and exit slits EX1 to EX4 are arranged at four entrances to the intersection and four exits from the intersection, respectively. In the ID generation / annihilation unit 23, the position and size data of the entrance slits EN1 to EN4 and the exit slits EX1 to EX4 in the frame 30 are set in advance. The ID generation / annihilation unit 23 reads the image data in the entrance slits EN1 to EN4 from the image memory 21, and determines whether or not there is a moving object in the entrance slits in units of the blocks. Whether there is a moving object in a certain block is determined by whether the block dissimilarity NS is greater than or equal to the reference value RV1. The block dissimilarity NS is, for example, the sum of absolute values of differences between each pixel in the block and the corresponding pixel in the background image.

ID生成/消滅部23は、ブロック内に移動物体が存在すると判定すると、このブロックに新たな移動物体識別符号(ID)を付与する。ID生成/消滅部23は、ID付与済ブロックと隣接しているブロックに移動物体が存在すると判定すると、この隣接ブロックに付与済ブロックと同一のIDを付与する。このID付与済ブロックは入口スリットに隣接しているブロックも含まれる。例えば図2中の入口スリットEN1内のブロックにはID=1が付与される。以下、IDが付与されたブロックの塊をクラスタと称する。   When the ID generation / annihilation unit 23 determines that there is a moving object in the block, the ID generation / annihilation unit 23 assigns a new moving object identification code (ID) to the block. If the ID generation / annihilation unit 23 determines that a moving object exists in a block adjacent to the ID-assigned block, the ID generation / annihilation unit 23 assigns the same ID as the assigned block to this adjacent block. This ID-added block includes a block adjacent to the entrance slit. For example, ID = 1 is assigned to the block in the entrance slit EN1 in FIG. Hereinafter, a block of blocks to which an ID is assigned is referred to as a cluster.

IDの付与は、記憶部24内のオブジェクトマップの対応するブロックに対して行われる。オブジェクトマップ記憶部24は、上述の場合60×80ブロックの各ブロックの移動物体情報を記憶するためのものであり、移動物体情報は、IDが付与されているかどうかを示すフラグFと、IDが付与されていることを示している場合にはID及びブロックの動きベクトルMVを含む。なお、該フラグを用いずに又は用いるとともに、ID=0のときIDが付与されていないと判定してもよい。また、IDの最上位ビットをフラグとしてもよい。ブロックマッチングで動きベクトルMVが求まらないブロックの動きベクトルMVは例えば、その回りの同一IDのブロックの動きベクトルMVの平均値に等しくする。   The ID is assigned to the corresponding block of the object map in the storage unit 24. The object map storage unit 24 is for storing the moving object information of each block of 60 × 80 blocks in the above-described case. The moving object information includes a flag F indicating whether or not an ID is assigned, In the case where it is shown that it is assigned, the ID and the motion vector MV of the block are included. The flag may not be used or may be used, and when ID = 0, it may be determined that no ID is assigned. The most significant bit of the ID may be used as a flag. For example, the motion vector MV of a block whose motion vector MV cannot be obtained by block matching is set equal to the average value of the motion vectors MV of the blocks having the same ID around it.

入口スリットを通過したクラスタに対しては、移動物体認識部25により公知の方法で追跡処理が行われる。例えば、高速処理のため、時刻t−1(時刻は例えばフレームのシリアルナンバー)での動きベクトルMVに基づいて時刻tでのクラスタの概略移動範囲が推定され、この範囲内で上述の移動物体存否判定がブロック毎に行われ、移動方向側のブロックに対するIDの付与及び移動と反対方向側のブロックに対するIDの消滅が行われて、時刻tでのクラスタが決定される。また、時刻t−1とtのフレーム画像間のブロックマッチングにより、時刻tでIDが付与されているブロックの動きベクトルMVが求められる。高速処理のため、ブロックマッチングを行う範囲は、時刻t−1での動きベクトルMVで予測して定められる。各ブロックのIDと動きベクトルMVは、評価関数を用いて同時に決定することもできる(例えば上記特許文献3)。ID及び動きベクトルMVの更新は、記憶部24内のオブジェクトマップに対して行われる。   A tracking process is performed on the cluster that has passed through the entrance slit by the moving object recognition unit 25 by a known method. For example, for high-speed processing, the approximate movement range of the cluster at time t is estimated based on the motion vector MV at time t-1 (time is the serial number of the frame, for example), and the above-mentioned moving object existence is determined within this range. The determination is performed for each block, the ID is assigned to the block on the movement direction side, and the ID on the block on the opposite direction to the movement is deleted, and the cluster at time t is determined. Further, the motion vector MV of the block to which the ID is assigned at time t is obtained by block matching between the frame images at time t−1 and t. For high-speed processing, the range for performing block matching is determined by prediction with the motion vector MV at time t-1. The ID and motion vector MV of each block can be determined simultaneously using an evaluation function (for example, Patent Document 3 above). The update of the ID and the motion vector MV is performed on the object map in the storage unit 24.

移動物体認識部25による追跡処理は、各クラスタについて出口スリット内まで行われる。   The tracking process by the moving object recognition unit 25 is performed up to the exit slit for each cluster.

ID生成/消滅部23はさらに、記憶部24内のオブジェクトマップに基づき出口スリットEX1〜EX4内のブロックにIDが付与されているかどうかを調べ、付与されていれば、クラスタが出口スリットを通過したときにそのIDを消滅させる。例えば図2中の出口スリットEX1内のブロックにID=3が付されている状態から、IDが付されない状態に変化したときに、ID=3を消滅させる。消滅IDは、次の生成IDとして用いることができる。   The ID generation / annihilation unit 23 further checks whether an ID is assigned to the blocks in the exit slits EX1 to EX4 based on the object map in the storage unit 24, and if so, the cluster has passed through the exit slit. Sometimes the ID disappears. For example, when the block in the exit slit EX1 in FIG. 2 changes from a state in which ID = 3 is assigned to a state in which no ID is assigned, ID = 3 is extinguished. The disappearance ID can be used as the next generation ID.

次に、本実施例1が解決しようとする問題点を説明する。   Next, problems to be solved by the first embodiment will be described.

基準値RV1が大きすぎると、図5(A)に示す如く同一移動物体が複数のクラスタとなって、異なる移動物体と認識される。これを避けるために基準値RV1を小さくすると、図4(A)に示す如く移動物体31の影32も移動物体と認識されてしまう。様々な輝度の移動物体が存在するので、両問題が生じないように基準値RV1を定めるのは困難である。   If the reference value RV1 is too large, the same moving object becomes a plurality of clusters as shown in FIG. 5A and is recognized as a different moving object. If the reference value RV1 is reduced to avoid this, the shadow 32 of the moving object 31 is also recognized as a moving object as shown in FIG. Since there are moving objects with various luminances, it is difficult to determine the reference value RV1 so that both problems do not occur.

そこで、各ブロックの移動物体存否判定にその周囲のブロック画像まで考慮したり、カラー画像を用いたりすると、処理が遅くなる。これを避けるためには、フレームレートを下げたり、あるいは高性能の高価なハードウェアを用いなければならない。   Therefore, if the surrounding block image is taken into consideration for the determination of the presence or absence of the moving object of each block, or if a color image is used, the processing becomes slow. In order to avoid this, it is necessary to reduce the frame rate or use high-performance and expensive hardware.

本実施例1は、このような問題を解決するため、図1において、ID生成/消滅部23及び移動物体認識部25により記憶部24に生成されたオブジェクトマップに対し、移動物体認識修正部26により各クラスタ内の移動物体を以下のようにしてより正確に認識する。   In the first embodiment, in order to solve such a problem, in FIG. 1, the moving object recognition correcting unit 26 is applied to the object map generated in the storage unit 24 by the ID generation / annihilation unit 23 and the moving object recognition unit 25. The moving object in each cluster is recognized more accurately as follows.

移動物体認識修正部26はまず、IDのオブジェクトマップ上の各クラスタついて、図4(A)に示す如く、クラスタが内接する矩形33を求める。これは、IDのオブジェクトマップをスキャンして、各IDj、j=1〜NにつきそのブロックのX座標の最小値X0j及び最大値Xmj、並びにY座標の最小値Y0j及び最大値Ymjを求めることにより、
ID1,(X01,Y01),(Xm1,Ym1)
ID2,(X02,Y02),(Xm2,Ym2)
・・・・・・・・・・・・・・・・・・・・・・
IDN,(X0N,Y0N),(XmN,YmN)
として得られる。これら矩形のID1〜IDNは、その矩形内の移動物体ブロックに付与されているIDと同一である。
First, the moving object recognition / correction unit 26 obtains a rectangle 33 in which the cluster is inscribed, as shown in FIG. 4A, for each cluster on the ID object map. This is done by scanning the ID object map and obtaining the minimum value X0j and maximum value Xmj of the X coordinate and the minimum value Y0j and maximum value Ymj of the Y coordinate for each IDj, j = 1 to N. ,
ID1, (X01, Y01), (Xm1, Ym1)
ID2, (X02, Y02), (Xm2, Ym2)
・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・
IDN, (X0N, Y0N), (XmN, YmN)
As obtained. These rectangular IDs 1 to IDN are the same as the IDs assigned to the moving object blocks in the rectangle.

図3は、任意の1つのクラスタが内接する矩形に対する移動物体認識修正部26の処理を示す概略フローチャートである。   FIG. 3 is a schematic flowchart showing the process of the moving object recognition / correction unit 26 for a rectangle inscribed by any one cluster.

この矩形33の対角点座標を(X0,Y0)及び(Xm,Ym)、ブロック(X,Y)のID及び非類似度NSをそれぞれID(X,Y)及び非類似度NS(X,Y)と表記する。   The diagonal coordinates of the rectangle 33 are (X0, Y0) and (Xm, Ym), the ID and dissimilarity NS of the block (X, Y) are ID (X, Y) and dissimilarity NS (X, Y).

(S0)X及びYにそれぞれ初期値X0及びY0を代入する。   (S0) Substituting initial values X0 and Y0 for X and Y, respectively.

(S1)ID(X,Y)≠0であれば、すなわちブロック(X,Y)に移動物体が存在すれば、ステップS2へ進み、そうでなければステップS4へ進む。   (S1) If ID (X, Y) ≠ 0, that is, if there is a moving object in the block (X, Y), the process proceeds to step S2, and if not, the process proceeds to step S4.

(S2)NS(X,Y)≦RV2であればステップS3へ進み、そうでなければステップS4へ進む。   (S2) If NS (X, Y) ≦ RV2, the process proceeds to step S3. Otherwise, the process proceeds to step S4.

基準値RV2は、移動物体認識部25で用いる基準値RV1よりも大きく、移動物体のみを移動物体と認識しその影32を移動物体でないと認識するためのものである。基準値RV2は、移動物体追跡処理前に予め設定されている。   The reference value RV2 is larger than the reference value RV1 used in the moving object recognition unit 25, and is for recognizing only a moving object as a moving object and recognizing its shadow 32 as not a moving object. The reference value RV2 is set in advance before the moving object tracking process.

この設定は、図1において、マウス等のポインティングデバイス又はキーボード等の入力装置INと、設定を確認する表示装置OUTと、移動物体認識修正部26に含まれる入力処理プログラムとを含む設定手段により、人の操作に基づいて行われる。   In FIG. 1, the setting is performed by setting means including an input device IN such as a pointing device such as a mouse or a keyboard, a display device OUT for confirming the setting, and an input processing program included in the moving object recognition correcting unit 26. Performed based on human operation.

基準値RV2は例えば、画面上で選択した移動物体を拡大表示させ、各ブロックの非類似度NSをこの画像上に重ねて表示させ、その分布から操作者が決定する。この場合、非類似度NSのヒストグラムを作成して画面に表示させるようにしてもよい。ヒトグラム上で影に対応したピークが現れるので、このピーク又はその裾側のボトムの非類似度NSに基づいて、基準値RV2を自動的に決定する構成であってもよい。   For example, the reference value RV2 is determined by the operator from the distribution by displaying the moving object selected on the screen in an enlarged manner and displaying the dissimilarity NS of each block superimposed on the image. In this case, a histogram of the dissimilarity NS may be created and displayed on the screen. Since a peak corresponding to the shadow appears on the human gram, the reference value RV2 may be automatically determined based on the non-similarity NS of the peak or the bottom of the peak.

(S3)ID(X,Y)に0を代入する。   (S3) 0 is substituted for ID (X, Y).

(S4)矩形33内のブロック座標(X,Y)を更新する。   (S4) The block coordinates (X, Y) in the rectangle 33 are updated.

(S5)更新した座標が矩形33内であれば、ステップS1へ戻り、そうでなければステップS6へ進む。   (S5) If the updated coordinates are within the rectangle 33, the process returns to step S1, and if not, the process proceeds to step S6.

以上のような処理により、図4(A)に示すような矩形33内のID分布は、図4(B)に示す如くなって、影の一部または全部が移動物体でないと判定される。   Through the processing described above, the ID distribution in the rectangle 33 as shown in FIG. 4A is as shown in FIG. 4B, and it is determined that part or all of the shadow is not a moving object.

(S6、S7)移動物体の輝度が背景の輝度に接近しているために、以上の処理により図5(A)に示す如くクラスタが分離したり、移動物体ブロックが欠落する場合があるので、次のようにして移動物体ブロックを補う。   (S6, S7) Since the luminance of the moving object is close to the luminance of the background, the cluster may be separated as shown in FIG. The moving object block is supplemented as follows.

すなわち、矩形33内の各行についてX方向へ走査し、同一行内において、移動物体が存在するブロックから存在しないブロックに移り、再度移動物体が存在するブロックに移った場合には、この間の移動物体不存在ブロック(隙間)に、矩形に付与された移動物体のIDを付与する。これにより、図5(B)に示す如く、クラスタ間の隙間が埋まって1つの移動物体クラスタが得られる。すなわち、クラスタが2つ以上に分離したり、分離していないが隙間がある場合には、これら隙間が同一IDの移動物体ブロックで埋められる。   That is, when each row in the rectangle 33 is scanned in the X direction, and the block moves from the block where the moving object exists to the block where the moving object exists, and moves again to the block where the moving object exists, the moving object is not in the meantime. The ID of the moving object given to the rectangle is given to the existing block (gap). As a result, as shown in FIG. 5B, the gap between the clusters is filled and one moving object cluster is obtained. That is, when the clusters are separated into two or more or there are gaps that are not separated, these gaps are filled with moving object blocks having the same ID.

基準値を最初からRV2にすると、同一移動物体が複数のクラスタに分離する確率が大きくなり、分離したクラスタをまとめて1つの移動物体と認識するのは容易でなく、また、その処理時間が長くなる。   When the reference value is set to RV2 from the beginning, the probability that the same moving object is separated into a plurality of clusters increases, and it is not easy to collectively recognize the separated clusters as one moving object, and the processing time is long. Become.

本実施例1では、非類似度の基準値を比較的小さなRV1にして移動物体の存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識し、各領域内において、基準値をRV1より大きいRV2にして移動物体の存否をブロック単位で判定するので、処理時間の増大を抑制するとともに、移動物体の影の一部又は全部を移動物体でないと判定して移動物体認識の正確化を図ることができる。   In the first embodiment, the reference value of the dissimilarity is set to a relatively small RV1, and the presence / absence of the moving object is determined in units of blocks, thereby recognizing the area where the blocks where the moving object exists are connected. Since the reference value is set to RV2 larger than RV1 and the presence / absence of a moving object is determined in units of blocks, an increase in processing time is suppressed, and a part or all of the shadow of the moving object is determined not to be a moving object. Recognition can be made accurate.

図6は、ビデオカメラ10で撮像された画像を処理して移動物体を追跡する、本発明の実施例2に係る移動物体追跡装置20Aの概略機能ブロック図である。   FIG. 6 is a schematic functional block diagram of a moving object tracking apparatus 20A according to the second embodiment of the present invention that processes an image captured by the video camera 10 to track a moving object.

実施例1と異なる点は、ブロックサイズを大きくし、例えば、図8(A)に示すようにブロックの一辺の長さを2倍にして、ID生成/消滅部23及び移動物体認識部25での処理時間を短縮するとともに、移動物体認識修正部26Aにおいて、オブジェクトマップ上の各移動物体領域の周縁部につき、画像メモリ21及び背景画像生成部22のデータを用い移動物体を、以下のようにしてより正確に認識する点である。   The difference from the first embodiment is that the block size is increased, for example, the length of one side of the block is doubled as shown in FIG. 8A, and the ID generation / annihilation unit 23 and the moving object recognition unit 25 In the moving object recognition correction unit 26A, the moving object is converted into the following using the data of the image memory 21 and the background image generation unit 22 for the peripheral part of each moving object region on the object map as follows. It is a point to recognize more accurately.

ブロックサイズを大きくすることにより1ブロックに含まれる情報量が増えるので、図5(A)に示すようにブロックに移動物体が存在するにも関わらず存在しないと誤判定される確率を低減することができる。   Since the amount of information included in one block increases by increasing the block size, the probability of erroneously determining that a moving object exists in the block but does not exist as shown in FIG. 5A is reduced. Can do.

しかしながら、ブロックサイズが大きいので、移動物体と判定される領域が広くなりすぎる。   However, since the block size is large, the area determined to be a moving object becomes too wide.

移動物体をより正確に認識するために、移動物体と判定された全領域のブロックサイズを小さくすると、1ブロックに含まれる情報量が減少するので、上述の隙間が生じ、1つの移動物体が複数のクラスタに分離したりし、その修正処理に時間を要する。   In order to recognize a moving object more accurately, if the block size of the entire area determined to be a moving object is reduced, the amount of information included in one block is reduced, so that the above-described gap is generated, and a plurality of one moving object is generated. It takes time to correct the cluster.

そこで、移動物体認識修正部26Aは、実施例1で述べたように、まず、クラスタが内接する矩形33を求め、次に、各矩形について図7に示す処理を行う。   Therefore, as described in the first embodiment, the moving object recognition / correction unit 26A first obtains the rectangle 33 inscribed by the cluster, and then performs the process shown in FIG. 7 for each rectangle.

この矩形33の対角点座標を(X0,Y0)及び(Xm,Ym)、ブロック(X,Y)の移動物体存否フラグをF(X,Y)と表記する。   The diagonal point coordinates of the rectangle 33 are expressed as (X0, Y0) and (Xm, Ym), and the moving object presence / absence flag of the block (X, Y) is expressed as F (X, Y).

(S10)X及びYにそれぞれ初期値X0及びY0を代入する。   (S10) Substituting initial values X0 and Y0 for X and Y, respectively.

(S11)F(X,Y)=1であれば、すなわちブロック(X,Y)に移動物体が存在すれば、ステップS12へ進み、そうでなければステップS15へ進む。   (S11) If F (X, Y) = 1, that is, if there is a moving object in the block (X, Y), the process proceeds to step S12; otherwise, the process proceeds to step S15.

(S12)着目ブロック(X,Y)を中心とする3×3ブロックのフラグFの値を加算し、これをnとする。矩形33の外側のフラグFは無視する。   (S12) The value of the flag F of the 3 × 3 block centering on the block of interest (X, Y) is added, and this is set to n. The flag F outside the rectangle 33 is ignored.

(S13)n≦6であれば、すなわち着目ブロックの周囲8ブロックのうち3ブロック以上に移動物体が存在しなければ、ステップS14へ進み、そうでなければステップS15へ進む。例えば、ブロックBL1、BL2はそれぞれn=4、n=7である。   (S13) If n ≦ 6, that is, if there are no moving objects in three or more blocks among the eight blocks around the block of interest, the process proceeds to step S14, and if not, the process proceeds to step S15. For example, the blocks BL1 and BL2 have n = 4 and n = 7, respectively.

(S14)図8(B)に示すように、ブロック(X,Y)を4分割し、その各々について非類似度NSを求め基準値と比較して移動物体存否を判定し、存在すると判定されたブロックのみに、上記矩形33のIDを付与する。   (S14) As shown in FIG. 8B, the block (X, Y) is divided into four, and the dissimilarity NS is obtained for each of them to determine the presence / absence of a moving object and determined to be present. The ID of the rectangle 33 is given only to the block.

(S15)矩形33内のブロック座標(X,Y)を更新する。   (S15) The block coordinates (X, Y) in the rectangle 33 are updated.

(S16)更新した座標が矩形33内であれば、ステップS11へ戻り、そうでなければ処理を終了する。   (S16) If the updated coordinates are within the rectangle 33, the process returns to step S11, and if not, the process ends.

本実施例2では、ブロックサイズを比較的大きな第1の値にして非類似度NSに基づき移動物体存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を短時間、例えば従来の約1/4の時間で認識し、該領域の周縁部のブロックを、該第1の値より小さい第2の値のサイズのブロックに分割し、該分割された各ブロックにつき非類似度NSに基づいて移動物体存否を判定するので、図8(B)に示すように周縁部の形状がより正確に求められ、また、移動物体の内側のブロックについては分割されないので新たに隙間が形成されず、それを埋める処理をする必要がない。   In the second embodiment, the block size is set to a relatively large first value, and the presence / absence of the moving object is determined in units of blocks based on the dissimilarity NS. For example, recognition is performed in about 1/4 of the conventional time, and the peripheral block of the region is divided into blocks having a size of a second value smaller than the first value, and each divided block is dissimilar. Since the presence / absence of the moving object is determined based on the degree NS, the shape of the peripheral portion can be obtained more accurately as shown in FIG. 8B, and the inner block of the moving object is not divided, so a new gap is created. It is not formed and there is no need to fill it.

また、着目ブロックに接する移動物体不存在ブロックの数が所定数以上である該着目ブロックを上記周縁部のブロックと判定するので、簡単な処理で分割が必要なブロックのみ分割することが可能となり、短時間で移動物体を正確に認識することが可能となる。   In addition, since the block of interest in which the number of moving object non-existing blocks in contact with the block of interest is a predetermined number or more is determined as the peripheral block, it is possible to divide only the blocks that need to be divided by simple processing. It is possible to accurately recognize a moving object in a short time.

なお、ステップS11又はステップS13からステップS15へ進む場合に、ステップ15へ移る前に着目ブロック(X,Y)を分割し、その各々に分割前のID(移動物体が存在しないブロックのIDは0)を付与してもよい。このようにすれば、図7の処理により図9に示すような結果が得られ、矩形33内のデータ構造が簡単になるので、矩形33内に対する他の処理が容易になる。   When the process proceeds from step S11 or step S13 to step S15, the target block (X, Y) is divided before moving to step 15, and the ID before the division (the ID of the block having no moving object is 0). ) May be given. In this way, the result shown in FIG. 9 is obtained by the processing of FIG. 7, and the data structure in the rectangle 33 is simplified, so that other processing in the rectangle 33 is facilitated.

また、図7の処理の後に、図2のステップS6及びS7の処理を行ってもよい。   Further, after the process of FIG. 7, the processes of steps S6 and S7 of FIG. 2 may be performed.

実施例1又は2において、基準値RV1を比較的小さな値にし又はブロックサイズを大きくしても、移動物体によっては背景と輝度が類似しているために、図11(A)に示す如く、1つの移動物体が2つのクラスタとして認識される場合がある。   Even if the reference value RV1 is set to a relatively small value or the block size is increased in the first or second embodiment, the brightness is similar to the background depending on the moving object. One moving object may be recognized as two clusters.

本実施例3ではこの問題を解決するため、図1の移動物体認識修正部26は、クラスタが内接する複数の矩形のうち隣り合う矩形対に対し、図10に示す処理を行う。   In the third embodiment, in order to solve this problem, the moving object recognition / correction unit 26 in FIG. 1 performs the process shown in FIG. 10 on adjacent rectangle pairs among a plurality of rectangles inscribed by the cluster.

(S20)矩形34、35間のX方向距離ΔX及びY方向距離ΔY(矩形間が接する場合は0、重なり合う場合は負)を求める。図11(A)の場合、ΔX>0、ΔY<0である。   (S20) An X-direction distance ΔX and a Y-direction distance ΔY between the rectangles 34 and 35 (0 when the rectangles are in contact with each other, and negative when they overlap) are obtained. In the case of FIG. 11A, ΔX> 0 and ΔY <0.

(S21a、S21b)ΔX≦D1かつΔY≦D2であればステップS21cへ進み、そうでなければ処理を終了する。D1及びD2はいずれも正の値であり、本実施例3の効果が得られるように経験的に定められ、上述の設定手段により予め設定されている。   (S21a, S21b) If ΔX ≦ D1 and ΔY ≦ D2, the process proceeds to step S21c; otherwise, the process ends. Both D1 and D2 are positive values, are determined empirically so as to obtain the effects of the third embodiment, and are set in advance by the setting means described above.

(S21c)それぞれの矩形内のブロックの動きベクトル代表値、例えば平均値M1及びM2を求め、両者の差ΔM=|M1−M2|を求める。ΔM≦D3であればステップS22へ進み、そうでなければ処理を終了する。このD3についても上記D1及びD2と同様に定められ、予め設定されている。   (S21c) The motion vector representative values of the blocks in the respective rectangles, for example, average values M1 and M2 are obtained, and the difference ΔM = | M1−M2 | If ΔM ≦ D3, the process proceeds to step S22, and if not, the process ends. This D3 is also determined in the same manner as D1 and D2, and is set in advance.

(S22)図11(B)に示すように、両矩形が内接する矩形36を求める。また、矩形36内の移動物体ブロックのIDを、いずれか一方の値IDjに統一し、IDjを矩形36に付与する。   (S22) As shown in FIG. 11B, a rectangle 36 in which both rectangles are inscribed is obtained. Further, the ID of the moving object block in the rectangle 36 is unified to one value IDj, and IDj is given to the rectangle 36.

(S23)RV1−Δを新たな基準値RV3とする。Δは正の値であり、上述のD1〜D3と同様に定められ、上述の設定手段で予め設定されている。基準値RV1は、オブジェクトマップ作成のために移動物体認識部25で用いられた値である。また、X及びYにそれぞれ矩形の一方の対角点座標X0及びY0を代入する。   (S23) RV1-Δ is set as a new reference value RV3. Δ is a positive value, is determined in the same manner as D1 to D3 described above, and is set in advance by the setting means described above. The reference value RV1 is a value used by the moving object recognition unit 25 for creating an object map. Also, one diagonal point coordinate X0 and Y0 of the rectangle is substituted for X and Y, respectively.

(S24)ID(X,Y)=0であればステップS25へ進み、そうでなければステップS27へ進む。   (S24) If ID (X, Y) = 0, the process proceeds to step S25; otherwise, the process proceeds to step S27.

(S25)NS(X,Y)≧RV3であればこのブロックに移動物体が存在すると判定してステップS26へ進み、そうでなければステップS27へ進む。   (S25) If NS (X, Y) ≧ RV3, it is determined that there is a moving object in this block, and the process proceeds to step S26. Otherwise, the process proceeds to step S27.

(S26)ID(X,Y)に、矩形に付与されているIDjを代入する。   (S26) IDj assigned to the rectangle is substituted for ID (X, Y).

(S27)矩形36内のブロック座標(X,Y)を更新する。   (S27) The block coordinates (X, Y) in the rectangle 36 are updated.

(S28)更新した座標が矩形36内であれば、ステップS24へ戻り、そうでなければステップS29へ進む。   (S28) If the updated coordinates are within the rectangle 36, the process returns to step S24; otherwise, the process proceeds to step S29.

以上の処理により、図11(B)に示すようなIDのオブジェクトマップが得られる。   By the above processing, an object map with an ID as shown in FIG. 11B is obtained.

(S29、29A)図3のステップS6及びS7と同じ処理を行う。   (S29, 29A) The same processing as steps S6 and S7 in FIG. 3 is performed.

本実施例3によれば、以上の処理により、図12に示すようなIDのオブジェクトマップが得られ、移動物体をより正確に認識することが可能となる。   According to the third embodiment, an object map with an ID as shown in FIG. 12 is obtained by the above processing, and a moving object can be recognized more accurately.

なお、1つの移動物体が3以上のクラスタに分離して認識されている場合には、その2つのクラスタについて以上の処理を行い、これを繰り返すことにより、1つの移動物体と認識される。   When one moving object is recognized as being separated into three or more clusters, the above processing is performed for the two clusters, and this is repeated, so that it is recognized as one moving object.

上記いずれかの実施例において、移動物体認識部25により生成されたIDのオブジェクトマップが図14(A)に示すように、周囲に移動物体ブロックが存在しない孤立移動物体ブロック37(斜線部)が存在する場合がある。このような小さな移動物体が独立して存在する確率は、一般的に小さい。また、孤立移動物体ブロック37は、その近くの移動物体ブロックと同じ移動物体に属する確率が大きい。   In any of the above-described embodiments, as shown in FIG. 14A, the ID object map generated by the moving object recognition unit 25 is an isolated moving object block 37 (hatched portion) in which no moving object block exists. May exist. The probability that such a small moving object exists independently is generally small. In addition, the isolated moving object block 37 has a high probability of belonging to the same moving object as the nearby moving object block.

そこで、本発明の実施例3では、このような孤立移動物体ブロック37が存在する場合、移動物体認識修正部26又は26Aにおいて、各孤立移動物体ブロック毎に図13に示す処理を行う。   Therefore, in the third embodiment of the present invention, when such an isolated moving object block 37 exists, the moving object recognition correction unit 26 or 26A performs the process shown in FIG. 13 for each isolated moving object block.

(S30)矩形36内に孤立移動物体ブロックが存在するかどうかを調べる。存在すればステップS31へ進み、そうでなければ処理を終了する。   (S30) It is checked whether or not an isolated moving object block exists in the rectangle 36. If it exists, the process proceeds to step S31, and if not, the process ends.

(S31)孤立移動物体ブロックから距離d内に他の移動物体ブロックが存在するかどうかを調べる。dの単位は1ブロック幅であり、例えばd=2の場合、図14(A)に太線で示す3×3の局所領域38に、辺または頂点が接している移動物体ブロックが存在するかどうかを調べる。dの値は、上述の設定手段で同様に予め設定される
(S32)この孤立移動物体ブロックと上記接している移動物体ブロックの間にある移動物体不存在ブロックを、移動物体存在ブロックとみなす。連なった移動物体ブロックが同一IDになるようにIDを付与又は変更する。これにより、IDのオブジェクトマップは図14(B)に示す如くなる。
(S31) It is checked whether another moving object block exists within the distance d from the isolated moving object block. The unit of d is 1 block width. For example, when d = 2, whether or not there is a moving object block whose side or vertex is in contact with the 3 × 3 local region 38 indicated by a thick line in FIG. Check out. The value of d is similarly set in advance by the above-described setting means (S32). A moving object non-existing block between this isolated moving object block and the moving object block in contact therewith is regarded as a moving object existing block. An ID is assigned or changed so that the connected moving object blocks have the same ID. As a result, the object map of ID becomes as shown in FIG.

(S33)このような処理を行っても、隙間ブロックが存在する場合があるので、矩形36内の移動物体不存在ブロックの各々について、これと辺又は頂点が接するブロックに同一IDの移動物体ブロックがm個以上あるかどうかを判定し、あればこの移動物体不存在ブロックに、該同一IDを付与する。mは例えば5である。   (S33) Even if such processing is performed, there may be a gap block. Therefore, for each of the moving object non-existing blocks in the rectangle 36, the moving object block having the same ID as the block whose side or vertex touches this block. It is determined whether there are m or more, and if there is, the same ID is assigned to the moving object non-existing block. For example, m is 5.

図13の処理は、例えば、図3のステップS5とS6の間において行われる。この場合、図13のステップS33を省略して、図3のステップS6及びS7の処理により隙間を埋めるようにしてもよい。   The process of FIG. 13 is performed, for example, between steps S5 and S6 of FIG. In this case, step S33 in FIG. 13 may be omitted, and the gap may be filled by the processing in steps S6 and S7 in FIG.

また、k個以下の移動物体ブロックからなるクラスタを孤立クラスタとし、以上の孤立移動物体ブロックに対する処理と同様の処理を行っても、同様の効果が得られる。kの値は、画像上の移動物体の平均サイズ及びブロックサイズに基づいて経験的に定められる。   Further, the same effect can be obtained even if a cluster composed of k or less moving object blocks is set as an isolated cluster and the same process as the process for the above isolated moving object block is performed. The value of k is determined empirically based on the average size and block size of moving objects on the image.

本実施例4では、移動物体が存在するブロックが連なった第1及び第2の領域について、該第1の領域のブロック数が所定値以下であり、かつ、該第2の領域が該第1の領域から所定距離内に存在すれば、該第1及び第2の領域と両者の間の領域に移動物体が存在するとみなし、これにより連なった領域を1つの移動物体とみなすので、移動物体をより正確に認識することができる。   In the fourth embodiment, for the first and second areas in which blocks in which a moving object exists are connected, the number of blocks in the first area is equal to or less than a predetermined value, and the second area is the first area. If the moving object exists within a predetermined distance from the region, the moving object is considered to exist in the first and second regions and the region between them, and the connected region is regarded as one moving object. It can be recognized more accurately.

本発明の実施例5では、図6のビデオカメラ10としてカラービデオカメラを用いる。簡単化のために、ビデオカメラ10の出力信号は輝度信号Yと色差信号I及びQであるとする。   In the fifth embodiment of the present invention, a color video camera is used as the video camera 10 of FIG. For simplification, it is assumed that the output signal of the video camera 10 is a luminance signal Y and color difference signals I and Q.

処理高速化のため、ID生成/消滅部23及び移動物体認識部25は輝度信号Yの画像(Y画像)のみを用いてオブジェクトマップを作成する。この際、Y画像についてのブロック毎の非類似度NSyを記憶部24に格納しておく。   In order to increase the processing speed, the ID generation / annihilation unit 23 and the moving object recognition unit 25 create an object map using only the image (Y image) of the luminance signal Y. At this time, the non-similarity NSy for each block of the Y image is stored in the storage unit 24.

移動物体認識修正部26Aは、作成されたオブジェクトマップ上の各クラスタを含む矩形領域に対してのみ、画像メモリ21及び背景画像生成部22に格納されている色差信号I及びQの画像(I画像及びQ画像)を用いる。移動物体認識修正部26Aは、矩形領域内の各ブロックで、I画像及びQ画像の各々に関し上述の非類似度NSi及びNSq求め、すでに求められているY画像の非類似度NSyにこれらの非類似度NSi及びNSqを加算したものをブロックの非類似度NSとし、これを基準値と比較して移動物体存否を判定する。   The moving object recognition / correction unit 26 </ b> A has images of color difference signals I and Q (I images) stored in the image memory 21 and the background image generation unit 22 only for a rectangular region including each cluster on the created object map. And Q image). The moving object recognition / correction unit 26A obtains the above-described dissimilarity NSi and NSq for each of the I image and the Q image in each block in the rectangular region, and determines the dissimilarity NSy of the Y image that has already been obtained. The sum of the similarities NSi and NSq is used as the block dissimilarity NS, and this is compared with a reference value to determine whether a moving object exists.

これにより、背景画像との差が大きくなるので、すなわち非類似度NSが大きくなるので、クラスタから移動物体の影のブロックを除去したり、図5(A)に示すような隙間を埋めることが可能となる。また、移動物体の影に他の移動物体が重なっているため、上記Y画像処理のみではこれらが1つの移動物体と認識された場合、上記I画像及びQ画像処理により影の領域に移動物体が存在しないと判定されて、2つの分離した移動物体と認識される。   As a result, the difference from the background image increases, that is, the dissimilarity NS increases, so that the shadow block of the moving object can be removed from the cluster, or the gap as shown in FIG. It becomes possible. In addition, since other moving objects overlap with the shadow of the moving object, if these are recognized as one moving object only by the Y image processing, the moving object is moved to the shadow area by the I image and Q image processing. It is determined that it does not exist and is recognized as two separate moving objects.

なお、移動物体が存在すると判定されたブロックの連なった領域について、隣接ブロック間のカラー画像非類似度が所定値以上であり、かつ、該隣接ブロック間の動きベクトルの差が所定範囲以上であれば、両ブロックが異なる移動物体であると判定することにより、画像上で重なった移動物体を異なる移動物体と認識する構成であってもよい。   It should be noted that the color image dissimilarity between adjacent blocks is greater than or equal to a predetermined value and the difference in motion vectors between the adjacent blocks is greater than or equal to a predetermined range for an area where blocks determined to have moving objects exist. For example, a configuration may be adopted in which moving objects overlapped on an image are recognized as different moving objects by determining that both blocks are different moving objects.

なお、本発明には外にも種々の変形例が含まれる。   Note that the present invention includes various other modifications.

例えば上記実施例1〜4ではモノクロ画像を用いる場合を説明したが、カラー画像にも適用できることは勿論である。特に、図7のステップS14でカラー画像を用いれば、移動物体をより正確に認識することができる。また、実施例4をカラー画像で行い、これを実施例5と組み合わせた構成であってもよい。   For example, in the first to fourth embodiments, the case where a monochrome image is used has been described. In particular, if a color image is used in step S14 in FIG. 7, a moving object can be recognized more accurately. Further, a configuration in which the fourth embodiment is performed with a color image and this is combined with the fifth embodiment may be adopted.

本発明の実施例1に係る、画像を処理して移動物体を追跡する移動物体追跡装置の概略機能ブロック図である。1 is a schematic functional block diagram of a moving object tracking device that processes an image and tracks a moving object according to Embodiment 1 of the present invention. FIG. 設定された入口スリット及び出口スリットを示すための概略フレーム画像を示す図である。It is a figure which shows the general | schematic frame image for showing the set entrance slit and exit slit. 図1中の移動物体認識修正部による処理を示す概略フローチャートである。It is a schematic flowchart which shows the process by the moving object recognition correction part in FIG. 図3の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 図3の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 本発明の実施例1に係る、画像を処理して移動物体を追跡する移動物体追跡装置の概略機能ブロック図である。1 is a schematic functional block diagram of a moving object tracking device that processes an image and tracks a moving object according to Embodiment 1 of the present invention. FIG. 図6中の移動物体認識修正部による処理を示す概略フローチャートである。It is a schematic flowchart which shows the process by the moving object recognition correction part in FIG. 図7の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 図7の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 本発明の実施例3に係る移動物体認識修正部による処理を示す概略フローチャートである。It is a schematic flowchart which shows the process by the moving object recognition correction part which concerns on Example 3 of this invention. 図10の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 図10の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 本発明の実施例3に係る移動物体認識修正部による処理を示す概略フローチャートである。It is a schematic flowchart which shows the process by the moving object recognition correction part which concerns on Example 3 of this invention. 図13の処理を説明するための図である。It is a figure for demonstrating the process of FIG.

符号の説明Explanation of symbols

10 ビデオカメラ
30 フレーム
31 移動物体
32 影
33〜36 矩形
37 孤立移動物体ブロック
38 局所領域
20、20A 移動物体追跡装置
21 画像メモリ
22 背景画像生成部
23 ID生成/消滅部
24 オブジェクトマップ記憶部
25 移動物体認識部
26、26A 移動物体認識修正部
EN1〜EN4 入口スリット
EX1〜EX4 出口スリット
RV、RV1〜RV3 基準値
NS 非類似度
MV 動きベクトル
DESCRIPTION OF SYMBOLS 10 Video camera 30 Frame 31 Moving object 32 Shadow 33-36 Rectangle 37 Isolated moving object block 38 Local area | region 20, 20A Moving object tracking device 21 Image memory 22 Background image generation part 23 ID production | generation part / annihilation part 24 Object map storage part 25 Movement Object recognition unit 26, 26A Moving object recognition correction unit EN1 to EN4 Entrance slit EX1 to EX4 Exit slit RV, RV1 to RV3 Reference value NS Non-similarity MV Motion vector

Claims (10)

時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識方法において、
(a)該基準値を第1の値にして移動物体の存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識し、
(b)該基準値を該第1の値より大きい第2の値にし、該領域内において移動物体の存否をブロック単位で判定する
ことにより、ステップ(a)で移動物体と判定された影の領域をステップ(b)により狭くすることを特徴とする画像上移動物体認識方法。
Each time-series image is divided into a plurality of blocks, and compared with the corresponding block of the background image in block units to calculate the dissimilarity between them. If the dissimilarity is equal to or greater than a reference value, the moving object is In the moving object recognition method on the image that is determined to exist in
(A) By recognizing the presence or absence of a moving object in units of blocks using the reference value as a first value, a region in which blocks in which a moving object exists is connected is recognized;
(B) The reference value is set to a second value larger than the first value, and the presence / absence of a moving object in the region is determined in units of blocks, whereby the shadow determined as a moving object in step (a) is determined. A moving object recognition method on an image, characterized in that the region is narrowed by step (b).
時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識方法において、
(a)該ブロックのサイズを第1の値にして該非類似度に基づき移動物体存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識し、
(b)該領域の周縁部のブロックを、該第1の値より小さい第2の値のサイズのブロックに分割し、該分割された各ブロックにつき該非類似度に基づいて移動物体存否を判定する
ことを特徴とする画像上移動物体認識方法。
Each time-series image is divided into a plurality of blocks, and compared with the corresponding block of the background image in block units to calculate the dissimilarity between them. If the dissimilarity is equal to or greater than a reference value, the moving object is In the moving object recognition method on the image that is determined to exist in
(A) Recognizing a region where blocks where moving objects exist are linked by determining the presence or absence of a moving object based on the dissimilarity with the block size as a first value,
(B) Dividing the peripheral block of the region into blocks having a second value smaller than the first value, and determining whether or not there is a moving object based on the dissimilarity for each of the divided blocks And a moving object recognition method on an image.
上記ステップ(b)では、上記領域のうち、着目ブロックに接する移動物体不存在ブロックの数が所定数以上である該着目ブロックを上記周縁部のブロックと判定することを特徴とする請求項2記載の画像上移動物体認識方法。   3. The step (b) is characterized in that, in the region, the target block in which the number of moving object non-existing blocks in contact with the target block is a predetermined number or more is determined as the peripheral block. Moving object recognition method for images. (c)上記ステップ(b)で移動物体が存在すると判定されたブロックの連なった領域が2つ存在する場合には、該2つの領域及び該2つの領域の間の領域に同一移動物体が存在するとみなす
ステップをさらに有することを特徴とする請求項1乃至3のいずれか1つに記載の画像上移動物体認識方法。
(C) When there are two continuous regions of blocks determined to have a moving object in step (b), the same moving object exists in the two regions and the region between the two regions. The on-image moving object recognition method according to any one of claims 1 to 3, further comprising:
時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識方法において、
(a)該基準値を第1の値にして移動物体の存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識し、
(b)2つの該領域が所定値以上接近し、かつ、該2つの領域の動きベクトルの差が所定値以下であれば、該2つの領域が内接する矩形を求め、
(c)該矩形内の各ブロックについて該非類似度が、該第1の値より小さい第2の値以上であれば移動物体が該ブロックに存在すると判定する
ことを特徴とする画像上移動物体認識方法。
Each time-series image is divided into a plurality of blocks, and compared with the corresponding block of the background image in block units to calculate the dissimilarity between them. If the dissimilarity is equal to or greater than a reference value, the moving object is In the moving object recognition method on the image that is determined to exist in
(A) By recognizing the presence or absence of a moving object in units of blocks using the reference value as a first value, a region in which blocks in which a moving object exists is connected is recognized;
(B) If the two areas are close to each other by a predetermined value or more and the difference between the motion vectors of the two areas is not more than a predetermined value, a rectangle in which the two areas are inscribed is obtained.
(C) If the dissimilarity is greater than or equal to a second value smaller than the first value for each block in the rectangle, it is determined that a moving object is present in the block. Method.
(d)上記ステップ(c)で移動物体が存在すると判定されたブロックの連なった領域が2つ存在する場合には、該2つの領域及び該2つの領域の間の領域に同一移動物体が存在するとみなす
ステップをさらに有することを特徴とする請求項5記載の画像上移動物体認識方法。
(D) When there are two continuous regions of blocks determined to have a moving object in step (c), the same moving object exists in the two regions and the region between the two regions. The on-image moving object recognition method according to claim 5, further comprising:
時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識方法において、
移動物体が存在するブロックが連なった第1及び第2の領域について、該第1の領域のブロック数が所定値以下であり、かつ、該第2の領域が該第1の領域から所定距離内に存在すれば、該第1及び第2の領域と両者の間の領域にも移動物体が存在するとみなし、該第1及び第2の領域と該両者の間の領域に同一移動物体が存在するとみなす
ことを特徴とする画像上移動物体認識方法。
Each time-series image is divided into a plurality of blocks, and compared with the corresponding block of the background image in block units to calculate the dissimilarity between them. If the dissimilarity is equal to or greater than a reference value, the moving object is In the moving object recognition method on the image that is determined to exist in
For the first and second areas in which blocks having moving objects are connected, the number of blocks in the first area is equal to or less than a predetermined value, and the second area is within a predetermined distance from the first area. If the same moving object exists in the region between the first and second regions and both, the moving object is considered to exist in the region between the first and second regions and the region. A moving object recognition method on an image characterized by
時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識方法において、
(a)輝度成分を用いて該方法によりブロック単位で移動物体存否を仮判定し、移動物体が存在すると仮判定したブロックが連なった領域を認識し、
(b)該領域について、色成分も用いて該方法によりブロック単位で移動物体存否を本判定する
ことを特徴とする画像上移動物体認識方法。
Each time-series image is divided into a plurality of blocks, and compared with the corresponding block of the background image in block units to calculate the dissimilarity between the two. If the dissimilarity is greater than or equal to a reference value, the moving object is the block In the moving object recognition method on the image that is determined to exist in
(A) using the luminance component to temporarily determine the presence or absence of a moving object in units of blocks using the method, recognizing a region where blocks that have been temporarily determined to have a moving object are connected,
(B) A method for recognizing a moving object on an image, characterized in that the presence / absence of a moving object is determined in block units by the method using the color component.
時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識装置において、
該基準値の第1の値及び該第1の値より小さい第2の値を設定する設定手段と、
該基準値を該第1の値にして移動物体の存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識する第1認識手段と、
該基準値を該第2の値にし、該領域内において移動物体の存否をブロック単位で判定する第2認識手段と、
を有し、該第1認識手段で移動物体と判定された影の領域を該第2認識手段により狭くすることを特徴とする画像上移動物体認識装置。
Each time-series image is divided into a plurality of blocks, and compared with the corresponding block of the background image in block units to calculate the dissimilarity between them. If the dissimilarity is equal to or greater than a reference value, the moving object is In the moving object recognition apparatus on the image determined to exist in
Setting means for setting a first value of the reference value and a second value smaller than the first value;
A first recognizing unit for recognizing a region in which blocks each having a moving object are connected by determining whether the moving object exists in units of blocks by setting the reference value as the first value;
A second recognizing unit that sets the reference value to the second value and determines the presence or absence of a moving object in the region in units of blocks;
A moving object recognizing apparatus on an image, wherein the second recognizing unit narrows a shadow area determined as a moving object by the first recognizing unit.
時系列画像の各々を複数のブロックに分割し、ブロック単位で背景画像の対応するブロックと比較して両者の非類似度を算出し、該非類似度が基準値以上であれば移動物体が該ブロックに存在すると判定する画像上移動物体認識装置において、
第1の値及び該第1の値より小さい第2の値のブロックサイズを設定する設定手段と、
該ブロックサイズを該第1の値にして該非類似度に基づき移動物体存否をブロック単位で判定することにより、移動物体が存在するブロックが連なった領域を認識する第1認識手段と、
該領域の周縁部のブロックを、該第1の値より小さい第2の値のサイズのブロックに分割し、該分割された各ブロックにつき該非類似度に基づいて移動物体存否を判定する第2認識手段と、
を有することを特徴とする画像上移動物体認識装置。
Each time-series image is divided into a plurality of blocks, and compared with the corresponding block of the background image in block units to calculate the dissimilarity between the two. If the dissimilarity is greater than or equal to a reference value, the moving object is the block In the moving object recognition apparatus on the image determined to exist in
Setting means for setting a block size of a first value and a second value smaller than the first value;
First recognition means for recognizing a region in which blocks where moving objects exist are linked by determining the presence or absence of moving objects based on the dissimilarity with the block size as the first value;
A second recognition for dividing the peripheral block of the region into blocks having a size of a second value smaller than the first value, and determining the presence or absence of a moving object for each of the divided blocks based on the dissimilarity Means,
An on-image moving object recognition apparatus comprising:
JP2004203855A 2004-07-09 2004-07-09 Method and apparatus for recognizing moving object on image Active JP4628712B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004203855A JP4628712B2 (en) 2004-07-09 2004-07-09 Method and apparatus for recognizing moving object on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004203855A JP4628712B2 (en) 2004-07-09 2004-07-09 Method and apparatus for recognizing moving object on image

Publications (2)

Publication Number Publication Date
JP2006024149A true JP2006024149A (en) 2006-01-26
JP4628712B2 JP4628712B2 (en) 2011-02-09

Family

ID=35797355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004203855A Active JP4628712B2 (en) 2004-07-09 2004-07-09 Method and apparatus for recognizing moving object on image

Country Status (1)

Country Link
JP (1) JP4628712B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064287A (en) * 2007-09-07 2009-03-26 Meidensha Corp Intruder detector
JP2009064410A (en) * 2007-05-03 2009-03-26 Sony Deutsche Gmbh Method for detecting moving objects in blind spot of vehicle and blind spot detection device
JP2011233072A (en) * 2010-04-30 2011-11-17 Fujitsu Ltd Robot, method and program for position estimation
JP2013254291A (en) * 2012-06-06 2013-12-19 Mega Chips Corp Moving object detection device, moving object detection method and program
JP2014186634A (en) * 2013-03-25 2014-10-02 Canon Inc Image processing apparatus, image processing method, and image processing program
KR20140143918A (en) * 2013-06-10 2014-12-18 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Foregroud Image with Separating Foregroud and Background in Image
US9489721B2 (en) 2014-01-22 2016-11-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55159279A (en) * 1979-05-28 1980-12-11 Nec Corp Noise rejector
JPS6325788A (en) * 1986-07-18 1988-02-03 Toshiba Corp Train number identifying device
JPH04196993A (en) * 1990-11-28 1992-07-16 Toshiba Corp Image monitor device
JPH06117836A (en) * 1992-08-21 1994-04-28 Matsushita Electric Ind Co Ltd Image processing apparatus, controller of air conditioner, and applied equipment using the apparatus
JPH08317373A (en) * 1995-05-17 1996-11-29 Hitachi Denshi Ltd System for detecting and extracting object in video monitoring device
JPH1048152A (en) * 1996-07-31 1998-02-20 Ishikawajima Harima Heavy Ind Co Ltd Method and apparatus for detecting fine linear defect
JPH10247247A (en) * 1997-03-04 1998-09-14 Oki Electric Ind Co Ltd Moving object extracting device
JPH10289393A (en) * 1997-04-15 1998-10-27 Fujitsu Ltd Event detecting device for monitoring road
JPH10512694A (en) * 1995-01-17 1998-12-02 サーノフ コーポレイション Method and apparatus for detecting movement of an object in a continuous image
JPH11250264A (en) * 1998-03-05 1999-09-17 Nippon Hoso Kyokai <Nhk> Method and device for estimating motion vector
JP2002133421A (en) * 2000-10-18 2002-05-10 Fujitsu Ltd Moving body recognition method and device
JP2003346156A (en) * 2002-05-23 2003-12-05 Nippon Telegr & Teleph Corp <Ntt> Object detection device, object detection method, program, and recording medium
JP2004030188A (en) * 2002-06-25 2004-01-29 Matsushita Electric Works Ltd Method, apparatus and program for dividing image into areas

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55159279A (en) * 1979-05-28 1980-12-11 Nec Corp Noise rejector
JPS6325788A (en) * 1986-07-18 1988-02-03 Toshiba Corp Train number identifying device
JPH04196993A (en) * 1990-11-28 1992-07-16 Toshiba Corp Image monitor device
JPH06117836A (en) * 1992-08-21 1994-04-28 Matsushita Electric Ind Co Ltd Image processing apparatus, controller of air conditioner, and applied equipment using the apparatus
JPH10512694A (en) * 1995-01-17 1998-12-02 サーノフ コーポレイション Method and apparatus for detecting movement of an object in a continuous image
JPH08317373A (en) * 1995-05-17 1996-11-29 Hitachi Denshi Ltd System for detecting and extracting object in video monitoring device
JPH1048152A (en) * 1996-07-31 1998-02-20 Ishikawajima Harima Heavy Ind Co Ltd Method and apparatus for detecting fine linear defect
JPH10247247A (en) * 1997-03-04 1998-09-14 Oki Electric Ind Co Ltd Moving object extracting device
JPH10289393A (en) * 1997-04-15 1998-10-27 Fujitsu Ltd Event detecting device for monitoring road
JPH11250264A (en) * 1998-03-05 1999-09-17 Nippon Hoso Kyokai <Nhk> Method and device for estimating motion vector
JP2002133421A (en) * 2000-10-18 2002-05-10 Fujitsu Ltd Moving body recognition method and device
JP2003346156A (en) * 2002-05-23 2003-12-05 Nippon Telegr & Teleph Corp <Ntt> Object detection device, object detection method, program, and recording medium
JP2004030188A (en) * 2002-06-25 2004-01-29 Matsushita Electric Works Ltd Method, apparatus and program for dividing image into areas

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064410A (en) * 2007-05-03 2009-03-26 Sony Deutsche Gmbh Method for detecting moving objects in blind spot of vehicle and blind spot detection device
JP2009064287A (en) * 2007-09-07 2009-03-26 Meidensha Corp Intruder detector
JP2011233072A (en) * 2010-04-30 2011-11-17 Fujitsu Ltd Robot, method and program for position estimation
JP2013254291A (en) * 2012-06-06 2013-12-19 Mega Chips Corp Moving object detection device, moving object detection method and program
JP2014186634A (en) * 2013-03-25 2014-10-02 Canon Inc Image processing apparatus, image processing method, and image processing program
KR20140143918A (en) * 2013-06-10 2014-12-18 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Foregroud Image with Separating Foregroud and Background in Image
KR102085034B1 (en) 2013-06-10 2020-03-05 에스케이 텔레콤주식회사 Method and Apparatus for Detecting Foregroud Image with Separating Foregroud and Background in Image
US9489721B2 (en) 2014-01-22 2016-11-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
JP4628712B2 (en) 2011-02-09

Similar Documents

Publication Publication Date Title
US9454704B2 (en) Apparatus and method for determining monitoring object region in image
US8050459B2 (en) System and method for detecting pedestrians
KR101870902B1 (en) Image processing apparatus and image processing method
CN108960229B (en) Multidirectional character detection method and device
JP5713790B2 (en) Image processing apparatus, image processing method, and program
US8712096B2 (en) Method and apparatus for detecting and tracking vehicles
CN111652097A (en) Image millimeter wave radar fusion target detection method
US8150104B2 (en) Moving object detection apparatus and computer readable storage medium storing moving object detection program
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
CN111414826A (en) Method, device and storage medium for identifying landmark arrow
CN108352070B (en) Moving object tracking method, moving object tracking device, and program
EP2821935B1 (en) Vehicle detection method and device
JP4628712B2 (en) Method and apparatus for recognizing moving object on image
JP2007265292A (en) Road sign database construction device
US9639763B2 (en) Image target detecting apparatus and method
JP2007188269A (en) On-image mobile object tracking method and device
JP2007188270A (en) Method for detecting abnormal phenomenon at intersection by image processing
Ao et al. Detecting tiny moving vehicles in satellite videos
US11688173B2 (en) Road shape determination method
US11361533B2 (en) Method for detecting objects
JP4714872B2 (en) Method and apparatus for dividing moving object superimposed on image
JP4555987B2 (en) Method and apparatus for tracking moving object in image
CN112215109A (en) Vehicle detection method and system based on scene analysis
JP2011043863A (en) Apparatus, method, program for determining/tracking object region, and apparatus for determining object region
US11769322B2 (en) Program creation device, object detection system, anchor setting method, and anchor setting program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4628712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250