JPH06195464A - Detector of object - Google Patents

Detector of object

Info

Publication number
JPH06195464A
JPH06195464A JP4343027A JP34302792A JPH06195464A JP H06195464 A JPH06195464 A JP H06195464A JP 4343027 A JP4343027 A JP 4343027A JP 34302792 A JP34302792 A JP 34302792A JP H06195464 A JPH06195464 A JP H06195464A
Authority
JP
Japan
Prior art keywords
target object
locus
characteristic information
feature information
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4343027A
Other languages
Japanese (ja)
Other versions
JP3305021B2 (en
Inventor
Yuji Hayashi
裕二 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Telecommunication System Engineering Corp
Original Assignee
Toshiba Corp
Toshiba Telecommunication System Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Telecommunication System Engineering Corp filed Critical Toshiba Corp
Priority to JP34302792A priority Critical patent/JP3305021B2/en
Publication of JPH06195464A publication Critical patent/JPH06195464A/en
Application granted granted Critical
Publication of JP3305021B2 publication Critical patent/JP3305021B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To make it possible to surely detect an object even when it overlaps partially by making the feature information on the object into a locus and detecting the object from the locus. CONSTITUTION:This detector is provided with a monitoring camera 1 performing an image pickup for an object, an image memory 5 where the video signals of the object outputted from this monitoring camera 1 are successively supplied by a screen unit and the video signals are successively recorded by overlapping them and a feature extraction part 4 extracting the feature information of the object from the video signal recorded in this image memory 5 and making the video signals into a locus. The partial feature information is extracted from the object imaged by the monitoring camera 1 and it is made into a locus, whether the locus extends from the end edge of the monitoring area of the monitoring camera 1 or not is detected, and when the locus extends from the end edge, it is detected as the object which enters the monitoring area newly. Therefore, the object can be surely detected even locus plural objects overlap partially because the object is detected by the partial feature information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、監視カメラで撮像され
た画像を利用して対象物体を検出する対象物体の検出装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a target object detecting apparatus for detecting a target object using an image picked up by a surveillance camera.

【0002】[0002]

【従来の技術】従来、監視カメラで撮像された画像を利
用して対象物体を検出する場合、撮像された映像信号を
例えば1フレ−ム単位で取り込み、対象物体と背景との
差を取る等の方法で対象物体を検出している。
2. Description of the Related Art Conventionally, when a target object is detected by using an image picked up by a surveillance camera, the picked-up image signal is taken in, for example, one frame unit and the difference between the target object and the background is taken. The target object is detected by the method.

【0003】[0003]

【発明が解決しようとする課題】上記した従来の対象物
体の検出装置は、1つの対象物体を全体で検出してい
る。したがって、対象物体が複数あっても、それら複数
の対象物体が部分的に重なっていると、1つの対象物体
として判断することがある。
The above-mentioned conventional target object detection apparatus detects one target object as a whole. Therefore, even if there are a plurality of target objects, it may be determined as one target object if the plurality of target objects partially overlap.

【0004】また、対象物体を検出するために、対象物
体と背景との差を取る場合、ノイズと対象物体との分離
が困難で、対象物体を正しく識別できないこともある。
Further, when the difference between the target object and the background is taken in order to detect the target object, it may be difficult to separate the noise and the target object, and the target object may not be correctly identified.

【0005】本発明は、対象物体の一部を特徴情報とし
て軌跡化し、この軌跡を利用して対象物体を検出するも
ので、対象物体を確実に検出できる対象物体の検出装置
を提供することを目的とする。
According to the present invention, a part of a target object is converted into a trajectory as feature information, and the trajectory is used to detect the target object. It is therefore an object of the present invention to provide a target object detection apparatus capable of reliably detecting the target object. To aim.

【0006】[0006]

【課題を解決するための手段】本発明の対象物体の検出
装置は、所定の監視領域内を走行する対象物体を撮像す
る監視カメラと、この監視カメラから出力される映像信
号が画面単位で順に供給され、各画面単位ごとに対象物
体の特徴情報を抽出する特徴抽出手段と、この特徴抽出
手段で抽出された対象物体の特徴情報を、1つの画面単
位より長い所定時間に亘って順に記録し、特徴情報を軌
跡化する画像メモリと、この画像メモリで軌跡化された
特徴情報の軌跡が、前記監視カメラの監視領域の端縁か
ら延びているか否かを検知する手段とを具備している。
A target object detecting apparatus according to the present invention comprises a surveillance camera for picking up an image of a target object traveling in a predetermined surveillance area, and a video signal output from the surveillance camera in order on a screen-by-screen basis. The feature extraction unit that is supplied and extracts the feature information of the target object for each screen unit, and the feature information of the target object that is extracted by this feature extraction unit are sequentially recorded over a predetermined time longer than one screen unit. An image memory for converting the characteristic information into a locus, and means for detecting whether or not the locus of the characteristic information converted into a locus in the image memory extends from the edge of the surveillance area of the surveillance camera. .

【0007】また、本発明の対象物体の検出装置は、所
定の監視領域内を走行する対象物体を撮像する監視カメ
ラと、この監視カメラから出力される対象物体の映像信
号が画面単位で順に供給され、1つの画面単位より長い
所定時間に亘り、前記対象物体の映像信号を順に重ねて
記録する画像メモリと、この画像メモリに前記所定時間
に亘って記録された映像信号から対象物体の特徴情報を
抽出し、映像信号を軌跡化する特徴抽出部と、この画像
メモリで軌跡化された特徴情報の軌跡が、前記監視カメ
ラの監視領域の端縁から延びているか否かを検知する手
段とを具備している。
Further, the target object detecting apparatus of the present invention supplies a monitoring camera for picking up an image of a target object traveling in a predetermined monitoring area, and a video signal of the target object output from the monitoring camera sequentially in units of screens. An image memory for sequentially recording video signals of the target object over a predetermined time longer than one screen unit, and characteristic information of the target object based on the video signals recorded in the image memory for the predetermined time. And a means for detecting whether or not the trajectory of the characteristic information traced by the image memory extends from the edge of the surveillance area of the surveillance camera. It has.

【0008】[0008]

【作用】本発明では、監視カメラで撮像した対象物体か
ら部分的な特徴情報を抽出し、その特徴情報を軌跡化し
ている。そして、特徴情報の軌跡が監視カメラの監視領
域の端縁から延びているか否かを検知し、監視領域の端
縁から延びている場合に新たに監視領域に入った対象物
体として検出する。
In the present invention, partial characteristic information is extracted from the target object imaged by the surveillance camera, and the characteristic information is made into a locus. Then, it is detected whether or not the trajectory of the characteristic information extends from the edge of the surveillance area of the surveillance camera, and if it extends from the edge of the surveillance area, it is detected as a target object newly entering the surveillance area.

【0009】したがって、対象物体を部分的な特徴情報
で検出するため、複数の対象物体が一部で重なっても対
象物体を検出できる。
Therefore, since the target object is detected by the partial characteristic information, the target object can be detected even if a plurality of target objects partially overlap each other.

【0010】また、特徴情報の軌跡が監視領域の端縁か
ら延びている場合に、新たに監視領域に入った対象物体
として判断しているので、対象物体の検出が確実に行え
る。
Further, when the trajectory of the characteristic information extends from the edge of the monitoring area, it is determined that the target object has newly entered the monitoring area. Therefore, the target object can be detected with certainty.

【0011】[0011]

【実施例】以下、本発明の第1の実施例について図1で
説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to FIG.

【0012】1は監視カメラで、監視カメラ1は図2に
示すように、例えば道路21を走行する対象物体、即ち
車両22が撮像できるように下向きに配置されている。
なお、図2では道路21上に2台の車両22が示されて
いる。
As shown in FIG. 2, the monitoring camera 1 is arranged downward so that a target object running on a road 21, that is, a vehicle 22 can be imaged.
In FIG. 2, two vehicles 22 are shown on the road 21.

【0013】監視カメラ1では、例えば図3のようにそ
の監視領域に、右車線の路肩31そしてセンタ−ライン
32、左車線の路肩33などが撮像される。
In the surveillance camera 1, for example, as shown in FIG. 3, the shoulder 31 of the right lane, the center line 32, the shoulder 33 of the left lane, etc. are imaged in the surveillance area.

【0014】監視カメラ1(図1)で撮像された画像
は、監視カメラ1から映像信号として出力される。CP
U2の制御によって、映像信号はA−D変換器3に取り
込まれデジタル信号に変換される。そして、特徴抽出部
4に供給される。特徴抽出部4で特徴を抽出された映像
信号は画像メモリ5に記録される。なお、画像メモリ5
は例えば第1および第2の2つのメモリ5a、5bで構
成される。
The image taken by the surveillance camera 1 (FIG. 1) is output from the surveillance camera 1 as a video signal. CP
Under the control of U2, the video signal is taken in by the AD converter 3 and converted into a digital signal. Then, it is supplied to the feature extraction unit 4. The video signal whose features are extracted by the feature extraction unit 4 is recorded in the image memory 5. The image memory 5
Is composed of, for example, first and second two memories 5a and 5b.

【0015】ここで特徴抽出部4に入力された映像信号
を処理する方法および処理された映像信号を画像メモリ
5に記録する方法について、図4のフロ−チャ−トで説
明する。
A method of processing the video signal input to the feature extraction unit 4 and a method of recording the processed video signal in the image memory 5 will be described with reference to the flowchart of FIG.

【0016】A−D変換器3でデジタル信号に変換され
た映像信号は、CPU2の制御によって、ステップ41
で、1つの画面単位例えば映像信号の1フィ−ルド分が
特徴抽出部4に取り込まれる。先ず、1番目のフィ−ル
ドの映像信号が取り込まれる。
The video signal converted into a digital signal by the A / D converter 3 is controlled by the CPU 2 in step 41.
Then, one screen unit, for example, one field of the video signal is taken into the feature extraction unit 4. First, the video signal of the first field is captured.

【0017】特徴抽出部4に取り込まれた映像信号は、
CPU2の制御によって、ステップ42で対象物体の一
部が特徴情報として抽出される。
The video signal fetched by the feature extraction unit 4 is
Under the control of the CPU 2, a part of the target object is extracted as the characteristic information in step 42.

【0018】例えば1番目のフィ−ルド映像信号から特
徴情報F1が抽出される。
For example, the characteristic information F1 is extracted from the first field video signal.

【0019】なお、特徴情報としては、対象物体が例え
ば夜間走行時の車両などの場合、テ−ルランプやヘッド
ランプのようにその他の部分に比べて輝度が高い部分が
選ばれる。したがって、輝度の差を利用して対象物体の
特徴情報が抽出される。
As the characteristic information, when the target object is, for example, a vehicle during night driving, a portion having a higher brightness than other portions such as a tail lamp and a head lamp is selected. Therefore, the characteristic information of the target object is extracted using the difference in brightness.

【0020】なお、テ−ルランプやヘッドランプのよう
に輝度が高い部分は、1つの対象物体に複数箇所ある。
そのため、通常、1つの対象物体から複数の特徴情報が
抽出される。
There are a plurality of high-luminance portions such as tail lamps and headlamps in one target object.
Therefore, usually, a plurality of pieces of characteristic information are extracted from one target object.

【0021】しかし、以下の実施例では説明の都合上、
1つの対象物体から1つの特徴情報が抽出されるものと
する。
However, in the following embodiments, for convenience of explanation,
It is assumed that one feature information is extracted from one target object.

【0022】特徴情報F1は、その特徴情報F1が撮像
された監視カメラ1の監視領域内の位置情報とともに、
ステップ43で第1のメモリ5aに記録される。
The characteristic information F1 includes the positional information in the surveillance area of the surveillance camera 1 where the characteristic information F1 is picked up,
In step 43, it is recorded in the first memory 5a.

【0023】次に、ステップ44で、2番目以降のフィ
−ルドの映像信号が順に取り込まれる。
Next, at step 44, the video signals of the second and subsequent fields are sequentially fetched.

【0024】例えば2番目のフィ−ルドの映像信号が取
り込まれ、ステップ45でテ−ルランプやヘッドランプ
に相当する特徴情報F2が抽出される。この特徴情報F
2は、ステップ46で第2のメモリ5bに記録される。
For example, the video signal of the second field is taken in, and in step 45 the characteristic information F2 corresponding to the tail lamp or head lamp is extracted. This feature information F
2 is recorded in the second memory 5b in step 46.

【0025】第2のメモリ5bに記録された特徴情報F
2は、ステップ47で演算処理が行なわれ、第1のメモ
リ5aに加えられる。したがって、この時点では第1の
メモリ5aには、特徴情報F1と特徴情報F2とが記録
される。
Characteristic information F recorded in the second memory 5b
2 is subjected to arithmetic processing in step 47 and added to the first memory 5a. Therefore, at this time, the characteristic information F1 and the characteristic information F2 are recorded in the first memory 5a.

【0026】そして、ステップ48で、3番目以降のフ
ィ−ルドの映像信号に対して、上記ステップ44からス
テップ47までの信号処理が、一定時間Tの間繰り返さ
れる。
Then, in step 48, the signal processing from step 44 to step 47 is repeated for a fixed time T for the video signals of the third and subsequent fields.

【0027】一定時間Tの間にK個のフィ−ルド映像信
号が到来し、例えば全てのフィ−ルド映像信号から1個
づつの特徴情報が検出されたとする。この場合、一定時
間Tが経過した時点では、第1のメモリ5aには、K個
の特徴情報F1〜FKが記録されている。
It is assumed that K field image signals arrive during the fixed time T and, for example, one piece of characteristic information is detected from all field image signals. In this case, when the fixed time T has elapsed, K pieces of characteristic information F1 to FK are recorded in the first memory 5a.

【0028】第1のメモリ5aに記録された特徴情報F
1〜FKは、それぞれ1フィ−ルドに相当する時間間隔
を持っている。したがって、K個の特徴情報F1〜FK
をつなげると、車両の移動につれてテ−ルランプ等が一
定時間Tに移動した軌跡を示すことになる。
Characteristic information F recorded in the first memory 5a
Each of 1 to FK has a time interval corresponding to one field. Therefore, K pieces of characteristic information F1 to FK
If the tail lamps are connected to each other, the trail of the tail lamp and the like will be shown for a certain time T as the vehicle moves.

【0029】そして、一定時間Tが経過すると、第1の
メモリ5aに記録されている特徴情報F1〜FKが出力
される。
Then, after a lapse of a fixed time T, the characteristic information F1 to FK recorded in the first memory 5a is output.

【0030】したがって、第1のメモリ5aから一定時
間Tごとに特徴情報が出力される。第1のメモリ5aか
ら一定時間Tごとに出力される特徴情報は、図1の軌跡
処理演算部6を通って軌跡保存部7に移され、そこで記
録される。その際、それぞれの一定時間Tごとに最終の
特徴情報、例えばK番目の特徴情報FKの位置情報も併
せて記録される。
Therefore, the characteristic information is output from the first memory 5a at regular time intervals T. The characteristic information output from the first memory 5a at regular time intervals T is transferred to the trajectory storage unit 7 through the trajectory processing calculation unit 6 in FIG. 1 and recorded there. At that time, the final characteristic information, for example, the position information of the Kth characteristic information FK is also recorded at each constant time T.

【0031】なお、第1のメモリ5aに記録されていた
特徴情報が、軌跡保存部7に移されると、それ以前に画
像メモリ5、例えば第1および第2のメモリ5a、5b
に記録されていた特徴情報等は消去される。
When the characteristic information recorded in the first memory 5a is transferred to the locus storage unit 7, the image memory 5, such as the first and second memories 5a and 5b, is stored before that.
The characteristic information and the like recorded in (4) are deleted.

【0032】その後、次のフィ−ルド映像信号、例えば
K+1番目以降のフィ−ルド映像信号について、一定時
間Tの間、上記したと同様の信号処理が繰り返される。
Thereafter, the same signal processing as described above is repeated for the fixed time T for the next field video signal, for example, the K + 1th field video signal and thereafter.

【0033】なお、一定時間が始まる際に最初のフィ−
ルド映像信号、例えばK+1番目のフィ−ルド映像信号
の特徴情報FK+1について、監視カメラの監視領域の
位置情報が同時に検知される。
When the fixed time starts, the first field
For the feature information FK + 1 of the field image signal, for example, the K + 1th field image signal, the position information of the surveillance area of the surveillance camera is simultaneously detected.

【0034】このように一定時間が始まる最初のフィ−
ルド映像信号、例えばK+1番目のフィ−ルド映像信号
で検知された特徴情報FK+1の位置情報が求められ
る。そして、その前の一定時間の最終、例えばK番目の
フィ−ルド映像信号で検知された特徴情報FKの位置情
報と照合される。
As described above, the first field where the fixed time starts
The position information of the feature information FK + 1 detected in the field image signal, for example, the K + 1th field image signal is obtained. Then, it is collated with the position information of the characteristic information FK detected in the last, for example, the Kth field image signal of the last fixed time.

【0035】その結果、例えば両者の位置情報が接近し
ている場合、両者の特徴情報FK、FK+1は同一車両
の軌跡と判断される。このような同一車両の軌跡か否か
の判断は、一定時間が経過するごとに行なわれる。
As a result, for example, when the position information of both is close to each other, the characteristic information FK and FK + 1 of both are judged to be the loci of the same vehicle. The determination as to whether or not the loci of the same vehicle are made is performed every time a certain period of time elapses.

【0036】また、画像メモリ5、例えば第1のメモリ
5aから一定時間Tごとに出力されるK個(各フィ−ル
ドから特徴情報が検出された場合で、特徴情報が検出さ
れないフィ−ルドがあればその分特徴情報の数は少なく
なる。)の特徴情報は、D−A変換器8に加えられアナ
ログ信号に変換される。
In addition, K pieces of image data output from the image memory 5, for example, the first memory 5a, at constant time intervals T (when characteristic information is detected from each field, there are fields where characteristic information is not detected). If so, the number of feature information is reduced accordingly.) The feature information is added to the DA converter 8 and converted into an analog signal.

【0037】アナログ信号に変換された特徴情報は表示
部9で画像として再生される。表示部9の画面上には図
5のように軌跡51が例えば2つのテ−ルランプの軌跡
51a、51bとして表示される。
The characteristic information converted into the analog signal is reproduced as an image on the display unit 9. On the screen of the display unit 9, as shown in FIG. 5, a locus 51 is displayed as, for example, two tail lamp loci 51a and 51b.

【0038】なお、表示部9で再生される画像は、画像
メモリ5から出力される特徴情報に限られない。例え
ば、軌跡保存部7に記録されている特徴情報をD−A変
換器8でアナログ信号に変換して、再生することもでき
る。
The image reproduced on the display unit 9 is not limited to the characteristic information output from the image memory 5. For example, the characteristic information recorded in the trajectory storage unit 7 can be converted into an analog signal by the DA converter 8 and reproduced.

【0039】上記のように軌跡化された車両の特徴情報
は、軌跡処理演算部6(図1)において軌跡の追跡が行
なわれる。
The trajectory of the characteristic information of the vehicle, which has been converted into a trajectory as described above, is tracked by the trajectory processing operation unit 6 (FIG. 1).

【0040】ここで軌跡処理演算部6で行なわれる軌跡
追跡の例について、図6のフロ−チャ−トで説明する。
An example of trajectory tracking performed by the trajectory processing calculation unit 6 will be described below with reference to the flowchart of FIG.

【0041】例えば、ステップ61で新規車両の検出が
行われる。
For example, in step 61, a new vehicle is detected.

【0042】監視カメラ1の監視領域の外枠が、例えば
図5の4角形の検出ライン52に対応するものとする
と、図5のように特徴情報の軌跡51が検出ライン52
と交差している場合、新規車両が監視カメラ1の監視領
域に入ってきたものと判断される。このようにして、新
しい車両が検出される。
Assuming that the outer frame of the surveillance area of the surveillance camera 1 corresponds to, for example, the quadrangular detection line 52 of FIG. 5, the locus 51 of the characteristic information is the detection line 52 as shown in FIG.
If it intersects with the new vehicle, it is determined that the new vehicle has entered the surveillance area of the surveillance camera 1. In this way, a new vehicle is detected.

【0043】なお、特徴情報の軌跡が検出ラインと交差
しない場合は、ノイズなど不要な情報として除外され
る。
If the locus of the characteristic information does not intersect the detection line, it is excluded as unnecessary information such as noise.

【0044】また、あらゆる方向からの車両進入に対応
する場合には、検出ラインは監視領域の外縁に沿って閉
ル−プを描くように設けられる。
When the vehicle is approached from any direction, the detection line is provided so as to draw a closed loop along the outer edge of the monitoring area.

【0045】また、ステップ62では、一定時間が始ま
る最初のフィ−ルド映像信号、上記の実施例の場合では
例えばK+1番目のフィ−ルド映像信号の特徴情報FK
+1について位置情報が呼び出される。
Further, in step 62, the characteristic information FK of the first field video signal for which a fixed time starts, in the case of the above embodiment, for example, the K + 1th field video signal.
Location information is recalled for +1.

【0046】また、ステップ63では、ステップ62で
呼び出されたものの、その一つ前の一定時間Tで、最後
のフィ−ルド映像信号、上記の実施例の場合では例えば
K番目のフィ−ルド映像信号の特徴情報FKについてそ
の位置情報が呼び出される。ステップ64では、全ての
車両の特徴情報に対して上記のステップ62とステップ
63の信号処理が行なわれる。
In step 63, the last field video signal, for example, the Kth field video in the case of the above embodiment, which was called in step 62 but is a predetermined time T immediately before that, is called. The position information of the signal characteristic information FK is called. In step 64, the signal processing of steps 62 and 63 is performed on the characteristic information of all the vehicles.

【0047】そして、ステップ62で呼び出された一定
時間が始まる最初のフィ−ルド映像信号の特徴情報に対
する位置情報と、ステップ53で呼び出されたその一つ
前の一定時間Tの最後のフィ−ルド映像信号の特徴情報
に対する位置情報との照合が、全ての軌跡に対して行な
われる。その結果、両者の位置情報が接近している場
合、両者は連続する同一の車両の軌跡であるとして処理
される。
Then, the position information corresponding to the characteristic information of the first field video signal, which is called in step 62 and starts for the fixed time, and the last field of the previous fixed time T, which is called in step 53. The collation with the position information for the characteristic information of the video signal is performed for all trajectories. As a result, when the position information of both is close, both are processed as the continuous same vehicle loci.

【0048】そして、ステップ65において、連続する
同一の車両の軌跡の場合には、連続する軌跡として繋ぎ
合わせた形で表示される。
Then, in step 65, when the loci of the same continuous vehicle are displayed, the loci are displayed as a continuous locus.

【0049】上記のような軌跡の処理により、車両の走
行状態が例えば次のように観測される。
By the processing of the locus as described above, the traveling state of the vehicle is observed, for example, as follows.

【0050】図7のように多くの車両の軌跡71が左側
車線から右側車線へ、反対方向の場合は右側車線から左
側車線へと一定地点でセンタ−ライン72を越えている
場合、その前後の斜線で示したエリア73で低速度車両
や停止車両などの異常車両が存在する可能性が示唆され
る。なお、図7では1台の車両の軌跡を代表で示してい
る。また、74は路肩である。
As shown in FIG. 7, when many vehicle loci 71 cross the center line 72 at a certain point from the left lane to the right lane, or in the opposite direction from the right lane to the left lane, the roads before and after the center line 72. It is suggested that an abnormal vehicle such as a low speed vehicle or a stopped vehicle may exist in the shaded area 73. In FIG. 7, the locus of one vehicle is shown as a representative. Moreover, 74 is a road shoulder.

【0051】また、車両の特徴情報をテ−ルランプから
得ている場合、図8のように1台の車両から2つの軌跡
が81a、81bが得られる。この場合、渋滞などで複
数の車両が重なり、片側の軌跡81bが途中で消失して
も、他方の軌跡81aを利用して軌跡が追跡できる。
When the vehicle characteristic information is obtained from the tail lamps, two loci 81a and 81b are obtained from one vehicle as shown in FIG. In this case, even if a plurality of vehicles overlap due to traffic jam or the like, and the locus 81b on one side disappears on the way, the locus can be traced using the other locus 81a.

【0052】なお、上記した第1の実施例では、監視カ
メラから出力された映像信号をデジタル信号に変換し、
その後、特徴を抽出し、抽出された特徴情報を画像メモ
リに記録している。
In the first embodiment, the video signal output from the surveillance camera is converted into a digital signal,
After that, the features are extracted, and the extracted feature information is recorded in the image memory.

【0053】しかし、監視カメラから出力された映像信
号を一定時間に亘って画像メモリに記録し、その後で特
徴を抽出する構成でも同様の効果が得られる。
However, the same effect can be obtained by a configuration in which the video signal output from the surveillance camera is recorded in the image memory for a certain period of time and then the feature is extracted.

【0054】ここで、本発明の第2の実施例として、映
像信号を画像メモリに記録し、その後、特徴を抽出する
場合について、図9を参照して説明する。なお図9で
は、第1の実施例を示す図1と同一部分には同一符号を
付している。
Here, as a second embodiment of the present invention, a case of recording a video signal in an image memory and then extracting features will be described with reference to FIG. In FIG. 9, the same parts as those in FIG. 1 showing the first embodiment are designated by the same reference numerals.

【0055】監視カメラ1で撮像された画像は、監視カ
メラ1から映像信号として出力される。CPU2の制御
によって、映像信号はA−D変換器3に取り込まれデジ
タル信号に変換される。デジタル信号に変換された映像
信号は、1つの画面単位例えば映像信号の1フィ−ルド
毎に、一定時間に亘って順に画像メモリ5に記録され
る。なお、画像メモリ5は例えば第1および第2の2つ
のメモリ5a、5bで構成される。
The image picked up by the surveillance camera 1 is output from the surveillance camera 1 as a video signal. Under the control of the CPU 2, the video signal is taken into the AD converter 3 and converted into a digital signal. The video signal converted into the digital signal is sequentially recorded in the image memory 5 for one screen unit, for example, for each field of the video signal, over a fixed time. The image memory 5 is composed of, for example, first and second memories 5a and 5b.

【0056】ここで、デジタル信号に変換された映像信
号を画像メモリ5に記録する方法について、図10のフ
ロ−チャ−トで説明する。
Here, a method of recording the video signal converted into the digital signal in the image memory 5 will be described with reference to the flowchart of FIG.

【0057】CPU2の制御によって、ステップ101
で、1番目のフィ−ルドの映像信号がA−D変換器3に
取り込まれる。
Under the control of the CPU 2, step 101
Then, the video signal of the first field is taken into the AD converter 3.

【0058】A−D変換器3に取り込まれた映像信号は
デジタル信号に変換され、ステップ102で第1のメモ
リ5aに記録される。
The video signal taken into the AD converter 3 is converted into a digital signal and recorded in the first memory 5a in step 102.

【0059】次に、ステップ103で、2番目以降のフ
ィ−ルドの映像信号が順に取り込まれる。
Next, at step 103, the video signals of the second and subsequent fields are sequentially fetched.

【0060】例えば2番目のフィ−ルドの映像信号がA
−D変換器3に取り込まれ、デジタル信号に変換され、
ステップ104で第2のメモリ5bに記録される。
For example, the video signal of the second field is A
-It is taken in by the D converter 3 and converted into a digital signal,
In step 104, it is recorded in the second memory 5b.

【0061】第2のメモリ5bに記録された映像信号
は、ステップ105で演算処理され第1のメモリ5a
に、既にステップ102で記憶してある映像信号に重ね
て記録される。したがって、この時点では第1のメモリ
5aには、2フィ−ルド分の映像信号が互いに重なって
記録される。
The video signal recorded in the second memory 5b is arithmetically processed in step 105, and the first memory 5a is processed.
In addition, it is recorded by being superposed on the video signal already stored in step 102. Therefore, at this time, the video signals of two fields are recorded in the first memory 5a so as to overlap each other.

【0062】そして、ステップ106で、3番目以降の
フィ−ルドの映像信号に対して、上記ステップ103、
104、105の信号処理が、一定時間Tの間繰り返さ
れる。
Then, in step 106, for the video signals of the third and subsequent fields, the steps 103,
The signal processing of 104 and 105 is repeated for a fixed time T.

【0063】一定時間Tの間にk個のフィ−ルド映像信
号が到来すると、一定時間Tが経過した時点では、第1
のメモリ5aには、k個フィ−ルド分の映像信号が重な
って記録される。
When k field image signals arrive during the fixed time T, at the time when the fixed time T has passed, the first
In the memory 5a, video signals for k fields are recorded in an overlapping manner.

【0064】そして、一定時間Tが経過すると、第1の
メモリ5aに重なって記録されているk個フィ−ルド分
の映像信号が出力される。
Then, after the elapse of the predetermined time T, the video signals for the k fields which are overlapped and recorded in the first memory 5a are output.

【0065】この映像信号はCPU2の制御で特徴抽出
部4(図9)に供給され、ステップ107で特徴情報が
抽出される。
This video signal is supplied to the characteristic extraction unit 4 (FIG. 9) under the control of the CPU 2, and the characteristic information is extracted in step 107.

【0066】特徴抽出部4では、第1の実施例と同様の
方法でk個分が重なった映像信号から特徴情報が抽出さ
れる。この結果、k個フィ−ルド分、つまり一定時間T
の間における特徴情報が抽出される。この際、CPU2
の制御によって、それぞれの一定時間Tごとに最初と最
終のフィ−ルド映像信号の特徴情報、例えば1番目とk
番目の特徴情報f1、fkに対し位置情報が付加され
る。
The feature extraction unit 4 extracts the feature information from the video signals in which k pieces are overlapped by the same method as in the first embodiment. As a result, k fields, that is, the constant time T
The feature information between the two is extracted. At this time, CPU2
Of the first and last field video signals at each constant time T, for example, the first and k
Position information is added to the th characteristic information f1 and fk.

【0067】特徴抽出部4から一定時間Tごとに出力さ
れる特徴情報は、図9の軌跡処理演算部6に供給され、
第1の実施例と同様の軌跡処理が行われる。その後、特
徴情報は、軌跡処理演算部6から軌跡保存部7に移さ
れ、そこで記録される。
The characteristic information output from the characteristic extracting unit 4 at constant time intervals T is supplied to the locus processing calculating unit 6 in FIG.
The same trajectory processing as that of the first embodiment is performed. After that, the characteristic information is transferred from the trajectory processing calculation unit 6 to the trajectory storage unit 7 and recorded there.

【0068】なお、特徴情報が軌跡保存部7に移される
と、それ以前に画像メモリ5、例えば第1および第2の
メモリ5a、5bに記録されていた映像信号は消去され
る。その後、次のフィ−ルド映像信号、例えばk+1番
目以降のフィ−ルド映像信号について、一定時間Tの
間、上記したと同様の信号処理が繰り返される。
When the characteristic information is transferred to the locus storage unit 7, the video signals previously recorded in the image memory 5, for example, the first and second memories 5a and 5b are erased. Thereafter, the same signal processing as described above is repeated for the fixed time T for the next field video signal, for example, the k + 1th field video signal and thereafter.

【0069】なお、一定時間が始まる最初のフィ−ルド
映像信号、例えばk+1番目のフィ−ルド映像信号の特
徴情報fk+1の位置情報と、その前の一定時間の最
終、例えばk番目のフィ−ルド映像信号の特徴情報fk
の位置情報とを照合し、両者の位置情報が接近している
場合、両者の特徴情報fk、fk+1は同一車両の軌跡
と判断する構成は第1の実施例と同様である。このよう
な同一車両の軌跡か否かの判断は、一定時間が経過する
ごとに行なわれる。
The position information of the characteristic information fk + 1 of the first field video signal, for example, the k + 1th field video signal at the beginning of the fixed time, and the last, for example, the kth field of the fixed time before that. Feature information fk of video signal
The configuration is the same as that of the first embodiment, in which the characteristic information fk and fk + 1 of both are determined to be the locus of the same vehicle when the position information of both is close to each other. The determination as to whether or not the loci of the same vehicle are made is performed every time a certain period of time elapses.

【0070】また、画像メモリ5に記録されている映像
信号は、D−A変換器8でアナログ信号に変換し、表示
部9で画像として再生することができる。
The video signal recorded in the image memory 5 can be converted into an analog signal by the DA converter 8 and reproduced as an image on the display unit 9.

【0071】なお、抽出された特徴情報を表示部で表示
する構成や、軌跡保存部に記録されている特徴情報をD
−A変換器でアナログ信号に変換して表示部で表示する
構成、さらに、軌跡化された車両の特徴情報から軌跡処
理演算部で軌跡の追跡を行う構成、等は第1の実施例と
同様であるので、説明は省略する。
The structure for displaying the extracted feature information on the display unit and the feature information recorded in the trajectory storage unit are
Similar to the first embodiment, the configuration in which the -A converter converts into an analog signal and displays it on the display unit, and the configuration in which the trajectory processing calculation unit tracks the trajectory from the characteristic information of the vehicle that has been transformed into the trajectory is the same as the first embodiment. Therefore, the description is omitted.

【0072】なお、第2の実施例の場合、特徴抽出処理
の回数が減るので処理速度を速くできる。
In the case of the second embodiment, since the number of feature extraction processes is reduced, the processing speed can be increased.

【0073】なお、上記した各実施例では、画像メモリ
が2つのメモリで構成される場合で説明したが、画像メ
モリを1つのメモリで構成することもできる。
In each of the above-described embodiments, the image memory is composed of two memories, but the image memory may be composed of one memory.

【0074】また、特徴情報を抽出する画面単位を1フ
ィ−ルドで行っているが、1フレ−ムごとに行うことも
できる。
Further, although the screen unit for extracting the characteristic information is one field, it can also be performed for each frame.

【0075】また、上記の各実施例では、特徴情報の軌
跡化を一定時間ごとに区切って行っている。このように
軌跡化の時間を区切ることにより、一定時間に形成され
る軌跡の長さから車両など対象物体の移動速度を知るこ
とができる。
Further, in each of the above-described embodiments, the trajectory of the characteristic information is segmented at regular intervals. By dividing the time for forming the trajectory in this way, the moving speed of the target object such as a vehicle can be known from the length of the trajectory formed in a certain time.

【0076】また、対象物体の検出を対象物体全体でな
く、その一部分を例えば輝度の差を利用し特徴情報とし
て検出するため対象物体の検出が確実で、また複数の対
象物体が部分的に重なっても対象物体を検出できる。
Further, since the target object is detected not as the whole target object but as a part of the target object as feature information by utilizing the difference in brightness, the target object can be detected reliably, and a plurality of target objects partially overlap each other. However, the target object can be detected.

【0077】[0077]

【発明の効果】本発明によれば、対象物体の特徴情報を
軌跡化し、その軌跡から対象物体を検出している。した
がって、対象物体が部分的に重なっても対象物体を確実
に検出できる。
According to the present invention, the characteristic information of the target object is converted into a trajectory, and the target object is detected from the trajectory. Therefore, the target object can be reliably detected even if the target objects partially overlap.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を説明する回路構成図で
ある。
FIG. 1 is a circuit configuration diagram illustrating a first embodiment of the present invention.

【図2】本発明を説明する図で、監視カメラの配置を示
す概略図である。
FIG. 2 is a view for explaining the present invention and is a schematic diagram showing the arrangement of surveillance cameras.

【図3】本発明を説明する図で、監視カメラで撮像され
る模様を示す図である。
FIG. 3 is a diagram for explaining the present invention, and is a diagram showing a pattern captured by a surveillance camera.

【図4】本発明の動作を説明するフロ−チャ−ト図であ
る。
FIG. 4 is a flowchart illustrating the operation of the present invention.

【図5】本発明の動作を説明する図で、表示器で表示さ
れた軌跡を示す図である。
FIG. 5 is a diagram for explaining the operation of the present invention, and is a diagram showing a locus displayed on a display.

【図6】本発明の動作を説明するフロ−チャ−ト図であ
る。
FIG. 6 is a flowchart showing the operation of the present invention.

【図7】本発明の動作を説明する図で、表示器で表示さ
れた道路状況を示す図である。
FIG. 7 is a diagram for explaining the operation of the present invention and is a diagram showing a road condition displayed by a display device.

【図8】本発明の動作を説明する図で、表示器で表示さ
れた軌跡を示す図である。
FIG. 8 is a diagram for explaining the operation of the present invention, and is a diagram showing a locus displayed on a display.

【図9】本発明の第2の実施例を説明する回路構成図で
ある。
FIG. 9 is a circuit configuration diagram illustrating a second embodiment of the present invention.

【図10】本発明の第2の実施例の動作を説明するフロ
−チャ−ト図である。
FIG. 10 is a flowchart for explaining the operation of the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…監視カメラ 2…CPU 3…A−D変換器 4…特徴抽出部 5…画像メモリ 6…軌跡処理演算部 7…軌跡保存部 8…D−A変換器 9…表示部 DESCRIPTION OF SYMBOLS 1 ... Surveillance camera 2 ... CPU 3 ... A-D converter 4 ... Feature extraction part 5 ... Image memory 6 ... Locus processing calculation part 7 ... Locus storage part 8 ... DA converter 9 ... Display part

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 所定の監視領域内を走行する対象物体を
撮像する監視カメラと、この監視カメラから出力される
対象物体の映像信号が画面単位で順に供給され、各画面
単位ごとに対象物体の特徴情報を抽出する特徴抽出手段
と、この特徴抽出手段で抽出された対象物体の特徴情報
を、1つの画面単位より長い所定時間に亘って順に記録
し、特徴情報を軌跡化する画像メモリと、この画像メモ
リで軌跡化された特徴情報の軌跡が、前記監視カメラの
監視領域の端縁から延びているか否かを検知する手段と
を具備した対象物体の検出装置。
1. A surveillance camera for picking up an image of a target object traveling in a predetermined surveillance area, and a video signal of the target object output from the surveillance camera are sequentially supplied in units of screens. A feature extracting means for extracting the feature information, an image memory for sequentially recording the feature information of the target object extracted by the feature extracting means for a predetermined time longer than one screen unit, and converting the feature information into a trajectory, A device for detecting a target object, comprising: means for detecting whether or not the trajectory of the characteristic information traced by the image memory extends from the edge of the surveillance area of the surveillance camera.
【請求項2】 所定の監視領域内を走行する対象物体を
撮像する監視カメラと、この監視カメラから出力される
対象物体の映像信号が画面単位で順に供給され、1つの
画面単位より長い所定時間に亘り、前記対象物体の映像
信号を順に重ねて記録する画像メモリと、この画像メモ
リに記録された映像信号から対象物体の特徴情報を抽出
し、特徴情報を軌跡化する特徴抽出部と、この特徴抽出
部で軌跡化された特徴情報の軌跡が、前記監視カメラの
監視領域の端縁から延びているか否かを検知する手段と
を具備した対象物体の検出装置。
2. A surveillance camera for picking up an image of a target object traveling in a predetermined surveillance area, and video signals of the target object output from the surveillance camera are sequentially supplied on a screen-by-screen basis for a predetermined time longer than one screen unit. An image memory for sequentially recording the video signals of the target object in order, a feature extraction unit for extracting the feature information of the target object from the video signals recorded in the image memory, and converting the feature information into a locus, A detection device for a target object, comprising: a means for detecting whether or not the trajectory of the feature information that has been transformed into a trajectory by the feature extraction unit extends from the edge of the surveillance area of the surveillance camera.
JP34302792A 1992-12-24 1992-12-24 Target object detection device Expired - Fee Related JP3305021B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34302792A JP3305021B2 (en) 1992-12-24 1992-12-24 Target object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34302792A JP3305021B2 (en) 1992-12-24 1992-12-24 Target object detection device

Publications (2)

Publication Number Publication Date
JPH06195464A true JPH06195464A (en) 1994-07-15
JP3305021B2 JP3305021B2 (en) 2002-07-22

Family

ID=18358374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34302792A Expired - Fee Related JP3305021B2 (en) 1992-12-24 1992-12-24 Target object detection device

Country Status (1)

Country Link
JP (1) JP3305021B2 (en)

Also Published As

Publication number Publication date
JP3305021B2 (en) 2002-07-22

Similar Documents

Publication Publication Date Title
US5509082A (en) Vehicle movement measuring apparatus
US20090060276A1 (en) Method for detecting and/or tracking objects in motion in a scene under surveillance that has interfering factors; apparatus; and computer program
JP2003151042A (en) Drive recorder for vehicle
JP2994170B2 (en) Vehicle periphery monitoring device
JP3377659B2 (en) Object detection device and object detection method
JP2001043383A (en) Image monitoring system
JP2002145072A (en) Railroad crossing obstacle detecting device
US7738009B2 (en) Method for following at least one object in a scene
JPH06195464A (en) Detector of object
JPH1040490A (en) Road monitoring device
JPH0514891A (en) Image monitor device
JP2001023092A (en) Monitoring device for vehicle peripheral area
JP2841640B2 (en) Traffic flow measurement device
JPH0883392A (en) Method and device for detecting vehicle
JP2001180404A (en) Rear monitor for vehicle
JP2000163691A (en) Traffic flow measuring instrument
JPH05282592A (en) Image processing-type vehicle sensor and method for processing traffic information
JPH07114688A (en) Method for recognizing vehicle registered number
JP2001216598A (en) Traffic flow measuring instrument
JPH06110552A (en) Moving object chasing device
JP3224875B2 (en) Image-based signal ignoring vehicle detection method
JP2931709B2 (en) Traveling vehicle detection device
JP2735033B2 (en) Lane change detection apparatus and method
JPH04355899A (en) Road monitoring system
JP2558772B2 (en) Moving object identification device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090510

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees