JPH11232465A - Mobile object detecting device and program recording medium - Google Patents

Mobile object detecting device and program recording medium

Info

Publication number
JPH11232465A
JPH11232465A JP10030676A JP3067698A JPH11232465A JP H11232465 A JPH11232465 A JP H11232465A JP 10030676 A JP10030676 A JP 10030676A JP 3067698 A JP3067698 A JP 3067698A JP H11232465 A JPH11232465 A JP H11232465A
Authority
JP
Japan
Prior art keywords
image
moving object
correlation
input image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10030676A
Other languages
Japanese (ja)
Inventor
Naoyuki Sawazaki
直之 沢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP10030676A priority Critical patent/JPH11232465A/en
Publication of JPH11232465A publication Critical patent/JPH11232465A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a mobile object at high speed and with high precision in a mobile object detecting device which is mounted on a mobile object and to detects the external mobile object by processing an external picture which is read by means of a picture reading device. SOLUTION: This device 1 is provided with a deriving means 14 for deriving the moving vector of a partial picture area by calculating correlation between the picture to be segmented from the partial picture area which divides an input picture and the input picture to be sampled before or after the input picture, a specifying means 15 for specifying the partial picture area formed by the mobile object from the mobile vector which is derived by the deriving means 14, and a detecting means 17 for detecting the position of the mobile object by calculating correlation between the picture of the mobile object to be segmented from the partial picture area which is specified by the specifying means and the input picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、移動体に搭載され
て、画像読取装置の読み取る外部の画像を処理すること
で、外部の移動物体を検出する移動物体検出装置と、そ
の実現に用いられるプログラムが格納されるプログラム
記録媒体とに関し、特に、高速かつ高精度に移動物体を
検出できるようにする移動物体検出装置と、その実現に
用いられるプログラムが格納されるプログラム記録媒体
とに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used for a moving object detecting device mounted on a moving object to detect an external moving object by processing an external image read by an image reading device, and to realize the moving object detecting device. The present invention relates to a program recording medium on which a program is stored, and more particularly, to a moving object detection device capable of detecting a moving object with high speed and high accuracy, and a program recording medium on which a program used for realizing the moving object is stored.

【0002】車の安全走行を実現するために、車に搭載
されたテレビカメラなどで撮影される画像から、進路前
方を走行している車を自動検出する装置の開発が要求さ
れている。この装置は、実用化を図るためにも、高速か
つ高精度に、進路前方を走行している車を自動検出でき
るようにする必要がある。
[0002] In order to realize safe driving of a car, there is a demand for the development of a device for automatically detecting a car running ahead of a course from an image taken by a television camera mounted on the car. In order to put this device to practical use, it is necessary to be able to automatically detect a car traveling ahead of the route with high speed and high accuracy.

【0003】[0003]

【従来の技術】車に搭載されたテレビカメラなどで撮影
される画像から、進路前方を走行している車を自動検出
する装置では、従来、各種車のテンプレート画像を予め
登録する構成を採って、パターンマッチングにより進路
前方を走行している車を検出する構成を採っている。
2. Description of the Related Art An apparatus for automatically detecting a car traveling ahead of a route from an image taken by a television camera or the like mounted on the car has conventionally adopted a configuration in which template images of various vehicles are registered in advance. In addition, a configuration is adopted in which a vehicle traveling ahead of the path is detected by pattern matching.

【0004】図27に、この構成を採る従来技術の装置
構成を図示する。また、車に搭載されたテレビカメラな
どで撮影される画像を微分処理してエッジ画像を生成
し、縦横のエッジパターンの密集する領域を抽出するこ
とで、進路前方を走行している車を検出する構成を採っ
ているものもある。
FIG. 27 shows the configuration of a conventional apparatus employing this configuration. In addition, an image captured by a TV camera mounted on a car is differentiated to generate an edge image, and a region where vertical and horizontal edge patterns are densely extracted is detected to detect a car traveling ahead of the path. Some of them adopt a configuration that performs the following.

【0005】図28に、この構成を採る従来技術の装置
構成を図示する。
FIG. 28 shows the configuration of a prior art device employing this configuration.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、各種車
のテンプレート画像を予め登録する構成を採って、パタ
ーンマッチングにより進路前方を走行している車を検出
するという従来技術に従っていると、登録する車テンプ
レート画像の数が膨大なものとなることから、装置規模
が増大するとともに、処理時間が増大するという問題点
があった。
However, according to the prior art in which a template image of various vehicles is registered in advance and a vehicle traveling ahead of the path is detected by pattern matching, the registered vehicle template Since the number of images becomes enormous, there is a problem that the device scale increases and the processing time increases.

【0007】また、画像を微分処理してエッジ画像を生
成し、縦横のエッジパターンの密集する領域を抽出する
ことで、進路前方を走行している車を検出するという従
来技術に従っていると、道路上の各種表記がエッジパタ
ーンを形成することから、誤認識することが多くなると
いう問題点があった。
Further, according to the conventional technique of detecting a car traveling ahead of a course by generating an edge image by differentiating the image and extracting an area where edge patterns in a vertical direction and a horizontal direction are dense, a road is considered. Since the above various notations form an edge pattern, there is a problem that misrecognition often occurs.

【0008】本発明はかかる事情に鑑みてなされたもの
であって、移動体に搭載されて、画像読取装置の読み取
る外部の画像を処理することで、外部の移動物体を検出
する構成を採るときにあって、高速かつ高精度に移動物
体を検出できるようにする新たな移動物体検出装置の提
供と、その実現に用いられるプログラムが格納される新
たなプログラム記録媒体の提供とを目的とする。
The present invention has been made in view of the above circumstances, and has a configuration in which an external moving object is detected by processing an external image read by an image reading device mounted on a moving body. It is therefore an object of the present invention to provide a new moving object detecting device capable of detecting a moving object with high speed and high accuracy, and to provide a new program recording medium storing a program used for realizing the moving object detecting device.

【0009】[0009]

【課題を解決するための手段】図1及び図2に本発明の
原理構成を図示する。図中、1は本発明を具備する移動
物体検出装置であって、車などの移動体に搭載されて、
画像読取装置の読み取る外部の画像を処理することで、
外部の移動物体を検出するものである。
FIG. 1 and FIG. 2 show the principle configuration of the present invention. In the figure, reference numeral 1 denotes a moving object detection device equipped with the present invention, which is mounted on a moving body such as a car,
By processing external images read by the image reading device,
It detects an external moving object.

【0010】図1に原理構成を図示する本発明の移動物
体検出装置1は、画像読取装置10と、画像メモリ11
-1,2と、切換手段12と、導出手段14と、特定手段1
5と、追跡用画像メモリ16と、検出手段17と、設定
手段18と、確定手段19と、更新手段20とを備え
る。
A moving object detecting device 1 according to the present invention, whose principle configuration is shown in FIG. 1, comprises an image reading device 10 and an image memory 11.
-1,2, switching means 12, deriving means 14, and specifying means 1
5, a tracking image memory 16, a detecting unit 17, a setting unit 18, a determining unit 19, and an updating unit 20.

【0011】一方、図2に原理構成を図示する本発明の
移動物体検出装置1は、画像読取装置10と、画像メモ
リ11-1,2と、切換手段12と、相関算出手段13と、
導出手段14と、特定手段15と、追跡用画像メモリ1
6と、検出手段17と、設定手段18と、確定手段19
と、更新手段20とを備える。
On the other hand, a moving object detecting apparatus 1 according to the present invention, whose principle configuration is shown in FIG. 2, comprises an image reading apparatus 10, image memories 11-1 and 2, switching means 12, correlation calculating means 13,
Deriving means 14, specifying means 15, and tracking image memory 1
6, detecting means 17, setting means 18, and determining means 19
And updating means 20.

【0012】この画像読取装置10は、外部の移動物体
の画像を読み取る。画像メモリ11-1,2は、画像読取装
置10の読み取る移動物体の画像を格納する。切換手段
12は、画像メモリ11-1,2を交互に選択して、その選
択した画像メモリ11-1,2の方に、画像読取装置10の
読み取る移動物体の画像を格納する。
The image reading apparatus 10 reads an image of an external moving object. The image memories 11-1 and 2 store an image of a moving object read by the image reading device 10. The switching unit 12 alternately selects the image memories 11-1 and 2 and stores the image of the moving object read by the image reading device 10 in the selected image memories 11-1 and 2.

【0013】図2に原理構成を図示する本発明の移動物
体検出装置1で備えられる相関算出手段13は、処理対
象として指定される2つの画像の相関を算出する。導出
手段14は、入力画像を区画する部分画像領域の移動ベ
クトルを導出する。特定手段15は、導出手段14の導
出する移動ベクトルから、移動物体の形成する部分画像
領域を特定する。追跡用画像メモリ16は、特定手段1
5の特定する部分画像領域の切り出す移動物体の画像を
格納する。
The correlation calculating means 13 provided in the moving object detecting apparatus 1 of the present invention whose principle configuration is shown in FIG. 2 calculates a correlation between two images designated as processing targets. The deriving unit 14 derives a movement vector of a partial image area that partitions the input image. The specifying unit 15 specifies a partial image area formed by the moving object from the moving vector derived by the deriving unit 14. The tracking image memory 16 includes the identifying unit 1
5 stores the image of the moving object to be cut out of the specified partial image area.

【0014】検出手段17は、移動物体の位置を検出す
る。設定手段18は、特定手段15の特定する部分画像
領域が、検出手段17の検出する移動物体の位置と重な
らないときに、その部分画像領域の切り出す移動物体の
画像を検出手段17の新たな検出対象として設定する。
The detecting means 17 detects the position of the moving object. When the partial image region specified by the specifying unit 15 does not overlap the position of the moving object detected by the detecting unit 17, the setting unit 18 newly detects the image of the moving object cut out from the partial image region by the detecting unit 17. Set as target.

【0015】確定手段19は、検出手段17の検出する
移動物体の位置と、特定手段15の特定する部分画像領
域とが規定回数重なりを示すときに、その移動物体の動
きの形態を確定する。更新手段20は、検出手段17の
検出する移動物体の位置と、特定手段15の特定する部
分画像領域とが重なりを示すときに、その部分画像領域
に応じて、検出手段17の検出対象とする移動物体の画
像を更新するとともに、検出手段17の検出する移動物
体の位置を更新する。
When the position of the moving object detected by the detecting means 17 and the partial image area specified by the specifying means 15 indicate a specified number of overlaps, the determining means 19 determines the form of movement of the moving object. When the position of the moving object detected by the detecting unit 17 and the partial image region specified by the specifying unit 15 indicate an overlap, the updating unit 20 sets the detection target of the detecting unit 17 according to the partial image region. The image of the moving object is updated, and the position of the moving object detected by the detecting unit 17 is updated.

【0016】ここで、図1及び図2に原理構成を図示す
る本発明の移動物体検出装置1の持つ機能はプログラム
で実現可能であり、この場合、このプログラムは、フロ
ッピィディスクなどに格納されたり、サーバなどのディ
スクなどに格納され、それらから移動物体検出装置1に
インストールされてメモリ上で動作することで、本発明
を実現することになる。
Here, the functions of the moving object detecting device 1 of the present invention whose principle configuration is shown in FIGS. 1 and 2 can be realized by a program. In this case, the program is stored in a floppy disk or the like. The present invention is realized by being stored in a disk or the like of a server or the like, and then being installed in the moving object detection device 1 and operating on a memory.

【0017】このように構成される図1の原理構成を図
示する本発明の移動物体検出装置1では、切換手段12
は、2つ設けられる画像メモリ11-1,2を交互に選択し
て、その選択した画像メモリ11-1,2の方に、画像読取
装置10の読み取る最新の画像を格納していく。
In the moving object detecting apparatus 1 according to the present invention, which illustrates the principle configuration of FIG.
Alternately selects two image memories 11-1 and 2 and stores the latest image read by the image reading device 10 in the selected image memory 11-1 and 2.

【0018】この画像メモリ11-1,2に格納される入力
画像を受けて、導出手段14は、入力画像を区画する部
分画像領域の切り出す画像と、その入力画像よりも前あ
るいは後にサンプリグされる入力画像との相関を算出す
ることで、入力画像を区画する部分画像領域の移動ベク
トルを導出し、これを受けて、特定手段15は、背景と
異なる動きを示す移動ベクトルを特定することで、移動
物体の形成する部分画像領域を特定する。
In response to the input images stored in the image memories 11-1 and 11-2, the deriving means 14 samples an image from which a partial image area that divides the input image is cut out and samples the input image before or after the input image. By calculating a correlation with the input image, a motion vector of a partial image area that divides the input image is derived, and in response to this, the specifying unit 15 specifies a motion vector indicating a motion different from the background, A partial image area formed by the moving object is specified.

【0019】この特定手段15の特定する部分画像領域
を受けて、設定手段18は、特定された部分画像領域が
検出手段17により検出される移動物体の位置と重なら
ないときには、その部分画像領域の切り出す移動物体の
画像を追跡用画像メモリ16に格納していく。
In response to the partial image area specified by the specifying means 15, when the specified partial image area does not overlap with the position of the moving object detected by the detecting means 17, the setting means 18 sets The image of the moving object to be cut out is stored in the tracking image memory 16.

【0020】この追跡用画像メモリ16に格納される移
動物体の画像を受けて、検出手段17は、例えば、特定
手段15が移動ベクトルを特定するときと同期をとっ
て、追跡用画像メモリ16に格納される移動物体の画像
と、画像メモリ11-1,2に格納される最新の入力画像と
の相関(導出手段14の実行する相関演算と同じでなく
てもよい)を算出することで、その移動物体の位置を検
出する。
Upon receiving the image of the moving object stored in the tracking image memory 16, the detecting means 17 synchronizes with, for example, the time when the specifying means 15 specifies the moving vector, and stores it in the tracking image memory 16. By calculating the correlation between the stored image of the moving object and the latest input image stored in the image memories 11-1 and 2 (the calculation may not be the same as the correlation calculation performed by the deriving unit 14), The position of the moving object is detected.

【0021】一方、このように構成される図2の原理構
成を図示する本発明の移動物体検出装置1では、切換手
段12は、2つ設けられる画像メモリ11-1,2を交互に
選択して、その選択した画像メモリ11-1,2の方に、画
像読取装置10の読み取る最新の画像を格納していく。
On the other hand, in the moving object detecting device 1 of the present invention, which illustrates the principle configuration of FIG. 2 configured as described above, the switching means 12 alternately selects two image memories 11-1, 2 provided. Then, the latest image read by the image reading device 10 is stored in the selected image memory 11-1,2.

【0022】この画像メモリ11-1,2に格納される入力
画像を受けて、導出手段14は、入力画像を区画する部
分画像領域の切り出す画像と、その入力画像よりも前あ
るいは後にサンプリグされる入力画像とを処理対象とし
て、相関算出手段13を起動することで、入力画像を区
画する部分画像領域の移動ベクトルを導出し、これを受
けて、特定手段15は、背景と異なる動きを示す移動ベ
クトルを特定することで、移動物体の形成する部分画像
領域を特定する。
In response to the input images stored in the image memories 11-1 and 11-2, the deriving means 14 samples an image from which a partial image area that divides the input image is cut out, and samples the input image before or after the input image. By activating the correlation calculation unit 13 with the input image as a processing target, a movement vector of a partial image region that divides the input image is derived. By specifying the vector, the partial image area formed by the moving object is specified.

【0023】この特定手段15の特定する部分画像領域
を受けて、設定手段18は、特定された部分画像領域が
検出手段17により検出される移動物体の位置と重なら
ないときには、その部分画像領域の切り出す移動物体の
画像を追跡用画像メモリ16に格納していく。
In response to the partial image area specified by the specifying means 15, when the specified partial image area does not overlap the position of the moving object detected by the detecting means 17, the setting means 18 The image of the moving object to be cut out is stored in the tracking image memory 16.

【0024】この追跡用画像メモリ16に格納される移
動物体の画像を受けて、検出手段17は、例えば、特定
手段15が移動ベクトルを特定するときと同期をとっ
て、追跡用画像メモリ16に格納される移動物体の画像
と、画像メモリ11-1,2に格納される最新の入力画像と
を処理対象として、相関算出手段13を起動すること
で、その移動物体の位置を検出する。
Upon receiving the image of the moving object stored in the tracking image memory 16, the detecting means 17 synchronizes with, for example, the time when the specifying means 15 specifies the moving vector, and stores it in the tracking image memory 16. The position of the moving object is detected by activating the correlation calculating means 13 with the stored moving object image and the latest input image stored in the image memories 11-1 and 11 being processed.

【0025】そして、このように構成される図1及び図
2の原理構成を図示する本発明の移動物体検出装置1で
は、この処理構成を採るときに、特定手段15は、導出
手段14の導出する移動ベクトルの内、動きを示さない
ものを抽出することで、前方を移動する移動物体の形成
する部分画像領域を特定したり、導出手段14の導出す
る移動ベクトルの内、水平方向でかつ中心方向に向かう
動きを示すものを抽出することで、前方に割り込む形で
移動する移動物体の形成する部分画像領域を特定するこ
とになる。
In the moving object detecting device 1 of the present invention, which illustrates the principle configuration of FIGS. 1 and 2 configured as described above, when this processing configuration is adopted, the specifying unit 15 By extracting a motion vector that does not show a motion from among the motion vectors that move, a partial image area formed by a moving object that moves in the front can be specified. By extracting an object that indicates a movement in the direction, a partial image area formed by a moving object that moves in a manner interrupting forward is specified.

【0026】また、確定手段19は、検出手段17の検
出する移動物体の位置と、特定手段15の特定する部分
画像領域とが規定回数重なりを示すときに、移動物体の
動きの形態を確定する。例えば、その移動物体が前方を
移動する移動物体であると確定するのである。
The determining means 19 determines the form of movement of the moving object when the position of the moving object detected by the detecting means 17 and the partial image area specified by the specifying means 15 overlap by a specified number of times. . For example, it is determined that the moving object is a moving object moving ahead.

【0027】また、更新手段20は、検出手段17の検
出する移動物体の位置と、特定手段15の特定する部分
画像領域とが重なりを示すときに、その部分画像領域に
応じて、検出手段17の検出対象とする移動物体の画像
を更新するとともに、検出手段17の検出する移動物体
の位置を更新する。この更新処理により、例えば、移動
物体との間の距離が変動することで、追跡用画像メモリ
16に格納される移動物体の画像が適切なものとならな
くなっても、対処できることになる。
Further, when the position of the moving object detected by the detecting means 17 and the partial image area specified by the specifying means 15 indicate an overlap, the updating means 20 detects the position of the moving object in accordance with the partial image area. The image of the moving object to be detected is updated, and the position of the moving object detected by the detecting means 17 is updated. By this updating process, it is possible to cope with a case where the image of the moving object stored in the tracking image memory 16 becomes inappropriate due to a change in the distance to the moving object, for example.

【0028】このように、本発明の移動物体検出装置1
では、画像読取装置10の読み取る画像内の移動ベクト
ルを検出して、その中から背景の移動ベクトルと異なる
動きを示す移動ベクトルを特定することで、移動物体の
画像を特定するとともに、その移動物体の画像と画像読
取装置10の読み取る画像との相関から、移動物体の位
置を検出する構成を採ることで、テンプレート画像を用
いずに移動物体の位置を検出できるようになり、小さな
ハードウェアでかつ高速に移動物体を検出できるように
なるとともに、エッジパターンを用いずに移動物体の位
置を検出できるようになり、高精度に移動物体の位置を
検出できるようになる。
As described above, the moving object detecting apparatus 1 of the present invention
Then, the moving vector in the image read by the image reading device 10 is detected, and a moving vector indicating a motion different from the background moving vector is specified from the moving vector. By adopting a configuration for detecting the position of the moving object from the correlation between the image of the moving image and the image read by the image reading device 10, the position of the moving object can be detected without using a template image, and with small hardware and The moving object can be detected at a high speed, and the position of the moving object can be detected without using an edge pattern, so that the position of the moving object can be detected with high accuracy.

【0029】[0029]

【発明の実施の形態】以下、車に搭載されて、前方を走
行する車の検出処理を実行する前方車両検出装置に適用
した実施例に従って、本発明を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below with reference to an embodiment applied to a front vehicle detecting device which is mounted on a vehicle and executes a process of detecting a vehicle running ahead.

【0030】図3に、本発明を具備する前方車両検出装
置30の一実施例を図示する。この図3に示す前方車両
検出装置30は、車に搭載されて、前方を走行する車の
検出処理を実行するものであって、TVカメラ31と、
A/D変換器32と、探索画像メモリ33と、第1の参
照画像メモリ34と、第2の参照画像メモリ35と、入
力切換器36と、第1の出力切換器37と、追跡用画像
メモリ38と、第2の出力切換器39と、相関演算器4
0と、相関ピーク位置検出器41と、アドレス発生器4
2と、制御計算機43とを備える。
FIG. 3 shows an embodiment of a forward vehicle detecting device 30 provided with the present invention. The front vehicle detection device 30 shown in FIG. 3 is mounted on a vehicle and executes a process of detecting a vehicle traveling ahead, and includes a TV camera 31 and
A / D converter 32, search image memory 33, first reference image memory 34, second reference image memory 35, input switch 36, first output switch 37, tracking image A memory 38, a second output switch 39, and a correlation calculator 4
0, the correlation peak position detector 41, and the address generator 4
2 and a control computer 43.

【0031】このTVカメラ31は、搭載車の前方の画
像を読み取る。A/D変換器32は、TVカメラ31の
読み取る入力画像をアナログ信号からディジタル信号に
変換する。探索画像メモリ33は、A/D変換器32に
よりディジタル信号に変換された入力画像を格納する。
第1及び第2の参照画像メモリ34,35は、A/D変換
器32によりディジタル信号に変換された入力画像を格
納する。
The TV camera 31 reads an image in front of the vehicle. The A / D converter 32 converts an input image read by the TV camera 31 from an analog signal to a digital signal. The search image memory 33 stores the input image converted into a digital signal by the A / D converter 32.
The first and second reference image memories 34 and 35 store the input images converted into digital signals by the A / D converter 32.

【0032】入力切換器36は、第1の参照画像メモリ
34か、第2の参照画像メモリ35のいずれか一方を入
力画像の格納先として選択する。第1の出力切換器37
は、第1の参照画像メモリ34から読み出される入力画
像か、第2の参照画像メモリ35から読み出される入力
画像のいずれか一方を選択して出力する。追跡用画像メ
モリ38は、検出された前方車の画像を格納する。第2
の出力切換器39は、第1の出力切換器37の出力する
入力画像か、追跡用画像メモリ38から読み出される前
方車の画像のいずれか一方を選択して出力する。
The input switch 36 selects one of the first reference image memory 34 and the second reference image memory 35 as a storage destination of the input image. First output switch 37
Selects one of an input image read from the first reference image memory 34 and an input image read from the second reference image memory 35 and outputs the selected image. The tracking image memory 38 stores the detected image of the preceding vehicle. Second
The output switch 39 selects and outputs either the input image output from the first output switch 37 or the image of the preceding vehicle read from the tracking image memory 38.

【0033】相関演算器40は、ハードウェアで構成さ
れて、探索画像メモリ33から読み出される入力画像
と、第2の出力切換器39の出力する画像との相関値を
算出して出力する。相関ピーク位置検出器41は、ハー
ドウェアで構成されて、相関演算器40の出力する相関
値のピーク位置を検出して出力する。アドレス発生器4
2は、探索画像メモリ33/第1の参照画像メモリ34
/第2の参照画像メモリ35/追跡用画像メモリ38に
与えるアドレス信号を発生する。
The correlation calculator 40 is composed of hardware and calculates and outputs a correlation value between the input image read from the search image memory 33 and the image output from the second output switch 39. The correlation peak position detector 41 is configured by hardware, and detects and outputs the peak position of the correlation value output from the correlation calculator 40. Address generator 4
2 is a search image memory 33 / first reference image memory 34
An address signal to be applied to the second reference image memory 35 / tracking image memory 38 is generated.

【0034】制御計算機43は、相関ピーク位置検出器
41の検出するピーク位置を入力として、ソフトウェア
に従って、入力切換器36/第1の出力切換器37/第
2の出力切換器39/アドレス発生器42を制御しつ
つ、搭載車の前方を走行する車の検出処理を実行する。
The control computer 43 receives the peak position detected by the correlation peak position detector 41 as an input, and according to software, an input switch 36 / first output switch 37 / second output switch 39 / address generator. The control unit 42 performs a process of detecting a vehicle traveling in front of the vehicle on which the vehicle is mounted.

【0035】上述したように、相関演算器40は、探索
画像メモリ33から読み出される入力画像と、第2の出
力切換器39の出力する画像との相関値を算出して出力
する処理を行う。一方、第2の出力切換器39は、第1
の出力切換器37の出力する入力画像か、追跡用画像メ
モリ38から読み出される前方車の画像のいずれか一方
を選択して出力する。
As described above, the correlation calculator 40 calculates and outputs a correlation value between the input image read from the search image memory 33 and the image output from the second output switch 39. On the other hand, the second output switch 39
Of the preceding vehicle read out from the tracking image memory 38 and output.

【0036】従って、相関演算器40は、探索画像メモ
リ33から読み出される入力画像と、参照画像メモリ3
4,35から読み出される入力画像との相関値を算出して
出力する処理を行ったり、探索画像メモリ33から読み
出される入力画像と、追跡用画像メモリ38から読み出
される前方車の画像との相関値を算出して出力する処理
を行う。
Accordingly, the correlation calculator 40 calculates the input image read from the search image memory 33 and the reference image memory 3
A process for calculating and outputting a correlation value with an input image read from the image storage device 4, 35, or a correlation value between an input image read from the search image memory 33 and an image of a preceding vehicle read from the tracking image memory 38. Is calculated and output.

【0037】ここで、探索画像メモリ33から読み出さ
れる入力画像と、参照画像メモリ34,35から読み出さ
れる入力画像との相関値の演算は、後述することから分
かるように、入力画像を構成する各微小領域の移動ベク
トルを導出するために行うものであり、この微小領域を
単位として行われることになる。この微小領域は、図4
に示すように、参照画像メモリ34,35から読み出され
る入力画像を例えば8×8画素に区画するもので定義さ
れる。
Here, the calculation of the correlation value between the input image read from the search image memory 33 and the input images read from the reference image memories 34 and 35 will be described later. This is performed in order to derive the movement vector of the minute area, and is performed in units of the minute area. This small area is shown in FIG.
As shown in (1), the input image read out from the reference image memories 34 and 35 is defined by, for example, partitioning into 8 × 8 pixels.

【0038】相関演算器40は、探索画像メモリ33か
ら読み出される入力画像と、参照画像メモリ34,35か
ら読み出される入力画像の持つ微小領域との相関値の演
算を実行する場合には、図5に示すように、アドレス発
生器42から、参照画像メモリ34,35に格納される入
力画像の持つ微小領域の原点位置O1と、探索画像メモ
リ33に格納される入力画像内に設定されて、その微小
領域を取り囲むように設定される相関演算領域の原点位
置O2とが与えられることで、探索画像メモリ33及び
参照画像メモリ34,35から画素値が読み出されると、
図6に示すように、相関演算領域の原点位置O2からの
オフセット量(m,n)を変化させつつ、例えば、 Dm,n =ΣΣ|Xi,j −Yi+m,j+n | 但し、ΣΣはi,jについての和 の算出式に従って、各オフセット量(m,n)における
相関値Dmnを求めることで行う。
The correlation calculator 40 calculates the correlation value between the input image read from the search image memory 33 and the minute area of the input image read from the reference image memories 34 and 35, as shown in FIG. As shown in the figure, the address generator 42 sets the origin position O1 of the minute area of the input image stored in the reference image memories 34 and 35, and sets the origin position O1 in the input image stored in the search image memory 33. Given the origin position O2 of the correlation operation area set to surround the micro area, when the pixel values are read from the search image memory 33 and the reference image memories 34 and 35,
As shown in FIG. 6, for example, D m, n = ΣΣ | X i, j −Y i + m, j + n while changing the offset amount (m, n) from the origin position O2 of the correlation calculation area. Where で is obtained by calculating the correlation value D mn at each offset amount (m, n) according to the formula for calculating the sum of i and j.

【0039】ここで、この算出式中に示すXi,j は、参
照画像メモリ34,35に格納される入力画像の持つ微小
領域の画素値、Yi+m,j+n は、探索画像メモリ33に格
納される入力画像の画素値である。
Here, X i, j shown in this calculation expression is a pixel value of a minute area of the input image stored in the reference image memory 34, 35, and Y i + m, j + n is a search image. The pixel values of the input image stored in the memory 33.

【0040】また、相関演算器40は、探索画像メモリ
33から読み出される入力画像と、追跡用画像メモリ3
8から読み出される前方車の画像との相関値の演算を実
行する場合には、図7に示すように、アドレス発生器4
2から、追跡用画像メモリ38に格納される車画像の原
点位置O3と、探索画像メモリ33に格納される入力画
像内に設定されて、その車画像を取り囲むように設定さ
れる相関演算領域の原点位置O4とが与えられること
で、探索画像メモリ33及び追跡用画像メモリ38から
画素値が読み出されると、図8に示すように、相関演算
領域の原点位置O4からのオフセット量(m,n)を変
化させつつ、例えば、 Dm,n =ΣΣ|Xi,j −Yi+m,j+n | 但し、ΣΣはi,jについての和 の算出式に従って、各オフセット量(m,n)における
相関値Dmnを求めることで行う。
Further, the correlation calculator 40 stores the input image read from the search image memory 33 and the tracking image memory 3.
When the calculation of the correlation value with the image of the preceding vehicle read out from the address generator 8 is executed, as shown in FIG.
2, the origin position O3 of the car image stored in the tracking image memory 38 and the correlation calculation area set in the input image stored in the search image memory 33 so as to surround the car image. When the pixel value is read from the search image memory 33 and the tracking image memory 38 by giving the origin position O4, as shown in FIG. 8, the offset amount (m, n) of the correlation operation area from the origin position O4 is obtained. ) Is changed, for example, D m, n = ΣΣ | X i, j −Y i + m, j + n | where ΣΣ is the offset amount (m, This is performed by obtaining the correlation value D mn in n).

【0041】ここで、この算出式中に示すXi,j は、追
跡用画像メモリ38に格納される車画像の画素値、Y
i+m,j+n は、探索画像メモリ33に格納される入力画像
の画素値である。
Here, X i, j shown in this calculation expression is a pixel value of the car image stored in the tracking image memory 38, and Y
i + m and j + n are pixel values of the input image stored in the search image memory 33.

【0042】この算出式により算出される相関値は、最
も相関の高くなる所で最も小さな値を示すものである。
例えば、図9に示す例で説明するならば、微小領域の画
像と同一の画像が、相関演算領域の原点位置O1から
「m=5,n=4」のオフセット量の位置に存在すると
きには、相関値は、「m=5,n=4」の位置で最も小
さな値を示すことになる。
The correlation value calculated by this calculation formula shows the smallest value at the place where the correlation becomes highest.
For example, if the example illustrated in FIG. 9 is used, when the same image as the image of the minute area is located at an offset amount of “m = 5, n = 4” from the origin position O1 of the correlation operation area, The correlation value shows the smallest value at the position of “m = 5, n = 4”.

【0043】上述したように、相関ピーク位置検出器4
1は、相関演算器40の出力する相関値を入力として、
相関演算器40の出力する相関値のピーク位置を検出し
て出力する処理を行う。
As described above, the correlation peak position detector 4
1 is input with the correlation value output from the correlation calculator 40,
A process of detecting and outputting the peak position of the correlation value output from the correlation calculator 40 is performed.

【0044】すなわち、相関ピーク位置検出器41は、
アドレス発生器42から原点位置が与えられることで相
関演算器40が相関演算処理に入って、各オフセット量
での相関値を順次出力すると、その相関値のピーク位置
を検出して出力するのである。図9の例で説明するなら
ば、「m=5,n=4」というピーク位置を検出して出
力することになる。
That is, the correlation peak position detector 41
When the correlation calculator 40 enters the correlation calculation process by giving the origin position from the address generator 42 and sequentially outputs the correlation value at each offset amount, the peak position of the correlation value is detected and output. . In the case of the example shown in FIG. 9, a peak position "m = 5, n = 4" is detected and output.

【0045】図10及び図11に、制御計算機43の実
行する処理フローの一実施例を図示する。次に、この処
理フローに従って、本発明について詳細に説明する。制
御計算機43は、搭載車の前方を走行する車の検出要求
が発行されると、図10及び図11の処理フローに示す
ように、先ず最初に、ステップ1で、入力切換器36を
制御することで、第1の参照画像メモリ34に対して、
TVカメラ31の読み取る図12に示すような画像を入
力するとともに、第1の出力切換器37を第1の参照画
像メモリ34の側に切り換える。
FIGS. 10 and 11 show one embodiment of the processing flow executed by the control computer 43. FIG. Next, the present invention will be described in detail according to this processing flow. When a request to detect a vehicle traveling ahead of the on-board vehicle is issued, the control computer 43 first controls the input switch 36 in step 1 as shown in the processing flow of FIGS. 10 and 11. Thus, for the first reference image memory 34,
As shown in FIG. 12, which is read by the TV camera 31, the first output switch 37 is switched to the first reference image memory 34.

【0046】続いて、ステップ2で、第2の出力切換器
39を参照画像メモリ34,35の側に切り換え、続くス
テップ3で、入力切換器36を切り換える。この時点で
は、入力切換器36が第2の参照画像メモリ35を選択
するように切り換えることにる。続いて、ステップ4
で、探索画像メモリ33に対して、TVカメラ31の読
み取る画像を入力するとともに、入力切換器36の選択
する参照画像メモリ34,35に対して、TVカメラ31
の読み取る画像を入力する。
Subsequently, in step 2, the second output switch 39 is switched to the side of the reference image memories 34, 35, and in step 3, the input switch 36 is switched. At this point, the input switch 36 switches so as to select the second reference image memory 35. Then, step 4
Then, the image read by the TV camera 31 is input to the search image memory 33, and the TV camera 31 is input to the reference image memories 34 and 35 selected by the input switch 36.
Enter the image to be read.

【0047】このようにして、この時点では、第1の参
照画像メモリ34には、第2の参照画像メモリ34に格
納される入力画像(探索画像メモリ33に格納される入
力画像と同じもの)よりも1つ前のフレームの入力画像
が格納されることになる。
As described above, at this time, the first reference image memory 34 has the input image stored in the second reference image memory 34 (the same as the input image stored in the search image memory 33). The input image of the previous frame is stored.

【0048】続いて、ステップ5で、アドレス発生器4
2を介して、第2の出力切換器39の出力する参照画像
メモリ34,35(探索画像メモリ33に格納される入力
画像よりも1つ前のフレームの入力画像を格納してい
る)に対して、その参照画像メモリ34,35に格納され
る入力画像の持つ微小領域の原点位置O1を順次与える
とともに、探索画像メモリ33に対して、その微小領域
を取り囲む図5に示した相関演算領域の原点位置O2を
与えることで、その参照画像メモリ34,35に格納され
る入力画像の持つ各微小領域の移動ベクトルを求める。
Subsequently, at step 5, the address generator 4
2 to the reference image memories 34 and 35 output from the second output switch 39 (to store the input image of the frame immediately before the input image stored in the search image memory 33). The origin position O1 of the minute area of the input image stored in the reference image memories 34 and 35 is sequentially given, and the search image memory 33 is provided with the correlation calculation area shown in FIG. By giving the origin position O2, the movement vector of each minute area of the input image stored in the reference image memories 34 and 35 is obtained.

【0049】すなわち、第2の出力切換器39の出力す
る参照画像メモリ34,35に対して、その参照画像メモ
リ34,35に格納される入力画像の持つ微小領域の原点
位置O1を順次与えるとともに、探索画像メモリ33に
対して、その微小領域を取り囲む図5に示した相関演算
領域の原点位置O2を与えると、相関演算器40が、上
述の処理に従って、各微小領域毎に、原点位置O2から
のオフセット量(m,n)における相関値Dmnを順次算
出し、これを受けて、相関ピーク位置検出器41が、各
微小領域毎に、その相関値Dmnのピーク位置を検出す
る。
That is, the reference image memories 34 and 35 output from the second output switch 39 are sequentially supplied with the origin position O1 of the minute area of the input image stored in the reference image memories 34 and 35. When the search operation memory 33 is provided with the origin position O2 of the correlation calculation area surrounding the micro area shown in FIG. 5, the correlation calculator 40 calculates the origin position O2 for each micro area according to the above-described processing. the correlation value D mn are successively calculated in the offset amount from the (m, n), in response to this, the correlation peak position detector 41, for each minute region, for detecting the peak position of the correlation value D mn.

【0050】第2の出力切換器39の出力する参照画像
メモリ34,35に格納される入力画像は、探索画像メモ
リ33に格納される入力画像よりも1つ前のフレームの
入力画像であり、これから、このときに相関ピーク位置
検出器41により検出される相関ピーク位置は、第2の
出力切換器39の出力する参照画像メモリ34,35に格
納される入力画像の持つ各微小領域の移動先を示してい
る。従って、図13に示すように、このステップ5の処
理に従って、入力画像の持つ各微小領域の移動ベクトル
が求められることになる。
The input image stored in the reference image memories 34 and 35 output from the second output switch 39 is the input image of the frame immediately before the input image stored in the search image memory 33, From this, the correlation peak position detected by the correlation peak position detector 41 at this time is determined by the movement destination of each minute area of the input image stored in the reference image memories 34 and 35 output from the second output switch 39. Is shown. Therefore, as shown in FIG. 13, according to the processing in step 5, the movement vector of each minute area of the input image is obtained.

【0051】ステップ5で、入力画像の持つ各微小領域
の移動ベクトルを求めると、続いて、ステップ6で、各
微小領域の移動ベクトルと、背景の持つ移動ベクトルと
を比較することで、前方に背景以外のものがあるのか否
かを判断する。搭載車が走行中のときには、背景の移動
ベクトルは、図14(a)に示すように、TVカメラ3
1の取付位置から規定される特定の点(消失点)から放
射状に伸びる動きを示す。これに対して、前方を走行中
の車は、図14(b)に示すように、この背景の移動ベ
クトルとは異なる動きを示す。これから、各微小領域の
移動ベクトルと、背景の持つ移動ベクトルとを比較する
ことで、前方に背景以外のものがあるのか否かを判断す
るのである。
In step 5, the movement vector of each minute area of the input image is obtained. Subsequently, in step 6, the movement vector of each minute area is compared with the movement vector of the background so that the movement vector is obtained. It is determined whether there is something other than the background. When the mounted vehicle is running, the background movement vector is, as shown in FIG.
1 shows a movement extending radially from a specific point (vanishing point) defined from the mounting position of No. 1. On the other hand, a vehicle traveling ahead shows a motion different from the background motion vector as shown in FIG. From this, by comparing the movement vector of each minute region with the movement vector of the background, it is determined whether or not there is something other than the background ahead.

【0052】続いて、ステップ7で、背景と異なる移動
ベクトルを持つ領域があるのか否かを判断して、背景と
異なる移動ベクトルを持つ領域があることを判断すると
きには、ステップ8に進んで、その背景と異なる移動ベ
クトルを持つ微小領域に対してラベリング処理を行うこ
とで、背景と異なる移動ベクトルを持つ微小領域の塊を
抽出する。すなわち、図15に示すように、背景と異な
る移動ベクトルを持つ図中の黒で塗り潰した微小領域の
塊(縦横方向に連結するもの)を公知のラベリング処理
により求めることで、背景と異なる移動ベクトルを持つ
微小領域の塊を抽出するのである。
Subsequently, in step 7, it is determined whether or not there is an area having a movement vector different from the background. When it is determined that there is an area having a movement vector different from the background, the process proceeds to step 8. By performing labeling processing on a minute region having a movement vector different from the background, a lump of minute regions having a movement vector different from the background is extracted. That is, as shown in FIG. 15, a block of minute regions (connected vertically and horizontally) filled with black in the figure having a movement vector different from the background is obtained by a known labeling process, so that a movement vector different from the background is obtained. It extracts the lump of the minute area having.

【0053】続いて、ステップ9(図11の処理フロ
ー)で、ラベリングした塊の中に、規定以上の大きさを
持つものがあるのか否かを判断することで、前方を走行
する車があるのか否かを検出する。すなわち、ラベリン
グした塊の内、規定以上の大きさを持たないものはノイ
ズと判断して、それを取り除くことで、前方を走行する
車があるのか否かを検出するのである。
Subsequently, in step 9 (the processing flow in FIG. 11), it is determined whether or not any of the labeled lump has a size larger than a specified value, so that there is a car traveling ahead. Is detected. That is, among the labeled masses, those having a size not exceeding the specified size are determined to be noise, and by removing them, it is detected whether or not there is a car traveling ahead.

【0054】このステップ9で、ラベリングした塊(画
像)の中に、規定以上の大きさを持つものがあることを
判断することで、前方を走行する車があることを検出す
ると、ステップ10に進んで、追跡用画像メモリ38に
検出済みの車の画像が登録されているのか否かを判断し
て、登録されていることを判断するときには、ステップ
11に進んで、ステップ9で検出した画像が、その登録
されている車の画像と重なるのか否かを判断する。
In step 9, when it is determined that there is a vehicle traveling ahead by judging that some of the labeled masses (images) have a size larger than a specified value, the process proceeds to step 10. The process proceeds to determine whether or not an image of the detected car is registered in the tracking image memory 38, and when it is determined that the image is registered, the process proceeds to step 11 and the image detected in step 9 is determined. Is determined to overlap with the image of the registered car.

【0055】このステップ11で、ステップ9で検出し
た画像が追跡用画像メモリ38に登録されている車の画
像と重ならないことを判断するときと、ステップ10
で、追跡用画像メモリ38に検出済みの車の画像が登録
されていないことを判断するときには、ステップ9で検
出した画像を新たに検出した車の画像と判断して、ステ
ップ12に進んで、その検出した画像を追跡用画像メモ
リ38にコピーすることで登録してから、ステップ16
に進んで、第1の出力切換器39を切り換えて、ステッ
プ2(図10の処理フロー)に戻っていく。
In step 11, when it is determined that the image detected in step 9 does not overlap with the car image registered in the tracking image memory 38,
When it is determined that no detected car image is registered in the tracking image memory 38, the image detected in step 9 is determined as a newly detected car image, and the process proceeds to step 12. After the detected image is registered by copying it to the tracking image memory 38, step 16
Then, the first output switch 39 is switched, and the process returns to step 2 (the processing flow in FIG. 10).

【0056】ここで、追跡用画像メモリ38に対して、
ステップ9で検出した画像をそのまま登録するのではな
くて、それに外接する長方形から切り出される画像を登
録するという方法を採ってもよい。また、追跡用画像メ
モリ38に登録されている車の画像と完全に重ならない
ことを条件にして、新たな画像を登録するのではなく
て、その重なりが小さいときには登録していくという方
法を採ってもよい。
Here, for the tracking image memory 38,
Instead of registering the image detected in step 9 as it is, a method of registering an image cut out from a circumscribed rectangle may be adopted. On the condition that the image does not completely overlap with the image of the car registered in the image memory 38 for tracking, a method is adopted in which a new image is not registered but is registered when the overlap is small. You may.

【0057】一方、ステップ7で、背景と異なる移動ベ
クトルを持つ領域がないことを判断するときと、ステッ
プ9で、前方を走行する車がないことを判断するときに
は、搭載車の振動などによる移動ベクトルの検出誤差を
考慮して、ステップ13に進んで、追跡用画像メモリ3
8に検出済みの車の画像が登録されているのか否かを判
断して、登録されていないことを判断するときには、こ
れから説明するステップ14及びステップ15の処理を
行わずに、ステップ16に進んで、第1の出力切換器3
9を切り換えてから、ステップ2(図10の処理フロ
ー)に戻っていく。
On the other hand, when it is determined in step 7 that there is no area having a movement vector different from the background, and when it is determined in step 9 that there is no vehicle traveling ahead, the movement of the mounted vehicle due to vibration or the like occurs. Proceeding to step 13 in consideration of the vector detection error, the tracking image memory 3
It is determined whether or not an image of the detected car has been registered in step 8. When it is determined that the image has not been registered, the process proceeds to step 16 without performing steps 14 and 15 described below. And the first output switch 3
9 and then returns to step 2 (the processing flow of FIG. 10).

【0058】そして、ステップ13で、追跡用画像メモ
リ38に検出済みの車の画像が登録されていることを判
断するときと、ステップ11で、ステップ9で検出した
画像が追跡用画像メモリ38に登録されている前方車の
画像と重なることを判断するときには、ステップ14に
進んで、第2の出力切換器39を追跡用画像メモリ38
の側に切り換える。
When it is determined in step 13 that the detected car image is registered in the tracking image memory 38, the image detected in step 9 is stored in the tracking image memory 38 in step 11. When it is determined that the registered image overlaps with the registered image of the preceding vehicle, the process proceeds to step 14, where the second output switch 39 is set to the tracking image memory 38.
Switch to the side.

【0059】続いて、ステップ15で、アドレス発生器
42を介して、追跡用画像メモリ38に対して、その追
跡用画像メモリ38に格納される車画像の原点位置O3
を与えるとともに、探索画像メモリ33に対して、その
車画像を取り囲む図7に示した相関演算領域の原点位置
O4を与えることで、追跡用画像メモリ38に格納され
る車の画像の新たな位置を求める。
Subsequently, in step 15, the origin image O3 of the car image stored in the tracking image memory 38 is stored in the tracking image memory 38 via the address generator 42.
Is given to the search image memory 33, and the origin position O4 of the correlation calculation area surrounding the vehicle image shown in FIG. 7 is given to the new position of the vehicle image stored in the tracking image memory 38. Ask for.

【0060】すなわち、追跡用画像メモリ38に対し
て、その追跡用画像メモリ38に格納される車画像の原
点位置O3を与えるとともに、探索画像メモリ33に対
して、その車画像を取り囲む図7に示した相関演算領域
の原点位置O4を与えると、相関演算器40が、上述の
処理に従って、原点位置O4からのオフセット量(m,
n)における相関値Dmnを順次算出し、これを受けて、
相関ピーク位置検出器41が、その相関値Dmnのピーク
位置を検出する。
That is, the tracking image memory 38 is provided with the origin position O3 of the vehicle image stored in the tracking image memory 38, and the search image memory 33 is provided with the surrounding image shown in FIG. Given the origin position O4 of the correlation calculation area shown, the correlation calculator 40 performs the offset amount (m,
The correlation value D mn in n) is sequentially calculated, and in response thereto ,
The correlation peak position detector 41 detects the peak position of the correlation value Dmn .

【0061】探索画像メモリ33に格納される入力画像
は、最新の画像であり、従って、このときに相関ピーク
位置検出器41により検出される相関ピーク位置は、追
跡用画像メモリ38に格納される車画像の最新の位置を
示している。これから、このステップ15の処理に従っ
て、追跡用画像メモリ38に格納される車画像の最新の
位置、すなわち、車の最新の位置が求められることにな
る。
The input image stored in the search image memory 33 is the latest image. Therefore, the correlation peak position detected by the correlation peak position detector 41 at this time is stored in the tracking image memory 38. The latest position of the car image is shown. From this, the latest position of the car image stored in the tracking image memory 38, that is, the latest position of the car, is obtained in accordance with the processing of step 15.

【0062】そして、ステップ15で、前方を走行する
車の最新の位置を求めると、ステップ16に進んで、第
1の出力切換器39を切り換えてから、ステップ2(図
10の処理フロー)に戻っていく。
When the latest position of the vehicle traveling ahead is determined in step 15, the process proceeds to step 16, where the first output switch 39 is switched, and then the process proceeds to step 2 (the processing flow in FIG. 10). Go back.

【0063】このようにして、制御計算機43は、搭載
車の前方を走行する車の検出要求が発行されると、図1
6のタイムチャートに示すように、探索画像メモリ33
に最新の入力画像を格納しつつ、第1の参照画像メモリ
34と第2の参照画像メモリ35のどちらか一方に最新
の入力画像を格納するとともに、もう一方に1フレーム
前の入力画像を格納していく。そして、探索画像メモリ
33に格納する最新の入力画像と、参照画像メモリ3
4,35に格納する最新の画像よりも1フレーム前の入力
画像の持つ微小領域との相関を算出することで、背景と
異なる動きを示す車の画像を検出して追跡用画像メモリ
38に格納していくとともに、探索画像メモリ33に格
納する最新の入力画像と、追跡用画像メモリ38に格納
する車の画像との相関を算出することで、検出した車の
位置を追跡していくように処理するのである。
As described above, when the control computer 43 issues a request to detect a vehicle traveling ahead of the mounted vehicle, FIG.
As shown in the time chart of FIG.
While the latest input image is stored in one of the first reference image memory 34 and the second reference image memory 35, and the input image one frame before is stored in the other. I will do it. Then, the latest input image stored in the search image memory 33 and the reference image memory 3
By calculating the correlation with the minute area of the input image one frame before the latest image stored in 4,35, the image of the car showing a motion different from the background is detected and stored in the tracking image memory 38. As well as calculating the correlation between the latest input image stored in the search image memory 33 and the image of the vehicle stored in the tracking image memory 38, the detected vehicle position is tracked. Process it.

【0064】なお、この処理フローでは説明を省略して
あるが、前方を走行している車が視界から外れること
で、一度検出した車の画像が検出されなくなるときに
は、追跡用画像メモリ38に格納されるその車の画像を
消去していくことになる。
Although the description of this processing flow is omitted, when the image of the vehicle once detected cannot be detected because the vehicle traveling ahead is out of sight, it is stored in the image memory 38 for tracking. The image of the car is deleted.

【0065】前方を走行する車の内、搭載車の安全な走
行を実現する上で特に重要なものとなるものは、同一車
線を前方に走行する先行車と、同一車線に割り込んでく
る割込車である。
Of the vehicles traveling ahead, those that are particularly important for realizing the safe traveling of the on-board vehicles are the preceding vehicle traveling in the same lane ahead and the interrupt that interrupts the same lane. It is a car.

【0066】この同一車線を前方に走行する先行車を検
出するためには、図10及び図11で実行する処理フロ
ーの内の図11の処理フローに代えて、図17の処理フ
ローを実行することになる。また、同一車線に割り込ん
でくる割込車を検出するためには、図10及び図11で
実行する処理フローの内の図11の処理フローに代え
て、図18の処理フローを実行することになる。
In order to detect the preceding vehicle traveling ahead in the same lane, the processing flow of FIG. 17 is executed instead of the processing flow of FIG. 11 of the processing flow executed in FIGS. Will be. Also, in order to detect an interrupted vehicle coming into the same lane, the processing flow of FIG. 18 is executed instead of the processing flow of FIG. 11 among the processing flows executed in FIG. 10 and FIG. Become.

【0067】図17の処理フローでは、図11の処理フ
ローのステップ9に相当するステップ9と、図11の処
理フローのステップ10に相当するステップ10との間
に、ステップ9で検出した車の持つ移動ベクトルが動か
ないことを示しているのか否かを判断するという「ステ
ップA」という処理を設けることで、同一車線を前方に
走行する先行車を検出する構成を採っている。
In the processing flow of FIG. 17, between step 9 corresponding to step 9 of the processing flow of FIG. 11 and step 10 corresponding to step 10 of the processing flow of FIG. By providing a process called "step A" for determining whether or not the moving vector has a motion, the preceding vehicle traveling in the same lane is detected.

【0068】すなわち、図19に示すように、同一車線
を前方に走行する先行車は、動かない移動ベクトルを持
つことから、ステップAで、ステップ9で検出した車の
持つ移動ベクトルが動かないことを示しているのか否か
を判断することで、同一車線を前方に走行する先行車を
検出するのである。なお、このようにして検出された車
の走行属性は、車の画像と対応付けて、図示しないメモ
リに格納されることになる。
That is, as shown in FIG. 19, since the preceding vehicle traveling ahead in the same lane has a motion vector that does not move, in step A, the motion vector of the vehicle detected in step 9 does not move. Is determined, a preceding vehicle traveling ahead in the same lane is detected. The traveling attributes of the vehicle detected in this manner are stored in a memory (not shown) in association with the image of the vehicle.

【0069】また、図18の処理フローでは、図11の
処理フローのステップ9に相当するステップ9と、図1
1の処理フローのステップ10に相当するステップ10
との間に、ステップ9で検出した車の持つ移動ベクトル
が水平方向でかつ内側方向を示しているのか否かを判断
するという「ステップB」という処理を設けることで、
同一車線に割り込んくる割込車を検出する構成を採って
いる。
In the processing flow of FIG. 18, step 9 corresponding to step 9 of the processing flow of FIG.
Step 10 corresponding to step 10 of the first processing flow
In between, a process called “Step B” is provided to determine whether the movement vector of the car detected in Step 9 indicates the horizontal direction and the inward direction.
It adopts a configuration that detects an interrupting vehicle that interrupts the same lane.

【0070】すなわち、図20に示すように、同一車線
に割り込んでくる割込車は、水平方向でかつ内側方向を
向く移動ベクトルを持つことから、ステップBで、ステ
ップ9で検出した車の持つ移動ベクトルが水平方向でか
つ内側方向を向くことを示しているのか否かを判断する
ことで、同一車線に割り込んでくる割込車を検出するの
である。なお、このようにして検出された車の走行属性
は、車の画像と対応付けて、図示しないメモリに格納さ
れることになる。
That is, as shown in FIG. 20, since the interrupted vehicle that interrupts in the same lane has a movement vector that is directed in the horizontal direction and inward, in step B, the vehicle detected in step 9 has By judging whether or not the movement vector indicates a horizontal direction and an inward direction, an interrupting vehicle that interrupts the same lane is detected. The traveling attributes of the vehicle detected in this manner are stored in a memory (not shown) in association with the image of the vehicle.

【0071】図10及び図11の処理フローでは、1回
でも検出されれば、前方を走行する車であると判断する
という構成を採っているが、搭載車の振動などを考慮し
て、複数回数検出されることを条件にして、前方を走行
する車であると判断するという構成を採ることが好まし
い。
In the processing flow of FIGS. 10 and 11, a configuration is adopted in which if a vehicle is detected even once, it is determined that the vehicle is traveling ahead. It is preferable to adopt a configuration in which it is determined that the vehicle is traveling ahead on the condition that the number of times is detected.

【0072】図21及び図22に、この構成を採るとき
に実行する処理フローの一実施例を図示する。すなわ
ち、この構成を採るときには、図11の処理フローのス
テップ12に相当するステップ12で、新たに検出した
車の画像(この段階では、前方車の候補となる)を追跡
用画像メモリ38にコピーするときに、検出回数を記録
するカウンタに“0”をセットするとともに、前方車の
検出を示す確定フラグにオフ(未確定を表示)をセット
する。
FIGS. 21 and 22 show an embodiment of a processing flow executed when this configuration is adopted. That is, when this configuration is adopted, in step 12 corresponding to step 12 of the processing flow of FIG. 11, a newly detected image of the vehicle (in this stage, a candidate for a preceding vehicle) is copied to the tracking image memory 38. At this time, "0" is set in a counter for recording the number of times of detection, and OFF (displaying "unconfirmed") is set in a confirmation flag indicating the detection of the preceding vehicle.

【0073】一方、図11の処理フローのステップ11
に相当するステップ11で、検出した画像が追跡用画像
メモリ38に登録されている前方車(候補)の画像と重
なることを判断するときには、新たに設けるステップ1
00で、確定フラグがオンとなっているのか否かを判断
して、確定フラグがオンであることを判断するときに
は、図11の処理フローのステップ14に相当するステ
ップ14(図22の処理フロー)に進む。
On the other hand, step 11 in the processing flow of FIG.
When it is determined in step 11 that the detected image overlaps with the image of the preceding vehicle (candidate) registered in the tracking image memory 38, a newly provided step 1 is provided.
At 00, it is determined whether or not the confirmation flag is turned on, and when it is determined that the confirmation flag is turned on, step 14 (the processing flow of FIG. 22) corresponding to step 14 of the processing flow of FIG. Proceed to).

【0074】一方、確定フラグがオフであることを判断
するときには、新たに設けるステップ101に進んで、
カウンタの値を1つインクリメントし、続いて、新たに
設けるステップ102で、カウンタの値が規定以上とな
ったのか否かを判断して、規定以上となっていないこと
を判断するときには、図11の処理フローのステップ1
4に相当するステップ14(図22の処理フロー)に進
み、規定以上となったことを判断するときには、新たに
設けるステップ103に進んで、確定フラグをオンして
から、図11の処理フローのステップ14に相当するス
テップ14(図22の処理フロー)に進む。
On the other hand, when it is determined that the confirmation flag is off, the process proceeds to step 101 where a new flag is provided.
When the value of the counter is incremented by one, and subsequently, in the newly provided step 102, it is determined whether or not the value of the counter has exceeded the prescribed value. Step 1 of the processing flow
The process proceeds to Step 14 corresponding to Step 4 (the processing flow in FIG. 22), and when it is determined that the value is equal to or greater than the specified value, the process proceeds to Step 103, which is newly provided. The process proceeds to step 14 (the processing flow in FIG. 22) corresponding to step 14.

【0075】このようにして、図21及び図22の処理
フローでは、搭載車の振動などを考慮して、複数回数検
出されたときに、前方を走行する車を最終的に確認して
いくように処理している。
As described above, in the processing flow of FIGS. 21 and 22, when the vehicle is detected a plurality of times in consideration of the vibration of the mounted vehicle, the vehicle traveling ahead is finally confirmed. Processing.

【0076】搭載車と前方車との間の位置関係は、時々
刻々と変化する。直線車線を走行中でも、両方の車の速
度の違いにより車間距離が変化するし、カーブ車線を走
行中では、図24に示すように大きく変化する。
The positional relationship between the mounted vehicle and the preceding vehicle changes every moment. Even when the vehicle is traveling in a straight lane, the inter-vehicle distance changes due to the difference in speed between the two vehicles, and greatly varies while traveling in a curved lane as shown in FIG.

【0077】これに対処するには、図21及び図22で
実行する処理フローの内の図22の処理フローに代え
て、図23の処理フローを実行することになる。この図
23の処理フローでは、図22の処理フローのステップ
13に相当するステップ13と、図22の処理フローの
ステップ14に相当するステップ14との間に、移動ベ
クトルにより検出された車の画像に従って、それと重な
る追跡用画像メモリ38に登録されている前方車(候
補)の画像を更新するとともに、その前方車(候補)の
位置を更新するという「ステップA」という処理を設け
ることで、搭載車と前方車との間の位置関係の変化によ
り生ずる前方車(候補)の画像及び位置を更新していく
構成を採っている。
To cope with this, the processing flow of FIG. 23 is executed instead of the processing flow of FIG. 22 of the processing flows executed in FIG. 21 and FIG. In the processing flow of FIG. 23, the image of the car detected by the movement vector is between step 13 corresponding to step 13 of the processing flow of FIG. 22 and step 14 corresponding to step 14 of the processing flow of FIG. In accordance with the above, the image of the preceding vehicle (candidate) registered in the tracking image memory 38 overlapping with that is updated, and the process of “Step A” of updating the position of the preceding vehicle (candidate) is provided, thereby mounting the vehicle. The image and the position of the preceding vehicle (candidate) generated by the change in the positional relationship between the vehicle and the preceding vehicle are updated.

【0078】この更新処理は、追跡用画像メモリ38に
登録されている車の画像を、移動ベクトルにより検出さ
れた車の画像に書き換えていくことで行うとともに、追
跡用画像メモリ38に登録されている車の位置を、移動
ベクトルにより検出された車の位置に書き換えていくこ
とで行うことも可能であるが、移動ベクトルの検出誤差
を考慮して、図25に示すように、移動ベクトルにより
検出された車の画像/位置と、追跡用画像メモリ38に
登録されている車の画像/位置との間の補間位置(補間
のウェイトは予め決めておく)を求めて、その補間位置
に従って書き換えていく構成を採ることが好ましい。
This updating process is performed by rewriting the image of the car registered in the tracking image memory 38 to the image of the car detected by the movement vector. This can be performed by rewriting the position of the car that is present to the position of the car detected by the movement vector. However, in consideration of the detection error of the movement vector, as shown in FIG. An interpolation position (interpolation weight is determined in advance) between the car image / position registered and the car image / position registered in the tracking image memory 38 is obtained and rewritten according to the interpolation position. It is preferable to employ several configurations.

【0079】図3の実施例では、相関演算器40を1つ
備える構成を採って、この相関演算器40を使って、参
照画像メモリ34,35に格納される入力画像の持つ微小
領域の移動ベクトルを求めるとともに、追跡用画像メモ
リ38に登録した車画像の新たな位置を求める構成を採
ったが、参照画像メモリ34,35に格納される入力画像
の持つ微小領域の移動ベクトルを求める相関器と、追跡
用画像メモリ38に登録した車画像の新たな位置を求め
る相関器とを別々に用意する構成を採ることも可能であ
る。
In the embodiment shown in FIG. 3, a configuration having one correlation calculator 40 is adopted, and by using this correlation calculator 40, the movement of the minute area of the input image stored in the reference image memories 34 and 35 is performed. Although a configuration for obtaining a vector and obtaining a new position of a car image registered in the tracking image memory 38 is adopted, a correlator for obtaining a movement vector of a minute area of the input image stored in the reference image memories 34 and 35 is adopted. It is also possible to adopt a configuration in which a correlator for obtaining a new position of the car image registered in the tracking image memory 38 is separately prepared.

【0080】図26に、この構成に従う本発明の前方車
両検出装置30の一実施例を図示する。この実施例で
は、TVカメラ31の読み取る入力画像を格納する第1
及び第2の探索画像メモリ33a,33bを備えるととも
に、第1の探索画像メモリ33aから読み出される入力
画像と、第1の出力切換器37の出力する画像(参照画
像メモリ34,35から読み出される入力画像)との相関
を演算する第1の相関演算器40aと、第2の探索画像
メモリ33bから読み出される入力画像と、追跡用画像
メモリ38から読み出される前方車の画像との相関を演
算する第2の相関演算器40bと、第1の相関演算器4
0aの出力する相関値のピーク位置を検出する第1の相
関ピーク位置検出器41aと、第2の相関演算器40b
の出力する相関値のピーク位置を検出する第2の相関ピ
ーク位置検出器41bとを備えている。なお、この実施
例に従う場合には、図3の実施例で備える第2の出力切
換器39については備える必要はない。
FIG. 26 shows an embodiment of the forward vehicle detecting device 30 according to the present invention having the above configuration. In this embodiment, a first image storing an input image read by the TV camera 31 is stored.
And second search image memories 33a and 33b, and an input image read from the first search image memory 33a and an image output from the first output switch 37 (inputs read from the reference image memories 34 and 35). Image), a first correlation calculator 40a for calculating a correlation with the input image read from the second search image memory 33b, and a correlation between the input image read from the tracking image memory 38 and the image of the preceding vehicle. The second correlation calculator 40b and the first correlation calculator 4b
0a, a first correlation peak position detector 41a for detecting a peak position of a correlation value output, and a second correlation calculator 40b.
And a second correlation peak position detector 41b for detecting the peak position of the correlation value outputted by In the case of following this embodiment, it is not necessary to provide the second output switch 39 provided in the embodiment of FIG.

【0081】この構成に従って、図26に示す本発明の
前方車両検出装置30では、第1の相関演算器40aを
使って、参照画像メモリ34,35に格納される入力画像
の持つ微小領域の移動ベクトルを求めるとともに、第2
の相関演算器40bを使って、追跡用画像メモリ38に
登録した車画像の新たな位置を求めるように処理するこ
とになる。図3の実施例に従うと、ハードウェア量の削
減を実現をできるという利点が得られ、図26の実施例
に従うと、参照画像メモリ34,35に格納される入力画
像の持つ微小領域の移動ベクトルを求めるための相関演
算の内容と、追跡用画像メモリ38に登録した車画像の
新たな位置を求めるための相関演算の内容とを別のもの
にできるという利点が得られる。
According to this configuration, in the forward vehicle detecting device 30 of the present invention shown in FIG. 26, the first correlation calculator 40a is used to move the minute area of the input image stored in the reference image memories 34 and 35. Vector and second
Is processed to obtain a new position of the car image registered in the tracking image memory 38 using the correlation calculator 40b. According to the embodiment of FIG. 3, there is an advantage that the amount of hardware can be reduced. According to the embodiment of FIG. 26, the movement vector of the minute area of the input image stored in the reference image memories 34 and 35 is obtained. And the content of the correlation calculation for obtaining a new position of the car image registered in the tracking image memory 38 can be made different from each other.

【0082】図示実施例に従って本発明を説明したが、
本発明はこれに限定されるものではない。例えば、実施
例では、前方車両検出装置30への適用を具体例にして
本発明を説明したが、本発明はその適用が前方車両検出
装置30に限られるものではない。
The present invention has been described with reference to the illustrated embodiments.
The present invention is not limited to this. For example, in the embodiment, the present invention has been described by taking the application to the forward vehicle detecting device 30 as a specific example, but the present invention is not limited to the application to the forward vehicle detecting device 30.

【0083】また、実施例では、相関演算器40や相関
ピーク位置検出器41をハードウェアで構成することで
説明したが、これらの機能をソフトウェアで構成するこ
とでもよい。
In the embodiment, the correlation calculator 40 and the correlation peak position detector 41 are described as being constituted by hardware. However, these functions may be constituted by software.

【0084】[0084]

【発明の効果】以上説明したように、本発明の移動物体
検出装置では、画像読取装置の読み取る画像内の移動ベ
クトルを検出して、その中から背景の移動ベクトルと異
なる動きを示す移動ベクトルを特定することで、移動物
体の画像を特定するとともに、その移動物体の画像と画
像読取装置の読み取る画像との相関から、移動物体の位
置を検出する構成を採ることで、テンプレート画像を用
いずに移動物体の位置を検出できるようになり、小さな
ハードウェアでかつ高速に移動物体を検出できるように
なるとともに、エッジパターンを用いずに移動物体の位
置を検出できるようになり、高精度に移動物体の位置を
検出できるようになる。
As described above, the moving object detecting apparatus according to the present invention detects a moving vector in an image read by an image reading apparatus, and detects a moving vector having a motion different from the background moving vector from the detected moving vectors. By specifying the image of the moving object and identifying the position of the moving object from the correlation between the image of the moving object and the image read by the image reading device, without using the template image It is now possible to detect the position of a moving object with small hardware and at high speed, and to detect the position of the moving object without using an edge pattern. Position can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理構成図である。FIG. 1 is a principle configuration diagram of the present invention.

【図2】本発明の原理構成図である。FIG. 2 is a principle configuration diagram of the present invention.

【図3】本発明の一実施例である。FIG. 3 is an embodiment of the present invention.

【図4】微小領域の説明図である。FIG. 4 is an explanatory diagram of a minute area.

【図5】相関演算器の説明図である。FIG. 5 is an explanatory diagram of a correlation calculator.

【図6】相関演算器の説明図である。FIG. 6 is an explanatory diagram of a correlation calculator.

【図7】相関演算器の説明図である。FIG. 7 is an explanatory diagram of a correlation calculator.

【図8】相関演算器の説明図である。FIG. 8 is an explanatory diagram of a correlation calculator.

【図9】相関演算の説明図である。FIG. 9 is an explanatory diagram of a correlation operation.

【図10】制御計算機の実行する処理フローの一実施例
である。
FIG. 10 is an example of a processing flow executed by a control computer.

【図11】制御計算機の実行する処理フローの一実施例
である。
FIG. 11 is an example of a processing flow executed by a control computer.

【図12】入力画像の説明図である。FIG. 12 is an explanatory diagram of an input image.

【図13】移動ベクトルの算出処理の説明図である。FIG. 13 is an explanatory diagram of a movement vector calculation process.

【図14】入力画像の持つ移動ベクトルの説明図であ
る。
FIG. 14 is an explanatory diagram of a movement vector of an input image.

【図15】ラベリング処理の説明図である。FIG. 15 is an explanatory diagram of a labeling process.

【図16】相関演算のタイムチャートである。FIG. 16 is a time chart of a correlation operation.

【図17】制御計算機の実行する処理フローの他の実施
例である。
FIG. 17 is another embodiment of the processing flow executed by the control computer.

【図18】制御計算機の実行する処理フローの他の実施
例である。
FIG. 18 is another example of the processing flow executed by the control computer.

【図19】前方走行中の車の持つ移動ベクトルの説明図
である。
FIG. 19 is an explanatory diagram of a movement vector of a vehicle traveling forward.

【図20】割込走行中の車の持つ移動ベクトルの説明図
である。
FIG. 20 is an explanatory diagram of a movement vector of a vehicle that is running while being interrupted.

【図21】制御計算機の実行する処理フローの他の実施
例である。
FIG. 21 is another embodiment of the processing flow executed by the control computer.

【図22】制御計算機の実行する処理フローの他の実施
例である。
FIG. 22 is another example of the processing flow executed by the control computer.

【図23】制御計算機の実行する処理フローの他の実施
例である。
FIG. 23 is another embodiment of the processing flow executed by the control computer.

【図24】カーブ走行中の車の説明図である。FIG. 24 is an explanatory diagram of a car traveling on a curve.

【図25】車の画像及び位置の更新処理の説明図であ
る。
FIG. 25 is an explanatory diagram of a process of updating an image and a position of a car.

【図26】本発明の他の実施例である。FIG. 26 is another embodiment of the present invention.

【図27】従来技術の説明図である。FIG. 27 is an explanatory diagram of a conventional technique.

【図28】従来技術の説明図である。FIG. 28 is an explanatory diagram of a conventional technique.

【符号の説明】[Explanation of symbols]

1 移動物体検出装置 10 画像読取装置 11 画像メモリ 12 切換手段 13 相関算出手段 14 導出手段 15 特定手段 16 追跡用画像メモリ 17 検出手段 18 設定手段 19 確定手段 20 更新手段 REFERENCE SIGNS LIST 1 moving object detecting device 10 image reading device 11 image memory 12 switching means 13 correlation calculating means 14 deriving means 15 specifying means 16 tracking image memory 17 detecting means 18 setting means 19 determining means 20 updating means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI // B60R 1/00 H04N 7/18 J H04N 7/18 G06F 15/70 460B ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification symbol FI // B60R 1/00 H04N 7/18 J H04N 7/18 G06F 15/70 460B

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 移動体に搭載されて、画像読取装置の読
み取る外部の画像を処理することで、外部の移動物体を
検出する移動物体検出装置において、 入力画像を区画する部分画像領域の切り出す画像と、該
入力画像よりも前あるいは後にサンプリグされる入力画
像との相関を算出することで、該部分画像領域の移動ベ
クトルを導出する導出手段と、 上記導出手段の導出する移動ベクトルから、移動物体の
形成する部分画像領域を特定する特定手段と、 上記特定手段の特定する部分画像領域の切り出す移動物
体の画像と、入力画像との相関を算出することで、該移
動物体の位置を検出する検出手段とを備えることを、 特徴とする移動物体検出装置。
1. A moving object detection device that is mounted on a moving object and detects an external moving object by processing an external image read by an image reading device, wherein an image of a partial image area that divides an input image is cut out. And deriving means for deriving a motion vector of the partial image area by calculating a correlation with an input image sampled before or after the input image. Specifying means for specifying the partial image area formed by the detection means, calculating the correlation between the input image and the image of the moving object cut out from the partial image area specified by the specifying means, and detecting the position of the moving object. And a means for detecting a moving object.
【請求項2】 移動体に搭載されて、画像読取装置の読
み取る外部の画像を処理することで、外部の移動物体を
検出する移動物体検出装置において、 処理対象として指定される2つの画像の相関を算出する
相関算出手段と、 入力画像を区画する部分画像領域の切り出す画像と、該
入力画像よりも前あるいは後にサンプリグされる入力画
像とを処理対象として、上記相関算出手段を起動するこ
とで、該部分画像領域の移動ベクトルを導出する導出手
段と、 上記導出手段の導出する移動ベクトルから、移動物体の
形成する部分画像領域を特定する特定手段と、 上記特定手段の特定する部分画像領域の切り出す移動物
体の画像と、入力画像とを処理対象として、上記相関算
出手段を起動することで、該移動物体の位置を検出する
検出手段とを備えることを、 特徴とする移動物体検出装置。
2. A moving object detection device that is mounted on a moving object and detects an external moving object by processing an external image read by an image reading device, the correlation between two images designated as processing targets. By calculating the correlation calculation unit, and activating the correlation calculation unit with the image to be cut out of the partial image area that partitions the input image and the input image sampled before or after the input image as a processing target, Deriving means for deriving a motion vector of the partial image area; specifying means for specifying a partial image area formed by a moving object from the motion vector derived by the deriving means; and extracting a partial image area specified by the specifying means Detecting means for detecting the position of the moving object by activating the correlation calculating means with the image of the moving object and the input image as processing targets; Moving object detection apparatus that the characterized.
【請求項3】 移動体に搭載されて、画像読取装置の読
み取る外部の画像を処理することで、外部の移動物体を
検出する移動物体検出装置の実現に用いられるプログラ
ムが記録されるプログラム記録媒体であって、 入力画像を区画する部分画像領域の切り出す画像と、該
入力画像よりも前あるいは後にサンプリグされる入力画
像との相関を算出することで、該部分画像領域の移動ベ
クトルを導出する導出処理と、 上記導出処理の導出する移動ベクトルから、移動物体の
形成する部分画像領域を特定する特定処理と、 上記特定処理の特定する部分画像領域の切り出す移動物
体の画像と、入力画像との相関を算出することで、該移
動物体の位置を検出する検出処理とをコンピュータに実
行させるプログラムが格納されることを、 特徴とするプログラム記録媒体。
3. A program recording medium that is mounted on a moving body and records a program used for realizing a moving object detection device that detects an external moving object by processing an external image read by an image reading device. Deriving a motion vector of the partial image region by calculating a correlation between an image obtained by cutting out a partial image region that partitions the input image and an input image sampled before or after the input image. A process for specifying a partial image region formed by a moving object from a motion vector derived by the derivation process; and a correlation between an input image and a moving object image cut out from the partial image region specified by the specific process. , A program for causing a computer to execute a detection process for detecting the position of the moving object is stored. Lamb recording medium.
【請求項4】 移動体に搭載されて、画像読取装置の読
み取る外部の画像を処理することで、外部の移動物体を
検出する移動物体検出装置の実現に用いられるプログラ
ムが記録されるプログラム記録媒体であって、 処理対象として指定される2つの画像の相関を算出する
相関算出処理と、 入力画像を区画する部分画像領域の切り出す画像と、該
入力画像よりも前あるいは後にサンプリグされる入力画
像とを処理対象として、上記相関算出処理を起動するこ
とで、該部分画像領域の移動ベクトルを導出する導出処
理と、 上記導出処理の導出する移動ベクトルから、移動物体の
形成する部分画像領域を特定する特定処理と、 上記特定処理の特定する部分画像領域の切り出す移動物
体の画像と、入力画像とを処理対象として、上記相関算
出処理を起動することで、該移動物体の位置を検出する
検出処理とをコンピュータに実行させるプログラムが格
納されることを、 特徴とするプログラム記録媒体。
4. A program recording medium that is mounted on a moving body and records a program used for realizing a moving object detection device that detects an external moving object by processing an external image read by an image reading device. A correlation calculation process for calculating a correlation between two images designated as processing targets, an image cut out of a partial image region that partitions the input image, and an input image sampled before or after the input image. By executing the above-described correlation calculation processing with the processing target as a processing target, the derivation processing for deriving the movement vector of the partial image area, and the partial image area formed by the moving object are specified from the movement vector derived by the derivation processing. The above-described correlation calculation process is performed by specifying a specific process, an image of a moving object that cuts out a partial image region specified by the specific process, and an input image. By moving, that the program for executing the detection process for detecting the position of the moving object in a computer is stored, a program recording medium characterized.
JP10030676A 1998-02-13 1998-02-13 Mobile object detecting device and program recording medium Pending JPH11232465A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10030676A JPH11232465A (en) 1998-02-13 1998-02-13 Mobile object detecting device and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10030676A JPH11232465A (en) 1998-02-13 1998-02-13 Mobile object detecting device and program recording medium

Publications (1)

Publication Number Publication Date
JPH11232465A true JPH11232465A (en) 1999-08-27

Family

ID=12310326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10030676A Pending JPH11232465A (en) 1998-02-13 1998-02-13 Mobile object detecting device and program recording medium

Country Status (1)

Country Link
JP (1) JPH11232465A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281700A (en) * 2002-03-25 2003-10-03 Toshiba Corp Cutting-in vehicle detecting device and method
WO2020195822A1 (en) * 2019-03-27 2020-10-01 ソニー株式会社 Image capturing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281700A (en) * 2002-03-25 2003-10-03 Toshiba Corp Cutting-in vehicle detecting device and method
WO2020195822A1 (en) * 2019-03-27 2020-10-01 ソニー株式会社 Image capturing system

Similar Documents

Publication Publication Date Title
KR102462278B1 (en) Method for estimating ego motion of an object
US8050459B2 (en) System and method for detecting pedestrians
JP2000011133A (en) Device and method for detecting moving object
JP2017138660A (en) Object detection method, object detection device and program
JP2001229488A (en) Vehicle tracking method and traffic state tracking device
EP3716103A2 (en) Method and apparatus for determining transformation matrix, and non-transitory computer-readable recording medium
JP2002104113A (en) Rear monitoring device
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JPH11232465A (en) Mobile object detecting device and program recording medium
JP3760426B2 (en) Traveling lane detection method and apparatus
JPH10143799A (en) Preceding vehicle following device
JP4155252B2 (en) Vehicle detection device
JP2002027480A (en) Dynamic image processing method and apparatus thereof
JPH0991439A (en) Object monitor
JP2023152109A (en) Feature detection device, feature detection method and computer program for detecting feature
JPH1011585A (en) Object detection device
US11475713B2 (en) Apparatus and method for estimating own vehicle behavior
CN112393724B (en) Following method and device for target object
US20220254140A1 (en) Method and System for Identifying Object
JPH10336506A (en) Image-processing system, system and method for tracking and storage medium
JP4230935B2 (en) Navigation device, map matching method, and navigation program
JP7411771B1 (en) Vehicle speed detection device, vehicle speed detection method and program
CN115222771B (en) Target tracking method and device
JP2989617B2 (en) Mobile vehicle environment recognition device
JP2000311244A (en) Matching method for picture

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050510