JPH10341430A - Detection of front vehicle and system for monitoring front of vehicle - Google Patents

Detection of front vehicle and system for monitoring front of vehicle

Info

Publication number
JPH10341430A
JPH10341430A JP9149525A JP14952597A JPH10341430A JP H10341430 A JPH10341430 A JP H10341430A JP 9149525 A JP9149525 A JP 9149525A JP 14952597 A JP14952597 A JP 14952597A JP H10341430 A JPH10341430 A JP H10341430A
Authority
JP
Japan
Prior art keywords
image
edge
vehicle
signal
line signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP9149525A
Other languages
Japanese (ja)
Inventor
Kazuyuki Sasaki
一幸 佐々木
Naoto Ishikawa
直人 石川
Masato Nakajima
真人 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP9149525A priority Critical patent/JPH10341430A/en
Publication of JPH10341430A publication Critical patent/JPH10341430A/en
Abandoned legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To realize high real time processing performance and to reduce calculation quantity by photographing a left picture and a right picture at the same time by means of synchronizing right and left cameras and generating a composite stereo video signal of both pictures. SOLUTION: A stereo moving picture acquirement device 40 collects an even scanning line signal in a left video signal 41La from the left camera 41L and an odd scanning line signal in a right video signal 41Ra from the right camera 41R in synchronizing with a switch signal 43b. The odd scanning line signal in the left video signal 41La is set to be the even scanning line signal in a synthesis video signal 44a and the odd scanning line signal in the right video signal 41Ra is set to be the odd scanning line signal in the synthesis video signal 44a so as to generate the composite video signal 44a. When all the pictures obtained from the left camera 41L are in the same height as a road, the picture equal to the picture taken by the right camera 41R can be generated if all picture elements in the picture are moved to a scanning direction by the value of a visual difference.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ステレオ式の画像
処理技術を応用した前方車両検出方法及び車両前方監視
システムに関し、特に、左カメラを用いて収集した左画
像と右カメラを用いて収集した右画像を用いてステレオ
式の画像処理を行って前方を走行している車両と自車両
との距離を計測し危険な場合に警報を発生する前方車両
検出方法及び車両前方監視システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a front vehicle detection method and a vehicle front monitoring system to which a stereo image processing technique is applied, and more particularly, to a left image collected using a left camera and a right image collected using a right camera. The present invention relates to a front vehicle detection method and a front vehicle monitoring system that performs stereo image processing using a right image to measure a distance between a vehicle traveling in front of the host vehicle and an own vehicle, and generates an alarm when there is a danger.

【0002】[0002]

【従来の技術】年々、運転免許の取得者数は増加し、い
まや全人口の半数以上が運転免許の保持者となってい
る。また、自動車の性能は飛躍的に向上し、道路交通網
も非常に発展してきている。
2. Description of the Related Art The number of people who have obtained a driver's license has increased year by year, and more than half of the entire population now holds a driver's license. Also, the performance of automobiles has been dramatically improved, and the road traffic network has been greatly developed.

【0003】このようなことから、自動車の利用頻度が
非常に高くなってきており、その用途は毎日の通勤か
ら、休日のレジャー、また、自動車の運転そのものがレ
ジャーとなっている。そのため、今や、日本人にとっ
て、自動車無しでは日常の生活に支障をきたすまでの必
要不可欠なものになっている。さらに、現代は運転者層
の幅も広がり、女性や高齢者ドライバーの増加などに見
られるように、誰もが気軽に、また頻繁に自動車を運転
する時代となっている。
[0003] For these reasons, the frequency of use of automobiles has become extremely high, and their applications are daily commuting, leisure on holidays, and driving of automobiles themselves are leisure activities. For this reason, it has become indispensable for Japanese people to hinder daily life without a car. Furthermore, in the present age, the range of drivers is expanding, and as seen in the increase of women and elderly drivers, everyone is driving the car casually and frequently.

【0004】しかしながら、自動車を運転することが、
誰にとっても身近なものになったからといって手放しで
喜べるわけではない。運転者の増加とともに、交通事故
の増加という、ありがたくない副産物が生まれている。
However, driving a car requires
Just because it's familiar to everyone doesn't mean you're happy with it. As the number of drivers increases, an unfortunate by-product of increasing traffic accidents has emerged.

【0005】ここ数年、約1万人もの方が交通事故によ
りなくなられている。これは、最近の自動車の性能は向
上しているが、安全性は、いまだ運転者の技量に大きく
依存しているためである。初心者のドライバーが自動車
を正常に運転させることに気を取られているあまり、周
囲への注意が散漫になって事故を起こしたり、また、熟
練した運転者でも不注意なわき見運転や、疲労時の居眠
り運転などで事故を起こしたりするなどということはよ
く耳にするものである。
In the last few years, about 10,000 people have been lost due to traffic accidents. This is because although the performance of recent automobiles has been improved, safety is still largely dependent on the skill of the driver. A novice driver is often distracted by the fact that he or she drives the car normally, causing distractions around him and causing accidents. It is common to hear accidents caused by drowsy driving.

【0006】しかしながら、同乗者がいて運転者と同様
に周囲へ気を配っていてくれれば、このような事故も起
こりにくいものである。しかし、同乗者がいたとしても
常に安全に気を配っていてくれているということは難し
いことである、また、同乗者の指示が常に正確であると
も限らない。ときには危険な方向に導くこともあると考
えられる。そのため、運転者以外に自車両周辺を監視
し、運転者に危険な状況などの警告を与える運転補助シ
ステムの実用化というものへの期待が高まっている。
[0006] However, such an accident is unlikely to occur if a passenger is present and pays close attention to the surroundings like the driver. However, it is difficult to always take care of the passengers, even if they are present, and the instructions of the passengers are not always accurate. At times, it may lead to dangerous directions. Therefore, there is an increasing expectation that a driving assistance system that monitors the vicinity of the vehicle besides the driver and warns the driver of a dangerous situation or the like will be put to practical use.

【0007】近年、このような背景から多方面で運転補
助システムの研究・開発が行われてきている。その種類
は、追突・衝突事故防止のために自車両の前方環境を認
識する前方車両検出方法や、自動車が自車線内を正常走
行するように道路環境を認識する前方車両検出方法など
多岐にわたる。さらに最近では、無人走行車の開発など
も昔のような夢物語ではなく、現実味を帯びてきたもの
となっている。
In recent years, research and development of driving assistance systems have been conducted in various fields from such a background. There are a wide variety of types, including a front vehicle detection method that recognizes the environment ahead of the vehicle in order to prevent rear-end collisions and collisions, and a vehicle detection method that recognizes the road environment so that an automobile normally travels in its own lane. More recently, the development of unmanned vehicles has become more of a reality than a dream story like in the past.

【0008】その中でも実用化されているシステムとし
ては、レーザレーダを用いた前方車両検出方法がある。
この前方車両検出方法は、走行中の車両から、前方車両
に向けレーザを照射し、障害物にあたってはね返り、自
車両に戻ってくるまでの時間から前方車両までの距離D
を計測するものである。
[0008] Among them, a system put into practical use is a method for detecting a forward vehicle using a laser radar.
This forward vehicle detection method irradiates a laser from a running vehicle toward a forward vehicle, bounces off an obstacle, and returns a distance D from the time until the vehicle returns to the own vehicle to the forward vehicle.
Is to measure.

【0009】しかしながら、レーザレーダは、レーザの
太さの関係などから、監視できる範囲が狭く、得られる
情報も非常に少ないという欠点がある。さらに、カーブ
走行時には、照射したレーザが前方車両にあたっても自
車両に返ってこないため、直線走行時にしか有効に機能
しないという欠点がある。
However, the laser radar has a drawback that the range that can be monitored is narrow and the information that can be obtained is very small due to the relationship between the thickness of the laser and the like. Furthermore, when traveling on a curve, the irradiated laser does not return to the host vehicle even when it hits the preceding vehicle, so that it has a disadvantage that it functions effectively only when traveling straight.

【0010】そのため、最近においては、自車両に設置
したカメラにより、自車両の前方の映像を撮像し、その
画像を用いて前方監視を行う前方車両検出方法及び車両
前方監視システム、すなわち、道路画像処理による前方
車両検出方法及び車両前方監視システムが開示されてい
る。
[0010] For this reason, recently, a forward vehicle detecting method and a forward vehicle monitoring system for capturing an image ahead of the own vehicle by a camera installed in the own vehicle and performing forward monitoring using the image, that is, a road image, A method for detecting a forward vehicle and a vehicle forward monitoring system by processing are disclosed.

【0011】このような道路画像処理による前方車両検
出方法及び車両前方監視システムでは、多方向の情報を
取得でき、監視領域を広く取れるという利点がある。
The method for detecting a forward vehicle and the system for monitoring a vehicle ahead by such road image processing have the advantage that information in multiple directions can be obtained and the monitoring area can be widened.

【0012】しかしながら、走行環境などの認識したい
ものが3次元環境であるのに対し、1台のカメラしか用
いない場合は得られる画像は一般的に2次元的なもので
あり、奥行き情報は消失してしまうという技術的課題が
あった。
[0012] However, while what is desired to be recognized, such as the driving environment, is a three-dimensional environment, when only one camera is used, the obtained image is generally two-dimensional, and the depth information is lost. There was a technical problem of doing it.

【0013】このような技術的課題を解決するために、
ステレオ式の画像処理技術を応用して3次元情報を取得
する前方車両検出方法及び車両前方監視システムとし
て、異なる視点からの複数枚の画像を用いて両眼立体視
を行うぎ技術が開示されている(以下の説明では、第1
従来技術と呼ぶことにする)。
In order to solve such a technical problem,
As a forward vehicle detection method and a forward vehicle monitoring system for acquiring three-dimensional information by applying a stereo image processing technology, a binocular stereoscopic technology using a plurality of images from different viewpoints has been disclosed. (In the following description, the first
Let's call it prior art).

【0014】第1従来技術の前方車両検出方法及び車両
前方監視システムは、左右の対になる画像間での着目画
素の視差を求めることにより、3次元情報を取得するこ
とができるというものであり、画像処理の距離計測用の
前方車両検出方法及び車両前方監視システムとして広く
知られている。
The first prior art vehicle detection method and the vehicle front monitoring system can obtain three-dimensional information by calculating the parallax of the pixel of interest between the left and right paired images. It is widely known as a forward vehicle detection method and a forward vehicle monitoring system for distance measurement in image processing.

【0015】しかしながら、異なる視点からの複数枚の
画像を用いて両眼立体視を行う第1従来技術の前方車両
検出方法及び車両前方監視システムでは、現在の画像処
理技術では着目画素の視差を求めるのに煩雑な処理を要
するという技術的課題があった。更に道路画像において
も、回避の必要が無い路面表示などの情報に対してもそ
の視差を算出するために多大の処理時間をかけなければ
ならないという技術的課題があった。そのため、一般的
に計算量が多く、リアルタイム処理(瞬時、瞬時に検出
結果を出力することを可能とする処理)ないし、それに
近い高速処理時間を要求される車両周辺監視(特に車両
前方監視)には敬遠される傾向にあるという技術的課題
もあった。
However, in the first prior art vehicle detection method and vehicle front monitoring system of the prior art for performing binocular stereopsis using a plurality of images from different viewpoints, the parallax of the pixel of interest is obtained by the current image processing technology. However, there is a technical problem that complicated processing is required. Further, in the case of road images, there is a technical problem that a great deal of processing time is required to calculate parallax for information such as road surface display that does not need to be avoided. Therefore, in general, the amount of calculation is large and real-time processing (processing that enables instantaneous and instantaneous output of a detection result) or vehicle periphery monitoring that requires a high-speed processing time close thereto (particularly vehicle front monitoring). There was also a technical problem that people tended to be shunned.

【0016】一方、このように計算量が多いといった課
題を解決する従来技術としては、例えば、特開平7−2
50319号公報(発明の名称:車両周辺監視装置、出
願日:1994年3月14日、出願人:矢崎総業株式会
社)に示すような前方車両検出方法及び車両前方監視シ
ステムが開示されている(以下の説明では、第2従来技
術と呼ぶことにする)。
On the other hand, as a conventional technique for solving such a problem that the amount of calculation is large, for example, Japanese Patent Laid-Open No. 7-2
No. 50319 (Title of Invention: Vehicle Perimeter Monitoring Apparatus, Filing Date: March 14, 1994, Applicant: Yazaki Sogyo Co., Ltd.) discloses a forward vehicle detecting method and a vehicle forward monitoring system. In the following description, it will be referred to as a second prior art).

【0017】すなわち、第2従来技術の車両周辺監視装
置は、2台の撮影手段より得られた画像データに基づい
て車両の周辺を監視する点は第1従来技術と同様であっ
て、撮影手段から出力された一方画像信号に基づいて高
さゼロと仮定して作成した投射画像を記録する一方のメ
モリと、投射画像を記録する他方のメモリと、一方のメ
モリの画像データと他方のメモリの他方画像データとの
差により路面上の画像を除去する路面画像除去手段と、
他方のメモリの水平方向の微分値と路面画像除去手段か
ら出力される画像データから物体のエッジを検出する物
体エッジ検出手段と、算出された位置に基づいて警報を
出力する警報手段とを備えていた。
That is, the vehicle surroundings monitoring device of the second prior art is similar to the first prior art in that the periphery of the vehicle is monitored based on image data obtained by two photographing means. One memory for recording a projected image created assuming a height of zero based on the one image signal output from the other memory, the other memory for recording the projected image, and the image data of one memory and the other memory On the other hand, a road surface image removing means for removing an image on the road surface due to a difference from the image data,
Object edge detecting means for detecting the edge of the object from the horizontal differential value of the other memory and the image data output from the road surface image removing means, and alarm means for outputting an alarm based on the calculated position. Was.

【0018】2台の撮影手段(カメラ)からの左映像信
号及び右映像信号は、2台のフレームメモリにそれぞれ
記録され、フレームメモリに記録された内容は路面画像
除去手段に取り込まれ、衝突等の危険を検出した場合に
警報手段によってドライバーに危険内容が警報されてい
た。撮像範囲を512画素×512画素程度に分割し、
1画素の輝度を8ビット程度で記録するフレームメモリ
が一般的に用いられていた。
The left video signal and the right video signal from the two photographing means (cameras) are respectively recorded in the two frame memories, and the contents recorded in the frame memories are taken into the road surface image removing means, and the collision and the like are performed. When the danger is detected, the driver is warned of the danger by the warning means. Divide the imaging range into about 512 pixels x 512 pixels,
A frame memory that records the luminance of one pixel in about 8 bits has been generally used.

【0019】[0019]

【発明が解決しようとする課題】しかしながら、第1従
来技術または第2従来技術の前方車両検出方法及び車両
前方監視システムでは、2台のCCDカメラからの左映
像信号及び右映像信号を記録する為にフレームメモリも
2つ用意する必要になる。フレームメモリを2つ使用す
る場合、製造コストや設置スペース等の観点において優
位性を主張することが難しいという技術的課題があっ
た。
However, according to the first or second prior art vehicle detection method and the front vehicle monitoring system, the left and right video signals from two CCD cameras are recorded. It is also necessary to prepare two frame memories. When two frame memories are used, there is a technical problem that it is difficult to claim superiority in terms of manufacturing cost, installation space, and the like.

【0020】また、第1従来技術におけるリアルタイム
処理の課題に対しては第2従来技術において解決手段が
開示されているものの、更に高いリアルタイム処理性能
や計算量の低減が要求され、多くの研究結果が発表され
ており、さらに研究余地が残されていると考えられ、目
的に合ったリアルタイム処理が容易なアルゴリズムを備
えた前方車両検出方法及び車両前方監視システムの開発
が課題となっている。
Although a solution to the problem of real-time processing in the first prior art is disclosed in the second prior art, higher real-time processing performance and a reduction in calculation amount are required, and many research results have been obtained. It has been considered that there is still room for research, and the development of a forward vehicle detection method and a vehicle forward monitoring system equipped with an algorithm that can easily perform real-time processing according to the purpose has been an issue.

【0021】本発明は、このような従来の問題点を解決
することを課題としており、第1に、左カメラを用いて
収集した左画像と右カメラを用いて収集した右画像を用
いてステレオ式の画像処理を行って前方を走行している
車両と自車両との距離を計測し危険な場合に警報を発生
する前方車両検出方法において、左右のカメラを同期し
て同一時刻に左画像と右画像とを撮影して左画像と右画
像との合成映像信号を作成する工程とを含むステレオ動
画像取得工程と、走査線の交互に左映像信号と右映像信
号と合成されて1フレームが構成された合成画像信号を
単一のフレームメモリに記録する工程と、フレームメモ
リに記録されている合成画像信号を読み出し読み出され
た合成画像信号の1フレームを構成する走査線信号にお
ける奇数番目の走査線信号を分離して右画像情報を作成
すると共に走査線信号における偶数番目の走査線信号を
分離して左画像情報を作成する左右画像分離取得工程
と、左画像情報において水平エッジ及び垂直エッジを分
離して抽出すると共に右画像情報において水平エッジ及
び垂直エッジを分離して抽出する工程と前工程に続いて
左画像情報において抽出された水平エッジ及び垂直エッ
ジに対してエッジの細線化を行って左エッジ画像を作成
すると共に右画像情報において抽出された水平エッジ及
び垂直エッジに対してエッジの細線化を行って右エッジ
画像を作成するエッジ画像作成工程と、右エッジ画像か
ら左エッジ画像を推定する推定エッジ画像作成工程と、
推定左エッジ画像と左エッジ画像との水平エッジに対す
る差分演算を行って差分水平エッジを作成すると共に推
定左エッジ画像と左エッジ画像との垂直エッジに対する
差分演算を行って差分垂直エッジを作成する工程と差分
水平エッジと差分垂直エッジとを合成して差分エッジ画
像を作成する工程を含む工程と推定左エッジ画像と左エ
ッジ画像との差分演算において差分水平エッジ及び差分
垂直エッジを作成した残余画像のエッジ点の重心を算出
する工程と、算出した重心を中心に全エッジの所定割合
を含む窓を作成する工程とを含む前方車両抽出工程と、
左カメラによって撮影される撮影画像である左現画像に
窓を設定する工程と右カメラによって撮影される撮影画
像である右現画像上に対応する領域を設定する工程と左
現画像における窓と右現画像における窓との間の視差を
算出する工程と算出された視差に基づいて前方を走行し
ている車両と自車両との距離を算出する工程とを含む距
離算出工程と、算出された距離に基づいて危険状態か否
かを判定し危険状態と判定した場合に警報信号を作成す
る工程と、算出された距離に基づいて、警報信号を受け
て警報を発生する工程とを有し、2台のカメラを用いて
得られた自車両の前方の両眼道路画像を用いて、前方車
両の検出を行い、高速に前方車両までの距離および相対
速度を算出する方法により、2台のCCDカメラからの
左映像信号及び右映像信号を共通のフレームメモリに記
録でき、その結果、製造コストや設置スペースの点で優
位性を主張することができる前方車両検出方法を提供す
ることを目的としている。
An object of the present invention is to solve such a conventional problem. First, a stereo image is obtained by using a left image collected by using a left camera and a right image collected by using a right camera. In the forward vehicle detection method that measures the distance between the vehicle running in front and the own vehicle by performing image processing of the formula and issues an alarm when dangerous, the left and right cameras are synchronized at the same time with the left image and the left image. Capturing a right image and creating a composite video signal of the left image and the right image, and a stereo video acquisition step including a step of alternately scanning the left video signal and the right video signal to form one frame. Recording the composed image signal into a single frame memory; reading out the composite image signal recorded in the frame memory; and reading out the odd-numbered scanning line signals constituting one frame of the read composite image signal. Running A left / right image separation acquisition step of separating line signals to create right image information and separating even-numbered scanning line signals in a scanning line signal to create left image information, and forming a horizontal edge and a vertical edge in the left image information. Following the step of extracting and extracting and separating and extracting the horizontal and vertical edges in the right image information and the preceding step, the thinning of the edges is performed on the horizontal and vertical edges extracted in the left image information. An edge image creating step of creating a left edge image and thinning edges on horizontal and vertical edges extracted in the right image information to create a right edge image, and estimating the left edge image from the right edge image Estimated edge image creation process to be performed,
A step of performing a difference operation on a horizontal edge between the estimated left edge image and the left edge image to generate a difference horizontal edge, and a step of performing a difference operation on a vertical edge between the estimated left edge image and the left edge image to generate a difference vertical edge Generating a differential edge image by synthesizing the differential horizontal edge and the differential vertical edge, and performing a differential operation between the estimated left edge image and the left edge image. A front vehicle extraction step including a step of calculating the center of gravity of the edge point, and a step of creating a window including a predetermined ratio of all edges centered on the calculated center of gravity,
Setting a window in the left current image, which is an image captured by the left camera, setting a corresponding area on the right current image, which is an image captured by the right camera; A distance calculating step including a step of calculating a parallax between the window in the current image and a step of calculating a distance between the vehicle traveling ahead and the host vehicle based on the calculated parallax; A step of generating an alarm signal when it is determined that a dangerous state is determined based on the distance, and a step of generating an alarm by receiving the alarm signal based on the calculated distance. Two CCD cameras are detected by a method of detecting a preceding vehicle using a binocular road image in front of the own vehicle obtained by using two cameras and calculating a distance and a relative speed to the preceding vehicle at a high speed. Left video signal from & right Can record image signals on a common frame memory, as a result, has an object to provide a preceding vehicle detection method can claim a point in superiority of manufacturing cost and installation space.

【0022】更に、高いリアルタイム処理性能や計算量
の低減が実現でき、使用目的に合ったリアルタイム処理
が容易なアルゴリズムを備えた点で優位性を主張するこ
とができる前方車両検出方法を提供することを目的とし
ている。
Further, it is an object of the present invention to provide a forward vehicle detecting method capable of realizing high real-time processing performance and reducing the amount of calculation, and claiming an advantage in having an algorithm which can easily perform real-time processing according to the purpose of use. It is an object.

【0023】第2に、左カメラを用いて収集した左画像
と右カメラを用いて収集した右画像を用いてステレオ式
の画像処理を行って前方を走行している車両と自車両と
の距離を計測し危険な場合に警報を発生する車両前方監
視システムにおいて、光軸を自車両の進行方向ベクトル
と平行に設置すると共に車両上に路面から同じ高さで設
けられた左右のカメラと左カメラ及び右カメラにおいて
撮影を行うタイミングを指示する同期信号を生成すると
共に少なくとも1/2フレーム時間に同期した切り替え
信号を生成する同期信号発生器と同期信号に基づいて左
カメラ及び右カメラを同期して同一時刻に左画像と右画
像とを撮影して左画像と右画像との合成映像信号を作成
する合成映像作成手段と、を備え切り替え信号に同期し
て左カメラからの左映像信号における偶数走査線信号/
奇数走査線信号/偶数走査線信号と右カメラからの右映
像信号における奇数走査線信号/偶数走査線信号とを収
集し左映像信号の偶数走査線信号/奇数走査線信号/偶
数走査線信号を合成映像信号における偶数走査線信号/
奇数走査線信号/偶数走査線信号とすると共に右映像信
号の奇数走査線信号/偶数走査線信号を合成映像信号に
おける奇数走査線信号/偶数走査線信号として合成して
合成映像信号を作成するように構成されているステレオ
動画像取得装置と、走査線の交互に左映像信号と右映像
信号と合成されて1フレームが構成された合成画像信号
を記録する単一のフレームメモリと、フレームメモリに
記録されている合成画像信号を読み出し読み出された合
成画像信号の1フレームを構成する走査線信号における
奇数番目の走査線信号を分離して右画像情報を作成する
と共に走査線信号における偶数番目の走査線信号を分離
して左画像情報を作成する左右画像分離取得手段と、右
画像情報及び左画像情報に対して前方車両検出にかかる
監視領域を各々設定する監視領域設定手段と、左画像情
報において水平エッジ及び垂直エッジを分離して抽出す
ると共に右画像情報において水平エッジ及び垂直エッジ
を分離して抽出し左画像情報において抽出された水平エ
ッジ及び垂直エッジに対してエッジの細線化を行って左
エッジ画像を作成すると共に右画像情報において抽出さ
れた水平エッジ及び垂直エッジに対してエッジの細線化
を行って右エッジ画像を作成し右エッジ画像から推定左
エッジ画像を作成し水平エッジ、垂直エッジから各々独
立して左エッジ画像と推定エッジ画像の差分画像を作成
しこれらを合成して差分エッジ画像を作成する前方車両
抽出手段と、左カメラによって撮影される撮影画像であ
る左現画像に窓を設定し右カメラによって撮影される撮
影画像である右現画像上に対応する領域を設定し左現画
像における窓と右現画像における窓との間の視差を算出
し算出された視差に基づいて前方を走行している車両と
自車両との距離を算出する距離算出手段と、算出された
距離に基づいて危険状態か否かを判定し危険状態と判定
した場合に警報信号を作成する判定手段と、、算出され
た距離に基づいて警報信号を受けて警報を発生する警報
手段とを備え、2台のカメラを用いて得られた自車両の
前方の両眼道路画像を用いて前方車両の検出を行い、高
速に前方車両までの距離および相対速度を算出するデー
タ処理装置とを設けることにより、2台のCCDカメラ
からの左映像信号及び右映像信号を共通のフレームメモ
リに記録でき、その結果、製造コストや設置スペースの
点で優位性を主張することができる車両前方監視システ
ムを提供することを目的としている。
Second, stereo image processing is performed using the left image collected using the left camera and the right image collected using the right camera, and the distance between the vehicle traveling ahead and the host vehicle is determined. A left and right camera and a left camera that are installed at the same height from the road surface on the vehicle with the optical axis installed parallel to the traveling direction vector of the own vehicle in a vehicle front monitoring system that measures And synchronizing the left camera and the right camera based on the synchronizing signal and a synchronizing signal generator for generating a synchronizing signal for instructing a timing of photographing in the right camera and generating a switching signal synchronized with at least 1/2 frame time. Means for photographing the left image and the right image at the same time to create a composite image signal of the left image and the right image. Even scan line signal in the video signal /
An odd scan line signal / even scan line signal and an odd scan line signal / even scan line signal in a right video signal from the right camera are collected, and an even scan line signal / odd scan line signal / even scan line signal of a left video signal is collected. Even scan line signal /
An odd scanning line signal / even scanning line signal and an odd scanning line signal / even scanning line signal of the right video signal are combined as an odd scanning line signal / even scanning line signal in the composite video signal to generate a composite video signal. A single frame memory for recording a synthesized image signal in which one frame is composed by synthesizing a left video signal and a right video signal alternately with scanning lines, and a frame memory. The recorded composite image signal is read out, odd-numbered scanning line signals in the scanning line signals constituting one frame of the read composite image signal are separated to create right image information, and even-numbered scanning line signals are formed. Left and right image separation and acquisition means for generating left image information by separating scanning line signals, and monitoring areas for front vehicle detection for the right image information and the left image information are respectively provided. A monitoring area setting means for extracting and extracting horizontal and vertical edges in the left image information and separating and extracting the horizontal and vertical edges in the right image information and extracting the horizontal and vertical edges in the left image information The left edge image is created by thinning the edge with respect to the horizontal edge and the vertical edge extracted in the right image information, and the right edge image is created by thinning the edge. A front vehicle extracting means for creating a difference image between the left edge image and the estimated edge image independently from the horizontal edge and the vertical edge, and combining these to create a difference edge image; A window is set on the left current image, which is a shot image to be shot, and the window is set to correspond to the right current image, which is a shot image shot by the right camera. Distance calculation means for calculating a distance between a vehicle running ahead and the host vehicle based on the calculated parallax between the window in the left current image and the window in the right current image by setting an area; Determining means for determining whether or not the vehicle is in a dangerous state based on the calculated distance and generating an alarm signal when the vehicle is determined to be in a dangerous state; and an alarm for receiving a warning signal and generating an alarm based on the calculated distance. Means for detecting a preceding vehicle using a binocular road image in front of the own vehicle obtained by using two cameras and calculating a distance to the preceding vehicle and a relative speed at a high speed. The left video signal and the right video signal from the two CCD cameras can be recorded in a common frame memory, and as a result, the superiority in terms of manufacturing cost and installation space can be claimed. Monitoring system The purpose is to provide a system.

【0024】更に、高いリアルタイム処理性能や計算量
の低減が実現でき、使用目的に合ったリアルタイム処理
が容易なアルゴリズムを備えた点で優位性を主張するこ
とができる車両前方監視システムを提供することを目的
としている。
Further, it is an object of the present invention to provide a vehicle forward monitoring system capable of realizing high real-time processing performance and reducing the amount of calculation and claiming an advantage in that it has an algorithm which can easily perform real-time processing according to the purpose of use. It is an object.

【0025】[0025]

【課題を解決するための手段】請求項1に記載の発明
は、左カメラ41Lを用いて収集した左画像と右カメラ
41Rを用いて収集した右画像を用いてステレオ式の画
像処理を行って前方を走行している車両と自車両20と
の距離を計測し危険な場合に警報を発生する前方車両検
出方法において、左右のカメラを同期して同一時刻に左
画像と右画像とを撮影して左画像と右画像との合成映像
信号44aを作成する工程とを含むステレオ動画像取得
工程を有して構成されている前方車両検出方法である。
According to the first aspect of the present invention, stereo image processing is performed by using a left image collected by using the left camera 41L and a right image collected by using the right camera 41R. In a forward vehicle detection method that measures a distance between a vehicle traveling ahead and the own vehicle 20 and generates an alarm when there is a danger, the left and right cameras are synchronized to photograph a left image and a right image at the same time. And a step of generating a combined video signal 44a of the left image and the right image.

【0026】請求項1に記載の発明に依れば、ステレオ
動画像取得工程を設け左右のカメラを同期して同一時刻
に左画像と右画像とを撮影して左画像と右画像との合成
映像信号44aを作成している。その結果、2台のCC
Dカメラから出力される左映像信号41Laと右映像信号
41Raとは、お互いに同期しているので、合成映像作成
工程によって合成することができる。同期信号43aに
より左カメラ41L及び右カメラ41R同時刻に撮像動作
を行うことができ、時速100km/h以上で走行中に
落下物を検出する様な状況においても検出距離の誤差が
大きく発生する可能性を回避することができ、撮像タイ
ミングについても同期をとって高い検出精度を実現する
ことができるといった効果を奏する。これに依り、使用
目的に合った高い検出精度の前方監視処理が容易なアル
ゴリズムを備えた点で優位性を主張することができるよ
うになる。
According to the first aspect of the present invention, a stereo moving image acquiring step is provided, the left and right cameras are synchronized to photograph the left image and the right image at the same time, and the left image and the right image are combined. The video signal 44a is created. As a result, two CCs
Since the left video signal 41La and the right video signal 41Ra output from the D camera are synchronized with each other, they can be synthesized by a synthesized video creation process. The synchronizing signal 43a allows the left camera 41L and the right camera 41R to perform an imaging operation at the same time, and a large error in the detection distance can occur even in a situation where a falling object is detected while traveling at a speed of 100 km / h or more. This makes it possible to achieve high detection accuracy by synchronizing the imaging timing. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0027】請求項2に記載の発明は、請求項1に記載
の前方車両検出方法において、左カメラ41L及び右カ
メラ41Rの各々が奇数走査線信号/偶数走査線信号と
偶数走査線信号/奇数走査線信号/偶数走査線信号とを
出力する場合、前記ステレオ動画像取得工程は、左カメ
ラ41Lからの左映像信号41Laにおける所定走査線信
号と右カメラ41Rからの右映像信号41Raにおける所
定走査線信号とを収集して前記合成映像信号44aを作
成する工程を有して構成されている前方車両検出方法で
ある。
According to a second aspect of the present invention, in the method for detecting a forward vehicle according to the first aspect, each of the left camera 41L and the right camera 41R includes an odd scan line signal / even scan line signal and an even scan line signal / odd number. When a scanning line signal / even scanning line signal is output, the stereo moving image acquiring step includes a predetermined scanning line signal in the left video signal 41La from the left camera 41L and a predetermined scanning line in the right video signal 41Ra from the right camera 41R. A method for detecting a preceding vehicle, comprising the step of collecting signals and generating the composite video signal 44a.

【0028】請求項2に記載の発明に依れば、請求項1
に記載の効果に加えて、ステレオ動画像取得工程を設け
左カメラ41Lからの左映像信号41Laにおける所定走
査線信号と右カメラ41Rからの右映像信号41Raにお
ける所定走査線信号とを収集して合成映像信号44aを
作成している。その結果、従来に比べ撮像画像を記録す
るメモリー量を少なく設定でき、更に、高い検出精度及
び高速処理性能を有するステレオ式の画像処理技術を応
用した車両前方監視システム10を実現できるようにな
る。その結果、製造コストや設置スペースの点で優位性
を主張することができるようになる。これに依り、使用
目的に合った高い検出精度の前方監視処理が容易なアル
ゴリズムを備えた点で優位性を主張することができるよ
うになる。
According to the invention described in claim 2, according to claim 1
In addition to the effects described in the above, a stereo moving image acquisition step is provided to collect and combine a predetermined scanning line signal in the left video signal 41La from the left camera 41L and a predetermined scanning line signal in the right video signal 41Ra from the right camera 41R. The video signal 44a is created. As a result, the amount of memory for recording captured images can be set smaller than in the past, and the vehicle forward monitoring system 10 using stereo image processing technology having high detection accuracy and high-speed processing performance can be realized. As a result, it is possible to claim advantages in terms of manufacturing cost and installation space. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0029】請求項3に記載の発明は、請求項2に記載
の前方車両検出方法において、前記ステレオ動画像取得
工程は、左カメラ41Lからの左映像信号41Laにおけ
る偶数走査線信号/奇数走査線信号/偶数走査線信号と
右カメラ41Rからの右映像信号41Raにおける奇数走
査線信号/偶数走査線信号とを収集し、当該左映像信号
41Laの偶数走査線信号/奇数走査線信号/偶数走査線
信号を前記合成映像信号44aにおける偶数走査線信号
/奇数走査線信号/偶数走査線信号とすると共に当該右
映像信号41Raの奇数走査線信号/偶数走査線信号を当
該合成映像信号44aにおける奇数走査線信号/偶数走
査線信号として合成して当該合成映像信号44aを作成
する工程を有して構成されている前方車両検出方法であ
る。
According to a third aspect of the present invention, in the method for detecting a front vehicle according to the second aspect, the stereo moving image acquiring step includes the step of: obtaining an even-numbered scanning line signal / odd-numbered scanning line in the left video signal 41La from the left camera 41L. Signals / even scanning line signals and odd scanning line signals / even scanning line signals in the right video signal 41Ra from the right camera 41R are collected, and the even scanning line signal / odd scanning line signal / even scanning line of the left video signal 41La are collected. The signals are used as the even scan line signal / odd scan line signal / even scan line signal in the composite video signal 44a, and the odd scan line signal / even scan line signal of the right video signal 41Ra is used as the odd scan line signal in the composite video signal 44a. This is a method for detecting a preceding vehicle, which includes a step of creating a combined video signal 44a by combining the signals as a signal / even scanning line signal.

【0030】請求項3に記載の発明に依れば、請求項2
に記載の効果に加えて、ステレオ動画像取得工程を設け
左カメラ41Lからの左映像信号41Laにおける偶数走
査線信号/奇数走査線信号/偶数走査線信号と右カメラ
41Rからの右映像信号41Raにおける奇数走査線信号
/偶数走査線信号とを収集し、また左映像信号41Laの
偶数走査線信号/奇数走査線信号/偶数走査線信号を合
成映像信号44aにおける偶数走査線信号/奇数走査線
信号/偶数走査線信号とし、更に、右映像信号41Raの
奇数走査線信号/偶数走査線信号を合成映像信号44a
における奇数走査線信号/偶数走査線信号として合成し
て合成映像信号44aを作成している。その結果、従来
に比べ撮像画像を記録するフレームメモリ45のメモリ
ー量を偶数走査線本数と奇数走査線本数との和程度まで
少なく設定できるようになる。また、距離算出に必要な
視差は水平方向(走査線方向)であるので、従来の前方
車両検出方法に比べても検出分解能が劣ることは無い。
これに依り、使用目的に合った高い検出精度の前方監視
処理が容易なアルゴリズムを備えた点で優位性を主張す
ることができるようになる。その結果、フレームメモリ
45のメモリー量に関する製造コストや設置スペースの
点で優位性を主張することができるようになる。
According to the invention described in claim 3, according to claim 2
In addition to the effects described in the above, a stereo moving image acquisition step is provided to provide an even scanning line signal / odd scanning line signal / even scanning line signal in the left video signal 41La from the left camera 41L and a right video signal 41Ra from the right camera 41R. An odd scan line signal / even scan line signal is collected, and an even scan line signal / odd scan line signal / even scan line signal of the left video signal 41La is converted into an even scan line signal / odd scan line signal / An even-numbered scan line signal is used, and the odd-numbered scan line signal / even-numbered scan line signal of the right video signal 41Ra is further combined into a composite video signal 44a.
Are combined as an odd scanning line signal / even scanning line signal to create a composite video signal 44a. As a result, the amount of memory of the frame memory 45 for recording a captured image can be set to be less than the sum of the number of even-numbered scanning lines and the number of odd-numbered scanning lines. In addition, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution is not inferior to that of the conventional method for detecting a forward vehicle.
This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory 45.

【0031】請求項4に記載の発明は、請求項2に記載
の前方車両検出方法において、1/2フレーム時間毎に
奇数走査線信号/偶数走査線信号と偶数走査線信号/奇
数走査線信号/偶数走査線信号とを分けて出力するイン
ターレースモードで左カメラ41L及び右カメラ41Rが
動作する場合、前記ステレオ動画像取得工程は、左カメ
ラ41Lからの左映像信号41Laと右カメラ41Rからの
右映像信号41Raとを前記1/2フレーム時間毎に交互
に切り替えて収集して前記合成映像信号44aを作成す
る工程を有して構成されている前方車両検出方法であ
る。
According to a fourth aspect of the present invention, in the method for detecting a forward vehicle according to the second aspect, the odd scan line signal / even scan line signal and the even scan line signal / odd scan line signal are set every 1/2 frame time. When the left camera 41L and the right camera 41R operate in the interlaced mode in which the signal is output separately from the / even scan line signal, the stereo moving image acquiring step includes a left video signal 41La from the left camera 41L and a right video signal from the right camera 41R. This is a method for detecting a preceding vehicle, which comprises a step of alternately collecting and collecting a video signal 41Ra every フ レ ー ム frame time to generate the composite video signal 44a.

【0032】請求項4に記載の発明に依れば、請求項2
に記載の効果に加えて、ステレオ動画像取得工程を設け
左カメラ41Lからの左映像信号41Laにおける偶数走
査線信号/奇数走査線信号/偶数走査線信号と右カメラ
41Rからの右映像信号41Raにおける奇数走査線信号
/偶数走査線信号とを収集し、また左映像信号41Laの
偶数走査線信号/奇数走査線信号/偶数走査線信号を合
成映像信号44aにおける偶数走査線信号/奇数走査線
信号/偶数走査線信号とし、更に、右映像信号41Raの
奇数走査線信号/偶数走査線信号を合成映像信号44a
における奇数走査線信号/偶数走査線信号として合成し
て合成映像信号44aを作成している。その結果、従来
に比べ撮像画像を記録するフレームメモリ45のメモリ
ー量を1/2フレーム分の偶数走査線本数と1/2フレ
ーム分の奇数走査線本数との和程度まで少なく設定で
き、フレームメモリ45の容量を従来より半分程度に低
減できるようになる。また、距離算出に必要な視差は水
平方向(走査線方向)であるので、従来の前方車両検出
方法に比べても検出分解能が劣ることは無い。これに依
り、使用目的に合った高い検出精度の前方監視処理が容
易なアルゴリズムを備えた点で優位性を主張することが
できるようになる。その結果、フレームメモリ45のメ
モリー量に関する製造コストや設置スペースの点で優位
性を主張することができるようになる。
According to the invention described in claim 4, according to claim 2,
In addition to the effects described in the above, a stereo moving image acquisition step is provided to provide an even scanning line signal / odd scanning line signal / even scanning line signal in the left video signal 41La from the left camera 41L and a right video signal 41Ra from the right camera 41R. An odd scan line signal / even scan line signal is collected, and an even scan line signal / odd scan line signal / even scan line signal of the left video signal 41La is converted into an even scan line signal / odd scan line signal / An even-numbered scan line signal is used, and the odd-numbered scan line signal / even-numbered scan line signal of the right video signal 41Ra is further combined into a composite video signal 44a.
Are combined as an odd scanning line signal / even scanning line signal to create a composite video signal 44a. As a result, the amount of memory of the frame memory 45 for recording a captured image can be set to be smaller than the number of even-numbered scanning lines for one-half frame and the number of odd-numbered scanning lines for one-half frame. 45 can be reduced to about half of the conventional capacity. In addition, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution is not inferior to that of the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory 45.

【0033】請求項5に記載の発明は、請求項4に記載
の前方車両検出方法において、前記合成映像信号44a
が、前記右映像信号41Raにおける奇数走査線信号/偶
数走査線信号である1/2フレーム分を前記合成映像信
号44aにおける1/2フレーム分の画像データとして
用いると共に、前記左映像信号41Laにおける偶数走査
線信号/奇数走査線信号/偶数走査線信号である1/2
フレーム分を当該合成映像信号44aにおける残りの1
/2フレーム分の画像データとして用いて当該合成映像
信号44aを合成する工程を有して構成されている前方
車両検出方法である。
According to a fifth aspect of the present invention, in the method for detecting a forward vehicle according to the fourth aspect, the composite video signal 44a is provided.
Uses the odd-numbered scanning line signal / even-numbered scanning line signal of the right video signal 41Ra for 1/2 frame of the composite video signal 44a, and the even-numbered scanning signal of the left video signal 41La. 1/2 which is a scanning line signal / odd scanning line signal / even scanning line signal
The remaining one frame in the composite video signal 44a is
This is a method for detecting a preceding vehicle, which comprises a step of combining the combined video signal 44a using image data for / 2 frames.

【0034】請求項5に記載の発明に依れば、請求項4
に記載の効果に加えて、ステレオ動画像取得工程を設け
右映像信号41Raにおける奇数走査線信号/偶数走査線
信号である1/2フレーム分を合成映像信号44aにお
ける1/2フレーム分の画像データとして用いると共
に、左映像信号41Laにおける偶数走査線信号/奇数走
査線信号/偶数走査線信号である1/2フレーム分を合
成映像信号44aにおける残りの1/2フレーム分の画
像データとして用いて合成映像信号44aを作成してい
る。その結果、従来に比べ撮像画像を記録するフレーム
メモリ45のメモリー量を1/2フレーム分の偶数走査
線本数と1/2フレーム分の奇数走査線本数との和程度
まで少なく設定でき、フレームメモリ45の容量を従来
より半分程度に低減できるようになる。また、距離算出
に必要な視差は水平方向(走査線方向)であるので、従
来の前方車両検出方法に比べても検出分解能が劣ること
は無い。これに依り、使用目的に合った高い検出精度の
前方監視処理が容易なアルゴリズムを備えた点で優位性
を主張することができるようになる。その結果、フレー
ムメモリ45のメモリー量に関する製造コストや設置ス
ペースの点で優位性を主張することができるようにな
る。
According to the invention described in claim 5, according to claim 4,
In addition to the effects described in (1), a stereo moving image acquisition step is provided, and a half frame (odd scanning line signal / even scanning line signal) in the right video signal 41Ra is converted into half frame image data in the composite video signal 44a. And the 1/2 video frame signal of the even-numbered scan line signal / odd-numbered scan line signal / even-numbered scan line signal in the left video signal 41La is used as image data for the remaining 1/2 frame in the composite video signal 44a. The video signal 44a is created. As a result, the amount of memory of the frame memory 45 for recording a captured image can be set to be smaller than the number of even-numbered scanning lines for one-half frame and the number of odd-numbered scanning lines for one-half frame. 45 can be reduced to about half of the conventional capacity. In addition, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution is not inferior to that of the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory 45.

【0035】請求項6に記載の発明は、請求項3乃至5
のいずれか一項に記載の前方車両検出方法において、走
査線の交互に前記左映像信号41Laと前記右映像信号4
1Raと合成されて1フレームが構成された前記合成画像
信号を単一のフレームメモリ45に記録する工程を有し
て構成されている前方車両検出方法である。
The invention according to claim 6 is the invention according to claims 3 to 5
In the forward vehicle detection method according to any one of the above, the left video signal 41La and the right video signal 4
This is a method for detecting a preceding vehicle, comprising the step of recording the combined image signal composed of one frame by combining with 1Ra in a single frame memory 45.

【0036】請求項6に記載の発明に依れば、請求項3
乃至5のいずれか一項に記載の効果に加えて、このよう
な工程を設けることに依り、フレーム分の合成映像信号
44aを単一のフレームメモリ45に記録している。そ
の結果、フレームメモリ45の共有化が可能となり、従
来に比べ撮像画像を記録するフレームメモリ45のメモ
リー量を1/2フレーム分の偶数走査線本数と1/2フ
レーム分の奇数走査線本数との和程度まで少なく設定で
き、フレームメモリ45の容量を従来より半分程度に低
減できるようになる。また、フレームメモリ45の共有
化を図っても、距離算出に必要な視差は水平方向(走査
線方向)であるので、従来の前方車両検出方法に比べて
も検出分解能が劣ることは無い。これに依り、使用目的
に合った高い検出精度の前方監視処理が容易なアルゴリ
ズムを備えた点で優位性を主張することができるように
なる。その結果、フレームメモリ45の共有化に起因す
るフレームメモリ45のメモリー量に関する製造コスト
や設置スペースの点で優位性を主張することができるよ
うになる。
According to the invention of claim 6, according to claim 3,
In addition to the effects described in any one of (1) to (5), by providing such a step, the composite video signal 44a for a frame is recorded in the single frame memory 45. As a result, the frame memory 45 can be shared, and the amount of memory of the frame memory 45 for recording a captured image can be reduced to the number of even-numbered scanning lines for 1/2 frame and the number of odd-numbered scanning lines for 1/2 frame. , And the capacity of the frame memory 45 can be reduced to about half that of the related art. Further, even if the frame memory 45 is shared, the parallax required for calculating the distance is in the horizontal direction (scanning line direction), so that the detection resolution is not inferior to the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of the manufacturing cost and the installation space related to the memory amount of the frame memory 45 due to the sharing of the frame memory 45.

【0037】請求項7に記載の発明は、請求項6に記載
の前方車両検出方法において、前記フレームメモリ45
に記録されている前記合成画像信号を読み出し、当該読
み出された合成画像信号の1フレームを構成する走査線
信号における奇数番目の走査線信号を分離して右画像情
報31aを作成すると共に、当該走査線信号における偶
数番目の走査線信号を分離して左画像情報31bを作成
する左右画像分離取得工程を有して構成されている前方
車両検出方法である。
According to a seventh aspect of the present invention, in the method for detecting a forward vehicle according to the sixth aspect, the frame memory 45 is provided.
And reads out the combined image signal recorded in the same, separates the odd-numbered scanning line signals in the scanning line signals constituting one frame of the read combined image signal to create right image information 31a, and This is a front vehicle detection method including a left / right image separation / acquisition step of generating left image information 31b by separating even-numbered scanning line signals in a scanning line signal.

【0038】請求項7に記載の発明に依れば、請求項6
に記載の効果に加えて、共有化されているフレームメモ
リ45内に記録されている偶数番目の走査線信号のもの
と奇数番目の走査線信号のものとに分離することによ
り、水平方向に垂直方向の倍の解像度を持つ右画像情報
31aと左画像情報31bとの2枚で1組の両眼画像を
動画像として得ることできるようになるといった効果を
奏する。また、距離算出に必要な視差は水平方向(走査
線方向)であるので、右画像情報31aと左画像情報3
1bは従来の前方車両検出方法に比べても検出分解能が
劣ることは無い。これに依り、使用目的に合った高い検
出精度の前方監視処理が容易なアルゴリズムを備えた点
で優位性を主張することができるようになる。その結
果、フレームメモリ45の共有化に起因するフレームメ
モリ45のメモリー量に関する製造コストや設置スペー
スの点で優位性を主張することができるようになる。
According to the invention of claim 7, according to claim 6,
In addition to the effects described in the above, by separating the signals into the even-numbered scanning line signals and the odd-numbered scanning line signals recorded in the shared frame memory 45, There is an effect that a pair of binocular images can be obtained as a moving image by using two pieces of the right image information 31a and the left image information 31b having a resolution twice as large as the direction. Further, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the right image information 31a and the left image information 3
The detection resolution of 1b is not inferior to the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of the manufacturing cost and the installation space related to the memory amount of the frame memory 45 due to the sharing of the frame memory 45.

【0039】請求項8に記載の発明は、請求項7に記載
の前方車両検出方法において、右画像情報31a及び左
画像情報31bに対して前方車両21検出にかかる監視
領域32aを各々設定する工程を有して構成されている
前方車両検出方法である。
According to an eighth aspect of the present invention, in the method for detecting a forward vehicle according to the seventh aspect, a monitoring area 32a for detecting the forward vehicle 21 is set for each of the right image information 31a and the left image information 31b. Is a method for detecting a preceding vehicle.

【0040】請求項8に記載の発明に依れば、請求項7
に記載の効果に加えて、監視領域設定工程を設けること
に依り、あらかじめこれらの映像信号を排除し、かつ前
方車両21を含むような監視領域32aを設定できるよ
うになる。自車両20の前方を右カメラ41Rや左カメ
ラ41Lにより撮像した場合に、回避の必要のない測距
不要な映像信号である空、木や建物などの映像信号(画
像情報)を左映像信号41Laや右映像信号41Raの中か
ら除去できるようになる。これにより、回避の必要のな
い測距不要な映像信号を排除し、回避が必要で測距を要
する映像信号(画像情報)のみを残すことにより処理時
間の短縮を計ることができるようになるといった効果を
奏する。
According to the invention described in claim 8, according to claim 7,
In addition to the effects described in (1), by providing the monitoring area setting step, these video signals can be eliminated in advance, and the monitoring area 32a including the preceding vehicle 21 can be set. When the right camera 41R or the left camera 41L captures an image of the front of the host vehicle 20 using the right camera 41R or the left camera 41L, a video signal (image information) of a sky, a tree, a building, or the like, which is a video signal that does not need to be avoided and does not require distance measurement, is left video signal 41La. And the right video signal 41Ra. As a result, the processing time can be reduced by eliminating video signals that do not need to be avoided and do not need to be measured, and leaving only video signals (image information) that need to be avoided and need to be measured. It works.

【0041】前工程に続いて、当該右エッジ画像/左エ
ッジ画像から推定左エッジ画像/推定右エッジ画像を作
成する工程と、前工程に続いて、水平エッジ、垂直エッ
ジから各々独立して左エッジ画像/右エッジ画像と推定
エッジ画像の差分画像を作成し、これらを合成して差分
エッジ画像を作成する工程を含む前方車両抽出工程を有
することを特徴とする前方車両検出方法。請求項9に記
載の発明は、左カメラ41Lを用いて収集した左画像情
報31bと右カメラ41Rを用いて収集した右画像情報
31aを用いてステレオ式の画像処理を行って前方を走
行している車両と自車両20との距離を計測し危険な場
合に警報を発生する前方車両検出方法において、前記左
画像情報31bにおいて水平エッジ及び垂直エッジを分
離して抽出すると共に、前記右画像情報31aにおいて
水平エッジ及び垂直エッジを分離して抽出する工程と、
前工程に続いて、当該左画像情報31bにおいて抽出さ
れた水平エッジ及び垂直エッジに対してエッジの細線化
を行って左エッジ画像33ALを作成すると共に、当該
右画像情報31aにおいて抽出された水平エッジ及び垂
直エッジに対してエッジの細線化を行って右エッジ画像
33ARを作成する工程と、前工程に続いて、当該右エ
ッジ画像33AR/左エッジ画像33ALから推定左エッ
ジ画像33EL/推定右エッジ画像33ERを作成する工
程と、前工程に続いて、水平エッジ、垂直エッジから各
々独立して左エッジ画像33AL/右エッジ画像33AR
と推定エッジ画像33Eの差分画像33Dを作成し、こ
れらを合成して差分エッジ画像334cを作成する工程を
含む前方車両抽出工程を有して構成されている前方車両
検出方法である。
Following the previous step, a step of creating an estimated left edge image / estimated right edge image from the right edge image / left edge image, and following the previous step, the left and right edges are respectively independent of the horizontal and vertical edges. A method for detecting a front vehicle, comprising: a step of creating a difference image between an edge image / right edge image and an estimated edge image, and combining these to create a difference edge image. According to the ninth aspect of the present invention, stereo image processing is performed using left image information 31b collected using the left camera 41L and right image information 31a collected using the right camera 41R, and the vehicle travels forward. In a forward vehicle detection method for measuring a distance between a vehicle and the own vehicle 20 and generating an alarm in a dangerous case, a horizontal edge and a vertical edge are separated and extracted from the left image information 31b, and the right image information 31a is extracted. Separating and extracting horizontal and vertical edges at
Subsequent to the previous process, the horizontal edge and the vertical edge extracted in the left image information 31b are thinned to create a left edge image 33AL, and the horizontal edge extracted in the right image information 31a. A step of creating a right edge image 33AR by thinning the edge with respect to the vertical edge, and following the previous step, an estimated left edge image 33EL / estimated right edge image from the right edge image 33AR / left edge image 33AL. Following the step of creating the 33ER and the preceding step, the left edge image 33AL / the right edge image 33AR independently of the horizontal edge and the vertical edge.
And a difference image 33D of the estimated edge image 33E, and combining these to create a difference edge image 334c.

【0042】請求項9に記載の発明に依れば、前方車両
抽出工程を設けることに依り、人為的に画像処理を用い
て作成した推定エッジ画像33Eと実際に撮像された左
エッジ画像33ALとを比較する差分画像33D処理を
行うことにより、同一平面上にある路面34だけを消去
し、それよりも高い場所にある前方車両21を残すこと
ができるようになる。また、路面34から高さのある被
測距対象のエッジを従来より、より多く残すことができ
るようになる。更に、画面全体に本前方車両検出方法を
適用した場合、前方車両21領域の抽出エッジ量にはか
なり差が現れることになる。これにより、後処理におけ
るエッジの重心点算出、重心点を中心に全エッジの8割
を含む窓336aを作成して、それを前方車両21領域と
推定する際の推定確度をより向上させることができるよ
うになるといった効果を奏する。その結果、使用目的に
合った高い検出精度の前方監視処理が容易なアルゴリズ
ムを備えた点で優位性を主張することができるようにな
る。
According to the ninth aspect of the present invention, by providing a forward vehicle extracting step, an estimated edge image 33E artificially created by using image processing and a left edge image 33AL actually captured are obtained. Is performed, only the road surface 34 on the same plane is deleted, and the preceding vehicle 21 at a higher place can be left. Further, more edges to be measured having a height from the road surface 34 can be left more than before. Furthermore, when the present forward vehicle detection method is applied to the entire screen, a considerable difference appears in the amount of extracted edges in the forward vehicle 21 area. As a result, it is possible to calculate the center of gravity of the edge in the post-processing, create the window 336a including the 80% of all edges centered on the center of gravity, and further improve the estimation accuracy when estimating it as the front vehicle 21 area. It has the effect of being able to do so. As a result, it is possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0043】請求項10に記載の発明は、請求項9に記
載の前方車両検出方法において、前記前方車両抽出工程
は、前記左画像情報31bにおいて水平エッジ及び垂直
エッジを分離して抽出すると共に、前記右画像情報31
aにおいて水平エッジ及び垂直エッジを分離して抽出す
る工程と、前工程に続いて、当該左画像情報31bにお
いて抽出された水平エッジ及び垂直エッジに対してエッ
ジの細線化を行って左エッジ画像33ALを作成すると
共に、当該右画像情報31aにおいて抽出された水平エ
ッジ及び垂直エッジに対してエッジの細線化を行って右
エッジ画像33ARを作成するエッジ画像作成工程を含
んで構成されている前方車両検出方法である。
According to a tenth aspect of the present invention, in the forward vehicle detecting method according to the ninth aspect, the forward vehicle extracting step separates and extracts a horizontal edge and a vertical edge from the left image information 31b. The right image information 31
a, the horizontal edge and the vertical edge are separated and extracted, and, following the previous step, the horizontal edge and the vertical edge extracted in the left image information 31b are thinned to obtain a left edge image 33AL. Front vehicle detection comprising an edge image creation step of creating a right edge image 33AR by performing edge thinning on the horizontal and vertical edges extracted in the right image information 31a. Is the way.

【0044】請求項10に記載の発明に依れば、請求項
9に記載の効果に加えて、エッジ画像作成工程を設ける
ことに依り、路面34から高さのある被測距対象(前方
車両21等)のエッジを差分画像33D処理してできる
だけ残し、路面34上エッジを差分画像33D処理して
可能な限り消去できるようになる。すなわち、路面34
からの高さがあり本来残したい水平エッジと垂直エッジ
の重なり部分、及び垂直エッジと水平エッジの重なり部
分を差分画像33D処理して従来よりもより多く高い精
度で残すことが可能となる。その結果、前方車両21領
域の抽出エッジ量にはかなり差が現れることになる。こ
れにより後処理におけるエッジの重心点算出、重心点を
中心に全エッジの8割を含む窓336aを作成してそれを
前方車両21領域と推定する際の推定確度をより向上さ
せることができるようになる。これに依り、使用目的に
合った高い検出精度の前方監視処理が容易なアルゴリズ
ムを備えた点で優位性を主張することができるようにな
る。
According to the tenth aspect of the present invention, in addition to the effect of the ninth aspect, by providing an edge image creating step, the object to be measured having a height from the road surface 34 (the forward vehicle) 21) is left as much as possible by processing the difference image 33D, and the edge on the road surface 34 can be deleted as much as possible by processing the difference image 33D. That is, the road surface 34
, And the overlap portion between the horizontal edge and the vertical edge, and the overlap portion between the vertical edge and the horizontal edge, which are originally desired to be left, can be processed with the difference image 33D and left with higher accuracy than before. As a result, a considerable difference appears in the extracted edge amount of the front vehicle 21 region. As a result, the center of gravity of the edge can be calculated in the post-processing, and the window 336a including 80% of all edges centered on the center of gravity can be created to improve the estimation accuracy when estimating it as the area of the front vehicle 21. become. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0045】請求項11に記載の発明は、請求項10に
記載の前方車両検出方法において、前記前方車両抽出工
程は、前記右エッジ画像33ARから左エッジ画像33
ALを推定する推定エッジ画像作成工程を含んで構成さ
れている前方車両検出方法である。
According to an eleventh aspect of the present invention, in the method for detecting a forward vehicle according to the tenth aspect, the step of extracting the forward vehicle includes the step of extracting the right edge image 33AR from the left edge image 33AR.
This is a forward vehicle detection method including an estimated edge image creation step of estimating AL.

【0046】請求項11に記載の発明に依れば、請求項
10に記載の効果に加えて、推定エッジ画像作成工程を
設けることに依り、左画像情報31b、右画像情報31
aともに水平エッジ、垂直エッジを分離して抽出したエ
ッジ画像を作成し、エッジの細線化したエッジ画像を作
成した後、右エッジ画像33ARから推定エッジ画像3
3Eを作成し、推定エッジ画像33Eと左エッジ画像3
3ALの差分水平エッジ334a、差分垂直エッジ334b
を水平エッジ、垂直エッジそれぞれ分けて作成し、その
後、差分水平エッジ334aと差分垂直エッジ334bを合
成して差分エッジ画像334cの差分水平エッジ334a、
差分垂直エッジ334bとすることができるようになる。
また推定エッジ画像33Eでは、路面34から同じ高さ
にある路面34標示だけが実際に左カメラ41Lによっ
て撮像された左エッジ画像33ALと等しい画像とな
り、前方車両21などの路面34よりも高い位置にある
物は実際の左エッジ画像33ALと等しい画像とはなら
ないようにできる。実際に撮像された左エッジ画像33
ALから推定エッジ画像33Eとの共通部分を消去する
と、同じ高さにある路面34(走行車線の路面34)や
路面34標示(例えば、白線や速度制限表示)などは左
エッジ画像33ALから消去され、路面34よりも高い
位置に存在する前方車両21の画素だけを左エッジ画像
33ALに残すことができるようになり、最終的に、左
エッジ画像33ALにおいて残った画素を前方車両21
の候補画素として距離を算出できるようになるといった
効果を奏する。
According to the eleventh aspect of the present invention, in addition to the effect of the tenth aspect, by providing an estimated edge image creating step, the left image information 31b and the right image information 31 are provided.
a, an edge image is extracted by separating a horizontal edge and a vertical edge, and an edge image with a thinned edge is created, and then the estimated edge image 3 is obtained from the right edge image 33AR.
3E, the estimated edge image 33E and the left edge image 3
3AL difference horizontal edge 334a, difference vertical edge 334b
Are created separately for the horizontal edge and the vertical edge, and thereafter, the difference horizontal edge 334a and the difference vertical edge 334b are combined to generate the difference horizontal edge 334a,
The difference vertical edge 334b can be obtained.
In the estimated edge image 33E, only the road surface 34 at the same height from the road surface 34 is actually the same image as the left edge image 33AL captured by the left camera 41L, and is located at a position higher than the road surface 34 such as the preceding vehicle 21. An object can be prevented from being an image equal to the actual left edge image 33AL. Left edge image 33 actually captured
When the common part with the estimated edge image 33E is deleted from the AL, the road surface 34 (the road surface 34 of the traveling lane) and the road surface 34 sign (for example, white line or speed limit display) at the same height are deleted from the left edge image 33AL. Only the pixels of the front vehicle 21 existing at a position higher than the road surface 34 can be left in the left edge image 33AL, and finally, the pixels remaining in the left edge image 33AL are
Has an effect that the distance can be calculated as a candidate pixel of.

【0047】請求項12に記載の発明は、請求項11に
記載の前方車両検出方法において、前記前方車両抽出工
程は、前記推定左エッジ画像33ELと前記左エッジ画
像33ALとの水平エッジに対する差分演算を行って差
分水平エッジ334aを作成すると共に、当該推定左エッ
ジ画像33ELと当該左エッジ画像33ALとの垂直エッ
ジに対する差分演算を行って差分垂直エッジ334bを作
成する工程と、当該差分水平エッジ334aと当該差分垂
直エッジ334bとを合成して差分エッジ画像334cを作
成する工程とを含んで構成されている前方車両検出方法
である。
According to a twelfth aspect of the present invention, in the front vehicle detecting method according to the eleventh aspect, the front vehicle extracting step calculates a difference between a horizontal edge of the estimated left edge image 33EL and a horizontal edge of the left edge image 33AL. To create a difference horizontal edge 334a, and perform a difference operation on the vertical edge between the estimated left edge image 33EL and the left edge image 33AL to create a difference vertical edge 334b. Composing the difference vertical edge 334b to create a difference edge image 334c.

【0048】請求項12に記載の発明に依れば、請求項
11に記載の効果に加えて、差分エッジ画像334cを作
成する工程を設けることに依り、左画像情報31b、右
画像情報31aともに水平エッジ、垂直エッジを分離し
て抽出したエッジ画像を作成し、エッジの細線化したエ
ッジ画像を作成した後、右エッジ画像33ARから推定
エッジ画像33Eを作成し、推定エッジ画像33Eと左
エッジ画像33ALの差分水平エッジ334a、差分垂直
エッジ334bを水平エッジ、垂直エッジそれぞれ分けて
作成し、その後、差分水平エッジ334aと差分垂直エッ
ジ334bを合成して差分エッジ画像334cの差分水平エ
ッジ334a、差分垂直エッジ334bとすることができる
ようになる。これに依り、使用目的に合った高い検出精
度の前方監視処理が容易なアルゴリズムを備えた点で優
位性を主張することができるようになる。
According to the twelfth aspect of the invention, in addition to the effect of the eleventh aspect, by providing a step of creating the differential edge image 334c, both the left image information 31b and the right image information 31a are provided. After creating an edge image by separating and extracting the horizontal edge and the vertical edge, creating an edge image with a thinned edge, creating an estimated edge image 33E from the right edge image 33AR, the estimated edge image 33E and the left edge image The difference horizontal edge 334a and the difference vertical edge 334b of the 33AL are created separately for the horizontal edge and the vertical edge, and then the difference horizontal edge 334a and the difference vertical edge 334b are combined to create the difference horizontal edge 334a and the difference vertical edge 334c of the difference edge image 334c. The edge 334b can be used. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0049】請求項13に記載の発明は、請求項12に
記載の前方車両検出方法において、前記前方車両抽出工
程は、前記推定左エッジ画像33ELと前記左エッジ画
像33ALとの差分演算において前記差分水平エッジ3
34a及び前記差分垂直エッジ334bを作成した残余画像
のエッジ点の重心を算出する工程と、当該算出した重心
を中心に全エッジの所定割合を含む窓336aを作成する
工程とを含んで構成されている前方車両検出方法であ
る。
According to a thirteenth aspect of the present invention, in the method for detecting a forward vehicle according to the twelfth aspect, the forward vehicle extracting step includes the step of calculating the difference between the estimated left edge image 33EL and the left edge image 33AL. Horizontal edge 3
34a and a step of calculating a center of gravity of the edge point of the residual image in which the difference vertical edge 334b has been created, and a step of creating a window 336a including a predetermined ratio of all edges around the calculated center of gravity. This is a method for detecting a vehicle ahead.

【0050】請求項13に記載の発明に依れば、請求項
12に記載の効果に加えて、窓336aを作成する工程を
設けることに依り、路面34から高さのある被測距対象
のエッジを従来よりもより多く残すことが可能となる。
更に、前方車両21領域の抽出エッジ量にかなりの差を
持たせることができるようになる。これに依り、後処理
におけるエッジの重心点算出、重心点を中心に全エッジ
の8割を含む窓336aを作成して、それを前方車両21
領域と推定する際の推定確度の向上を図ることができる
ようになるといった効果を奏する。これに依り、使用目
的に合った高い検出精度の前方監視処理が容易なアルゴ
リズムを備えた点で優位性を主張することができるよう
になる。
According to the thirteenth aspect of the present invention, in addition to the effect of the twelfth aspect, by providing a step of forming the window 336a, the distance to be measured having a height from the road surface is increased. It is possible to leave more edges than before.
Further, the extracted edge amount in the area of the front vehicle 21 can be made significantly different. According to this, the center of gravity of the edge is calculated in the post-processing, and a window 336a including 80% of all edges is created around the center of gravity, and the window 336a is created.
This has the effect of improving the estimation accuracy when estimating a region. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0051】請求項14に記載の発明は、前記推定エッ
ジ画像33Eが、一方のカメラの画像情報が全て路面3
4上の模様と仮定し、当該画像情報にかかるエッジ画像
が他方のカメラを以て撮影された場合のエッジ画像を推
定した画像情報であることを特徴とする請求項9乃至1
3のいずれか一項に記載の前方車両検出方法である。
According to a fourteenth aspect of the present invention, when the estimated edge image 33E has all the image information of one camera
4. An image obtained by estimating an edge image in a case where the edge image according to the image information is photographed by the other camera, assuming the pattern on the image information is the upper pattern.
3. A method for detecting a forward vehicle according to claim 3.

【0052】請求項14に記載の発明に依れば、請求項
9乃至13のいずれか一項に記載の効果と同様の効果を
奏する。
According to the fourteenth aspect of the present invention, the same effect as any one of the ninth to thirteenth aspects can be obtained.

【0053】請求項15に記載の発明は、請求項11乃
至14のいずれか一項に記載の前方車両検出方法におい
て、左カメラ41Lによって撮影される撮影画像である
左現画像に前記窓336aを設定する工程と、右カメラ4
1Rによって撮影される撮影画像である右現画像上に対
応する領域を設定する工程と、当該左現画像における窓
336aと当該右現画像における窓336aとの間の視差を
算出する工程と、当該算出された視差に基づいて、前方
を走行している車両と自車両20との距離を算出する工
程とを含む距離算出工程を有して構成されている前方車
両検出方法である。
According to a fifteenth aspect of the present invention, in the method for detecting a forward vehicle according to any one of the eleventh to fourteenth aspects, the window 336a is added to a left current image which is an image captured by the left camera 41L. Setting process and right camera 4
Setting a region corresponding to the right current image, which is an image captured by 1R, calculating a disparity between the window 336a in the left current image and the window 336a in the right current image; A forward vehicle detection method configured to include a distance calculation step including a step of calculating a distance between a vehicle traveling ahead and the host vehicle 20 based on the calculated parallax.

【0054】請求項15に記載の発明に依れば、請求項
11乃至14のいずれか一項に記載の効果に加えて、距
離算出工程を設けることに依り、左現画像における窓3
36aと右現画像における窓336aとの間の視差を求め、
その視差の値から被測距対象までの絶対的な距離を高精
度でかつ高速に求めることができるようになる。これに
依り、使用目的に合った高い検出精度、高速処理の前方
監視処理が容易なアルゴリズムを備えた点で優位性を主
張することができるようになる。
According to the fifteenth aspect of the present invention, in addition to the effect of any one of the eleventh to fourteenth aspects, by providing a distance calculation step, the window 3 in the left current image is provided.
Find the parallax between 36a and the window 336a in the right current image,
From the value of the parallax, the absolute distance to the object to be measured can be obtained with high accuracy and at high speed. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0055】請求項16に記載の発明は、請求項15に
記載の前方車両検出方法において、前記距離算出工程
は、視差と距離の逆数との比例関係に基づいてあらかじ
め算出した関係式を用いて前記左現画像における窓33
6aと前記右現画像における窓336aとの間の視差を算出
し、当該算出された視差に基づいて前記距離を算出する
ように構成されているである。
According to a sixteenth aspect of the present invention, in the method for detecting a forward vehicle according to the fifteenth aspect, the distance calculating step uses a relational expression calculated in advance based on a proportional relationship between the disparity and the reciprocal of the distance. Window 33 in the left current image
It is configured to calculate the parallax between the window 6a and the window 336a in the right current image, and calculate the distance based on the calculated parallax.

【0056】請求項16に記載の発明に依れば、請求項
15に記載の効果に加えて、距離算出工程を設けること
に依り、あらかじめ算出した関係式を用いて左現画像に
おける窓336aと前記右現画像における窓336aとの間
の視差を算出して距離を算出できるので、視差の値から
被測距対象までの絶対的な距離を高精度でかつ高速に求
めることができるようになる。これに依り、使用目的に
合った高い検出精度、高速処理の前方監視処理が容易な
アルゴリズムを備えた点で優位性を主張することができ
るようになる。
According to the sixteenth aspect of the present invention, in addition to the effect of the fifteenth aspect, by providing a distance calculating step, the window 336a in the left current image is formed by using a relational expression calculated in advance. Since the distance can be calculated by calculating the parallax between the window and the window 336a in the right current image, the absolute distance from the parallax value to the object to be measured can be obtained with high accuracy and high speed. . This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0057】請求項17に記載の発明は、請求項15ま
たは16に記載の前方車両検出方法において、前記算出
された距離に基づいて危険状態か否かを判定し、危険状
態と判定した場合に警報信号36aを作成する工程を有
して構成されている前方車両検出方法である。
According to a seventeenth aspect of the present invention, in the method for detecting a forward vehicle according to the fifteenth or sixteenth aspect, it is determined whether or not the vehicle is in a dangerous state based on the calculated distance. This is a forward vehicle detection method configured to include a step of generating an alarm signal 36a.

【0058】請求項17に記載の発明に依れば、請求項
15または16に記載の効果に加えて、警報信号36a
を作成する工程を設けることに依り、高速且つ高精度に
算出された距離に基づいて危険状態か否かを高速且つ高
精度に判定できるようになるといった効果を奏する。こ
れに依り、使用目的に合った高い検出精度、高速処理の
前方監視処理が容易なアルゴリズムを備えた点で優位性
を主張することができるようになる。
According to the seventeenth aspect of the present invention, in addition to the effect of the fifteenth or sixteenth aspect, the alarm signal 36a
By providing the step of creating a danger, it is possible to determine at high speed and with high accuracy whether or not there is a dangerous state based on the distance calculated with high speed and with high accuracy. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0059】請求項18に記載の発明は、請求項17に
記載の前方車両検出方法において、前記算出された距離
に基づいて、前記警報信号36aを受けて警報を発生す
る工程を有して構成されている前方車両検出方法であ
る。
According to an eighteenth aspect of the present invention, in the method for detecting a forward vehicle according to the seventeenth aspect, a step of receiving the warning signal 36a and generating a warning based on the calculated distance is provided. This is a method for detecting a forward vehicle.

【0060】請求項18に記載の発明に依れば、請求項
17に記載の効果に加えて、警報を発生する工程を設け
ることに依り、高速且つ高精度の警報を発生することが
できるようになる。これに依り、使用目的に合った高い
検出精度、高速処理の前方監視処理が容易なアルゴリズ
ムを備えた点で優位性を主張することができるようにな
る。
According to the eighteenth aspect of the invention, in addition to the effect of the seventeenth aspect, by providing a step of generating an alarm, a high-speed and high-precision alarm can be generated. become. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0061】請求項19に記載の発明は、左カメラ41
Lを用いて収集した左画像と右カメラ41Rを用いて収集
した右画像を用いてステレオ式の画像処理を行って前方
を走行している車両と自車両20との距離を計測し危険
な場合に警報を発生する車両前方監視システムにおい
て、光軸を自車両20の進行方向ベクトルと平行に設置
すると共に、車両上に路面34から同じ高さで設けられ
た左右のカメラと、左カメラ41L及び右カメラ41Rに
おいて撮影を行うタイミングを指示する同期信号43a
を生成すると共に、少なくとも1/2フレーム時間に同
期した切り替え信号43bを生成する同期信号発生器4
3と、前記同期信号43aに基づいて左カメラ41L及
び右カメラ41Rを同期して同一時刻に左画像と右画像
とを撮影して左画像と右画像との合成映像信号44aを
作成する合成映像作成手段44とを備えたステレオ動画
像取得装置40を有して構成されている車両前方監視シ
ステム10である。
According to the nineteenth aspect, the left camera 41
When the distance between the vehicle traveling ahead and the host vehicle 20 is measured by performing stereo image processing using the left image collected using L and the right image collected using the right camera 41R, and is dangerous. In the vehicle front monitoring system that generates an alarm, the optical axis is installed in parallel with the traveling direction vector of the own vehicle 20, and the left and right cameras provided at the same height from the road surface 34 on the vehicle, the left camera 41L and Synchronization signal 43a for instructing the timing of photographing in right camera 41R
Signal generator 4 for generating a switching signal 43b synchronized with at least 1/2 frame time.
3 and the left camera 41L and the right camera 41R are synchronized based on the synchronization signal 43a to capture the left image and the right image at the same time to create a composite video signal 44a of the left image and the right image. The vehicle front monitoring system 10 includes a stereo moving image acquisition device 40 including a creation unit 44.

【0062】請求項19に記載の発明に依れば、請求項
1に記載の効果に加えて、左カメラ41L(右カメラ4
1R)のカメラから得られる画像がすべて路面34と等
しい高さにある場合、画像中のすべての画素を視差の値
だけ走査線方向に移動させると右カメラ41R(左カメ
ラ41L)により撮像された画像と同等の画像の作成が
可能となる。
According to the nineteenth aspect, in addition to the effect of the first aspect, the left camera 41L (the right camera 4
When all the images obtained from the camera 1R) are at the same height as the road surface 34, when all the pixels in the image are moved in the scanning line direction by the parallax value, the image is captured by the right camera 41R (the left camera 41L). An image equivalent to an image can be created.

【0063】請求項20に記載の発明は、請求項19に
記載の車両前方監視システム10において、左カメラ4
1L及び右カメラ41Rの各々が奇数走査線信号/偶数走
査線信号と偶数走査線信号/奇数走査線信号/偶数走査
線信号とを出力する場合、前記ステレオ動画像取得装置
40は、左カメラ41Lからの左映像信号41Laにおけ
る所定走査線信号と右カメラ41Rからの右映像信号4
1Raにおける所定走査線信号とを収集して前記合成映像
信号44aを作成するように構成されている車両前方監
視システム10である。
According to a twentieth aspect of the present invention, in the vehicle front monitoring system 10 according to the nineteenth aspect, the left camera 4
When each of the 1L and the right camera 41R outputs an odd scan line signal / even scan line signal and an even scan line signal / odd scan line signal / even scan line signal, the stereo moving image acquisition device 40 outputs the left camera 41L. The predetermined scanning line signal in the left video signal 41La from the camera and the right video signal 4 from the right camera 41R
This is a vehicle front monitoring system 10 configured to collect a predetermined scanning line signal at 1Ra and create the composite video signal 44a.

【0064】請求項20に記載の発明に依れば、請求項
2に記載の効果と同様の効果を奏する。
According to the twentieth aspect, the same effect as the second aspect can be obtained.

【0065】請求項21に記載の発明は、請求項20に
記載の車両前方監視システム10において、前記ステレ
オ動画像取得装置40は、前記切り替え信号43bに同
期して、左カメラ41Lからの左映像信号41Laにおけ
る偶数走査線信号/奇数走査線信号/偶数走査線信号と
右カメラ41Rからの右映像信号41Raにおける奇数走
査線信号/偶数走査線信号とを収集し、当該左映像信号
41Laの偶数走査線信号/奇数走査線信号/偶数走査線
信号を前記合成映像信号44aにおける偶数走査線信号
/奇数走査線信号/偶数走査線信号とすると共に当該右
映像信号41Raの奇数走査線信号/偶数走査線信号を当
該合成映像信号44aにおける奇数走査線信号/偶数走
査線信号として合成して当該合成映像信号44aを作成
するように構成されている車両前方監視システム10で
ある。
According to a twenty-first aspect of the present invention, in the vehicle front monitoring system 10 according to the twentieth aspect, the stereo moving image acquisition device 40 synchronizes with the switching signal 43b to output a left image from the left camera 41L. An even scan line signal / odd scan line signal / even scan line signal in the signal 41La and an odd scan line signal / even scan line signal in the right video signal 41Ra from the right camera 41R are collected, and the left video signal 41La is even scanned. The line signal / odd scan line signal / even scan line signal is used as the even scan line signal / odd scan line signal / even scan line signal in the composite video signal 44a, and the odd scan line signal / even scan line of the right video signal 41Ra. The signal is composed as an odd-numbered scanning line signal / even-numbered scanning line signal in the composite video signal 44a to generate the composite video signal 44a. This is a vehicle front monitoring system 10.

【0066】請求項21に記載の発明に依れば、請求項
3に記載の効果と同様の効果を奏する。
According to the twenty-first aspect, the same effect as the third aspect is obtained.

【0067】請求項22に記載の発明は、請求項21に
記載の車両前方監視システム10において、前記ステレ
オ動画像取得装置40は、1/2フレーム時間毎に奇数
走査線信号/偶数走査線信号と偶数走査線信号/奇数走
査線信号/偶数走査線信号とを分けて出力するインター
レースモードで左カメラ41L及び右カメラ41Rが動作
する場合、インターレースにかかる前記切り替え信号4
3bに同期して、左カメラ41Lからの左映像信号41L
aと右カメラ41Rからの右映像信号41Raとを前記1/
2フレーム時間毎に交互に切り替えて収集して前記合成
映像信号44aを作成するように構成されている車両前
方監視システム10である。
According to a twenty-second aspect of the present invention, in the vehicle front monitoring system according to the twenty-first aspect, the stereo moving image acquisition device 40 comprises an odd scanning line signal / even scanning line signal every 1/2 frame time. When the left camera 41L and the right camera 41R operate in the interlace mode in which the scan signal and the even scan line signal / odd scan line signal / even scan line signal are separately output, the switching signal 4 related to the interlace is output.
3b, in synchronization with the left video signal 41L from the left camera 41L.
a and the right video signal 41Ra from the right camera 41R,
The vehicle front monitoring system 10 is configured to alternately collect and generate the composite video signal 44a every two frame times.

【0068】請求項22に記載の発明に依れば、請求項
4に記載の効果と同様の効果を奏する。
According to the twenty-second aspect, the same effect as the fourth aspect can be obtained.

【0069】請求項23に記載の発明は、請求項22に
記載の車両前方監視システム10において、前記前記ス
テレオ動画像取得装置40は、前記切り替え信号43b
に同期して、前記右映像信号41Raにおける奇数走査線
信号/偶数走査線信号である1/2フレーム分を前記合
成映像信号44aにおける1/2フレーム分の画像デー
タとして用いると共に、前記左映像信号41Laにおける
偶数走査線信号/奇数走査線信号/偶数走査線信号であ
る1/2フレーム分を当該合成映像信号44aにおける
残りの1/2フレーム分の画像データとして用いて当該
合成映像信号44aを合成するように構成されている車
両前方監視システム10である。
According to a twenty-third aspect of the present invention, in the vehicle forward monitoring system 10 according to the twenty-second aspect, the stereo moving image acquisition device 40 transmits the switching signal 43b.
In synchronism with the above, a half frame of the odd scanning line signal / even scanning line signal in the right video signal 41Ra is used as image data of a half frame in the composite video signal 44a, and the left video signal The composite video signal 44a is synthesized using 1/2 frame of the even scan line signal / odd scan line signal / even scan line signal in 41La as image data of the remaining 1/2 frame in the composite video signal 44a. 1 is a vehicle front monitoring system 10 configured to perform the following.

【0070】請求項23に記載の発明に依れば、請求項
5に記載の効果と同様の効果を奏する。
According to the twenty-third aspect of the present invention, the same effect as that of the fifth aspect is obtained.

【0071】請求項24に記載の発明は、請求項21乃
至23のいずれか一項に記載の車両前方監視システム1
0において、走査線の交互に前記左映像信号41Laと前
記右映像信号41Raと合成されて1フレームが構成され
た前記合成画像信号を記録する単一のフレームメモリ4
5を有して構成されている車両前方監視システム10で
ある。
According to a twenty-fourth aspect of the present invention, a vehicle front monitoring system 1 according to any one of the twenty-first to twenty-third aspects.
0, a single frame memory 4 for recording the synthesized image signal in which one frame is composed by synthesizing the left video signal 41La and the right video signal 41Ra alternately with scanning lines.
5 is a vehicle front monitoring system 10 configured to include:

【0072】請求項24に記載の発明に依れば、請求項
6に記載の効果と同様の効果を奏する。
According to the twenty-fourth aspect, the same effect as the sixth aspect can be obtained.

【0073】請求項25に記載の発明は、請求項24に
記載の車両前方監視システム10において、前記フレー
ムメモリ45に記録されている前記合成画像信号を読み
出し、当該読み出された合成画像信号の1フレームを構
成する走査線信号における奇数番目の走査線信号を分離
して右画像情報31aを作成すると共に、当該走査線信
号における偶数番目の走査線信号を分離して左画像情報
31bを作成する左右画像分離取得手段31と、右画像
情報31a及び左画像情報31bに対して前方車両21
検出にかかる監視領域32aを各々設定する監視領域設
定手段32とを備えたデータ処理装置30を有して構成
されている車両前方監視システム10である。
According to a twenty-fifth aspect of the present invention, in the vehicle front monitoring system according to the twenty-fourth aspect, the composite image signal recorded in the frame memory 45 is read, and the read composite image signal of the read composite image signal is read. The right image information 31a is created by separating the odd-numbered scanning line signals in the scanning line signals forming one frame, and the left image information 31b is created by separating the even-numbered scanning line signals in the scanning line signal. The left and right image separation acquisition means 31 and the right vehicle information 21a and the left vehicle information 31b
The vehicle front monitoring system 10 includes a data processing device 30 including a monitoring area setting unit 32 that sets a monitoring area 32a for detection.

【0074】請求項25に記載の発明に依れば、請求項
7に記載の効果と同様の効果を奏する。
According to the twenty-fifth aspect, the same effect as the seventh aspect can be obtained.

【0075】請求項26に記載の発明は、請求項25に
記載の車両前方監視システム10において、前記データ
処理装置30は、前記左画像情報31bにおいて水平エ
ッジ及び垂直エッジを分離して抽出すると共に、前記右
画像情報31aにおいて水平エッジ及び垂直エッジを分
離して抽出し、当該左画像情報31bにおいて抽出され
た水平エッジ及び垂直エッジに対してエッジの細線化を
行って左エッジ画像33ALを作成すると共に、当該右
画像情報31aにおいて抽出された水平エッジ及び垂直
エッジに対してエッジの細線化を行って右エッジ画像3
3ARを作成し、当該右エッジ画像33ARからエッジ画
像33Eとしての推定左エッジ画像33ELを作成し、
水平エッジ、垂直エッジから各々独立して左エッジ画像
33ALと推定エッジ画像33Eの差分画像33Dを作
成し、これらを合成して差分エッジ画像334cを作成す
る前方車両抽出手段33を有して構成されている車両前
方監視システム10である。
According to a twenty-sixth aspect of the present invention, in the vehicle front monitoring system 10 according to the twenty-fifth aspect, the data processing device 30 separates and extracts a horizontal edge and a vertical edge from the left image information 31b. The horizontal and vertical edges are separated and extracted in the right image information 31a, and the horizontal and vertical edges extracted in the left image information 31b are thinned to form a left edge image 33AL. At the same time, the horizontal edge and the vertical edge extracted in the right image information 31a are thinned to form the right edge image 3
3AR, and an estimated left edge image 33EL as an edge image 33E from the right edge image 33AR.
It is provided with a front vehicle extracting means 33 which creates a difference image 33D of the left edge image 33AL and the estimated edge image 33E independently of the horizontal edge and the vertical edge, and combines them to create a difference edge image 334c. Is a vehicle forward monitoring system 10 that is operating.

【0076】請求項26に記載の発明に依れば、請求項
9に記載の効果と同様の効果を奏する。
According to the twenty-sixth aspect, the same effect as the ninth aspect can be obtained.

【0077】請求項27に記載の発明は、請求項25に
記載の車両前方監視システム10において、前記前方車
両抽出手段33は、前記左画像情報31bにおいて水平
エッジ及び垂直エッジを分離して抽出すると共に、前記
右画像情報31aにおいて水平エッジ及び垂直エッジを
分離して抽出し、当該左画像情報31bにおいて抽出さ
れた水平エッジ及び垂直エッジに対してエッジの細線化
を行って左エッジ画像33ALを作成すると共に、当該
右画像情報31aにおいて抽出された水平エッジ及び垂
直エッジに対してエッジの細線化を行って右エッジ画像
33ARを作成して推定左エッジ画像33EL/推定右エ
ッジ画像を作成するエッジ画像作成部332と、前記推
定左エッジ画像33ELと前記左エッジ画像33ALとの
水平エッジに対する差分演算を行って差分水平エッジ3
34aを作成すると共に、当該推定左エッジ画像33EL
/推定右エッジ画像33ERと当該左エッジ画像33AL
/右エッジ画像33ARとの垂直エッジに対する差分演
算を行って差分垂直エッジ334bを作成し、当該差分水
平エッジ334aと当該差分垂直エッジ334bとを合成し
て差分エッジ画像334cを作成する差分エッジ作成部3
34と、前記推定左エッジ画像33EL/推定右エッジ画
像33ERと前記左エッジ画像33AL/右エッジ画像3
3ARとの差分演算において前記差分水平エッジ334a
及び前記差分垂直エッジ334bを作成した残余画像のエ
ッジ点の重心を算出し、当該算出した重心を中心に全エ
ッジの所定割合を含む窓336aを作成する窓作成部33
6とを有して構成されている車両前方監視システム10
である。
According to a twenty-seventh aspect of the present invention, in the vehicle front monitoring system 10 according to the twenty-fifth aspect, the front vehicle extracting means 33 separates and extracts a horizontal edge and a vertical edge from the left image information 31b. At the same time, a horizontal edge and a vertical edge are separated and extracted in the right image information 31a, and the horizontal and vertical edges extracted in the left image information 31b are thinned to create a left edge image 33AL. At the same time, the horizontal image and the vertical edge extracted in the right image information 31a are thinned to create the right edge image 33AR to generate the estimated left edge image 33EL / estimated right edge image. The creation unit 332, the difference between the estimated left edge image 33EL and the horizontal edge of the left edge image 33AL with respect to the horizontal edge The difference horizontal edge 3 carries out an operation
34a, and the estimated left edge image 33EL.
/ Estimated right edge image 33ER and the left edge image 33AL
A difference edge creating unit that creates a difference vertical edge 334b by performing a difference operation on a vertical edge with the right edge image 33AR, and combines the difference horizontal edge 334a and the difference vertical edge 334b to create a difference edge image 334c. 3
34, the estimated left edge image 33EL / estimated right edge image 33ER, and the left edge image 33AL / right edge image 3
In the difference calculation with 3AR, the difference horizontal edge 334a
A window creation unit 33 that calculates the center of gravity of the edge point of the residual image for which the difference vertical edge 334b has been created, and creates a window 336a that includes a predetermined ratio of all edges centered on the calculated center of gravity.
6 and a vehicle front monitoring system 10 having
It is.

【0078】請求項27に記載の発明に依れば、請求項
11乃至13のいずれか一項に記載の効果と同様の効果
を奏する。
According to the twenty-seventh aspect, the same effects as those of any one of the eleventh to thirteenth aspects can be obtained.

【0079】請求項28に記載の発明は、請求項26ま
たは27に記載の車両前方監視システム10において、
前記データ処理装置30は、左カメラ41Lによって撮
影される撮影画像である左現画像に前記窓336aを設定
し、右カメラ41Rによって撮影される撮影画像である
右現画像上に対応する領域を設定し、当該左現画像にお
ける窓336aと当該右現画像における窓336aとの間の
視差を算出し、当該算出された視差に基づいて、前方を
走行している車両と自車両20との距離を算出する距離
算出手段35を有して構成されている車両前方監視シス
テム10である。
According to a twenty-eighth aspect of the present invention, in the vehicle front monitoring system 10 according to the twenty-sixth or twenty-seventh aspect,
The data processing device 30 sets the window 336a in the left current image, which is an image captured by the left camera 41L, and sets an area corresponding to the right current image, which is an image captured by the right camera 41R. Then, a parallax between the window 336a in the left current image and the window 336a in the right current image is calculated, and based on the calculated parallax, the distance between the vehicle traveling ahead and the host vehicle 20 is calculated. It is a vehicle front monitoring system 10 configured to have a distance calculating means 35 for calculating.

【0080】請求項28に記載の発明に依れば、請求項
15または16に記載の効果と同様の効果を奏する。
According to the twenty-eighth aspect of the invention, the same effects as those of the fifteenth or sixteenth aspects are obtained.

【0081】請求項29に記載の発明は、請求項28に
記載の車両前方監視システム10において、前記データ
処理装置30は、前記算出された距離に基づいて危険状
態か否かを判定し、危険状態と判定した場合に警報信号
36aを作成する判定手段36を有して構成されている
車両前方監視システム10である。
According to a twenty-ninth aspect of the present invention, in the vehicle front monitoring system according to the twenty-eighth aspect, the data processing device 30 determines whether or not the vehicle is in a dangerous state based on the calculated distance. The vehicle front monitoring system 10 is configured to include a determination unit 36 that generates an alarm signal 36a when it is determined that the vehicle is in the state.

【0082】請求項29に記載の発明に依れば、請求項
17に記載の効果と同様の効果を奏する。
According to the twenty-ninth aspect, the same effect as that of the seventeenth aspect can be obtained.

【0083】請求項30に記載の発明は、請求項29に
記載の車両前方監視システム10において、前記データ
処理装置30は、前記算出された距離に基づいて、前記
警報信号36aを受けて警報を発生する警報手段37を
有して構成されている車両前方監視システム10であ
る。
According to a thirtieth aspect of the present invention, in the vehicle front monitoring system according to the twenty-ninth aspect, the data processing device receives an alarm signal 36a based on the calculated distance and issues an alarm. This is a vehicle front monitoring system 10 configured to include an alarm unit 37 that generates an alarm.

【0084】請求項30に記載の発明に依れば、請求項
20に記載の効果と同様の効果を奏する。
According to the thirtieth aspect, the same effect as the twentieth aspect can be obtained.

【0085】[0085]

【発明の実施の形態】以下、図面に基づき本発明の一実
施形態を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0086】本実施形態の車両前方監視システム10
は、左カメラ41Lを用いて収集した左画像と右カメラ
41Rを用いて収集した右画像を用いてステレオ式の画
像処理を行って前方を走行している車両と自車両20と
の距離を計測し危険な場合に警報を発生する機能を有
し、図1に示すデータ処理装置30と図2に示すステレ
オ動画像取得装置40と単一のフレームメモリ45を中
心にして構成されている。
The vehicle front monitoring system 10 of the present embodiment
Performs stereo image processing using the left image collected using the left camera 41L and the right image collected using the right camera 41R to measure the distance between the vehicle traveling ahead and the host vehicle 20. It has a function of generating an alarm when there is a danger, and is configured mainly by the data processing device 30 shown in FIG. 1, the stereo moving image acquisition device 40 shown in FIG. 2, and a single frame memory 45.

【0087】図1は、本発明の車両前方監視システム1
0を構成するデータ処理装置30の一実施形態を説明す
るための機能ブロック図である。
FIG. 1 shows a vehicle front monitoring system 1 according to the present invention.
FIG. 2 is a functional block diagram for explaining an embodiment of the data processing device 30 constituting 0.

【0088】図1に示すデータ処理装置30は、左右画
像分離取得手段31と監視領域設定手段32と前方車両
抽出手段33と距離算出手段35と判定手段36と警報
手段37とを中心にして構成されている。
The data processing device 30 shown in FIG. 1 is composed mainly of left / right image separation / acquisition means 31, monitoring area setting means 32, front vehicle extraction means 33, distance calculation means 35, determination means 36, and alarm means 37. Have been.

【0089】図1に示す左右画像分離取得手段31は、
後述する左右画像分離取得工程を実行するものであっ
て、フレームメモリ45に記録されている合成画像信号
を読み出し、読み出された合成画像信号の1フレームを
構成する走査線信号における奇数番目の走査線信号を分
離して右画像情報31aを作成すると同時に、走査線信
号における偶数番目の走査線信号を分離して左画像情報
31bを作成する機能を有している。
The left and right image separation and acquisition means 31 shown in FIG.
A left / right image separation / acquisition step, which will be described later, is executed. A combined image signal recorded in the frame memory 45 is read, and an odd-numbered scan in a scanning line signal constituting one frame of the read combined image signal is performed. At the same time as generating the right image information 31a by separating the line signals, it has a function of separating the even-numbered scanning line signals in the scanning line signals to create the left image information 31b.

【0090】図1に示す監視領域設定手段32は、後述
する監視領域設定工程を実行するものであって、右画像
情報31a及び左画像情報31bに対して前方車両21
検出に関する監視領域32aを各々設定する機能を有
し、マイクロコンピュータを中心にして構成されている
ことが望ましい。
The monitoring area setting means 32 shown in FIG. 1 executes a monitoring area setting step which will be described later. The monitoring area setting means 32 performs the following processing on the right image information 31a and the left image information 31b.
It is desirable to have a function of setting each of the monitoring areas 32a related to detection, and to be configured mainly by a microcomputer.

【0091】図1に示す前方車両抽出手段33は、後述
する前方車両抽出工程を実行するものであって、左画像
情報31bにおいて水平エッジ及び垂直エッジを分離し
て抽出すると同時に、右画像情報31aにおいて水平エ
ッジ及び垂直エッジを分離して抽出し、左画像情報31
bにおいて抽出された水平エッジ及び垂直エッジに対し
てエッジの細線化を行って左エッジ画像33ALを作成
すると同時に、右画像情報31aにおいて抽出された水
平エッジ及び垂直エッジに対してエッジの細線化を行っ
て右エッジ画像33ARを作成し、右エッジ画像33AR
からエッジ画像33Eとしての推定左エッジ画像33E
Lを作成し、水平エッジ、垂直エッジから各々独立して
左エッジ画像33ALと推定エッジ画像33Eの差分画
像33Dを作成し、これらを合成して差分エッジ画像3
34cを作成する機能を有し、エッジ画像作成部332と
差分エッジ作成部334と窓作成部336とを中心にして
構成され、前述のマイクロプロセッサーで実行されてい
る。
The forward vehicle extracting means 33 shown in FIG. 1 executes a forward vehicle extracting step to be described later, and separates and extracts horizontal and vertical edges from the left image information 31b and simultaneously extracts the right image information 31a. , The horizontal and vertical edges are separated and extracted, and the left image information 31
b, the left edge image 33AL is created by thinning the horizontal and vertical edges extracted at the same time, and at the same time, the thinning of the edges is performed on the horizontal and vertical edges extracted from the right image information 31a. To create the right edge image 33AR,
From the estimated left edge image 33E as the edge image 33E
L, a difference image 33D of the left edge image 33AL and the estimated edge image 33E is generated independently of the horizontal edge and the vertical edge, and these are combined to obtain a difference edge image 3
It has a function of creating 34c, and is mainly configured by an edge image creating unit 332, a difference edge creating unit 334, and a window creating unit 336, and is executed by the aforementioned microprocessor.

【0092】図1に示すエッジ画像作成部332は、後
述するエッジ画像作成工程を実行するものであって、左
画像情報31bにおいて水平エッジ及び垂直エッジを分
離して抽出すると同時に、右画像情報31aにおいて水
平エッジ及び垂直エッジを分離して抽出し、左画像情報
31bにおいて抽出された水平エッジ及び垂直エッジに
対してエッジの細線化を行って左エッジ画像33ALを
作成すると同時に、右画像情報31aにおいて抽出され
た水平エッジ及び垂直エッジに対してエッジの細線化を
行って右エッジ画像33ARを作成してエッジ画像33
Eとしての推定左エッジ画像33ELを作成する機能を
有し、前述のマイクロプロセッサーで実行されている。
The edge image creating section 332 shown in FIG. 1 executes an edge image creating step, which will be described later, and separates and extracts horizontal edges and vertical edges from the left image information 31b and simultaneously extracts the right image information 31a. , The horizontal and vertical edges are separated and extracted, and the horizontal and vertical edges extracted in the left image information 31b are thinned to form a left edge image 33AL. Edge thinning is performed on the extracted horizontal edge and vertical edge to create a right edge image 33AR and an edge image 33AR.
It has a function of creating an estimated left edge image 33EL as E, and is executed by the aforementioned microprocessor.

【0093】図1に示す差分エッジ作成部334は、後
述する差分エッジ画像334cを作成する工程を実行する
ものであって、推定左エッジ画像33ELと左エッジ画
像33ALとの水平エッジに対する差分演算を行って差
分水平エッジ334aを作成すると同時に、推定左エッジ
画像33ELと左エッジ画像33ALとの垂直エッジに対
する差分演算を行って差分垂直エッジ334bを作成し、
差分水平エッジ334aと差分垂直エッジ334bとを合成
して差分エッジ画像334cを作成する機能を有し、前述
のマイクロプロセッサーで実行されている。
The difference edge creation section 334 shown in FIG. 1 executes a step of creating a difference edge image 334c, which will be described later, and performs difference calculation on the horizontal edge between the estimated left edge image 33EL and the left edge image 33AL. To create a difference horizontal edge 334a, and at the same time, perform a difference operation on the vertical edge between the estimated left edge image 33EL and the left edge image 33AL to create a difference vertical edge 334b.
It has a function of creating a difference edge image 334c by combining the difference horizontal edge 334a and the difference vertical edge 334b, and is executed by the aforementioned microprocessor.

【0094】図1に示す窓作成部336は、後述する窓
336aを作成する工程を実行するものであって、推定左
エッジ画像33ELと左エッジ画像33ALとの差分演算
において差分水平エッジ334a及び差分垂直エッジ33
4bを作成した残余画像のエッジ点の重心を算出し、算出
した重心を中心に全エッジの所定割合を含む窓336aを
作成する機能を有し、前述のマイクロプロセッサーで実
行されている。
The window creation unit 336 shown in FIG. 1 executes a process of creating a window 336a, which will be described later. In the difference calculation between the estimated left edge image 33EL and the left edge image 33AL, the difference horizontal edge 334a and the difference horizontal edge 334a are calculated. Vertical edge 33
It has the function of calculating the center of gravity of the edge point of the residual image for which 4b has been created, and creating a window 336a containing a predetermined percentage of all edges centered on the calculated center of gravity, and is executed by the aforementioned microprocessor.

【0095】図1に示す距離算出手段35は、後述する
距離算出工程を実行するものであって、左カメラ41L
によって撮影される撮影画像である左現画像に窓336a
を設定し、右カメラ41Rによって撮影される撮影画像
である右現画像上に対応する領域を設定し、左現画像に
おける窓336aと右現画像における窓336aとの間の視
差を算出し、算出された視差に基づいて、前方を走行し
ている車両と自車両20との距離を算出する機能を有
し、前述のマイクロプロセッサーで実行されている。
The distance calculating means 35 shown in FIG. 1 executes a distance calculating step which will be described later.
Window 336a on the left current image
Is set, a corresponding area is set on the right current image, which is an image captured by the right camera 41R, and the disparity between the window 336a in the left current image and the window 336a in the right current image is calculated. It has a function of calculating the distance between the vehicle traveling ahead and the host vehicle 20 based on the parallax thus performed, and is executed by the above-described microprocessor.

【0096】図1に示す判定手段36は、算出された距
離に基づいて危険状態か否かを判定し、危険状態と判定
した場合に警報信号36aを作成する機能を有し、前述
のマイクロプロセッサーで実行されている。
The judging means 36 shown in FIG. 1 has a function of judging whether or not the vehicle is in a dangerous state based on the calculated distance, and generating an alarm signal 36a when it is determined that the vehicle is in a dangerous state. Running on

【0097】図1に示す警報手段37は、算出された距
離に基づいて、警報信号36aを受けて警報を発生する
機能を有し、警報ブザーを中心にして構成されているこ
とが望ましい。
The alarm means 37 shown in FIG. 1 has a function of receiving an alarm signal 36a based on the calculated distance and generating an alarm, and is preferably configured around an alarm buzzer.

【0098】図2は、本発明の車両前方監視システム1
0を構成するステレオ動画像取得装置40の一実施形態
を説明するための機能ブロック図である。
FIG. 2 shows a vehicle front monitoring system 1 according to the present invention.
FIG. 2 is a functional block diagram for explaining an embodiment of a stereo moving image acquisition device 40 that constitutes a stereo moving image acquisition device 0.

【0099】図2に示すステレオ動画像取得装置40
は、後述するステレオ動画像取得工程を実行するもので
あって、図5で後述するように、切り替え信号43bに
同期して、右映像信号41Ra(ビデオ信号)における奇
数走査線信号である1/2フレーム分を合成映像信号4
4a(ビデオ信号)における1/2フレーム分の画像デ
ータとして用いると同時に、左映像信号41La(ビデオ
信号)における偶数走査線信号である1/2フレーム分
を合成映像信号44aにおける残りの1/2フレーム分
の画像データとして用いて合成映像信号44aを合成す
る機能を有し、左カメラ41L及び右カメラ41Rと同期
信号発生器43と合成映像作成手段44を有している。
The stereo moving picture acquisition device 40 shown in FIG.
Performs a stereo moving image acquisition step described later. As described later with reference to FIG. 5, in synchronization with the switching signal 43b, the odd scanning line signal 1/1 in the right video signal 41Ra (video signal) is used. Synthesized video signal 4 for 2 frames
4a (video signal) is used as image data for 1/2 frame, and at the same time, 1/2 frame, which is an even-numbered scanning line signal in left video signal 41La (video signal), is used as the remaining 1/2 in composite video signal 44a. It has a function of synthesizing a composite video signal 44a using image data for a frame, and has a left camera 41L and a right camera 41R, a synchronization signal generator 43, and a composite video creating means 44.

【0100】左カメラ41L及び右カメラ41Rは、カメ
ラの光軸を自車両20の進行方向ベクトルと平行に設置
すると同時に、車両上に路面34から同じ高さで設けら
れた機能を有し、具体的には、CCDカメラを用いるこ
とが望ましい。
The left camera 41L and the right camera 41R have the function of setting the optical axis of the camera in parallel with the traveling direction vector of the vehicle 20 and at the same height from the road surface 34 on the vehicle. Specifically, it is desirable to use a CCD camera.

【0101】同期信号発生器43は、左カメラ41L及
び右カメラ41Rにおいて前方車両を中心とするシーン
を撮影を行うタイミングを指示する同期信号43aを生
成すると同時に、インターレース走査方式における1/
2フレーム時間(1/60秒)に同期した切り替え信号
43bを生成する機能を有している。
The synchronizing signal generator 43 generates a synchronizing signal 43a for instructing the left camera 41L and the right camera 41R to shoot a scene centered on the vehicle in front, and at the same time, generates a synchronizing signal 43a in the interlaced scanning system.
It has a function of generating a switching signal 43b synchronized with two frame times (1/60 second).

【0102】合成映像作成手段44は、同期信号43a
に基づいて左カメラ41L及び右カメラ41Rを同期して
同一時刻に左画像と右画像とを撮影して左画像と右画像
との合成映像信号44aを作成する機能を有し、前述の
マイクロプロセッサーで実行されている。
The composite video creating means 44 is provided with a synchronizing signal 43a.
Has the function of synchronizing the left camera 41L and the right camera 41R on the basis of the above, photographing the left image and the right image at the same time, and creating a composite video signal 44a of the left image and the right image, Running on

【0103】このようなステレオ動画像取得装置40
は、切り替え信号43bに同期して、左カメラ41Lか
らの左映像信号41Laにおける偶数走査線信号と右カメ
ラ41Rからの右映像信号41Raにおける奇数走査線信
号とを収集し、左映像信号41Laの偶数走査線信号を合
成映像信号44aにおける偶数走査線信号とすると同時
に右映像信号41Raの奇数走査線信号を合成映像信号4
4aにおける奇数走査線信号として合成して合成映像信
号44aを作成するように構成されている。
[0103] Such a stereo moving image acquisition apparatus 40
Collects an even-numbered scanning line signal in the left video signal 41La from the left camera 41L and an odd-numbered scanning line signal in the right video signal 41Ra from the right camera 41R in synchronization with the switching signal 43b, and The scanning line signal is used as the even-numbered scanning line signal in the combined video signal 44a, and at the same time, the odd-numbered scanning line signal of the right video signal 41Ra is combined with the combined video signal 4a.
The composite video signal 44a is formed by combining the odd-numbered scan line signals in 4a.

【0104】以上説明したように、ステレオ動画像取得
装置40に依れば、左カメラ41L(右カメラ41R)の
カメラから得られる画像がすべて路面34と等しい高さ
にある場合、画像中のすべての画素を視差の値だけ走査
線方向に移動させると右カメラ41R(左カメラ41L)
により撮像された画像と同等の画像の作成が可能とな
る。
As described above, according to the stereo moving image acquisition apparatus 40, if all the images obtained from the left camera 41L (right camera 41R) are at the same height as the road surface 34, Is moved in the scanning line direction by the value of parallax, the right camera 41R (the left camera 41L)
Thus, it is possible to create an image equivalent to the captured image.

【0105】図1,2に示す単一のフレームメモリ45
は、走査線の交互に左映像信号41Laと右映像信号41
Raと合成されて1フレームが構成された合成画像信号を
記録する機能を有している。
A single frame memory 45 shown in FIGS.
Are the left video signal 41La and the right video signal 41
It has a function of recording a composite image signal composed of one frame by being combined with Ra.

【0106】次に、図面に基づき、前述の車両前方監視
システム10を用いて実行される前方車両検出方法の一
実施形態を説明する。
Next, an embodiment of a forward vehicle detection method executed by using the above-described forward vehicle monitoring system 10 will be described with reference to the drawings.

【0107】2台のカメラの光軸を進行方向ベクトルと
平行に設置した場合、路面34はそれぞれのカメラから
常に等しい高さにある。そこで、2台のカメラにより撮
像された左右のある画像において、左右の路面34の視
差Pを走査線毎に算出している。1台のカメラから得ら
れる画像がすべて路面34と等しい高さにある場合、画
像中のすべての画素を走査線毎に先程の視差Pの値だけ
移動させると、もう1台のカメラにより撮像された画像
と、同等の画像の作成が可能となる。
When the optical axes of the two cameras are set parallel to the traveling direction vector, the road surface 34 is always at the same height from each camera. Therefore, in the left and right images captured by the two cameras, the parallax P of the left and right road surfaces 34 is calculated for each scanning line. When the images obtained from one camera are all at the same height as the road surface 34, if all the pixels in the image are moved by the value of the parallax P for each scanning line, the image is picked up by the other camera. It is possible to create an image that is equivalent to the image that has been set.

【0108】しかしながら、路面34よりも高い場所に
ある前方車両21などの画素を同様な前方車両検出方法
で移動させた場合、別のカメラにより撮像された画像と
同等なものとはならない。
However, if pixels of the front vehicle 21 and the like located higher than the road surface 34 are moved by the same front vehicle detection method, the image will not be equivalent to an image captured by another camera.

【0109】このようにして、人為的に作成した推定画
像と実際に撮像された画像とを比較することにより、同
一平面上にある路面34だけを消去し、それよりも高い
場所にある前方車両21を残すことが可能になる。
In this manner, by comparing the artificially created estimated image with the actually picked-up image, only the road surface 34 on the same plane is deleted, and the forward vehicle located at a higher place than the road surface 34 is deleted. 21 can be left.

【0110】この原理により、2台のカメラから得られ
る走行中の自動車の両眼道路画像を用いて、あらかじ
め、画像中の画素のうち回避の必要が無い路面表示など
の路面34と路面34から同じ高さにある画素の消去を
行うことにより、距離D算出に要する処理時間の短縮を
図っている。
According to this principle, using the binocular road image of a running vehicle obtained from two cameras, a road surface 34 and a road surface 34 such as a road surface display that need not be avoided among the pixels in the image are used in advance. The processing time required for calculating the distance D is reduced by erasing pixels at the same height.

【0111】本実施形態の目的は、自車両20の前方の
両眼道路画像から路面34の消去を行うことにより、前
方車両21の検出を行い、距離Dおよび相対速度vの算
出を高速に行う前方車両検出方法を開発することであ
る。
The purpose of the present embodiment is to detect the preceding vehicle 21 by erasing the road surface 34 from the binocular road image ahead of the own vehicle 20 and to calculate the distance D and the relative speed v at high speed. The purpose is to develop a method for detecting the vehicle ahead.

【0112】本前方車両検出方法の特徴は、あらかじ
め、回避の必要が無い路面34の消去を行うことによ
り、従来両眼道路画像を用いた前方車両検出方法で問題
とされてきた、処理時間の短縮を行うところにある。そ
のために、カメラは、自車両20の進行方向ベクトルと
光軸が平行になるようにし、常に路面34から同じ高さ
に存在するように配置するという条件を利用している。
The feature of the present forward vehicle detection method is that by eliminating the road surface 34 which does not need to be avoided in advance, the processing time of the forward vehicle detection method conventionally using the binocular road image is problematic. There is a place to shorten. For this purpose, the camera uses the condition that the traveling direction vector of the host vehicle 20 and the optical axis are parallel to each other and that the camera is always located at the same height from the road surface 34.

【0113】図3は、車両前方監視システム10で実行
される前方車両検出方法の一実施形態を説明するための
フローチャートである。
FIG. 3 is a flowchart for explaining an embodiment of a forward vehicle detecting method executed by the forward vehicle monitoring system 10.

【0114】図3に示す前方車両検出方法は、左カメラ
41Lを用いて収集した左画像と右カメラ41Rを用いて
収集した右画像を用いてステレオ式の画像処理を行って
前方を走行している車両と自車両20との距離を計測し
危険な場合に警報を発生するアルゴリズムを実行でき、
ステレオ動画像取得工程と左右画像分離取得工程と推定
エッジ画像作成工程と前方車両抽出工程と距離算出工程
と判定工程と警報発生工程とを中心にして構成されてい
る。
The front vehicle detection method shown in FIG. 3 performs stereo image processing using the left image collected by using the left camera 41L and the right image collected by using the right camera 41R, and travels forward. An algorithm that measures the distance between the vehicle and the vehicle 20 and generates an alarm when there is a danger,
It mainly comprises a stereo moving image acquisition step, a left and right image separation acquisition step, an estimated edge image creation step, a front vehicle extraction step, a distance calculation step, a determination step, and an alarm generation step.

【0115】以下に、2台のカメラから得られる画像を
用いて両眼立体視を行い、距離D算出を行う前方車両検
出方法について述べる。また、本実施形態における両眼
画像データの前方車両検出方法、及び両眼立体視法を用
いた前方車両21までの距離Dおよび前方車両21と自
車両20との相対速度vの算出する前方車両検出方法に
ついて述べる。
[0115] A method for detecting a forward vehicle that performs binocular stereoscopic vision using images obtained from two cameras and calculates the distance D will be described below. In addition, the front vehicle detection method of the binocular image data in the present embodiment, and the front vehicle that calculates the distance D to the front vehicle 21 and the relative speed v between the front vehicle 21 and the host vehicle 20 using the binocular stereoscopic method The detection method will be described.

【0116】初めに、両眼立体視法の概略を説明する。First, the outline of the binocular stereoscopic method will be described.

【0117】カメラによって撮像される画像は、一般的
に2次元の情報しか持っておらず、カメラから被測距対
象体までの3次元情報である距離情報は失われてしまっ
ている。しかし、自動車が走行する環境は3次元的な広
がりを持っており、特に追突事故を回避するためには前
方車両21との距離Dが非常に重要な情報となってく
る。
An image picked up by a camera generally has only two-dimensional information, and distance information that is three-dimensional information from the camera to the object to be measured has been lost. However, the environment in which a car travels has a three-dimensional spread, and the distance D from the preceding vehicle 21 is very important information in order to avoid a rear-end collision.

【0118】そこで、画像処理による距離情報の前方車
両検出方法として、異なる方向から取得した、2枚の画
像を用いた両眼立体視法がある。
Therefore, as a method for detecting a preceding vehicle from distance information by image processing, there is a binocular stereoscopic method using two images acquired from different directions.

【0119】本前方車両検出方法は、このような両眼立
体視法を用いており、2枚の画像間で着目点の視差Pを
求めることにより、その視差Pの値から距離Dを算出す
る前方車両検出方法であり、被測距対象までの絶対的な
距離Dを求めることが可能となる。
The present vehicle detection method uses such a binocular stereoscopic method, and calculates the distance D from the value of the parallax P by obtaining the parallax P of the point of interest between the two images. This is a method for detecting a preceding vehicle, and it is possible to obtain an absolute distance D to a target to be measured.

【0120】図4は、前方車両検出方法及び車両前方監
視システム10において用いられる両眼立体視法を説明
するためのの原理図である。
FIG. 4 is a principle diagram for explaining a binocular stereoscopic method used in the forward vehicle detection method and the forward vehicle monitoring system 10.

【0121】まず、両眼立体視法の原理について述べ
る。図4に示すように、距離rだけ離して設置した焦点
距離fの2台のカメラで、2つのカメラを結ぶ直線Lか
らDの距離にある点Pを撮像する。ここで、カメラの光
軸はどちらも直線Lに垂直とする。
First, the principle of binocular stereopsis will be described. As shown in FIG. 4, two cameras having a focal length f set apart by a distance r capture an image of a point P located at a distance D from a straight line L connecting the two cameras. Here, the optical axes of the cameras are both perpendicular to the straight line L.

【0122】この時、右カメラにおける点Pの像の位置
から左カメラにおける像の位置までの距離はr+xとな
り、視差Pはxとなる。従来の前方車両検出方法では、
図からもわかるように点Pまでの距離Dは、xから D=r・f/x (1) として求める(図4)。
At this time, the distance from the position of the image of the point P in the right camera to the position of the image in the left camera is r + x, and the parallax P is x. In the conventional method for detecting a forward vehicle,
As can be seen from the figure, the distance D to the point P is obtained from x as D = r · f / x (1) (FIG. 4).

【0123】しかしながら、両眼立体視法においては、
カメラの微妙なずれによって前方車両21までの実際の
距離と計算上の距離が大きく異なる。そこで、本前方車
両検出方法においては、実際に10mから50m先まで
10mおきに置かれた被測距対象を撮像し、それぞれの
被測距対象の視差Pを検出し、視差Pと距離との関係式
を算出している。
However, in the binocular stereopsis,
The actual distance to the preceding vehicle 21 and the calculated distance greatly differ due to a slight displacement of the camera. Therefore, in the present forward vehicle detection method, an image of the distance measurement target that is actually placed every 10 m from 10 m to 50 m ahead is taken, the parallax P of each distance measurement target is detected, and the parallax P and the distance are calculated. The relational expression is calculated.

【0124】つまり、同じシステムで撮像された被測距
対象であれば、この関係式と視差Pから実際の距離を正
確に算出することが可能となる。
That is, if the object to be measured is an image captured by the same system, the actual distance can be accurately calculated from the relational expression and the parallax P.

【0125】このように、2次元画像情報しか持たない
2枚の画像から、画像中の着目点の距離情報を得ること
が可能となる。
As described above, it is possible to obtain distance information of a point of interest in an image from two images having only two-dimensional image information.

【0126】この前方車両検出方法は、人間が左右の目
の見えかたの違いにより、見ている被測距対象の奥行き
を知覚することに似ている。
This forward vehicle detection method is similar to a method in which a human perceives the depth of the object to be measured by the difference in how the left and right eyes look.

【0127】しかしながら、この前方車両検出方法では
2枚の画像上でそれぞれ着目している点が果たして同一
の点P点に対応していない可能性があるということが問
題となる。
However, in this forward vehicle detection method, there is a problem that the point of interest on each of the two images may not actually correspond to the same point P.

【0128】すなわち、着目点の3次元情報から任意の
画像面への投影は一意に定まるが、その逆は一意ではな
い。
That is, the projection of the point of interest onto the arbitrary image plane from the three-dimensional information is uniquely determined, but the reverse is not unique.

【0129】つまり、何らかの前方車両21の特徴が抽
出されない場合、画像全体に渡って、左画像情報41L
及び右画像情報41Rのマッチングをとることになり、
処理が非常に煩雑になる。ゆえに、両眼画像を用いて3
次元情報を取得する前方車両検出方法は、多大な処理時
間を要するという見方が一般的である。
That is, when any feature of the preceding vehicle 21 is not extracted, the left image information 41L is displayed over the entire image.
And the right image information 41R will be matched,
Processing becomes very complicated. Therefore, 3
It is common to see that the preceding vehicle detection method for acquiring dimensional information requires a great deal of processing time.

【0130】しかしながら、運転補助システムは、実時
間で距離等の走行情報を取得することが理想である。そ
のため、距離算出などの処理は常に運転速度に応じて高
速であることが要求されている。そのため、両眼立体視
法を用いて車両周辺監視を行うためには、対応点探索を
高速化するなどして、処理時間を短縮する必要がある。
However, it is ideal for the driving assistance system to acquire driving information such as distance in real time. Therefore, it is required that processing such as distance calculation is always performed at a high speed according to the driving speed. Therefore, in order to monitor the surroundings of the vehicle using the binocular stereoscopic method, it is necessary to shorten the processing time by speeding up a corresponding point search or the like.

【0131】本実施形態では、前方車両21までの距離
Dを算出するという見地から、両眼立体視法を用いる。
また、回避の必要がない路面表示などを消去し、前方車
両21の画像のみを残すことにより、対応点探索の高速
化を行い従来の問題点であった処理時間の短縮を図って
いる。続いて、ステレオ動画像取得工程を説明する。
In this embodiment, the binocular stereoscopic method is used from the viewpoint of calculating the distance D to the vehicle 21 ahead.
In addition, the road surface display that does not need to be avoided is deleted, and only the image of the preceding vehicle 21 is left, thereby speeding up the corresponding point search and shortening the processing time, which is a conventional problem. Subsequently, a stereo moving image acquiring step will be described.

【0132】画像処理により、車両周辺の監視を行う場
合、取得される画像は動画像であることが望ましい。な
ぜなら、自動車の走行環境というものは、時間的に変化
しており、これを認識しなければならないからである。
また、両眼立体視を行うためには、同時刻の2枚の画像
が必要となる。しかしながら、現状では家庭用のフレー
ムメモリ45を用いて、同時刻の2枚の画像を撮像する
ことは、非常に困難である。
When monitoring the vicinity of a vehicle by image processing, it is desirable that the acquired image is a moving image. This is because the driving environment of a car changes over time, and this must be recognized.
Further, in order to perform binocular stereoscopic vision, two images at the same time are required. However, at present, it is very difficult to capture two images at the same time using the home frame memory 45.

【0133】そこでステレオ動画像取得工程は、左右の
カメラを同期して同一時刻に左画像と右画像とを撮影し
て左画像と右画像との合成映像信号44aを作成するプ
ログラムコード(ステップS1)を有している。
Therefore, in the stereo moving image acquisition step, the left and right cameras are synchronized and the left and right images are photographed at the same time to create a composite video signal 44a of the left and right images (step S1). )have.

【0134】この様なプログラムコードによれば、右映
像信号41Raにおける奇数走査線信号である1/2フレ
ーム分を合成映像信号44aにおける1/2フレーム分
の画像データとして用いると同時に、左映像信号41La
における偶数走査線信号である1/2フレーム分を合成
映像信号44aにおける残りの1/2フレーム分の画像
データとして用いて合成映像信号44aを作成してい
る。その結果、従来に比べ撮像画像を記録するフレーム
メモリ45のメモリー量を1/2フレーム分の偶数走査
線本数と1/2フレーム分の奇数走査線本数との和程度
まで少なく設定でき、フレームメモリ45の容量を従来
より半分程度に低減できるようになる。また、距離算出
に必要な視差は水平方向(走査線方向)であるので、従
来の前方車両検出方法に比べても検出分解能が劣ること
は無い。これに依り、使用目的に合った高い検出精度の
前方監視処理が容易なアルゴリズムを備えた点で優位性
を主張することができるようになる。その結果、フレー
ムメモリ45のメモリー量に関する製造コストや設置ス
ペースの点で優位性を主張することができるようにな
る。
According to such a program code, half of the odd-numbered scanning line signal in the right video signal 41Ra is used as image data for one-half frame in the composite video signal 44a, and at the same time, the left video signal is used. 41La
Are used as image data for the remaining 1/2 frame of the combined video signal 44a to create the combined video signal 44a. As a result, the amount of memory of the frame memory 45 for recording a captured image can be set to be smaller than the number of even-numbered scanning lines for one-half frame and the number of odd-numbered scanning lines for one-half frame. 45 can be reduced to about half of the conventional capacity. In addition, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution is not inferior to that of the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory 45.

【0135】またステレオ動画像取得工程は、1/2フ
レーム時間毎に奇数走査線信号と偶数走査線信号とを分
けて出力するインターレースモードで左カメラ41L及
び右カメラ41Rが動作する場合に左カメラ41Lからの
左映像信号41Laと右カメラ41Rからの右映像信号4
1Raとを1/2フレーム時間毎に交互に切り替えて収集
して合成映像信号44aを作成するプログラムコード
(ステップS2)を有している。
Further, the stereo moving image acquisition step is performed when the left camera 41L and the right camera 41R operate in the interlaced mode in which the odd scan line signal and the even scan line signal are output separately every half frame time. Left video signal 41La from 41L and right video signal 4 from right camera 41R
1Ra and a program code (Step S2) for alternately collecting and collecting 1Ra every フ レ ー ム frame time to create a composite video signal 44a.

【0136】ステレオ動画像取得工程においては、同期
信号発生器43より同期信号43aを発生させ2台のC
CDカメラ41L,41Rに入力し、2台のCCDカメラ
41L,41Rを同期させている(ステップS1)。ま
た、合成映像作成手段44に対して1/60秒ごとの切
り替え信号43bを与えている(ステップS2)。
In the stereo moving image acquisition step, a synchronizing signal 43a is generated from the synchronizing signal
The data is input to the CD cameras 41L and 41R, and the two CCD cameras 41L and 41R are synchronized (step S1). In addition, a switching signal 43b is provided to the composite image creating means 44 every 1/60 second (step S2).

【0137】このとき、2台のCCDカメラ41L,4
1Rから出力される左映像信号41Laと右映像信号41R
aとは、お互いに同期しているので、合成映像作成手段
44によって合成することができる(ステップS2)。
At this time, the two CCD cameras 41L, 4
Left video signal 41La and right video signal 41R output from 1R
Since “a” is synchronized with each other, they can be combined by the combined video creating means 44 (step S2).

【0138】この様なプログラムコードによれば、左カ
メラ41Lからの左映像信号41Laにおける偶数走査線
信号と右カメラ41Rからの右映像信号41Raにおける
奇数走査線信号とを収集し、また左映像信号41Laの偶
数走査線信号を合成映像信号44aにおける偶数走査線
信号とし、更に、右映像信号41Raの奇数走査線信号を
合成映像信号44aにおける奇数走査線信号として合成
して合成映像信号44aを作成している。その結果、従
来に比べ撮像画像を記録するフレームメモリ45のメモ
リー量を1/2フレーム分の偶数走査線本数と1/2フ
レーム分の奇数走査線本数との和程度まで少なく設定で
き、フレームメモリ45の容量を従来より半分程度に低
減できるようになる。また、距離算出に必要な視差は水
平方向(走査線方向)であるので、従来の前方車両検出
方法に比べても検出分解能が劣ることは無い。これに依
り、使用目的に合った高い検出精度の前方監視処理が容
易なアルゴリズムを備えた点で優位性を主張することが
できるようになる。その結果、フレームメモリ45のメ
モリー量に関する製造コストや設置スペースの点で優位
性を主張することができるようになる。
According to such a program code, an even-numbered scanning line signal in the left video signal 41La from the left camera 41L and an odd-numbered scanning line signal in the right video signal 41Ra from the right camera 41R are collected. The even scanning line signal of 41La is used as the even scanning line signal in the combined video signal 44a, and the odd scanning line signal of the right video signal 41Ra is combined as the odd scanning line signal in the combined video signal 44a to create the combined video signal 44a. ing. As a result, the amount of memory of the frame memory 45 for recording a captured image can be set to be smaller than the number of even-numbered scanning lines for one-half frame and the number of odd-numbered scanning lines for one-half frame. 45 can be reduced to about half of the conventional capacity. In addition, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution is not inferior to that of the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory 45.

【0139】またステレオ動画像取得工程は、走査線の
交互に左映像信号41Laと右映像信号41Raと合成され
て1フレームが構成された合成画像信号を単一のフレー
ムメモリ45に記録するプログラムコード(ステップS
3)を有している。
[0139] The stereo moving image acquiring step is a program code for recording a combined image signal in which one frame is composed by combining the left image signal 41La and the right image signal 41Ra alternately in a scanning line in a single frame memory 45. (Step S
3).

【0140】この様にして得られた合成映像作成手段4
4は、フレームメモリ45に出力される(ステップS
3)。
The synthesized image creating means 4 obtained in this way
4 is output to the frame memory 45 (step S
3).

【0141】この様なプログラムコードによれば、フレ
ーム分の合成映像信号44aを単一のフレームメモリ4
5に記録している。その結果、フレームメモリ45の共
有化が可能となり、従来に比べ撮像画像を記録するフレ
ームメモリ45のメモリー量を1/2フレーム分の偶数
走査線本数と1/2フレーム分の奇数走査線本数との和
程度まで少なく設定でき、フレームメモリ45の容量を
従来より半分程度に低減できるようになる。また、フレ
ームメモリ45の共有化を図っても、距離算出に必要な
視差は水平方向(走査線方向)であるので、従来の前方
車両検出方法に比べても検出分解能が劣ることは無い。
これに依り、使用目的に合った高い検出精度の前方監視
処理が容易なアルゴリズムを備えた点で優位性を主張す
ることができるようになる。その結果、フレームメモリ
45の共有化に起因するフレームメモリ45のメモリー
量に関する製造コストや設置スペースの点で優位性を主
張することができるようになる。
According to such a program code, the composite video signal 44a for a frame is stored in a single frame memory 4
Recorded at 5. As a result, the frame memory 45 can be shared, and the amount of memory of the frame memory 45 for recording a captured image can be reduced to the number of even-numbered scanning lines for 1/2 frame and the number of odd-numbered scanning lines for 1/2 frame. , And the capacity of the frame memory 45 can be reduced to about half that of the related art. Further, even if the frame memory 45 is shared, the parallax required for calculating the distance is in the horizontal direction (scanning line direction), so that the detection resolution is not inferior to the conventional method for detecting a forward vehicle.
This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of the manufacturing cost and the installation space related to the memory amount of the frame memory 45 due to the sharing of the frame memory 45.

【0142】フレームメモリ45に記録されている合成
画像信号の読み出し(ステップS4)に続いく左右画像
分離取得工程は、読み出された合成画像信号の1フレー
ムを構成する走査線信号における奇数番目の走査線信号
を分離して右画像情報31aを作成すると同時に、走査
線信号における偶数番目の走査線信号を分離して左画像
情報31bを作成するプログラムコード(ステップS
5)を有している。
Following the reading of the composite image signal recorded in the frame memory 45 (step S4), the left and right image separation / acquisition step is performed in the odd-numbered scanning line signals constituting one frame of the read composite image signal. At the same time as generating the right image information 31a by separating the scanning line signals, a program code for generating the left image information 31b by separating the even-numbered scanning line signals in the scanning line signals (step S
5).

【0143】この様なプログラムコードによれば、共有
化されているフレームメモリ45内に記録されている偶
数番目の走査線信号のものと奇数番目の走査線信号のも
のとに分離することにより、水平方向に垂直方向の倍の
解像度を持つ右画像情報31aと左画像情報31bとの
2枚で1組の両眼画像を動画像として得ることできるよ
うになるといった効果を奏する。また、距離算出に必要
な視差は水平方向(走査線方向)であるので、右画像情
報31aと左画像情報31bは従来の前方車両検出方法
に比べても検出分解能が劣ることは無い。これに依り、
使用目的に合った高い検出精度の前方監視処理が容易な
アルゴリズムを備えた点で優位性を主張することができ
るようになる。その結果、フレームメモリ45の共有化
に起因するフレームメモリ45のメモリー量に関する製
造コストや設置スペースの点で優位性を主張することが
できるようになる。
According to such a program code, by separating the signals into even-numbered scanning line signals and odd-numbered scanning line signals recorded in the shared frame memory 45, There is an effect that a set of binocular images can be obtained as a moving image by using two pieces of right image information 31a and left image information 31b having a resolution twice as high in the horizontal and vertical directions. Further, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution of the right image information 31a and the left image information 31b is not inferior to that of the conventional method of detecting a forward vehicle. According to this,
It is possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of the manufacturing cost and the installation space related to the memory amount of the frame memory 45 due to the sharing of the frame memory 45.

【0144】図5は、前方車両検出方法及び車両前方監
視システム10において用いられる右映像信号41Raと
左映像信号41Laとから構成される合成映像信号44a
の画像形態を説明するための図である。
FIG. 5 shows a composite video signal 44a composed of a right video signal 41Ra and a left video signal 41La used in the forward vehicle detection method and the vehicle forward monitoring system 10.
FIG. 3 is a diagram for explaining the image form of FIG.

【0145】合成映像作成手段44内で切り替え信号4
3bが切り替わる毎に、2台のCCDカメラ41L,4
1Rからの左映像信号41Laと右映像信号41Raとが交
互にフレームメモリ45へ出力されるので(ステップS
4)、図5に示すように、出力画像は走査線の交互に左
画像情報41Lと右画像情報41Rが映った画像となる
(ステップS5)。
The switching signal 4 in the composite image creating means 44
Each time 3b switches, two CCD cameras 41L, 4
Since the left video signal 41La and the right video signal 41Ra from 1R are alternately output to the frame memory 45 (step S
4), as shown in FIG. 5, the output image becomes an image in which the left image information 41L and the right image information 41R appear alternately on the scanning lines (step S5).

【0146】この画像をデータ処理装置30内の処理
で、偶数番目の走査線のものと奇数番目の走査線のもの
とに分離することにより、水平方向に垂直方向の倍の解
像度を持つ右画像情報31aと左画像情報31bとの2
枚で1組の両眼画像を動画像として得ることが可能とな
る(ステップS2)。
By separating this image into those of even-numbered scanning lines and those of odd-numbered scanning lines in the processing in the data processing device 30, a right image having twice the resolution in the horizontal and vertical directions is obtained. 2 of information 31a and left image information 31b
One set of binocular images can be obtained as a moving image in one sheet (step S2).

【0147】図6は左カメラ41Lや右カメラ41R(具
体的には、CCDカメラ)の撮像状態であって、図6
(a)は、1/2フレーム時間毎に奇数走査線信号と偶
数走査線信号とを分けて出力するインターレースモード
を説明するための図であり、図6(b)は、図6(a)
のインターレースモードにおける右映像信号41Ra及び
左映像信号41Laのフレーム構造を説明するための図で
ある。
FIG. 6 shows an image pickup state of the left camera 41L and the right camera 41R (specifically, a CCD camera).
FIG. 6A is a diagram for explaining an interlace mode in which an odd-numbered scanning line signal and an even-numbered scanning line signal are separately output every 1/2 frame time, and FIG. 6B is a diagram for explaining the interlacing mode.
FIG. 6 is a diagram for describing a frame structure of a right video signal 41Ra and a left video signal 41La in the interlace mode of FIG.

【0148】図6(a)に示すように、撮像された画像
は525本程度の走査線毎に左映像信号41Laと右映像
信号41Raとして外部に出力される。
As shown in FIG. 6A, the captured image is output to the outside as a left video signal 41La and a right video signal 41Ra for every 525 scanning lines.

【0149】外部へ出力する方式としてはインターレー
スモードが良く用いられている。インターレースモード
では図6(b)に示すように1/2フレーム時間(1/
60秒)毎に奇数走査線信号、偶数走査線信号を分けて
出力する。よって1フレーム時間(1/30秒)で1画
面(1フレーム分)の左映像信号41Laと右映像信号4
1Raが出力されることになる。
As a method of outputting to the outside, an interlace mode is often used. In the interlaced mode, as shown in FIG.
Every 60 seconds), the odd scanning line signal and the even scanning line signal are separately output. Therefore, the left video signal 41La and the right video signal 4La of one screen (one frame) in one frame time (1/30 second)
1Ra will be output.

【0150】次に、ステレオ動画像取得工程(ステップ
S1,2,3)及び左右画像分離取得工程(ステップS
5)における両眼道路画像の取得を用いて説明する。
Next, a stereo moving image acquisition step (steps S1, S2, S3) and a left and right image separation acquisition step (step S1)
A description will be given using the acquisition of the binocular road image in 5).

【0151】図7は、図2のステレオ動画像取得装置4
0において、自車両20が直進する時の進行方向ベクト
ルと一致しお互い路面34に対して平行になるような光
軸を有する左カメラ41Lと右カメラ41Rを自動車の天
井部に取り付けて両眼道路画像の取得を行う様子を説明
するための図である。
FIG. 7 is a block diagram of the stereo moving image acquisition device 4 shown in FIG.
At 0, a left camera 41L and a right camera 41R having an optical axis that coincides with the traveling direction vector when the vehicle 20 travels straight and are parallel to the road surface 34 are attached to the ceiling of the vehicle, and the binocular road is attached. FIG. 9 is a diagram for explaining how to acquire an image.

【0152】図7に示すように、前項で述べたステレオ
動画像取得装置40を用いて両眼道路画像の取得を行っ
ている。
As shown in FIG. 7, a binocular road image is obtained by using the stereo moving image obtaining apparatus 40 described in the previous section.

【0153】まず、2台のCCDカメラ41L,41Rを
自車両20の天井部に取り付ける。2台のCCDカメラ
41L,41Rの光軸は、お互い路面34に対して平行に
なるように設置する。また、光軸は、自車両20が直進
する時の進行方向ベクトルと一致するように設置する。
高速道路を走行し、走行中の前方道路画像を動画像(す
なわち、左映像信号41Laと右映像信号41Ra)として
フレームメモリ45に録画する(ステップS1→2→
3)。
First, two CCD cameras 41L and 41R are mounted on the ceiling of the vehicle 20. The optical axes of the two CCD cameras 41L and 41R are set so as to be parallel to the road surface 34. The optical axis is set so as to coincide with the traveling direction vector when the vehicle 20 goes straight.
The vehicle travels on the highway and the image of the road ahead traveling is recorded in the frame memory 45 as a moving image (that is, the left video signal 41La and the right video signal 41Ra) (step S1 → 2 →).
3).

【0154】以上の前方車両検出方法により得られる合
成映像信号44a(動画像)を、フレームメモリ45を
介して、データ処理装置30内に連続的に取り込む(ス
テップS4)。取り込まれた合成映像信号44aを、走
査線の偶数番目の画像と奇数番目の合成映像信号44a
とにデータ処理装置30内で分離する(ステップS
5)。このようにして、右画像情報31a及び左画像情
報31bの取得を行っている(ステップS5)。
The composite video signal 44a (moving image) obtained by the above-described preceding vehicle detection method is continuously taken into the data processing device 30 via the frame memory 45 (step S4). The captured composite video signal 44a is converted into an even-numbered image of a scanning line and an odd-numbered composite video signal 44a.
(Step S)
5). Thus, the right image information 31a and the left image information 31b are obtained (step S5).

【0155】最終的に、得られた右画像情報31a及び
左画像情報31bに対して、本前方車両検出方法を適用
する。2.3 監視領域設定工程(ステップS6)にお
ける監視領域32aの設定を説明する。
Finally, the present preceding vehicle detection method is applied to the obtained right image information 31a and left image information 31b. 2.3 Setting of the monitoring area 32a in the monitoring area setting step (step S6) will be described.

【0156】自車両20の前方を右カメラ41Rや左カ
メラ41Lにより撮像した場合、撮像した左映像信号4
1Laや右映像信号41Raの中には、一般に、空、木や建
物などの回避の必要のない測距不要な映像信号(画像情
報)が多く含まれている。
When the right camera 41R or the left camera 41L captures an image of the front of the host vehicle 20, the captured left video signal 4
In general, 1La and the right video signal 41Ra include many video signals (image information) that do not need to be avoided, such as the sky, trees, and buildings, and do not require distance measurement.

【0157】従来の前方車両検出方法では、このような
回避の必要のない測距不要な映像信号に対しても視差P
の算出を行っていたので、それらの視差Pの算出に多大
の処理時間を要していた。
In the conventional method for detecting a forward vehicle, the parallax P is calculated even for a video signal which does not need to be avoided and does not require distance measurement.
, A great deal of processing time was required to calculate these parallaxes P.

【0158】このような回避の必要のない測距不要な映
像信号は同じシステムで撮像した場合、どの画像におい
てもほぼ同じ場所に存在すると考えられるため、本実施
形態では、図8に示すように、あらかじめこれらの映像
信号を排除し、かつ前方車両21を含むような監視領域
32aを設定している(ステップS6)。
[0158] Such video signals that do not need to be measured and do not need to be measured are considered to be present at almost the same place in any image when they are captured by the same system. Therefore, in this embodiment, as shown in FIG. The monitoring area 32a that excludes these video signals and includes the preceding vehicle 21 is set in advance (step S6).

【0159】監視領域32aを各々設定する工程は、右
画像情報31a及び左画像情報31bに対して前方車両
21検出に関するプログラムコード(ステップS6)を
有している。
The step of setting the monitoring area 32a has a program code (step S6) for detecting the front vehicle 21 for the right image information 31a and the left image information 31b.

【0160】この様なプログラムコードによれば、あら
かじめこれらの映像信号を排除し、かつ前方車両21を
含むような監視領域32aを設定できるようになる。自
車両20の前方を右カメラ41Rや左カメラ41Lにより
撮像した場合に、回避の必要のない測距不要な映像信号
である空、木や建物などの映像信号(画像情報)を左映
像信号41Laや右映像信号41Raの中から除去できるよ
うになる。これにより、回避の必要のない測距不要な映
像信号を排除し、回避が必要で測距を要する映像信号
(画像情報)のみを残すことにより処理時間の短縮を計
ることができるようになるといった効果を奏する。
According to such a program code, it becomes possible to eliminate these video signals in advance and set a monitoring area 32a including the preceding vehicle 21. When the right camera 41R or the left camera 41L captures an image of the front of the host vehicle 20 using the right camera 41R or the left camera 41L, a video signal (image information) of a sky, a tree, a building, or the like, which is a video signal that does not need to be avoided and does not require distance measurement, is left video signal 41La. And the right video signal 41Ra. As a result, the processing time can be reduced by eliminating video signals that do not need to be avoided and do not need to be measured, and leaving only video signals (image information) that need to be avoided and need to be measured. It works.

【0161】これにより、回避の必要のない測距不要な
映像信号を排除し、回避が必要で測距を要する映像信号
(画像情報)のみを残すことにより処理時間の短縮を計
っている。
As a result, the processing time is reduced by excluding video signals that do not need to be avoided and do not require distance measurement, and leaving only video signals (image information) that need to be avoided and require distance measurement.

【0162】本実施形態においては、初期設定として監
視領域32aの設定を手動で行い、すべての画像にこの
監視領域32aを用いることが望ましい(ステップS
6)。
In this embodiment, it is desirable to manually set the monitoring area 32a as an initial setting, and to use this monitoring area 32a for all images (step S).
6).

【0163】図8は、監視領域設定工程を説明するため
の図である。
FIG. 8 is a diagram for explaining the monitoring area setting step.

【0164】そこで、図8に示すように、空を排除する
ために0から60pixel(画素)までを除去し、左
右の自車線以外の被測距対象を排除するために、左の白
線から60pixel以内を監視領域32aとしそれ以
上を除去し、右の白線も同様に白線から60pixel
以内を監視領域32aとしそれ以上を除去している。下
部においても前方車両21が映っていないことから15
0pixel以上の部分は除去をおこなって監視領域3
2aを設定している(ステップS6)。
Therefore, as shown in FIG. 8, from 0 to 60 pixels (pixels) are removed in order to eliminate the sky, and 60 pixels are removed from the left white line in order to exclude objects to be measured other than the left and right lanes. The area within the area is defined as the monitoring area 32a, and the remaining area is removed, and the right white line is similarly 60 pixels from the white line.
The area within is defined as the monitoring area 32a, and the remaining area is removed. Since the front vehicle 21 is not shown in the lower part, 15
The portion of 0 pixel or more is removed and the monitoring area 3
2a is set (step S6).

【0165】つぎに、エッジ画像33Aの作成をエッジ
画像作成工程(ステップS7,8)を用いて説明する。
Next, creation of the edge image 33A will be described using an edge image creation step (steps S7 and S8).

【0166】エッジ画像作成工程は、左画像情報31b
において水平エッジ及び垂直エッジを分離して抽出する
と同時に、右画像情報31aにおいて水平エッジ及び垂
直エッジを分離して抽出するプログラムコード(ステッ
プS7)と、前工程に続いて、左画像情報31bにおい
て抽出された水平エッジ及び垂直エッジに対してエッジ
の細線化を行って左エッジ画像33ALを作成すると同
時に、右画像情報31aにおいて抽出された水平エッジ
及び垂直エッジに対してエッジの細線化を行って右エッ
ジ画像33ARを作成するプログラムコード(ステップ
S8)を含んでいる。
[0166] The edge image creation step includes the left image information 31b.
At the same time, the horizontal and vertical edges are separated and extracted. At the same time, the horizontal and vertical edges are separated and extracted in the right image information 31a, and the program code (step S7) is extracted in the left image information 31b following the previous process. The left edge image 33AL is created by performing edge thinning on the extracted horizontal edge and vertical edge, and at the same time, the edge thinning is performed on the horizontal edge and vertical edge extracted in the right image information 31a. The program code for creating the edge image 33AR is included (step S8).

【0167】この様なプログラムコードによれば、路面
34から高さのある被測距対象(前方車両21等)のエ
ッジを差分画像33D処理してできるだけ残し、路面3
4上エッジを差分画像33D処理して可能な限り消去で
きるようになる。すなわち、路面34からの高さがあり
本来残したい水平エッジと垂直エッジの重なり部分、及
び垂直エッジと水平エッジの重なり部分を差分画像33
D処理して従来よりもより多く高い精度で残すことが可
能となる。その結果、前方車両21領域の抽出エッジ量
にはかなり差が現れることになる。これにより後処理に
おけるエッジの重心点算出、重心点を中心に全エッジの
8割を含む窓336aを作成してそれを前方車両21領域
と推定する際の推定確度をより向上させることができる
ようになる。これに依り、使用目的に合った高い検出精
度の前方監視処理が容易なアルゴリズムを備えた点で優
位性を主張することができるようになる。
According to such a program code, the edge of the object to be measured (the front vehicle 21 or the like) having a height from the road surface 34 is left as much as possible by processing the difference image 33D.
4 The upper edge can be erased as much as possible by processing the difference image 33D. That is, the overlap portion between the horizontal edge and the vertical edge, which is higher than the road surface 34 and which should be originally left, and the overlap portion between the vertical edge and the horizontal edge are represented by the difference image 33.
It becomes possible to perform D processing and leave the data with higher accuracy than before. As a result, a considerable difference appears in the extracted edge amount of the front vehicle 21 region. As a result, the center of gravity of the edge can be calculated in the post-processing, and the window 336a including 80% of all edges centered on the center of gravity can be created to improve the estimation accuracy when estimating it as the area of the front vehicle 21. become. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0168】自車両20は前方車両21の認識は、より
高速に行われることが望ましい。そこで、右カメラ41
Rや左カメラ41Lから得られる右画像情報31aや左画
像情報31b中の特徴点においてのみ処理を行ってい
る。
It is desirable that the host vehicle 20 recognizes the preceding vehicle 21 at a higher speed. Therefore, the right camera 41
The processing is performed only on the feature points in the right image information 31a and the left image information 31b obtained from the R and the left camera 41L.

【0169】右画像情報31aと左画像情報31bとの
視差Pを走査線毎に算出することを考えた場合、エッジ
画像33Aについて行うことが容易であると考えられ
る。
When calculating the parallax P between the right image information 31a and the left image information 31b for each scanning line, it is considered that the calculation can be easily performed on the edge image 33A.

【0170】図9は、エッジ画像作成工程におけるエッ
ジ点を採用工程を説明するための図である。
FIG. 9 is a diagram for explaining a step of employing an edge point in the edge image creation step.

【0171】そこで本前方車両検出方法では、特徴点と
して、以下の行列式で表現されるオペレータ(1),
(2)を用いて抽出される図9に示すようなエッジ点を
採用する(ステップS7)。
Therefore, in the present forward vehicle detection method, operators (1),
An edge point extracted by using (2) as shown in FIG. 9 is adopted (step S7).

【0172】図10は、エッジ画像作成工程におけるエ
ッジ画像の細線化処理を説明するための図である。図1
1は、エッジ画像作成工程における垂直エッジと水平エ
ッジとを区別する処理を説明するための図である。
FIG. 10 is a diagram for explaining the thinning processing of the edge image in the edge image creation step. FIG.
FIG. 1 is a diagram for explaining a process of distinguishing a vertical edge from a horizontal edge in an edge image creation step.

【0173】続いて、路面34の消去を行う際に前方車
両21のエッジをなるべく多く残し、さらに処理の高速
化を計るために、図10に示すようなエッジ画像33A
の細線化処理を行い(ステップS8)、続いて、図11
に示すように、垂直エッジと水平エッジとの区別の処理
を行った(ステップS8)。
Subsequently, when erasing the road surface 34, in order to leave as many edges of the preceding vehicle 21 as possible and to further speed up the processing, an edge image 33A as shown in FIG.
(Step S8), and then the process of FIG.
As shown in (5), a process of distinguishing between a vertical edge and a horizontal edge was performed (step S8).

【0174】[0174]

【数1】 …オペレータ(1)(Equation 1) … Operator (1)

【0175】[0175]

【数2】 …オペレータ(2) 次に、推定エッジ画像作成工程(ステップS9)及び前
方車両抽出工程(ステップS10,11,12)におけ
る路面34の消去を説明する。
(Equation 2) .. Operator (2) Next, the elimination of the road surface 34 in the estimated edge image creation step (step S9) and the front vehicle extraction step (steps S10, S11, S12) will be described.

【0176】推定エッジ画像作成工程は、右エッジ画像
33ARから左エッジ画像33ALを推定するプログラム
コード(ステップS9)を含んでいる。
The estimated edge image creating step includes a program code (step S9) for estimating the left edge image 33AL from the right edge image 33AR.

【0177】この様なプログラムコードによれば、左画
像情報31b、右画像情報31aともに水平エッジ、垂
直エッジを分離して抽出したエッジ画像を作成し、エッ
ジの細線化したエッジ画像を作成した後、右エッジ画像
33ARから推定エッジ画像33Eを作成し、推定エッ
ジ画像33Eと左エッジ画像33ALの差分水平エッジ
334a、差分垂直エッジ334bを水平エッジ、垂直エッ
ジそれぞれ分けて作成し、その後、差分水平エッジ33
4aと差分垂直エッジ334bを合成して差分エッジ画像3
34cの差分水平エッジ334a、差分垂直エッジ334bと
することができるようになる。また推定エッジ画像33
Eでは、路面34から同じ高さにある路面34標示だけ
が実際に左カメラ41Lによって撮像された左エッジ画
像33ALと等しい画像となり、前方車両21などの路
面34よりも高い位置にある物は実際の左エッジ画像3
3ALと等しい画像とはならないようにできる。実際に
撮像された左エッジ画像33ALから推定エッジ画像3
3Eとの共通部分を消去すると、同じ高さにある路面3
4(走行車線の路面34)や路面34標示(例えば、白
線や速度制限表示)などは左エッジ画像33ALから消
去され、路面34よりも高い位置に存在する前方車両2
1の画素だけを左エッジ画像33ALに残すことができ
るようになり、最終的に、左エッジ画像33ALにおい
て残った画素を前方車両21の候補画素として距離を算
出できるようになるといった効果を奏する。
According to such a program code, both the left image information 31b and the right image information 31a are separated into horizontal and vertical edges to create an extracted edge image, and after creating an edge image with thinned edges, , An estimated edge image 33E is created from the right edge image 33AR, and a difference horizontal edge 334a and a difference vertical edge 334b between the estimated edge image 33E and the left edge image 33AL are created separately for the horizontal edge and the vertical edge. 33
4a and difference vertical edge 334b are combined to obtain difference edge image 3
The difference horizontal edge 334a and the difference vertical edge 334b of 34c can be obtained. In addition, the estimated edge image 33
In E, only the marking on the road surface 34 at the same height from the road surface 34 is actually the same image as the left edge image 33AL captured by the left camera 41L, and an object at a position higher than the road surface 34 such as the preceding vehicle 21 is actually Left edge image 3
It is possible to prevent the image from being equal to 3AL. Estimated edge image 3 from left edge image 33AL actually captured
3E, the road surface 3 at the same height
4 (the road surface 34 of the traveling lane), the road surface 34 sign (for example, white line or speed limit display) are deleted from the left edge image 33AL, and the front vehicle 2 existing at a position higher than the road surface 34
Only one pixel can be left in the left edge image 33AL, and finally, there is an effect that the distance can be calculated with the remaining pixels in the left edge image 33AL as candidate pixels of the front vehicle 21.

【0178】請求項12に記載の発明は、請求項11に
記載の前方車両検出方法において、差分エッジ画像33
4cを作成する工程(ステップS10)は、推定左エッジ
画像33ELと左エッジ画像33ALとの水平エッジに対
する差分演算を行って差分水平エッジ334aを作成する
と同時に、推定左エッジ画像33ELと左エッジ画像3
3ALとの垂直エッジに対する差分演算を行って差分垂
直エッジ334bを作成するプログラムコードと、差分水
平エッジ334aと差分垂直エッジ334bとを合成して差
分エッジ画像334cを作成するプログラムコードとを含
んでいる。
According to a twelfth aspect of the present invention, in the method for detecting a forward vehicle according to the eleventh aspect, the difference edge image 33
The step of creating 4c (step S10) includes performing a difference operation on the horizontal edge between the estimated left edge image 33EL and the left edge image 33AL to create a difference horizontal edge 334a, and at the same time, the estimated left edge image 33EL and the left edge image 3
It includes a program code for creating a difference vertical edge 334b by performing a difference operation on a vertical edge with 3AL, and a program code for creating a difference edge image 334c by combining the difference horizontal edge 334a and the difference vertical edge 334b. .

【0179】図12(a),(b)は、前方車両抽出工
程において左エッジ画像33ALから推定エッジ画像3
3Eを引いた差分画像33Dである(ステップS1
0)。
FIGS. 12A and 12B show the estimated edge image 3 from the left edge image 33AL in the front vehicle extraction step.
This is a difference image 33D obtained by subtracting 3E (step S1).
0).

【0180】図13(a),(b)はエッジの方向性を
考慮せずに、推定エッジ画像33Eと左エッジ画像33
ALを重ねて示したものである。
FIGS. 13A and 13B show an estimated edge image 33E and a left edge image 33E without considering the directionality of the edge.
AL is shown by overlapping.

【0181】本処理の目的は道路面34から高さのある
被測距対象(前方車両21等)のエッジはできるだけ残
し、路面34上エッジは消去したい訳だが、図12
(a),(b)からは、路面34からの高さがあり本来
残したい水平エッジと垂直エッジの重なり部分(A部
分)、及び垂直エッジと水平エッジの重なり部分(B部
分)が差分されて消失している。
The purpose of this processing is to leave the edge of the object to be measured (the front vehicle 21 and the like) having a height from the road surface 34 as much as possible and to delete the edge on the road surface 34 as shown in FIG.
From (a) and (b), the overlap portion (A portion) of the horizontal edge and the vertical edge, which has a height from the road surface 34 and which should be originally left, and the overlap portion (B portion) of the vertical edge and the horizontal edge are differentiated. Has disappeared.

【0182】一方、図12(a),(b)は同様の状況
を、水平エッジは水平エッジ同士で差分を取り、垂直エ
ッジは垂直エッジ同士で差分を取った場合を示してい
る。
On the other hand, FIGS. 12 (a) and 12 (b) show the same situation, where the horizontal edge takes a difference between horizontal edges, and the vertical edge takes a difference between vertical edges.

【0183】この場合、図13(a),(b)のA部
分、B部分で示す様なエッジ消失は発生しない。よって
本方法は、路面34から高さのある被測距対象のエッジ
を従来より、より多く残すことが可能となる。
In this case, the edge disappearance as shown by the portions A and B in FIGS. 13A and 13B does not occur. Therefore, the present method can leave more edges to be measured having a height from the road surface 34 than before.

【0184】画面全体に本前方車両検出方法を適用した
場合、前方車両21領域の抽出エッジ量にはかなり差が
現れることになる。これにより後処理におけるエッジの
重心点算出、重心点を中心に全エッジの8割を含む窓3
36aを作成して、それを前方車両21領域と推定する際
の推定確度がより向上する。以上の本アルゴリズムによ
り、より確実に前方車両21領域を抽出することが可能
となる。
When the present front vehicle detection method is applied to the entire screen, a considerable difference appears in the amount of extracted edges in the front vehicle 21 area. Thereby, the center of gravity of the edge is calculated in the post-processing, and the window 3 including 80% of all edges centered on the center of gravity
The accuracy of estimation when creating 36a and estimating it as the area of the front vehicle 21 is further improved. According to the above algorithm, it is possible to more reliably extract the front vehicle 21 area.

【0185】この様なプログラムコードによれば、左画
像情報31b、右画像情報31aともに水平エッジ、垂
直エッジを分離して抽出したエッジ画像を作成し、エッ
ジの細線化したエッジ画像を作成した後、右エッジ画像
33ARから推定エッジ画像33Eを作成し、推定エッ
ジ画像33Eと左エッジ画像33ALの差分水平エッジ
334a、差分垂直エッジ334bを水平エッジ、垂直エッ
ジそれぞれ分けて作成し、その後、差分水平エッジ33
4aと差分垂直エッジ334bを合成して差分エッジ画像3
34cの差分水平エッジ334a、差分垂直エッジ334bと
することができるようになる。これに依り、使用目的に
合った高い検出精度の前方監視処理が容易なアルゴリズ
ムを備えた点で優位性を主張することができるようにな
る。
According to such a program code, both the left image information 31b and the right image information 31a are separated into horizontal and vertical edges to create an extracted edge image, and after creating an edge image with thinned edges, , An estimated edge image 33E is created from the right edge image 33AR, and a difference horizontal edge 334a and a difference vertical edge 334b between the estimated edge image 33E and the left edge image 33AL are created separately for the horizontal edge and the vertical edge. 33
4a and difference vertical edge 334b are combined to obtain difference edge image 3
The difference horizontal edge 334a and the difference vertical edge 334b of 34c can be obtained. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0186】また前方車両抽出工程は、推定左エッジ画
像33ELと左エッジ画像33ALとの差分演算において
差分水平エッジ334a及び差分垂直エッジ334bを作成
した残余画像のエッジ点の重心を算出するプログラムコ
ード(ステップS11)を含んでいる。
In the forward vehicle extraction step, the program code for calculating the center of gravity of the edge point of the residual image in which the difference horizontal edge 334a and the difference vertical edge 334b are created in the difference calculation between the estimated left edge image 33EL and the left edge image 33AL. Step S11) is included.

【0187】窓336aを作成する工程(ステップS1
2)は、算出した重心を中心に全エッジの所定割合を含
むプログラムコードである。
Step of Creating Window 336a (Step S1)
2) is a program code including a predetermined ratio of all edges around the calculated center of gravity.

【0188】ここで、推定エッジ画像33Eは、一方の
カメラの画像情報が全て路面34上の模様と仮定し、画
像情報に関するエッジ画像が他方のカメラを以て撮影さ
れた場合のエッジ画像を推定した画像情報を意味する。
Here, the estimated edge image 33E is an image obtained by assuming that all the image information of one camera is a pattern on the road surface 34 and estimating the edge image when the edge image related to the image information is photographed by the other camera. Means information.

【0189】この様なプログラムコード(ステップS1
1,12)によれば、路面34から高さのある被測距対
象のエッジを従来よりもより多く残すことが可能とな
る。更に、前方車両21領域の抽出エッジ量にかなりの
差を持たせることができるようになる。これに依り、後
処理におけるエッジの重心点算出、重心点を中心に全エ
ッジの8割を含む窓336aを作成して、それを前方車両
21領域と推定する際の推定確度の向上を図ることがで
きるようになるといった効果を奏する。これに依り、使
用目的に合った高い検出精度の前方監視処理が容易なア
ルゴリズムを備えた点で優位性を主張することができる
ようになる。
Such a program code (step S1)
According to (1, 12), it is possible to leave more edges to be measured having a height from the road surface 34 than before. Further, the extracted edge amount in the area of the front vehicle 21 can be made significantly different. According to this, calculation of the center of gravity of the edge in the post-processing, creation of a window 336a including 80% of all edges centered on the center of gravity, and improvement in estimation accuracy when estimating the window 331 as the area in front of the vehicle 21 This has the effect of being able to perform. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0190】本前方車両検出方法では、回避の必要のな
い測距不要な路面34を消去し、特徴点の数を減らす画
像処理を実行することにより、処理時間の短縮を行って
いる。
In the present forward vehicle detection method, the processing time is reduced by erasing the road surface 34 which does not need to be avoided and which does not need to be measured, and executes image processing to reduce the number of feature points.

【0191】路面34の消去を行うために、右のエッジ
画像33A(=右エッジ画像33AR)から左のエッジ
画像33A(左エッジ画像33AL)の推定を行ってい
る。この際、本前方車両検出方法では、CCDカメラ4
1L,41Rから得られる左映像信号41La、右映像信号
41Ra(画像)はすべて路面34と路面34から同じ高
さにあるものと仮定する。
In order to erase the road surface 34, a left edge image 33A (left edge image 33AL) is estimated from a right edge image 33A (= right edge image 33AR). At this time, in this forward vehicle detection method, the CCD camera 4
It is assumed that the left video signal 41La and the right video signal 41Ra (image) obtained from 1L and 41R are all at the same height from the road surface 34 and the road surface 34.

【0192】図14は、左画像情報31bと右画像情報
31aとの間の視差を説明するための図である。
FIG. 14 is a diagram for explaining the parallax between the left image information 31b and the right image information 31a.

【0193】一般に、撮像した左画像情報41Lと右画
像情報41Rには視差Pが生じる(図14参照)。このよ
うな視差Pの値は被測距対象が3次元的に右カメラ41
Rや左カメラ41Lより遠くに存在すれば小さく、近くに
存在すれば大きくなる。
Generally, a parallax P occurs between the captured left image information 41L and right image information 41R (see FIG. 14). Such a value of the parallax P indicates that the object to be measured is three-dimensionally
If it exists farther than R and the left camera 41L, it will be smaller, and if it exists closer, it will be larger.

【0194】2次元的な画像で考える場合、画像に図1
4のようなxy座標系を当てはめるとすると、路面34
の視差Pの値は、y座標が大きくなるほど大きくなる。
すなわち、視差Pの値はy座標の値に応じて、線形的に
変化するため、視差Pとy座標の値とは1次関数の関係
であらわすことが可能となる。
When considering a two-dimensional image, FIG.
If an xy coordinate system such as 4 is applied, the road surface 34
Of the parallax P increases as the y-coordinate increases.
That is, since the value of the parallax P linearly changes in accordance with the value of the y coordinate, the parallax P and the value of the y coordinate can be represented by a linear function.

【0195】このことから、ある画像において、視差P
とy座標との関係式をあらかじめ算出しておくことによ
り、同じシステムで撮像した路面34の画像であれば、
この関係式と左画像情報41Lより、それぞれの画素の
視差Pを走査線毎に算出し、画素を視差Pの値だけ移動
させる画像処理を実行することにより、実際に右画像情
報41Rで撮像した右画像情報41Rと同一の画像の作成
が可能となる。
Thus, in a certain image, the parallax P
By calculating in advance the relational expression between y and the y coordinate, if the image of the road surface 34 is captured by the same system,
From this relational expression and the left image information 41L, the parallax P of each pixel is calculated for each scanning line, and image processing for moving the pixel by the value of the parallax P is performed, whereby the image is actually captured with the right image information 41R. The same image as the right image information 41R can be created.

【0196】図15は、路面34よりも高い位置に存在
する被測距対象に対する視差の算出誤差を説明するため
の図である。
FIG. 15 is a diagram for explaining a parallax calculation error with respect to a distance-measuring object existing at a position higher than the road surface.

【0197】ところが、路面34よりも高い位置に存在
する被測距対象、すなわち前方車両21の画像において
は、図15に示すように、視差Pとy座標との間にこの
関係式が成り立たない。そのため、前方車両21が路面
34と路面34から同じ高さにあると仮定し、この関係
式を用いて、左画像情報41Lのそれぞれの画素の視差
Pを走査線毎に算出し、画素を視差Pの値だけ移動させ
ても正確な右画像情報41Rの作成を行うことはできな
い。
However, in the image of the object to be measured located at a position higher than the road surface 34, that is, the image of the preceding vehicle 21, this relational expression does not hold between the parallax P and the y coordinate as shown in FIG. . Therefore, assuming that the front vehicle 21 is at the same height from the road surface 34 and the road surface 34, the parallax P of each pixel of the left image information 41L is calculated for each scanning line using this relational expression, and Even if it is moved by the value of P, accurate creation of the right image information 41R cannot be performed.

【0198】本前方車両検出方法では、以上の原理を用
いて回避の必要のない路面34を消去し、特徴点の数を
減らすことにより、処理時間の短縮を図っている。
In the forward vehicle detection method, the processing time is reduced by eliminating the road surface 34 which does not need to be avoided by using the above principle and reducing the number of feature points.

【0199】本実施形態では、撮像された画像はすべて
路面34と路面34から同じ高さにあるものと仮定し、
右エッジ画像33ARから推定された左エッジ画像33
ALを推定エッジ画像33Eとして算出している(ステ
ップS9)。
In the present embodiment, it is assumed that all captured images are at the same height from the road surface 34 and the road surface 34,
Left edge image 33 estimated from right edge image 33AR
AL is calculated as the estimated edge image 33E (step S9).

【0200】図16は、路面34よりも高い位置にある
被測距対象と左エッジ画像33ALとの誤差を説明する
ための図である。
FIG. 16 is a diagram for explaining an error between the object to be measured at a position higher than the road surface 34 and the left edge image 33AL.

【0201】前述のように、推定エッジ画像33Eで
は、路面34と路面34から同じ高さにある路面34や
路面標示だけが実際に左カメラ41Lによって撮像され
た左エッジ画像33ALと等しい画像となり、図16に
示すように、前方車両21などの路面34よりも高い位
置にある物は実際の左エッジ画像33ALと等しい画像
とはならない。
As described above, in the estimated edge image 33E, only the road surface 34 and the road surface mark at the same height from the road surface 34 become the same image as the left edge image 33AL actually picked up by the left camera 41L. As shown in FIG. 16, an object such as the preceding vehicle 21 located at a position higher than the road surface 34 is not an image equal to the actual left edge image 33AL.

【0202】図17は、前方車両抽出工程におけるステ
ップS10を説明するための図である。
FIG. 17 is a diagram for explaining step S10 in the front vehicle extraction process.

【0203】そこで、図17に示すように、実際に撮像
された左エッジ画像33ALから推定エッジ画像33E
との共通部分を消去すると(ステップS10)、路面3
4から同じ高さにある路面34(走行車線の路面)や路
面標示(例えば、白線や速度制限表示)などは左エッジ
画像33ALから消去され、図17に示すように、路面
34よりも高い位置に存在する前方車両21の画素だけ
が左エッジ画像33ALに残る(ステップS10)。最
終的に、左エッジ画像33ALにおいて残った画素を前
方車両21の候補画素として距離Dを算出している。
Therefore, as shown in FIG. 17, the estimated edge image 33E is obtained from the actually captured left edge image 33AL.
Is deleted (step S10), the road surface 3
The road surface 34 (the road surface of the traveling lane) and the road marking (for example, the white line and the speed limit display) at the same height from 4 are deleted from the left edge image 33AL, and are located at a position higher than the road surface 34 as shown in FIG. Only the pixels of the front vehicle 21 existing in the left edge image 33AL remain in the left edge image 33AL (step S10). Finally, the distance D is calculated using the remaining pixels in the left edge image 33AL as candidate pixels of the preceding vehicle 21.

【0204】次に、前方車両21までの距離Dの計測を
前方車両抽出工程(ステップS11,12)、距離算出
工程(ステップS13,14,15,16)を用いて説
明する。
Next, the measurement of the distance D to the front vehicle 21 will be described using a front vehicle extraction step (steps S11, S12) and a distance calculation step (steps S13, S14, S15, S16).

【0205】距離算出工程は、視差と距離の逆数との比
例関係に基づいてあらかじめ算出した関係式を用いて左
現画像における窓336aと右現画像における窓336aと
の間の視差を算出し、算出された視差に基づいて距離を
算出するプログラムコードであって、左カメラ41Lに
よって撮影される撮影画像である左現画像に窓336aを
設定するプログラムコード(ステップS13)と、右カ
メラ41Rによって撮影される撮影画像である右現画像
上に対応する領域を設定するプログラムコード(ステッ
プS14)と、左現画像における窓336aと右現画像に
おける窓336aとの間の視差を算出するプログラムコー
ド(ステップS15)と、算出された視差に基づいて、
前方を走行している車両と自車両20との距離を算出す
るプログラムコード(ステップS16)とを含んでい
る。
In the distance calculating step, the parallax between the window 336a in the left current image and the window 336a in the right current image is calculated using a relational expression calculated in advance based on the proportional relationship between the parallax and the reciprocal of the distance. A program code for calculating a distance based on the calculated parallax, a program code for setting a window 336a in a left current image, which is a captured image captured by the left camera 41L (step S13), and an image captured by the right camera 41R A program code (step S14) for setting a region corresponding to the right current image, which is a photographed image to be obtained, and a program code (step S14) for calculating the disparity between the window 336a in the left current image and the window 336a in the right current image. S15) and based on the calculated parallax,
The program code (step S16) for calculating the distance between the vehicle traveling ahead and the host vehicle 20 is included.

【0206】この様なプログラムコード(ステップS1
3,14,15,16)によれば、左現画像における窓
336aと右現画像における窓336aとの間の視差を求
め、その視差の値から被測距対象までの絶対的な距離を
高精度でかつ高速に求めることができるようになる。こ
れに依り、使用目的に合った高い検出精度、高速処理の
前方監視処理が容易なアルゴリズムを備えた点で優位性
を主張することができるようになる。また、あらかじめ
算出した関係式を用いて左現画像における窓336aと右
現画像における窓336aとの間の視差を算出して距離を
算出できるので、視差の値から被測距対象までの絶対的
な距離を高精度でかつ高速に求めることができるように
なる。これに依り、使用目的に合った高い検出精度、高
速処理の前方監視処理が容易なアルゴリズムを備えた点
で優位性を主張することができるようになる。
Such a program code (step S1)
According to 3, 14, 15, 16), the parallax between the window 336a in the left current image and the window 336a in the right current image is obtained, and the absolute distance to the distance measurement target is calculated from the parallax value. It can be obtained with high accuracy and at high speed. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use. Further, since the distance can be calculated by calculating the disparity between the window 336a in the left current image and the window 336a in the right current image using the relational expression calculated in advance, the absolute distance from the value of the disparity to the distance measurement target can be calculated. The distance can be determined with high accuracy and high speed. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0207】先ず、前方車両抽出工程(ステップS1
0,11,12)における前方車両21の視差Pの算出
を説明する。
First, the preceding vehicle extracting step (step S1)
The calculation of the parallax P of the preceding vehicle 21 in (0, 11, 12) will be described.

【0208】路面34の消去を行った後に残された左エ
ッジ画像33ALの画素のほとんどは、前方車両21の
画素となる。そのため、残された全画素の重心は、前方
車両21の重心とほぼ等しくなる(ステップS11)。
この重心を中心とした四角形を作成し、この四角形の中
に含まれる画素が全画素の8割になるように画像処理を
実行している(ステップS12)。
Most of the pixels of the left edge image 33AL left after the erasing of the road surface 34 are pixels of the preceding vehicle 21. Therefore, the center of gravity of all the remaining pixels becomes substantially equal to the center of gravity of the preceding vehicle 21 (step S11).
A rectangle centering on the center of gravity is created, and image processing is performed so that pixels included in the rectangle are 80% of all pixels (step S12).

【0209】このようにして、作成された四角形には前
方車両21のほぼ全体が含まれる。このようにして作成
された四角形を窓336aと考え、右画像情報41R上に
も同じおおきさの窓336aを設ける画像処理を実行して
いる(ステップS13)。
[0209] The rectangle thus created includes substantially the entire front vehicle 21. The square created in this way is considered as the window 336a, and image processing for providing the same size window 336a on the right image information 41R is executed (step S13).

【0210】図18は、距離算出工程におけるステップ
S14を説明するための図である。
FIG. 18 is a diagram for explaining step S14 in the distance calculation process.

【0211】続いて、図18に示すように、右画像情報
41R上の窓336aを左の方に移動させながら、右画像
情報41Rと左画像情報41Lの2つの窓336a間の輝度
差(左映像信号41Laや右映像信号41Raの信号レベル
を用いて計算できる差)を計算し、その値が最小となる
点を検出している(ステップS14)。続いて、この時
の、左右の窓336aの視差Pを走査線毎に算出してい
る。この様にして算出した視差Pが前方車両21の視差
Pとなる(ステップS15)。
Subsequently, as shown in FIG. 18, while moving the window 336a on the right image information 41R to the left, the luminance difference between the two windows 336a of the right image information 41R and the left image information 41L (left A difference that can be calculated using the signal levels of the video signal 41La and the right video signal 41Ra) is calculated, and the point where the value is minimum is detected (step S14). Subsequently, the parallax P of the left and right windows 336a at this time is calculated for each scanning line. The parallax P calculated in this manner becomes the parallax P of the preceding vehicle 21 (step S15).

【0212】続いて、距離算出工程(ステップS16)
における視差Pと距離Dの関係の算出を説明する。
Subsequently, a distance calculating step (step S16)
The calculation of the relationship between the parallax P and the distance D in will be described.

【0213】従来の両眼画像による距離Dの算出前方車
両検出方法は三角測量の原理より、前方車両21までの
距離Dを算出するという前方車両検出方法であった。
The conventional method for calculating the distance D based on the binocular image is a method for detecting the front vehicle by calculating the distance D to the front vehicle 21 based on the principle of triangulation.

【0214】しかし、この前方車両検出方法は、カメラ
設定の値が少しずれただけでも、算出される前方車両2
1までの距離Dに大幅な誤りが生じてしまい、正確な距
離計測が困難とされてきた。そこで、本実施形態におい
ては、視差Pと距離Dの関係式をあらかじめ算出するこ
とにより正確な距離計測を行っている。
However, this forward vehicle detection method can calculate the forward vehicle 2 even if the camera setting value is slightly deviated.
A significant error has occurred in the distance D up to 1 and accurate distance measurement has been difficult. Therefore, in the present embodiment, an accurate distance measurement is performed by calculating a relational expression between the parallax P and the distance D in advance.

【0215】図19は、視差と距離の関係式をあらかじ
め算出すること処理を説明するための図である。
FIG. 19 is a diagram for explaining a process of calculating a relational expression between parallax and distance in advance.

【0216】本実施形態では、図19に示すように、カ
メラ(左カメラ41Lや右カメラ41Rと同一性能を有す
るカメラ)から10mおきに、50mまでの位置に被測
距対象(例えば、図19に示すような箱体)を置き、そ
の被測距対象を撮像している。これらの被測距対象の視
差Pを走査線毎に算出することにより、視差Pと距離D
との関係を算出している。
In this embodiment, as shown in FIG. 19, every 10 m from a camera (a camera having the same performance as the left camera 41 L and the right camera 41 R), a distance measurement target (for example, FIG. Is placed, and the object to be measured is imaged. By calculating the parallax P of these objects to be measured for each scanning line, the parallax P and the distance D are calculated.
Is calculated.

【0217】視差Pと距離Dの逆数は比例関係であるこ
とから、視差Pと距離Dの逆数を一次関数であらわすこ
とが可能となる。この関数に前節で算出した前方車両2
1の視差Pを代入することにより、前方車両21までの
距離Dを算出している。なお、今回用いた車両前方監視
システム10においては視差Pと距離Dの関係は式
(2)となった。
Since the reciprocal of the parallax P and the distance D are proportional, the reciprocal of the parallax P and the distance D can be represented by a linear function. This function is used to calculate the forward vehicle 2 calculated in the previous section.
By substituting the parallax P of 1, the distance D to the preceding vehicle 21 is calculated. In the vehicle front monitoring system 10 used this time, the relationship between the parallax P and the distance D is represented by Expression (2).

【0218】 d=α/(P−9) [m] (2) α:比例定数、d:距離、P:視差 本実施形態では、αを680としているが、この比例定
数は車両形状、左カメラ41Lや右カメラ41Rの設置位
置等によって最適な値を先覚する必要がある。
D = α / (P−9) [m] (2) α: proportionality constant, d: distance, P: parallax In the present embodiment, α is set to 680. It is necessary to be aware of the optimum value depending on the installation position of the camera 41L and the right camera 41R.

【0219】次に、前方車両21の相対速度vの算出処
理を説明する。
Next, the calculation process of the relative speed v of the preceding vehicle 21 will be described.

【0220】自車両20の前方の監視を行う場合、前方
車両21までの距離Dと同時に、前方車両21の相対速
度vの情報を取得できることが好ましい。
When monitoring the front of the vehicle 20, it is preferable that information on the relative speed v of the vehicle 21 can be obtained at the same time as the distance D to the vehicle 21.

【0221】たとえ、前方車両21が非常に接近した場
所にいたとしても、その前方車両21が自車両20から
遠ざかってあるのであれば、危険度は低いものとなる。
逆に、ある程度遠くに前方車両21がいたとしても、そ
の前方車両21が自車両20に向かって急接近している
のであれば、危険度は高いものとなる。
Even if the preceding vehicle 21 is very close, if the preceding vehicle 21 is far from the host vehicle 20, the degree of danger is low.
Conversely, even if there is a forward vehicle 21 to a certain distance, if the forward vehicle 21 is rapidly approaching the own vehicle 20, the risk is high.

【0222】本実施形態においては、前方車両21まで
の距離Dと同時に、前方車両21の相対速度vの算出を
行っている。
In this embodiment, the relative speed v of the preceding vehicle 21 is calculated simultaneously with the distance D to the preceding vehicle 21.

【0223】データ処理装置30に取り込む画像データ
のフレーム間隔は例えば、0.5秒である。また、前節
までの処理により、前方車両21までの距離Dが算出さ
れる。したがって、画像データの取り込み毎の前方車両
21の距離Dおよび画像データの取り込み間隔という情
報が取得できる。これらの値から、画像データの取り込
み間隔が0.5秒で在れば、0.5秒の間に前方車両2
1がどれだけ自車両20に接近したかということがわか
る。よって、前方車両21の相対速度vが式(3)によ
り算出される。
The frame interval of the image data taken into the data processing device 30 is, for example, 0.5 second. Further, by the processing up to the previous section, the distance D to the preceding vehicle 21 is calculated. Therefore, information such as the distance D of the front vehicle 21 and the image data acquisition interval for each image data acquisition can be obtained. From these values, if the capture interval of the image data is 0.5 seconds, the forward vehicle
It can be seen how close the vehicle 1 is to the vehicle 20. Therefore, the relative speed v of the preceding vehicle 21 is calculated by equation (3).

【0224】 v=(d2−d1)/0.5 [m/s] (3) ここで、v:相対速度 d1:1一つ前に取り込んだ画
像データより求めた前方車両21との距離 d2:前方
車両21との距離 距離算出工程に続く判定工程は、算出された距離に基づ
いて危険状態か否かを判定し、危険状態と判定した場合
に警報信号36aを作成するプログラムコード(ステッ
プS17)である。
V = (d2-d1) /0.5 [m / s] (3) where, v: relative speed d1: distance to the preceding vehicle 21 obtained from the image data captured one immediately before d2 : Distance to preceding vehicle 21 In the determination step following the distance calculation step, it is determined whether or not the vehicle is in a danger state based on the calculated distance, and if it is determined that the vehicle is in the danger state, a program code for generating an alarm signal 36a (step S17) ).

【0225】この様なプログラムコード(ステップS1
7)によれば、高速且つ高精度に算出された距離に基づ
いて危険状態か否かを高速且つ高精度に判定できるよう
になるといった効果を奏する。これに依り、使用目的に
合った高い検出精度、高速処理の前方監視処理が容易な
アルゴリズムを備えた点で優位性を主張することができ
るようになる。
With such a program code (step S1)
According to 7), there is an effect that it is possible to determine with high speed and high accuracy whether or not there is a dangerous state based on the distance calculated with high speed and high accuracy. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0226】判定工程に続く警報工程は、算出された距
離に基づいて、警報信号36aを受けて警報を発生する
工程プログラムコード(ステップS18)である。
The alarm step following the judgment step is a step program code (step S18) for generating an alarm in response to the alarm signal 36a based on the calculated distance.

【0227】この様なプログラムコード(ステップS1
8)によれば、高速且つ高精度の警報を発生することが
できるようになる。これに依り、使用目的に合った高い
検出精度、高速処理の前方監視処理が容易なアルゴリズ
ムを備えた点で優位性を主張することができるようにな
る。
With such a program code (step S1)
According to 8), a high-speed and high-precision alarm can be generated. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0228】[0228]

【発明の効果】請求項1に記載の発明に依れば、検出距
離の誤差が大きく発生する可能性を回避することがで
き、撮像タイミングについても同期をとって高い検出精
度を実現することができるといった効果を奏する。これ
に依り、使用目的に合った高い検出精度の前方監視処理
が容易なアルゴリズムを備えた点で優位性を主張するこ
とができるようになる。
According to the first aspect of the present invention, it is possible to avoid the possibility that a large error in the detection distance occurs, and to achieve high detection accuracy by synchronizing the imaging timing. It has the effect of being able to. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0229】請求項2に記載の発明に依れば、請求項1
に記載の効果に加えて、従来に比べ撮像画像を記録する
メモリー量を少なく設定でき、更に、高い検出精度及び
高速処理性能を有するステレオ式の画像処理技術を応用
した車両前方監視システムを実現できるようになる。そ
の結果、製造コストや設置スペースの点で優位性を主張
することができるようになる。これに依り、使用目的に
合った高い検出精度の前方監視処理が容易なアルゴリズ
ムを備えた点で優位性を主張することができるようにな
る。
According to the second aspect of the present invention, the first aspect
In addition to the effects described in (1), the amount of memory for recording captured images can be set smaller than in the past, and further, a vehicle forward monitoring system using a stereo image processing technology having high detection accuracy and high-speed processing performance can be realized. Become like As a result, it is possible to claim advantages in terms of manufacturing cost and installation space. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0230】請求項3に記載の発明に依れば、請求項2
に記載の効果に加えて、従来に比べ撮像画像を記録する
フレームメモリのメモリー量を偶数走査線本数と奇数走
査線本数との和程度まで少なく設定できるようになる。
また、距離算出に必要な視差は水平方向(走査線方向)
であるので、従来の前方車両検出方法に比べても検出分
解能が劣ることは無い。これに依り、使用目的に合った
高い検出精度の前方監視処理が容易なアルゴリズムを備
えた点で優位性を主張することができるようになる。そ
の結果、フレームメモリのメモリー量に関する製造コス
トや設置スペースの点で優位性を主張することができる
ようになる。
According to the invention described in claim 3, according to claim 2
In addition to the effects described in (1), the amount of memory of the frame memory for recording the captured image can be set to be smaller than the number of even-numbered scanning lines and the number of odd-numbered scanning lines as compared with the related art.
The parallax required for distance calculation is horizontal (scanning line direction)
Therefore, the detection resolution does not deteriorate as compared with the conventional method for detecting the forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory.

【0231】請求項4に記載の発明に依れば、請求項2
に記載の効果に加えて、従来に比べ撮像画像を記録する
フレームメモリのメモリー量を1/2フレーム分の偶数
走査線本数と1/2フレーム分の奇数走査線本数との和
程度まで少なく設定でき、フレームメモリの容量を従来
より半分程度に低減できるようになる。また、距離算出
に必要な視差は水平方向(走査線方向)であるので、従
来の前方車両検出方法に比べても検出分解能が劣ること
は無い。これに依り、使用目的に合った高い検出精度の
前方監視処理が容易なアルゴリズムを備えた点で優位性
を主張することができるようになる。その結果、フレー
ムメモリのメモリー量に関する製造コストや設置スペー
スの点で優位性を主張することができるようになる。
According to the invention described in claim 4, according to claim 2,
In addition to the effects described in (1), the amount of memory of the frame memory for recording the captured image is set to be smaller than the conventional one by the sum of the number of even-numbered scanning lines for 1/2 frame and the number of odd-numbered scanning lines for 1/2 frame. As a result, the capacity of the frame memory can be reduced to about half that of the related art. In addition, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution is not inferior to that of the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory.

【0232】請求項5に記載の発明に依れば、請求項4
に記載の効果に加えて、従来に比べ撮像画像を記録する
フレームメモリのメモリー量を1/2フレーム分の偶数
走査線本数と1/2フレーム分の奇数走査線本数との和
程度まで少なく設定でき、フレームメモリの容量を従来
より半分程度に低減できるようになる。また、距離算出
に必要な視差は水平方向(走査線方向)であるので、従
来の前方車両検出方法に比べても検出分解能が劣ること
は無い。これに依り、使用目的に合った高い検出精度の
前方監視処理が容易なアルゴリズムを備えた点で優位性
を主張することができるようになる。その結果、フレー
ムメモリのメモリー量に関する製造コストや設置スペー
スの点で優位性を主張することができるようになる。
According to the invention set forth in claim 5, according to claim 4,
In addition to the effects described in (1), the amount of memory of the frame memory for recording the captured image is set to be smaller than the conventional one by the sum of the number of even-numbered scanning lines for 1/2 frame and the number of odd-numbered scanning lines for 1/2 frame. As a result, the capacity of the frame memory can be reduced to about half that of the related art. In addition, since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution is not inferior to that of the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of manufacturing cost and installation space related to the amount of memory of the frame memory.

【0233】請求項6に記載の発明に依れば、請求項3
乃至5のいずれか一項に記載の効果に加えて、フレーム
メモリの共有化が可能となり、従来に比べ撮像画像を記
録するフレームメモリのメモリー量を1/2フレーム分
の偶数走査線本数と1/2フレーム分の奇数走査線本数
との和程度まで少なく設定でき、フレームメモリの容量
を従来より半分程度に低減できるようになる。また、フ
レームメモリの共有化を図っても、距離算出に必要な視
差は水平方向(走査線方向)であるので、従来の前方車
両検出方法に比べても検出分解能が劣ることは無い。こ
れに依り、使用目的に合った高い検出精度の前方監視処
理が容易なアルゴリズムを備えた点で優位性を主張する
ことができるようになる。その結果、フレームメモリの
共有化に起因するフレームメモリのメモリー量に関する
製造コストや設置スペースの点で優位性を主張すること
ができるようになる。
According to the invention described in claim 6, according to claim 3,
5. In addition to the effects described in any one of (5) to (5), the frame memory can be shared, and the memory amount of the frame memory for recording a captured image can be reduced by one-half the number of even-numbered scanning lines and It can be set to be as small as the sum of the number of odd-numbered scanning lines for / 2 frames, and the capacity of the frame memory can be reduced to about half that of the related art. Even if the frame memory is shared, the parallax required for calculating the distance is in the horizontal direction (scanning line direction), so that the detection resolution is not inferior to the conventional method for detecting a forward vehicle. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of the manufacturing cost and the installation space related to the memory amount of the frame memory due to the sharing of the frame memory.

【0234】請求項7に記載の発明に依れば、請求項6
に記載の効果に加えて、水平方向に垂直方向の倍の解像
度を持つ右画像情報と左画像情報との2枚で1組の両眼
画像を動画像として得ることできるようになる。また、
距離算出に必要な視差は水平方向(走査線方向)である
ので、右画像情報と左画像情報は従来の前方車両検出方
法に比べても検出分解能が劣ることは無い。これに依
り、使用目的に合った高い検出精度の前方監視処理が容
易なアルゴリズムを備えた点で優位性を主張することが
できるようになる。その結果、フレームメモリの共有化
に起因するフレームメモリのメモリー量に関する製造コ
ストや設置スペースの点で優位性を主張することができ
るようになる。
According to the invention of claim 7, according to claim 6,
In addition to the effects described in (1), a set of binocular images can be obtained as a moving image by using two pieces of right image information and left image information having twice the resolution in the horizontal and vertical directions. Also,
Since the parallax required for calculating the distance is in the horizontal direction (scanning line direction), the detection resolution of the right image information and the left image information is not inferior to that of the conventional forward vehicle detection method. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use. As a result, it is possible to claim superiority in terms of the manufacturing cost and the installation space related to the memory amount of the frame memory due to the sharing of the frame memory.

【0235】請求項8に記載の発明に依れば、請求項7
に記載の効果に加えて、監視領域設定工程を設けること
に依り、あらかじめこれらの映像信号を排除し、かつ前
方車両を含むような監視領域を設定できるようになる。
自車両の前方を右カメラや左カメラにより撮像した場合
に、回避の必要のない測距不要な映像信号である空、木
や建物などの映像信号(画像情報)を左映像信号や右映
像信号の中から除去できるようになる。これにより、回
避の必要のない測距不要な映像信号を排除し、回避が必
要で測距を要する映像信号(画像情報)のみを残すこと
により処理時間の短縮を計ることができるようになる。
According to the invention of claim 8, according to claim 7,
In addition to the effects described in (1), the provision of the monitoring area setting step makes it possible to eliminate these video signals in advance and to set a monitoring area including the preceding vehicle.
When an image of the front of the vehicle is taken by the right camera or the left camera, video signals (image information) of the sky, trees, buildings, etc., which do not need to be avoided and do not need to be measured, are left video signals or right video signals. Can be removed from within. As a result, it is possible to reduce the processing time by eliminating video signals that do not need to be avoided and do not require distance measurement, and leave only video signals (image information) that need to be avoided and require distance measurement.

【0236】請求項9に記載の発明に依れば、同一平面
上にある路面だけを消去し、それよりも高い場所にある
前方車両を残すことができるようになる。また、路面か
ら高さのある被測距対象のエッジを従来より、より多く
残すことができるようになる。更に、画面全体に本前方
車両検出方法を適用した場合、前方車両領域の抽出エッ
ジ量にはかなり差が現れることになる。これにより、後
処理におけるエッジの重心点算出、重心点を中心に全エ
ッジの8割を含む窓を作成して、それを前方車両領域と
推定する際の推定確度をより向上させることができるよ
うになる。その結果、使用目的に合った高い検出精度の
前方監視処理が容易なアルゴリズムを備えた点で優位性
を主張することができるようになる。
According to the ninth aspect of the present invention, it is possible to delete only the road surface on the same plane and leave the preceding vehicle at a higher place. Further, more edges to be measured having a height from the road surface can be left more than before. Further, when the present forward vehicle detection method is applied to the entire screen, a considerable difference appears in the amount of extracted edges in the forward vehicle region. As a result, it is possible to calculate the center of gravity of the edge in the post-processing, create a window including 80% of all edges centered on the center of gravity, and further improve the estimation accuracy when estimating the window as the front vehicle area. become. As a result, it is possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0237】請求項10に記載の発明に依れば、請求項
9に記載の効果に加えて、路面から高さのある被測距対
象(前方車両等)のエッジを差分画像処理してできるだ
け残し、路面上エッジを差分画像処理して可能な限り消
去できるようになる。すなわち、路面からの高さがあり
本来残したい水平エッジと垂直エッジの重なり部分、及
び垂直エッジと水平エッジの重なり部分を差分画像処理
して従来よりもより多く高い精度で残すことが可能とな
る。その結果、前方車両領域の抽出エッジ量にはかなり
差が現れることになる。これにより後処理におけるエッ
ジの重心点算出、重心点を中心に全エッジの8割を含む
窓を作成してそれを前方車両領域と推定する際の推定確
度をより向上させることができるようになる。これに依
り、使用目的に合った高い検出精度の前方監視処理が容
易なアルゴリズムを備えた点で優位性を主張することが
できるようになる。
According to the tenth aspect of the invention, in addition to the effect of the ninth aspect, the edge of the object to be measured (vehicle ahead, etc.) having a height from the road surface can be subjected to differential image processing to minimize the difference. The edge on the road surface can be erased as much as possible by differential image processing. In other words, it is possible to perform the difference image processing on the overlapping portion between the horizontal edge and the vertical edge which is higher than the road surface and which is desired to be left, and the overlapping portion between the vertical edge and the horizontal edge, and to leave it with higher accuracy than before. . As a result, a considerable difference appears in the amount of extracted edges in the front vehicle region. This makes it possible to calculate the center of gravity of the edge in the post-processing, create a window including 80% of all edges centered on the center of gravity, and further improve the estimation accuracy when estimating the window as the front vehicle area. . This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0238】請求項11に記載の発明に依れば、請求項
10に記載の効果に加えて、推定エッジ画像作成工程を
設けることに依り、左画像情報、右画像情報ともに水平
エッジ、垂直エッジを分離して抽出したエッジ画像を作
成し、エッジの細線化したエッジ画像を作成した後、右
エッジ画像から推定エッジ画像を作成し、推定エッジ画
像と左エッジ画像の差分水平エッジ、差分垂直エッジを
水平エッジ、垂直エッジそれぞれ分けて作成し、その
後、差分水平エッジと差分垂直エッジを合成して差分エ
ッジ画像の差分水平エッジ、差分垂直エッジとすること
ができるようになる。また推定エッジ画像では、路面か
ら同じ高さにある路面標示だけが実際に左カメラによっ
て撮像された左エッジ画像と等しい画像となり、前方車
両などの路面よりも高い位置にある物は実際の左エッジ
画像と等しい画像とはならないようにできる。実際に撮
像された左エッジ画像から推定エッジ画像との共通部分
を消去すると、同じ高さにある路面(走行車線の路面)
や路面標示(例えば、白線や速度制限表示)などは左エ
ッジ画像から消去され、路面よりも高い位置に存在する
前方車両の画素だけを左エッジ画像に残すことができる
ようになり、最終的に、左エッジ画像において残った画
素を前方車両の候補画素として距離を算出できるように
なる。
According to the eleventh aspect of the present invention, in addition to the effect of the tenth aspect, by providing an estimated edge image creating step, both the left image information and the right image information have a horizontal edge and a vertical edge. After creating an edge image that is extracted by extracting the edge image, creating an edge image with a thinned edge, creating an estimated edge image from the right edge image, a difference horizontal edge and a difference vertical edge between the estimated edge image and the left edge image Is created separately for the horizontal edge and the vertical edge, and thereafter, the difference horizontal edge and the difference vertical edge are combined to be a difference horizontal edge and a difference vertical edge of the difference edge image. In the estimated edge image, only the road marking at the same height from the road surface is the same image as the left edge image actually captured by the left camera, and objects at a position higher than the road surface, such as a preceding vehicle, are actually left edges. It is possible to prevent the image from being equal to the image. When the common part with the estimated edge image is deleted from the actually captured left edge image, the road surface at the same height (road surface of the traveling lane)
And road markings (for example, white line and speed limit display) are deleted from the left edge image, and only the pixels of the preceding vehicle existing at a position higher than the road surface can be left in the left edge image. , The remaining pixels in the left edge image can be calculated as candidate pixels for the preceding vehicle.

【0239】請求項12に記載の発明に依れば、請求項
11に記載の効果に加えて、使用目的に合った高い検出
精度の前方監視処理が容易なアルゴリズムを備えた点で
優位性を主張することができるようになる。
According to the twelfth aspect of the present invention, in addition to the effect of the eleventh aspect, an advantage is provided in that an algorithm for easily performing forward detection processing with high detection accuracy suitable for the purpose of use is provided. Be able to argue.

【0240】請求項13に記載の発明に依れば、請求項
12に記載の効果に加えて、窓を作成する工程を設ける
ことに依り、路面から高さのある被測距対象のエッジを
従来よりもより多く残すことが可能となる。更に、前方
車両領域の抽出エッジ量にかなりの差を持たせることが
できるようになる。これに依り、後処理におけるエッジ
の重心点算出、重心点を中心に全エッジの8割を含む窓
336aを作成して、それを前方車両領域と推定する際の
推定確度の向上を図ることができるようになる。これに
依り、使用目的に合った高い検出精度の前方監視処理が
容易なアルゴリズムを備えた点で優位性を主張すること
ができるようになる。
According to the thirteenth aspect of the present invention, in addition to the effect of the twelfth aspect, by providing a step of creating a window, an edge of a distance measurement target having a height from a road surface is reduced. It is possible to leave more than before. Further, it is possible to make a considerable difference between the amounts of extracted edges in the front vehicle region. Based on this, it is possible to calculate the center of gravity of the edge in the post-processing, create a window 336a including 80% of all edges centered on the center of gravity, and improve the estimation accuracy when estimating it as the front vehicle area. become able to. This makes it possible to claim superiority in providing an algorithm that facilitates forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0241】請求項14に記載の発明に依れば、請求項
9乃至13のいずれか一項に記載の効果と同様の効果を
奏する。
According to the fourteenth aspect of the present invention, the same effects as the effects of any one of the ninth to thirteenth aspects can be obtained.

【0242】請求項15に記載の発明に依れば、請求項
11乃至14のいずれか一項に記載の効果に加えて、左
現画像における窓と右現画像における窓との間の視差を
求め、その視差の値から被測距対象までの絶対的な距離
を高精度でかつ高速に求めることができるようになる。
これに依り、使用目的に合った高い検出精度、高速処理
の前方監視処理が容易なアルゴリズムを備えた点で優位
性を主張することができるようになる。
According to the invention described in claim 15, in addition to the effects described in any one of claims 11 to 14, the parallax between the window in the left current image and the window in the right current image is reduced. Then, the absolute distance from the parallax value to the object to be measured can be obtained with high accuracy and high speed.
This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0243】請求項16に記載の発明に依れば、請求項
15に記載の効果に加えて、あらかじめ算出した関係式
を用いて左現画像における窓と前記右現画像における窓
との間の視差を算出して距離を算出できるので、視差の
値から被測距対象までの絶対的な距離を高精度でかつ高
速に求めることができるようになる。これに依り、使用
目的に合った高い検出精度、高速処理の前方監視処理が
容易なアルゴリズムを備えた点で優位性を主張すること
ができるようになる。
According to the sixteenth aspect of the present invention, in addition to the effect of the fifteenth aspect, the relationship between the window in the left current image and the window in the right current image is calculated using a relational expression calculated in advance. Since the distance can be calculated by calculating the parallax, the absolute distance from the parallax value to the object to be measured can be obtained with high accuracy and high speed. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0244】請求項17に記載の発明に依れば、請求項
15または16に記載の効果に加えて、高速且つ高精度
に算出された距離に基づいて危険状態か否かを高速且つ
高精度に判定できるようになる。これに依り、使用目的
に合った高い検出精度、高速処理の前方監視処理が容易
なアルゴリズムを備えた点で優位性を主張することがで
きるようになる。
According to the seventeenth aspect of the present invention, in addition to the effects of the fifteenth or sixteenth aspect, it is also possible to determine whether or not the vehicle is in a dangerous state based on the distance calculated at high speed and with high accuracy. Can be determined. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0245】請求項18に記載の発明に依れば、請求項
17に記載の効果に加えて、高速且つ高精度の警報を発
生することができるようになる。これに依り、使用目的
に合った高い検出精度、高速処理の前方監視処理が容易
なアルゴリズムを備えた点で優位性を主張することがで
きるようになる。
According to the eighteenth aspect, in addition to the effect of the seventeenth aspect, a high-speed and high-precision alarm can be generated. This makes it possible to claim superiority in that it has an algorithm that can easily perform high-speed forward monitoring processing with high detection accuracy suitable for the purpose of use.

【0246】請求項19に記載の発明は、左カメラを用
いて収集した左画像と右カメラを用いて収集した右画像
を用いてステレオ式の画像処理を行って前方を走行して
いる車両と自車両との距離を計測し危険な場合に警報を
発生する車両前方監視システムにおいて、光軸を自車両
の進行方向ベクトルと平行に設置すると共に、車両上に
路面から同じ高さで設けられた左右のカメラと、左カメ
ラ及び右カメラにおいて撮影を行うタイミングを指示す
る同期信号を生成すると共に、フレーム時間に同期した
切り替え信号を生成する同期信号発生器と、前記同期信
号に基づいて左カメラ及び右カメラを同期して同一時刻
に左画像と右画像とを撮影して左画像と右画像との合成
映像信号を作成する合成映像作成手段とを備えたステレ
オ動画像取得装置を有して構成されている車両前方監視
システムである。
According to a nineteenth aspect of the present invention, a vehicle traveling forward by performing stereo image processing using a left image collected by using a left camera and a right image collected by using a right camera. In a vehicle front monitoring system that measures the distance to the own vehicle and issues an alarm in case of danger, the optical axis was installed parallel to the traveling direction vector of the own vehicle and provided at the same height from the road surface on the vehicle Left and right cameras, a synchronization signal that generates a synchronization signal that instructs the timing of shooting with the left camera and the right camera, and a synchronization signal generator that generates a switching signal synchronized with the frame time. A stereo moving image acquiring apparatus comprising: a synthesized video creating unit that shoots a left image and a right image at the same time in synchronization with a right camera and creates a synthesized video signal of the left image and the right image Is a vehicle front monitoring system is configured to have.

【0247】請求項19に記載の発明に依れば、請求項
1に記載の効果に加えて、左カメラ(右カメラ)のカメ
ラから得られる画像がすべて路面と等しい高さにある場
合、画像中のすべての画素を視差の値だけ走査線方向に
移動させると右カメラ(左カメラ)により撮像された画
像と同等の画像の作成が可能となる。
According to the nineteenth aspect of the invention, in addition to the effect of the first aspect, when all the images obtained from the left camera (right camera) are at the same height as the road surface, By moving all the pixels in the scanning line direction by the value of the parallax, it is possible to create an image equivalent to an image captured by the right camera (left camera).

【0248】請求項20に記載の発明に依れば、請求項
2に記載の効果と同様の効果を奏する。
According to the twentieth aspect, the same effect as that of the second aspect can be obtained.

【0249】請求項21に記載の発明に依れば、請求項
3に記載の効果と同様の効果を奏する。
According to the twenty-first aspect of the invention, the same effect as the third aspect can be obtained.

【0250】請求項22に記載の発明に依れば、請求項
4に記載の効果と同様の効果を奏する。
According to the twenty-second aspect, the same effect as that of the fourth aspect can be obtained.

【0251】請求項23に記載の発明に依れば、請求項
5に記載の効果と同様の効果を奏する。
According to the twenty-third aspect of the present invention, the same effect as the fifth aspect is obtained.

【0252】請求項24に記載の発明に依れば、請求項
6に記載の効果と同様の効果を奏する。
According to the twenty-fourth aspect, the same effect as that of the sixth aspect can be obtained.

【0253】請求項25に記載の発明に依れば、請求項
7に記載の効果と同様の効果を奏する。
According to the twenty-fifth aspect, the same effect as the seventh aspect can be obtained.

【0254】請求項26に記載の発明に依れば、請求項
9に記載の効果と同様の効果を奏する。
According to the twenty-sixth aspect, the same effect as the ninth aspect can be obtained.

【0255】請求項27に記載の発明に依れば、請求項
11乃至13のいずれか一項に記載の効果と同様の効果
を奏する。
According to the twenty-seventh aspect, the same effects as those of any one of the eleventh to thirteenth aspects can be obtained.

【0256】請求項28に記載の発明に依れば、請求項
15または16に記載の効果と同様の効果を奏する。
According to the twenty-eighth aspect of the present invention, the same effect as that of the fifteenth or sixteenth aspect is obtained.

【0257】請求項29に記載の発明に依れば、請求項
17に記載の効果と同様の効果を奏する。
According to the twenty-ninth aspect, the same effect as that of the seventeenth aspect can be obtained.

【0258】請求項30に記載の発明に依れば、請求項
20に記載の効果と同様の効果を奏する。
According to the thirtieth aspect, the same effect as the twentieth aspect can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の車両前方監視システムを構成するデー
タ処理装置の一実施形態を説明するための機能ブロック
図である。
FIG. 1 is a functional block diagram for explaining an embodiment of a data processing device constituting a vehicle front monitoring system of the present invention.

【図2】本発明の車両前方監視システムを構成するステ
レオ動画像取得装置の一実施形態を説明するための機能
ブロック図である。
FIG. 2 is a functional block diagram for explaining an embodiment of a stereo moving image acquisition device constituting the vehicle front monitoring system of the present invention.

【図3】車両前方監視システムで実行される前方車両検
出方法の一実施形態を説明するためのフローチャートで
ある。
FIG. 3 is a flowchart illustrating an embodiment of a forward vehicle detection method performed by the forward vehicle monitoring system.

【図4】前方車両検出方法及び車両前方監視システムに
おいて用いられる両眼立体視法を説明するためのの原理
図である。
FIG. 4 is a principle diagram for explaining a binocular stereoscopic method used in a forward vehicle detection method and a forward vehicle monitoring system.

【図5】前方車両検出方法及び車両前方監視システムに
おいて用いられる右映像信号と左映像信号とから構成さ
れる合成映像信号の画像形態を説明するための図であ
る。
FIG. 5 is a diagram for explaining an image form of a composite video signal composed of a right video signal and a left video signal used in a forward vehicle detection method and a forward vehicle monitoring system.

【図6】図6(a)は、1/2フレーム時間毎に奇数走
査線信号と偶数走査線信号とを分けて出力するインター
レースモードを説明するための図であり、図6(b)
は、図6(a)のインターレースモードにおける右映像
信号及び左映像信号のフレーム構造を説明するための図
である。
FIG. 6A is a diagram for explaining an interlace mode in which an odd-numbered scanning line signal and an even-numbered scanning line signal are separately output every 1/2 frame time, and FIG.
FIG. 6 is a diagram for explaining a frame structure of a right video signal and a left video signal in the interlace mode of FIG.

【図7】図2のステレオ動画像取得装置において、自車
両が直進する時の進行方向ベクトルと一致しお互い路面
に対して平行になるような光軸を有する左カメラと右カ
メラを自動車の天井部に取り付けて両眼道路画像の取得
を行う様子を説明するための図である。
FIG. 7 shows the stereo moving image acquisition apparatus of FIG. 2 in which a left camera and a right camera having an optical axis that coincides with a traveling direction vector when the own vehicle goes straight and are parallel to a road surface are provided on the ceiling of the automobile. It is a figure for explaining a mode that it attaches to a part and acquires a binocular road image.

【図8】監視領域設定工程を説明するための図である。FIG. 8 is a diagram for explaining a monitoring area setting step.

【図9】エッジ画像作成工程におけるエッジ点を採用工
程を説明するための図である。
FIG. 9 is a diagram for explaining a step of employing an edge point in an edge image creation step.

【図10】エッジ画像作成工程におけるエッジ画像の細
線化処理を説明するための図である。
FIG. 10 is a diagram illustrating a thinning process of an edge image in an edge image creation step.

【図11】エッジ画像作成工程における垂直エッジと水
平エッジとを区別する処理を説明するための図である。
FIG. 11 is a diagram illustrating a process of distinguishing a vertical edge from a horizontal edge in an edge image creation step.

【図12】図12(a),(b)は、前方車両抽出工程
において、左エッジ画像から推定エッジ画像を差し引い
て差分画像を作成する工程を説明するための図である。
FIGS. 12A and 12B are diagrams for explaining a step of subtracting an estimated edge image from a left edge image to create a difference image in a front vehicle extraction step.

【図13】図13(a),(b)は、エッジの方向性を
考慮せずに推定エッジ画像と左エッジ画像とを重ねて示
した図である。
FIGS. 13A and 13B are diagrams showing an estimated edge image and a left edge image superimposed without considering the directionality of the edge.

【図14】左画像情報と右画像情報との間の視差を説明
するための図である。
FIG. 14 is a diagram for describing parallax between left image information and right image information.

【図15】路面よりも高い位置に存在する被測距対象に
対する視差の算出誤差を説明するための図である。
FIG. 15 is a diagram for describing a parallax calculation error for a distance measurement target existing at a position higher than a road surface.

【図16】路面よりも高い位置にある被測距対象と左エ
ッジ画像との誤差を説明するための図である。
FIG. 16 is a diagram for explaining an error between a subject to be measured at a position higher than a road surface and a left edge image.

【図17】前方車両抽出工程におけるステップS10を
説明するための図である。
FIG. 17 is a diagram for explaining step S10 in a front vehicle extraction process.

【図18】距離算出工程におけるステップS14を説明
するための図である。
FIG. 18 is a diagram illustrating step S14 in the distance calculation step.

【図19】視差と距離の関係式をあらかじめ算出するこ
と処理を説明するための図である。
FIG. 19 is a diagram for explaining a process of calculating a relational expression between parallax and distance in advance.

【符号の説明】[Explanation of symbols]

10…車両前方監視システム 20…自車両 21…前方車両 30…データ処理装置 31…左右画像分離取得手段 31a…右画像情報 31b…左画像情報 32…監視領域設定手段 32a…監視領域 33…前方車両抽出手段 332…エッジ画像作成部 33A…エッジ画像 33AL…左エッジ画像 33AR…右エッジ画像 33E…推定エッジ画像 33D…差分画像 34…路面 334…差分エッジ作成部 334a…差分水平エッジ 334b…差分垂直エッジ 334c…差分エッジ画像 336…窓作成部 336a…窓 35…距離算出手段 36…判定手段 36a…警報信号 37…警報手段 40…ステレオ動画像取得装置 41L…左カメラ 41La…左映像信号 41R…右カメラ 41Ra…右映像信号 43…同期信号発生器 43a…同期信号 43b…切り替え信号 44…合成映像作成手段 44a…合成映像信号 45…フレームメモリ DESCRIPTION OF SYMBOLS 10 ... Vehicle front monitoring system 20 ... Own vehicle 21 ... Front vehicle 30 ... Data processing apparatus 31 ... Left / right image separation acquisition means 31a ... Right image information 31b ... Left image information 32 ... Monitoring area setting means 32a ... Monitoring area 33 ... Front vehicle Extraction means 332... Edge image creating section 33A... Edge image 33AL... Left edge image 33AR... Right edge image 33E... Estimated edge image 33D... Difference image 34... Road surface 334. 334c: Difference edge image 336: Window creation unit 336a: Window 35: Distance calculation means 36: Judgment means 36a ... Warning signal 37: Warning means 40: Stereo moving image acquisition device 41L: Left camera 41La: Left video signal 41R: Right camera 41Ra right video signal 43 synchronization signal generator 43a synchronization signal 43b switching signal 44 ... Synthetic image creating unit 44a ... composite video signal 45 ... frame memory

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】 左カメラを用いて収集した左画像と右カ
メラを用いて収集した右画像を用いてステレオ式の画像
処理を行って前方を走行している車両と自車両との距離
を計測し危険な場合に警報を発生する前方車両検出方法
において、 左右のカメラを同期して同一時刻に左画像と右画像とを
撮影して左画像と右画像との合成映像信号を作成する工
程とを含むステレオ動画像取得工程を有することを特徴
とする前方車両検出方法。
1. A stereo image processing is performed using a left image collected by using a left camera and a right image collected by using a right camera to measure a distance between a vehicle traveling ahead and the host vehicle. A method for detecting a forward vehicle that generates an alarm in a dangerous case, comprising: synchronizing the left and right cameras, photographing the left image and the right image at the same time, and creating a composite video signal of the left image and the right image; and A method for detecting a preceding vehicle, comprising a stereo moving image acquiring step including:
【請求項2】 左カメラ及び右カメラの各々が奇数走査
線信号/偶数走査線信号と偶数走査線信号/奇数走査線
信号/偶数走査線信号とを出力する場合、前記ステレオ
動画像取得工程は、左カメラからの左映像信号における
所定走査線信号と右カメラからの右映像信号における所
定走査線信号とを収集して前記合成映像信号を作成する
工程を有することを特徴とする請求項1に記載の前方車
両検出方法。
2. When each of the left camera and the right camera outputs an odd scan line signal / even scan line signal and an even scan line signal / odd scan line signal / even scan line signal, the stereo moving image acquiring step is performed. Collecting a predetermined scanning line signal in a left video signal from a left camera and a predetermined scanning line signal in a right video signal from a right camera to generate the composite video signal. The method for detecting a forward vehicle according to any one of the preceding claims.
【請求項3】 前記ステレオ動画像取得工程は、左カメ
ラからの左映像信号における偶数走査線信号/奇数走査
線信号/偶数走査線信号と右カメラからの右映像信号に
おける奇数走査線信号/偶数走査線信号とを収集し、当
該左映像信号の偶数走査線信号/奇数走査線信号/偶数
走査線信号を前記合成映像信号における偶数走査線信号
/奇数走査線信号/偶数走査線信号とすると共に当該右
映像信号の奇数走査線信号/偶数走査線信号を当該合成
映像信号における奇数走査線信号/偶数走査線信号とし
て合成して当該合成映像信号を作成する工程を有するこ
とを特徴とする請求項2に記載の前方車両検出方法。
3. The stereo moving image acquiring step includes: an even scan line signal / odd scan line signal / even scan line signal in a left video signal from a left camera and an odd scan line signal / even in a right video signal from a right camera. And a scanning line signal is collected, and an even scanning line signal / odd scanning line signal / even scanning line signal of the left video signal is set as an even scanning line signal / odd scanning line signal / even scanning line signal in the composite video signal. A step of combining the odd scanning line signal / even scanning line signal of the right video signal as an odd scanning line signal / even scanning line signal in the composite video signal to generate the composite video signal. 3. The method for detecting a forward vehicle according to claim 2.
【請求項4】 1/2フレーム時間毎に奇数走査線信号
/偶数走査線信号と偶数走査線信号/奇数走査線信号/
偶数走査線信号とを分けて出力するインターレースモー
ドで左カメラ及び右カメラが動作する場合、前記ステレ
オ動画像取得工程は、左カメラからの左映像信号と右カ
メラからの右映像信号とを前記1/2フレーム時間毎に
交互に切り替えて収集して前記合成映像信号を作成する
工程を有することを特徴とする請求項2に記載の前方車
両検出方法。
4. An odd scan line signal / even scan line signal and an even scan line signal / odd scan line signal /
When the left camera and the right camera operate in the interlace mode in which the even-number scan line signal is output separately, the stereo moving image acquiring step includes the step of converting the left video signal from the left camera and the right video signal from the right camera into the 1st video signal. The method according to claim 2, further comprising a step of generating the composite video signal by alternately switching and collecting the composite video signal every / 2 frame time.
【請求項5】 前記合成映像信号が、前記右映像信号に
おける奇数走査線信号/偶数走査線信号である1/2フ
レーム分を前記合成映像信号における1/2フレーム分
の画像データとして用いると共に、前記左映像信号にお
ける偶数走査線信号/奇数走査線信号/偶数走査線信号
である1/2フレーム分を当該合成映像信号における残
りの1/2フレーム分の画像データとして用いて当該合
成映像信号を合成する工程を有することを特徴とする請
求項4に記載の前方車両検出方法。
5. The composite video signal uses a half frame of an odd scan line signal / even scan line signal in the right video signal as image data of a half frame in the composite video signal. The composite video signal is obtained by using 1/2 frame of the even-numbered scan line signal / odd-number scan line signal / even-number scan line signal in the left video signal as image data of the remaining 1/2 frame in the composite video signal. The method according to claim 4, further comprising the step of combining.
【請求項6】 走査線の交互に前記左映像信号と前記右
映像信号と合成されて1フレームが構成された前記合成
画像信号を単一のフレームメモリに記録する工程を有す
ることを特徴とする請求項3乃至5のいずれか一項に記
載の前方車両検出方法。
6. The method according to claim 1, further comprising a step of recording the synthesized image signal, which is composed of one frame by combining the left video signal and the right video signal alternately with scanning lines, in a single frame memory. A method for detecting a forward vehicle according to claim 3.
【請求項7】 前記フレームメモリに記録されている前
記合成画像信号を読み出し、当該読み出された合成画像
信号の1フレームを構成する走査線信号における奇数番
目の走査線信号を分離して右画像情報を作成すると共
に、当該走査線信号における偶数番目の走査線信号を分
離して左画像情報を作成する左右画像分離取得工程を有
することを特徴とする請求項6に記載の前方車両検出方
法。
7. A right image by reading out the composite image signal recorded in the frame memory and separating an odd-numbered scan line signal in a scan line signal constituting one frame of the read composite image signal. 7. The front vehicle detection method according to claim 6, further comprising a left / right image separation / acquisition step of generating information and separating left / right image information by separating even-numbered scanning line signals in the scanning line signal.
【請求項8】 右画像情報及び左画像情報に対して前方
車両検出にかかる監視領域を各々設定する工程を有する
ことを特徴とする請求項7に記載の前方車両検出方法。
8. The front vehicle detection method according to claim 7, further comprising a step of setting a monitoring area for front vehicle detection with respect to the right image information and the left image information.
【請求項9】 左カメラを用いて収集した左画像情報と
右カメラを用いて収集した右画像情報を用いてステレオ
式の画像処理を行って前方を走行している車両と自車両
との距離を計測し危険な場合に警報を発生する前方車両
検出方法において、 前記左画像情報において水平エッジ及び垂直エッジを分
離して抽出すると共に、前記右画像情報において水平エ
ッジ及び垂直エッジを分離して抽出する工程と、前工程
に続いて、当該左画像情報において抽出された水平エッ
ジ及び垂直エッジに対してエッジの細線化を行って左エ
ッジ画像を作成すると共に、当該右画像情報において抽
出された水平エッジ及び垂直エッジに対してエッジの細
線化を行って右エッジ画像を作成する工程と、前工程に
続いて、当該右エッジ画像/左エッジ画像から推定左エ
ッジ画像/推定右エッジ画像を作成する工程と、前工程
に続いて、水平エッジ、垂直エッジから各々独立して左
エッジ画像/右エッジ画像と推定エッジ画像の差分画像
を作成し、これらを合成して差分エッジ画像を作成する
工程を含む前方車両抽出工程を有することを特徴とする
前方車両検出方法。
9. A distance between a vehicle traveling ahead and a host vehicle by performing stereo image processing using left image information collected using a left camera and right image information collected using a right camera. In the method for detecting a forward vehicle, which generates a warning in a dangerous case by measuring the horizontal image and the vertical edge in the left image information, the horizontal and vertical edges are separated and extracted in the right image information. And a preceding step, thinning the edges of the horizontal edge and the vertical edge extracted in the left image information to create a left edge image, and the horizontal edge extracted in the right image information. A step of creating a right edge image by thinning the edge with respect to the edge and the vertical edge, and following the previous step, estimating the left edge from the right edge image / left edge image. Following the previous step, a difference image between the left edge image / right edge image and the estimated edge image is created independently of the horizontal edge and the vertical edge. A front vehicle detection method, comprising: a front vehicle extraction step including a step of creating a difference edge image by combining.
【請求項10】 前記前方車両抽出工程は、前記左画像
情報において水平エッジ及び垂直エッジを分離して抽出
すると共に、前記右画像情報において水平エッジ及び垂
直エッジを分離して抽出する工程と、前工程に続いて、
当該左画像情報において抽出された水平エッジ及び垂直
エッジに対してエッジの細線化を行って左エッジ画像を
作成すると共に、当該右画像情報において抽出された水
平エッジ及び垂直エッジに対してエッジの細線化を行っ
て右エッジ画像を作成するエッジ画像作成工程を含むこ
とを特徴とする請求項9に記載の前方車両検出方法。
10. The front vehicle extracting step includes a step of separating and extracting a horizontal edge and a vertical edge in the left image information and a step of separating and extracting a horizontal edge and a vertical edge in the right image information. Following the process,
The horizontal edge and the vertical edge extracted in the left image information are thinned to form a left edge image, and the horizontal and vertical edges extracted in the right image information are thinned. The method according to claim 9, further comprising an edge image creating step of creating a right edge image by performing the conversion.
【請求項11】 前記前方車両抽出工程は、前記右エッ
ジ画像から左エッジ画像を推定する推定エッジ画像作成
工程を含むことを特徴とする請求項10に記載の前方車
両検出方法。
11. The front vehicle detection method according to claim 10, wherein the front vehicle extraction step includes an estimated edge image creation step of estimating a left edge image from the right edge image.
【請求項12】 前記前方車両抽出工程は、前記推定左
エッジ画像と前記左エッジ画像との水平エッジに対する
差分演算を行って差分水平エッジを作成すると共に、当
該推定左エッジ画像と当該左エッジ画像との垂直エッジ
に対する差分演算を行って差分垂直エッジを作成する工
程と、当該差分水平エッジと当該差分垂直エッジとを合
成して差分エッジ画像を作成する工程を含む工程とを含
むことを特徴とする請求項11に記載の前方車両検出方
法。
12. The front vehicle extracting step performs a difference operation on a horizontal edge between the estimated left edge image and the left edge image to create a difference horizontal edge, and further includes the estimated left edge image and the left edge image. Generating a difference vertical edge by performing a difference operation on the vertical edge of the difference, and a step of combining the difference horizontal edge and the difference vertical edge to create a difference edge image, The front vehicle detection method according to claim 11, wherein
【請求項13】 前記前方車両抽出工程は、前記推定左
エッジ画像と前記左エッジ画像との差分演算において前
記差分水平エッジ及び前記差分垂直エッジを作成した残
余画像のエッジ点の重心を算出する工程と、当該算出し
た重心を中心に全エッジの所定割合を含む窓を作成する
工程とを含むことを特徴とする請求項12に記載の前方
車両検出方法。
13. The front vehicle extracting step is a step of calculating a center of gravity of an edge point of a residual image in which the difference horizontal edge and the difference vertical edge are created in a difference operation between the estimated left edge image and the left edge image. The method according to claim 12, further comprising: creating a window including a predetermined ratio of all edges around the calculated center of gravity.
【請求項14】 前記推定エッジ画像が、一方のカメラ
の画像情報が全て路面上の模様と仮定し、当該画像情報
にかかるエッジ画像が他方のカメラを以て撮影された場
合のエッジ画像を推定した画像情報であることを特徴と
する請求項9乃至13のいずれか一項に記載の前方車両
検出方法。
14. The estimated edge image is an image obtained by assuming that all image information of one camera is a pattern on a road surface and estimating an edge image when the edge image related to the image information is photographed by the other camera. The front vehicle detection method according to any one of claims 9 to 13, wherein the method is information.
【請求項15】 左カメラによって撮影される撮影画像
である左現画像に前記窓を設定する工程と、右カメラに
よって撮影される撮影画像である右現画像上に対応する
領域を設定する工程と、当該左現画像における窓と当該
右現画像における窓との間の視差を算出する工程と、当
該算出された視差に基づいて、前方を走行している車両
と自車両との距離を算出する工程とを含む距離算出工程
を有することを特徴とする請求項11乃至14のいずれ
か一項に記載の前方車両検出方法。
15. A step of setting the window in a left current image, which is an image captured by the left camera, and a step of setting a corresponding area on the right current image, which is an image captured by the right camera. Calculating the disparity between the window in the left current image and the window in the right current image, and calculating the distance between the vehicle traveling ahead and the host vehicle based on the calculated disparity. The method for detecting a forward vehicle according to any one of claims 11 to 14, further comprising a distance calculating step including the steps of:
【請求項16】 前記距離算出工程は、 視差と距離の逆数との比例関係に基づいてあらかじめ算
出した関係式を用いて前記左現画像における窓と前記右
現画像における窓との間の視差を算出し、当該算出され
た視差に基づいて前記距離を算出することを特徴とする
請求項15に記載の前方車両検出方法。
16. The distance calculating step includes calculating a parallax between a window in the left current image and a window in the right current image using a relational expression calculated in advance based on a proportional relationship between the parallax and the reciprocal of the distance. The method according to claim 15, wherein the distance is calculated based on the calculated parallax.
【請求項17】 前記算出された距離に基づいて危険状
態か否かを判定し、危険状態と判定した場合に警報信号
を作成する工程を有することを特徴とする請求項15ま
たは16に記載の前方車両検出方法。
17. The method according to claim 15, further comprising the step of determining whether or not the vehicle is in a dangerous state based on the calculated distance, and generating an alarm signal when the vehicle is determined to be in a dangerous state. Forward vehicle detection method.
【請求項18】 前記算出された距離に基づいて、前記
警報信号を受けて警報を発生する工程を有することを特
徴とする請求項17に記載の前方車両検出方法。
18. The method according to claim 17, further comprising the step of receiving the warning signal and generating a warning based on the calculated distance.
【請求項19】 左カメラを用いて収集した左画像と右
カメラを用いて収集した右画像を用いてステレオ式の画
像処理を行って前方を走行している車両と自車両との距
離を計測し危険な場合に警報を発生する車両前方監視シ
ステムにおいて、 光軸を自車両の進行方向ベクトルと平行に設置すると共
に、車両上に路面から同じ高さで設けられた左右のカメ
ラと、 左カメラ及び右カメラにおいて撮影を行うタイミングを
指示する同期信号を生成すると共に、少なくとも1/2
フレーム時間に同期した切り替え信号を生成する同期信
号発生器と、 前記同期信号に基づいて左カメラ及び右カメラを同期し
て同一時刻に左画像と右画像とを撮影して左画像と右画
像との合成映像信号を作成する合成映像作成手段とを備
えたステレオ動画像取得装置を有することを特徴とする
車両前方監視システム。
19. A stereo image processing is performed using a left image collected using a left camera and a right image collected using a right camera to measure a distance between a vehicle traveling ahead and the host vehicle. In a vehicle front monitoring system that issues an alarm in the event of a danger, the left and right cameras, with the optical axis installed in parallel with the traveling direction vector of the vehicle and at the same height from the road surface on the vehicle, and the left camera And a synchronizing signal for instructing the timing of photographing with the right camera,
A synchronization signal generator that generates a switching signal synchronized with a frame time, and synchronizes a left camera and a right camera based on the synchronization signal to shoot a left image and a right image at the same time, and a left image and a right image. 1. A vehicle forward monitoring system, comprising: a stereo moving image acquisition device including a composite video creating unit that creates a composite video signal.
【請求項20】 左カメラ及び右カメラの各々が奇数走
査線信号/偶数走査線信号と偶数走査線信号/奇数走査
線信号/偶数走査線信号とを出力する場合、前記ステレ
オ動画像取得装置は、 左カメラからの左映像信号における所定走査線信号と右
カメラからの右映像信号における所定走査線信号とを収
集して前記合成映像信号を作成するように構成されてい
ることを特徴とする請求項19に記載の車両前方監視シ
ステム。
20. When each of the left camera and the right camera outputs an odd scan line signal / even scan line signal and an even scan line signal / odd scan line signal / even scan line signal, Wherein a predetermined scanning line signal in the left video signal from the left camera and a predetermined scanning line signal in the right video signal from the right camera are collected to generate the composite video signal. Item 20. A vehicle forward monitoring system according to item 19.
【請求項21】 前記ステレオ動画像取得装置は、前記
切り替え信号に同期して、左カメラからの左映像信号に
おける偶数走査線信号/奇数走査線信号/偶数走査線信
号と右カメラからの右映像信号における奇数走査線信号
/偶数走査線信号とを収集し、当該左映像信号の偶数走
査線信号/奇数走査線信号/偶数走査線信号を前記合成
映像信号における偶数走査線信号/奇数走査線信号/偶
数走査線信号とすると共に当該右映像信号の奇数走査線
信号/偶数走査線信号を当該合成映像信号における奇数
走査線信号/偶数走査線信号として合成して当該合成映
像信号を作成するように構成されていることを特徴とす
る請求項20に記載の車両前方監視システム。
21. The stereo moving image acquisition device, in synchronization with the switching signal, an even scan line signal / odd scan line signal / even scan line signal in a left video signal from a left camera and a right video from a right camera. An odd scan line signal / even scan line signal in the signal is collected, and an even scan line signal / odd scan line signal / even scan line signal of the left video signal is converted into an even scan line signal / odd scan line signal in the composite video signal. / Even scanning line signal, and combine the odd scanning line signal / even scanning line signal of the right video signal as an odd scanning line signal / even scanning line signal in the composite video signal to generate the composite video signal. 21. The vehicle front monitoring system according to claim 20, wherein the system is configured.
【請求項22】 前記ステレオ動画像取得装置は、1/
2フレーム時間毎に奇数走査線信号/偶数走査線信号と
偶数走査線信号/奇数走査線信号/偶数走査線信号とを
分けて出力するインターレースモードで左カメラ及び右
カメラが動作する場合、インターレースにかかる前記切
り替え信号に同期して、左カメラからの左映像信号と右
カメラからの右映像信号とを前記1/2フレーム時間毎
に交互に切り替えて収集して前記合成映像信号を作成す
るように構成されていることを特徴とする請求項21に
記載の車両前方監視システム。
22. The stereo moving image acquiring apparatus according to claim 1, wherein
When the left camera and the right camera operate in the interlace mode in which the odd scan line signal / even scan line signal and the even scan line signal / odd scan line signal / even scan line signal are output separately every two frame times, the interlacing is performed. In synchronism with the switching signal, a left video signal from a left camera and a right video signal from a right camera are alternately switched and collected every フ レ ー ム frame time to generate the composite video signal. The vehicle front monitoring system according to claim 21, wherein the system is configured.
【請求項23】 前記前記ステレオ動画像取得装置は、 前記切り替え信号に同期して、前記右映像信号における
奇数走査線信号/偶数走査線信号である1/2フレーム
分を前記合成映像信号における1/2フレーム分の画像
データとして用いると共に、前記左映像信号における偶
数走査線信号/奇数走査線信号/偶数走査線信号である
1/2フレーム分を当該合成映像信号における残りの1
/2フレーム分の画像データとして用いて当該合成映像
信号を合成するように構成されていることを特徴とする
請求項22に記載の車両前方監視システム。
23. The stereo moving image acquiring apparatus, in synchronization with the switching signal, divides a half frame of an odd scanning line signal / even scanning line signal in the right video signal into one in the composite video signal. / 2 frames of image data, and the 1/2 frame of the even-numbered scan line signal / odd-numbered scan line signal / even-numbered scan line signal in the left video signal is used as the remaining 1 in the composite video signal.
23. The vehicle forward monitoring system according to claim 22, wherein the combined video signal is combined using the image data for / 2 frames.
【請求項24】 走査線の交互に前記左映像信号と前記
右映像信号と合成されて1フレームが構成された前記合
成画像信号を記録する単一のフレームメモリを有するこ
とを特徴とする請求項21乃至23のいずれか一項に記
載の車両前方監視システム。
24. A single frame memory for recording the synthesized image signal in which one frame is formed by synthesizing the left video signal and the right video signal alternately with scanning lines. The vehicle front monitoring system according to any one of claims 21 to 23.
【請求項25】 前記フレームメモリに記録されている
前記合成画像信号を読み出し、当該読み出された合成画
像信号の1フレームを構成する走査線信号における奇数
番目の走査線信号を分離して右画像情報を作成すると共
に、当該走査線信号における偶数番目の走査線信号を分
離して左画像情報を作成する左右画像分離取得手段と、 右画像情報及び左画像情報に対して前方車両検出にかか
る監視領域を各々設定する監視領域設定手段とを備えた
データ処理装置を有することを特徴とする請求項24に
記載の車両前方監視システム。
25. The combined image signal recorded in the frame memory is read out, and odd-numbered scan line signals in the scan line signals constituting one frame of the read combined image signal are separated to form a right image. Left and right image separation obtaining means for generating information and separating even-numbered scanning line signals in the scanning line signal to create left image information; and monitoring the front image detection for the right image information and the left image information. 25. The vehicle forward monitoring system according to claim 24, further comprising a data processing device including a monitoring area setting unit that sets each area.
【請求項26】 前記データ処理装置は、 前記左画像情報において水平エッジ及び垂直エッジを分
離して抽出すると共に、前記右画像情報において水平エ
ッジ及び垂直エッジを分離して抽出し、当該左画像情報
において抽出された水平エッジ及び垂直エッジに対して
エッジの細線化を行って左エッジ画像を作成すると共
に、当該右画像情報において抽出された水平エッジ及び
垂直エッジに対してエッジの細線化を行って右エッジ画
像を作成し、当該右エッジ画像から推定左エッジ画像を
作成し、水平エッジ、垂直エッジから各々独立して左エ
ッジ画像と推定エッジ画像の差分画像を作成し、これら
を合成して差分エッジ画像を作成する前方車両抽出手段
を有することを特徴とする請求項25に記載の車両前方
監視システム。
26. The data processing device, wherein a horizontal edge and a vertical edge are separated and extracted from the left image information, and a horizontal edge and a vertical edge are separated and extracted from the right image information. The left edge image is created by performing edge thinning on the horizontal edge and the vertical edge extracted in, and the edge thinning is performed on the horizontal edge and vertical edge extracted in the right image information. A right edge image is created, an estimated left edge image is created from the right edge image, a difference image between the left edge image and the estimated edge image is created independently from the horizontal edge and the vertical edge, and these are combined to obtain a difference image. 26. The vehicle forward monitoring system according to claim 25, further comprising a forward vehicle extracting unit that creates an edge image.
【請求項27】 前記前方車両抽出手段は、 前記左画像情報において水平エッジ及び垂直エッジを分
離して抽出すると共に、前記右画像情報において水平エ
ッジ及び垂直エッジを分離して抽出し、当該左画像情報
において抽出された水平エッジ及び垂直エッジに対して
エッジの細線化を行って左エッジ画像を作成すると共
に、当該右画像情報において抽出された水平エッジ及び
垂直エッジに対してエッジの細線化を行って右エッジ画
像を作成して推定左エッジ画像/推定右エッジ画像を作
成するエッジ画像作成部と、 前記推定左エッジ画像/推定右エッジ画像と前記左エッ
ジ画像/右エッジ画像との水平エッジに対する差分演算
を行って差分水平エッジを作成すると共に、当該推定左
エッジ画像/推定右エッジ画像と当該左エッジ画像/右
エッジ画像との垂直エッジに対する差分演算を行って差
分垂直エッジを作成し、当該差分水平エッジと当該差分
垂直エッジとを合成して差分エッジ画像を作成する差分
エッジ作成部と、 前記推定左エッジ画像と前記左エッジ画像との差分演算
において前記差分水平エッジ及び前記差分垂直エッジを
作成した残余画像のエッジ点の重心を算出し、当該算出
した重心を中心に全エッジの所定割合を含む窓を作成す
る窓作成部とを有することを特徴とする請求項25に記
載の車両前方監視システム。
27. The front vehicle extracting means separates and extracts a horizontal edge and a vertical edge from the left image information, and separates and extracts a horizontal edge and a vertical edge from the right image information. The left edge image is created by thinning the horizontal and vertical edges extracted in the information, and the thinning of the edges is performed on the horizontal and vertical edges extracted in the right image information. An edge image creating unit for creating a right edge image to create an estimated left edge image / estimated right edge image, and an edge image creation unit for creating an estimated left edge image / estimated right edge image, A difference horizontal edge is created by performing a difference operation, and the estimated left edge image / estimated right edge image and the left edge image / right edge image are calculated. A difference edge creating unit that creates a difference vertical edge by performing a difference operation on a vertical edge with the image, and combines the difference horizontal edge and the difference vertical edge to create a difference edge image; and the estimated left edge image In the difference calculation between the left edge image and the left edge image, the center of gravity of the edge point of the residual image in which the difference horizontal edge and the difference vertical edge are created is calculated, and a window including a predetermined ratio of all edges around the calculated center of gravity is created. 26. The vehicle front monitoring system according to claim 25, further comprising a window creating unit that performs the operation.
【請求項28】 前記データ処理装置は、 左カメラによって撮影される撮影画像である左現画像に
前記窓を設定し、右カメラによって撮影される撮影画像
である右現画像上に対応する領域を設定し、当該左現画
像における窓と当該右現画像における窓との間の視差を
算出し、当該算出された視差に基づいて、前方を走行し
ている車両と自車両との距離を算出する距離算出手段を
有することを特徴とする請求項26または27に記載の
車両前方監視システム。
28. The data processing device, wherein the window is set in a left current image which is a photographed image taken by a left camera, and an area corresponding to a right current image which is a photographed image taken by a right camera is set. Set, calculate the disparity between the window in the left current image and the window in the right current image, and calculate the distance between the vehicle running ahead and the host vehicle based on the calculated disparity. 28. The vehicle front monitoring system according to claim 26, further comprising a distance calculating unit.
【請求項29】 前記データ処理装置は、 前記算出された距離に基づいて危険状態か否かを判定
し、危険状態と判定した場合に警報信号を作成する判定
手段を有することを特徴とする請求項28に記載の車両
前方監視システム。
29. The data processing apparatus according to claim 29, further comprising: a determination unit configured to determine whether or not the vehicle is in a dangerous state based on the calculated distance, and to generate an alarm signal when determining that the vehicle is in a dangerous state. Item 30. A vehicle forward monitoring system according to item 28.
【請求項30】 前記データ処理装置は、 前記算出された距離に基づいて、前記警報信号を受けて
警報を発生する警報手段を有することを特徴とする請求
項29に記載の車両前方監視システム。
30. The vehicle front monitoring system according to claim 29, wherein the data processing device has an alarm unit that receives the alarm signal and generates an alarm based on the calculated distance.
JP9149525A 1997-06-06 1997-06-06 Detection of front vehicle and system for monitoring front of vehicle Abandoned JPH10341430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9149525A JPH10341430A (en) 1997-06-06 1997-06-06 Detection of front vehicle and system for monitoring front of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9149525A JPH10341430A (en) 1997-06-06 1997-06-06 Detection of front vehicle and system for monitoring front of vehicle

Publications (1)

Publication Number Publication Date
JPH10341430A true JPH10341430A (en) 1998-12-22

Family

ID=15477049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9149525A Abandoned JPH10341430A (en) 1997-06-06 1997-06-06 Detection of front vehicle and system for monitoring front of vehicle

Country Status (1)

Country Link
JP (1) JPH10341430A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001021446A1 (en) * 1999-09-20 2001-03-29 Matsushita Electric Industrial Co., Ltd. Device for assisting automobile driver
JP2005271836A (en) * 2004-03-26 2005-10-06 Aisin Seiki Co Ltd Auxiliary lighting system for car-mounted camera
JP2005327038A (en) * 2004-05-13 2005-11-24 Hokuriyou Denko Kk Recognition method for mobile body and monitor camera device using it

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001021446A1 (en) * 1999-09-20 2001-03-29 Matsushita Electric Industrial Co., Ltd. Device for assisting automobile driver
JP3300340B2 (en) * 1999-09-20 2002-07-08 松下電器産業株式会社 Driving support device
US6993159B1 (en) 1999-09-20 2006-01-31 Matsushita Electric Industrial Co., Ltd. Driving support system
JP2005271836A (en) * 2004-03-26 2005-10-06 Aisin Seiki Co Ltd Auxiliary lighting system for car-mounted camera
JP4490716B2 (en) * 2004-03-26 2010-06-30 アイシン精機株式会社 Auxiliary lighting device for in-vehicle camera
JP2005327038A (en) * 2004-05-13 2005-11-24 Hokuriyou Denko Kk Recognition method for mobile body and monitor camera device using it
JP4551119B2 (en) * 2004-05-13 2010-09-22 北菱電興株式会社 Mobile object recognition method and surveillance camera device using the same

Similar Documents

Publication Publication Date Title
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
US8982191B2 (en) Divergence ratio distance mapping camera
JP4899424B2 (en) Object detection device
EP1005234A2 (en) Three-dimensional scope system for vehicles with a single camera
EP1030188A1 (en) Situation awareness system
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
EP2372642B1 (en) Method and system for detecting moving objects
JPH11213137A (en) Image processor
US20060029256A1 (en) Method of generating image and device
CN109003326B (en) Virtual laser radar data generation method based on virtual world
JP5267330B2 (en) Image processing apparatus and method
JP2008092459A (en) Periphery monitoring apparatus
KR101431373B1 (en) Apparatus for estimating of vehicle movement using stereo matching
JP2010287029A (en) Periphery display device
JPH09218937A (en) Compartment line detector
CN115222919A (en) Sensing system and method for constructing color point cloud map of mobile machine
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
JPH1144533A (en) Preceding vehicle detector
JP4696925B2 (en) Image processing device
JPH10341430A (en) Detection of front vehicle and system for monitoring front of vehicle
JP3226699B2 (en) Perimeter monitoring device for vehicles
JP3447461B2 (en) Moving obstacle detecting apparatus and method
JPH1141521A (en) Image pickup device, instrument and method for measuring distance between vehicles
JP2017117357A (en) Three-dimensional object detection device
JPH07220113A (en) Image recording/reproducing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050823

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20051012