JPH08241498A - Vehicle peripheral monitor device - Google Patents

Vehicle peripheral monitor device

Info

Publication number
JPH08241498A
JPH08241498A JP4309995A JP4309995A JPH08241498A JP H08241498 A JPH08241498 A JP H08241498A JP 4309995 A JP4309995 A JP 4309995A JP 4309995 A JP4309995 A JP 4309995A JP H08241498 A JPH08241498 A JP H08241498A
Authority
JP
Japan
Prior art keywords
image
information
vehicle
unit
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4309995A
Other languages
Japanese (ja)
Other versions
JP3478432B2 (en
Inventor
Toshiaki Ozaki
敏明 尾崎
Kazutomo Fujinami
一友 藤浪
Naoto Ishikawa
直人 石川
Kazuyuki Sasaki
一幸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP04309995A priority Critical patent/JP3478432B2/en
Publication of JPH08241498A publication Critical patent/JPH08241498A/en
Application granted granted Critical
Publication of JP3478432B2 publication Critical patent/JP3478432B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To calculate the relative position of a vehicle to an object with a high precision by providing the means which calculates correction information related to be set state of an image pickup means and preventing the erroneous recognition of a road surface image based on the set state to accurately extract the object image. CONSTITUTION: A correction information acquisition means 41a calculates correction information based on the set state of an image pickup means 1, and an object extraction means 41b eliminates the background image at height '0' based on right and left image information picked up by the image pickup means 1 and correction information to extract the image information of the object. An object edge detection means 41c extracts the edge image of the object based on differential information of extracted object image information and image information of the object. The object existing in the periphery of the vehicle is recognized in accordance with object information and object edge information. As the result, erroneous recognition of the road surface image based on the set state is prevented to accurately extract the object image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、自動車などの車両の周
辺を監視して車両運転における運転者の安全確認を支援
するのに有効に適用される車両周辺監視装置にかかり、
より詳細には、車両に設置された2台のカメラ(撮像手
段)により撮像された画像情報に基づいて障害物などの
物体を認識する方式の車両周辺監視装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle periphery monitoring device which is effectively applied to monitor the periphery of a vehicle such as an automobile and assist the driver's safety confirmation in driving the vehicle.
More specifically, the present invention relates to a vehicle periphery monitoring device that recognizes an object such as an obstacle based on image information captured by two cameras (imaging means) installed in a vehicle.

【0002】[0002]

【従来の技術】従来、この種の車両周辺監視装置として
は、例えば特開平4−261000号公報及び特開平4
−301513号公報(以下これらを総括して従来装置
という)に示された装置があった。この従来装置は、車
両の所定位置に互いに所定距離だけ水平方向に離間して
配置された右側カメラ及び左側カメラと、これらのカメ
ラからの画像信号を一時的に蓄える右側フレームメモリ
及び左側フレームメモリとを有している。これらのフレ
ームメモリは複数の画素から構成されており、この右側
あるいは左側フレームメモリの一方に蓄えられた画像信
号を参照して隣接する画素との輝度差に基づいて物体の
エッジ点を検出する。
2. Description of the Related Art Conventionally, as a vehicle periphery monitoring device of this type, for example, Japanese Patent Laid-Open No. 4-261000 and Japanese Patent Laid-Open No. 4-261000.
There is a device disclosed in Japanese Patent Laid-Open No. 301513 (hereinafter, these are collectively referred to as a conventional device). This conventional device includes a right-side camera and a left-side camera, which are horizontally spaced apart from each other by a predetermined distance at a predetermined position of a vehicle, and a right-side frame memory and a left-side frame memory that temporarily store image signals from these cameras. have. These frame memories are composed of a plurality of pixels, and the image signal stored in one of the right side frame memory and the left side frame memory is referenced to detect the edge point of the object based on the brightness difference between adjacent pixels.

【0003】そして、この一方のフレームメモリの画像
信号を基準とし、この一方のフレームメモリにおける画
像信号に対して他方のフレームメモリの画像信号をその
位置を順次シフトしながら重ね合わせるとともにその重
ね合わせ状態における両画像データの差分を算出する。
そして、この差分が最小となるシフト量を両カメラにお
ける視差として取得し、この視差に基づいて前記物体と
カメラとの相対距離を算出していた。
With the image signal of one of the frame memories as a reference, the image signal of the other frame memory is superimposed on the image signal of the other frame memory while sequentially shifting its position and the superimposed state. The difference between both image data in is calculated.
Then, the shift amount that minimizes this difference is acquired as the parallax between both cameras, and the relative distance between the object and the camera is calculated based on this parallax.

【0004】このような従来装置において、重ね合わせ
る画像信号の中には、高さ「0」(路面上)の画像、例
えば路面上に描かれた白線や文字あるいは模様などが含
まれている。そして、このような路面上の画像も演算対
象とされている。しかしながら、この路面上の画像につ
いては車両の走行などには障害とならないので、この路
面上の画像についての検出動作は不要な処理となる。そ
して、この不要な処理のために処理時間が長くなってし
まう問題点があった。
In such a conventional apparatus, the image signal to be superimposed contains an image of height "0" (on the road surface), for example, a white line, a character or a pattern drawn on the road surface. An image on such a road surface is also a calculation target. However, since the image on the road surface does not hinder the traveling of the vehicle, the detection operation for the image on the road surface is unnecessary processing. There is a problem that the processing time becomes long due to the unnecessary processing.

【0005】この問題点を解決することを目的として、
本出願人は、特願平6−42433号(以下先願装置と
いう)にて、路面上の画像を除去することにより物体画
像のみを抽出するとともにこの抽出した物体画像につい
てそのエッジを検出し、そしてこのエッジに基づいて物
体の位置を認識する車両周辺監視装置を提案した。以
下、この先願装置について説明する。
In order to solve this problem,
The applicant of the present application, in Japanese Patent Application No. 6-42433 (hereinafter referred to as prior application device), extracts only the object image by removing the image on the road surface and detects the edge of the extracted object image. Then, we proposed a vehicle periphery monitoring device that recognizes the position of an object based on this edge. The prior application device will be described below.

【0006】この先願装置は、図9に示す装置構成を有
している。同図において、1は撮像手段としての撮像
部、2は車両の転回情報を出力する舵角検出部、3は画
像情報などを蓄える記憶部、4は各種演算処理を実行す
るデータ処理部、5は障害物の位置あるいはメッセージ
を表示する表示部、6は警報音あるいは音声ガイダンス
を発生する音声指示部である。
This prior application device has a device configuration shown in FIG. In the figure, 1 is an image pickup unit as an image pickup unit, 2 is a steering angle detection unit that outputs turning information of a vehicle, 3 is a storage unit that stores image information and the like, 4 is a data processing unit that executes various calculation processes, 5 Is a display unit for displaying the position of the obstacle or a message, and 6 is a voice instruction unit for generating an alarm sound or voice guidance.

【0007】上記撮像部1は、右側CCDカメラ11R
と、左側CCDカメラ11Lと、右側CCDカメラ11
Rにより撮像された映像情報を投影する右側イメージプ
レーン12Rと、左側CCDカメラ11Lにより撮像さ
れた映像情報を投影する左側イメージプレーン12Lと
を有している。そしてこの撮像部1は、図11に示すよ
うに、車両100の後方中央部の高さHの位置に、車両
の後方に向けて取り付けられている。そして撮像部1を
構成する一対のCCDカメラ11R及び11Lは、所定
距離隔てて互いに平行に且つ俯角θS で取り付けられて
いる。これによりこの撮像部1は車両後方の監視領域1
00a〔100a(11R)及び100a(11L)〕
を撮像する。
The image pickup section 1 is a right CCD camera 11R.
And the left CCD camera 11L and the right CCD camera 11
It has a right side image plane 12R for projecting the image information picked up by the R and a left side image plane 12L for projecting the image information picked up by the left CCD camera 11L. Then, as shown in FIG. 11, the image pickup unit 1 is attached to the rear of the vehicle at a position of height H at the rear center of the vehicle 100. The pair of CCD cameras 11R and 11L forming the image pickup unit 1 are attached at a predetermined distance in parallel with each other at a depression angle θ S. As a result, the image pickup unit 1 is provided in the monitoring area 1 behind the vehicle.
00a [100a (11R) and 100a (11L)]
Is imaged.

【0008】舵角検出部2は、ハンドルの回転量及び回
転方向を検出するハンドル舵角センサや操舵輪(一般的
に前輪)の操舵角を検出する操舵角センサ(いずれも図
示せず)などにより構成され、これらのセンサからの検
出信号により車両の転回方向を転回情報として出力す
る。記憶部3は、撮像部1の右側イメージプレーン12
Rに投影された映像情報を右側画像信号として一時的に
蓄える右側フレームメモリ31Rと、同じく左側イメー
ジプレーン12Lに投影された映像情報を左側画像信号
として一時的に蓄える左側フレームメモリ31Lと、右
側及び左側フレームメモリ31R及び31Lに蓄えられ
た画像信号のそれぞれに対し所定の補正処理を施した補
正画像情報を保持する右側補正画像メモリ32R及び左
側補正画像メモリ32Lと、後述する差分画像、微分画
像及びエッジ画像をそれぞれ保持する差分画像メモリ3
3、微分画像メモリ34及びエッジ画像メモリ35とを
有している。そしてこれらの各メモリ31〜35はm行
n列の構成を有し、例えば512画素(m)×512画
素(n)のメモリとして構成されている。そして、この
メモリを構成する各画素には、例えば256階調の輝度
値データが格納されている。
The steering angle detector 2 includes a steering wheel angle sensor for detecting the amount and direction of rotation of the steering wheel, a steering angle sensor for detecting the steering angle of the steered wheels (generally the front wheels) (neither is shown), and the like. The turning direction of the vehicle is output as turning information based on detection signals from these sensors. The storage unit 3 includes the right image plane 12 of the imaging unit 1.
A right frame memory 31R that temporarily stores the image information projected on R as a right image signal, a left frame memory 31L that also temporarily stores the image information projected on the left image plane 12L as a left image signal, and a right frame memory 31L. A right-side corrected image memory 32R and a left-side corrected image memory 32L that hold corrected image information obtained by performing a predetermined correction process on each of the image signals stored in the left-side frame memories 31R and 31L, and a difference image, a differential image and Difference image memory 3 that holds each edge image
3, a differential image memory 34 and an edge image memory 35. Each of these memories 31 to 35 has a structure of m rows and n columns, and is configured as a memory of 512 pixels (m) × 512 pixels (n), for example. Then, in each pixel forming this memory, for example, luminance value data of 256 gradations is stored.

【0009】データ処理部4は、動作プログラムが格納
されたROM42と、この動作プログラムに従って動作
するCPU41と、CPU41の動作時において必要な
情報を一時格納するRAM43とを有している。表示部
5は、ディスプレイ51を有し、このディスプレイ51
はCPU41から出力された表示画像信号に基づいて、
物体の車両との相対位置を表示したりあるいは運転者に
対するメッセージを表示したりする。音声指示部6は、
CPU41から出力されたブザー音信号あるいは音声ガ
イダンス信号に基づいて、スピーカ61からブザー音あ
るいは音声ガイダンスを出力する。
The data processing unit 4 has a ROM 42 in which an operation program is stored, a CPU 41 which operates according to this operation program, and a RAM 43 which temporarily stores information required when the CPU 41 operates. The display unit 5 has a display 51, and the display 51
Is based on the display image signal output from the CPU 41,
It displays the relative position of the object to the vehicle or displays a message to the driver. The voice instruction unit 6 is
Based on the buzzer sound signal or the voice guidance signal output from the CPU 41, the speaker 61 outputs the buzzer sound or the voice guidance.

【0010】このような構成を有する先願装置では、撮
像部1からの映像信号に基づいて物体(障害物)の検出
及びこの物体と車両との相対位置の算出が行われる。ま
ず、撮像部1による画像の取込処理について説明する。
撮像部1により撮像された映像信号は、一旦イメージプ
レーン12R及び12Lに投影された後、右側フレーム
メモリ31R及び左側フレームメモリ31Lにそれぞれ
画像情報、すなわち各画素毎の輝度値データとして格納
される。この右側フレームメモリ31R及び左側フレー
ムメモリ31Lに格納された画像情報は、右側CCDカ
メラ11R及び左側CCDカメラ11L(以下、両者を
総称する際には単にCCDカメラ11という)が有する
レンズの歪曲収差を含んだ画像となっている。そしてこ
の歪曲収差は後述する物体の位置検出における誤差の原
因となる。
In the prior application device having such a configuration, an object (obstacle) is detected and the relative position between the object and the vehicle is calculated based on the video signal from the image pickup section 1. First, the image capturing process by the image capturing unit 1 will be described.
The video signal picked up by the image pickup unit 1 is once projected onto the image planes 12R and 12L, and then stored in the right frame memory 31R and the left frame memory 31L as image information, that is, as brightness value data for each pixel. The image information stored in the right frame memory 31R and the left frame memory 31L indicates the distortion aberration of the lens of the right CCD camera 11R and the left CCD camera 11L (hereinafter, simply referred to as the CCD camera 11). It is an included image. This distortion aberration causes an error in detecting the position of the object, which will be described later.

【0011】すなわち、格子状の模様を撮像した場合に
ついて考えると、CCDカメラ11のレンズに収差がな
いときには、図10(a)に示すようにこの格子状の模
様がそのままフレームメモリ31に格納される。また、
そのレンズに収差があるときには、図10(b)に示す
ように光軸を中心としてその中央部の画像が外方に膨ら
んだ樽形に歪曲した画像、あるいは図10(c)に示す
ように光軸を中心としてその中央部の画像が内側に湾曲
した糸巻形に歪曲した画像がフレームメモリ31に格納
される。
That is, considering a case where a lattice pattern is imaged, when the lens of the CCD camera 11 has no aberration, the lattice pattern is stored in the frame memory 31 as it is, as shown in FIG. It Also,
When the lens has an aberration, as shown in FIG. 10 (b), an image in the center of the optical axis is distorted into a barrel shape bulging outward, or as shown in FIG. 10 (c). An image in which the image at the center of the optical axis is distorted into a pincushion curved inward is stored in the frame memory 31.

【0012】そしてデータ処理部4は、上記図10
(b)あるいは図10(c)に示すような歪曲画像に対
して補正処理を施すことにより補正画像情報を生成し、
この補正画像情報を右側補正画像メモリ32R及び左側
補正画像メモリ32Lに格納する。この補正画像情報に
ついても、先の画像情報と同様に、各画素毎の輝度値デ
ータとして格納される。以下、この画像の歪曲収差の補
正処理について説明する。
Then, the data processing unit 4 operates as shown in FIG.
(B) or corrected image information is generated by performing a correction process on a distorted image as shown in FIG.
This corrected image information is stored in the right side corrected image memory 32R and the left side corrected image memory 32L. This corrected image information is also stored as brightness value data for each pixel, as in the above image information. The process of correcting the distortion of the image will be described below.

【0013】図10(d)に示すように、歪曲収差が無
い時の点P(x0 ,y0 )が歪曲収差によって点P′
(x,y)に結像したものとすると、その収差量Dは次
式(1)により表すことができる。 D=[(x0 −x)2 +(y0 −y)2 0.5 ・・・(1)
As shown in FIG. 10D, the point P (x 0 , y 0 ) when there is no distortion is point P'due to the distortion.
Assuming that an image is formed at (x, y), the aberration amount D can be expressed by the following equation (1). D = [(x 0 -x) 2 + (y 0 -y) 2] 0.5 ··· (1)

【0014】そして、図10(b)あるいは図10
(c)に示すような歪曲画像において、その収差量Dは
光軸からの距離の3乗に比例して大きくなる。すなわ
ち、レンズの中心点より点Pまでの距離の3乗に比例す
るので、上記式(1)の右辺は、次式(2)により表す
ことができる。 [(x0 −x)2 +(y0 −y)2 0.5 =k1 [(x0 2−y0 20.5 3 ・・・(2) 上記式中、k1 はレンズによって定まる比例定数
Then, FIG. 10B or FIG.
In the distorted image as shown in (c), the aberration amount D increases in proportion to the cube of the distance from the optical axis. That is, since it is proportional to the cube of the distance from the center point of the lens to the point P, the right side of the above equation (1) can be expressed by the following equation (2). [(X 0 −x) 2 + (y 0 −y) 2 ] 0.5 = k 1 [(x 0 2 −y 0 2 ) 0.5 ] 3 (2) In the above formula, k 1 is determined by the lens. Proportional constant

【0015】従って、レンズに歪曲収差が存在する場合
は、例えば次式(3)の演算を行うことによりこの歪曲
収差を補正することができる。 x0 ≒x(1−k1 (x2 +y2 )) y0 ≒y(1−k1 (x2 +y2 )) ・・・(3)
Therefore, when the lens has distortion, the distortion can be corrected by, for example, performing the calculation of the following equation (3). x 0 ≈x (1-k 1 (x 2 + y 2 )) y 0 ≈y (1-k 1 (x 2 + y 2 )) (3)

【0016】ところで、この式(3)の演算により画像
の歪曲収差の補正を行った場合には、隣接画素間の距離
が離れてしまい画像の抜けが生じることがある。データ
処理部4は、この画像の抜けに関し、隣接する画素の情
報に基づいて補間を行う。そして、このような補正処理
及び補間処理が施された画像情報は、補正画像情報とし
て右側補正画像メモリ32R及び左側補正画像メモリ3
2Lにそれぞれ格納される。以上で撮像部1による画像
の取込処理が終了する。
By the way, when the distortion aberration of the image is corrected by the calculation of the equation (3), the distance between the adjacent pixels becomes large and the image may be omitted. The data processing unit 4 interpolates this missing image based on the information of the adjacent pixels. Then, the image information that has undergone such correction processing and interpolation processing is corrected image information as the right corrected image memory 32R and the left corrected image memory 3
It is stored in each 2L. Thus, the image capturing process by the image capturing unit 1 is completed.

【0017】次いで、データ処理部4は、この補正画像
情報に基づいて、撮像された画像における位置の算出、
背景画像(高さ「0」の画像)の除去、物体のエッジ画
像の生成などを行う。以下、これらの処理について説明
する。
Next, the data processing unit 4 calculates the position in the captured image based on the corrected image information,
The background image (image of height “0”) is removed, and the edge image of the object is generated. Hereinafter, these processes will be described.

【0018】まず、撮像画像に基づいて位置を算出する
処理について説明する。上記撮像部1すなわちCCDカ
メラ11は、図11にて説明したように、車両後方の所
定位置に設置俯角θS で取り付けられており、監視領域
100aを撮像している。従って、撮像部1による撮像
画像はこの所定位置を基準とした画像となっているの
で、この撮像画像から算出した位置もこの所定位置を基
準とした位置となっている。そこで、以後の説明を容易
にするため、図12に示すように、この所定位置すなわ
ちカメラ設置位置を基準とした座標をX′,Y′,Z′
で表わし、路面を基準とした座標をX,Y,Zで表わす
ものとする。
First, the process of calculating the position based on the captured image will be described. As described with reference to FIG. 11, the image pickup unit 1, that is, the CCD camera 11 is attached at a predetermined position behind the vehicle at an installation depression angle θ S and picks up an image of the monitoring area 100a. Therefore, the image captured by the image capturing unit 1 is an image based on this predetermined position, and the position calculated from this captured image is also the position based on this predetermined position. Therefore, in order to facilitate the following description, as shown in FIG. 12, the coordinates based on this predetermined position, that is, the camera installation position are X ', Y', Z '.
The coordinates with respect to the road surface are represented by X, Y, Z.

【0019】そして、このカメラ設置位置を基準とした
X′,Y′,Z′座標系においては、図13(a)に示
すように、Z′軸はCCDカメラ11のレンズ光軸とし
て定義され、上記X′軸は路面と平行な軸として定義さ
れ、また上記Y′軸はZ′軸とX′軸の双方に直交する
軸として定義されている。従って、右側CCDカメラ1
1R及び左側CCDカメラ11Lは、それぞれのレンズ
光軸がZ′軸と一致するように配置されている。また、
X′軸に関し、このX′軸上にそれぞれのレンズの中心
点が位置するよう配置されるとともに互いに距離dxa
だけ離間して配置されている。以後の説明を容易にする
ため、X′,Y′およびZ′軸の原点Oを左側CCDカ
メラ11Rのレンズの中心として定義することとする。
In the X ', Y', Z'coordinate system with the camera installation position as a reference, the Z'axis is defined as the lens optical axis of the CCD camera 11, as shown in FIG. , The X'axis is defined as an axis parallel to the road surface, and the Y'axis is defined as an axis orthogonal to both the Z'axis and the X'axis. Therefore, the right CCD camera 1
The 1R and the left CCD camera 11L are arranged such that their lens optical axes coincide with the Z ′ axis. Also,
With respect to the X'-axis, the center points of the respective lenses are arranged on the X'-axis and the distances dxa from each other.
Are spaced apart. In order to facilitate the following description, the origin O of the X ′, Y ′ and Z ′ axes will be defined as the center of the lens of the left CCD camera 11R.

【0020】以上のように設置されたCCDカメラ11
によって撮像された点P(XP ′,YP ′,ZP ′)
は、右側補正情報メモリ32RにPR (xRP,yRP)と
して保持され、左側補正情報メモリ32LにP
L (xLP,yLP)として保持される。
CCD camera 11 installed as described above
Point P (X P ′, Y P ′, Z P ′) imaged by
Is held as P R (x RP , y RP ) in the right side correction information memory 32R, and P is stored in the left side correction information memory 32L.
It is held as L (x LP , y LP ).

【0021】そしてこの点PのZ′座標ZP ′は、図1
3(b)のX′Z′平面における模式図で示すように、
三角形の相似にて求めることができる。すなわち、この
距離ZP ′は、次式(4)で表すことができる。 ZP ′=dxa・f/(xLP−xRP) ・・・(4) 上記式中、dxaは両レンズの間隔 fはレンズの焦点距離
The Z ′ coordinate Z P ′ of this point P is shown in FIG.
As shown in the schematic view in the X′Z ′ plane of 3 (b),
It can be determined by the similarity of triangles. That is, this distance Z P ′ can be expressed by the following equation (4). Z P ′ = dxa · f / (x LP −x RP ) ... (4) In the above equation, dxa is the distance between both lenses and f is the focal length of the lens.

【0022】同様に点PのX′座標XP ′についても、
図13(b)のX′Z′平面の模式図で示すように、三
角形の相似にて求めることができる。そして点PのY′
座標YP ′についても、図示しないY′Z′平面を想定
することにより、同様にして求めることができる。すな
わち、これら点PのX′座標XP ′及びY′座標YP
は、それぞれ次式(5)及び式(6)で求めることがで
きる。 XP ′=ZP ′xLP/f =dxa・xLP/(xLP−xRP) ・・・(5) YP ′=ZP ′yLP/f =dxa・yLP/(xLP−xRP) ・・・(6) なお、上記座標XP ′に関し、その基準座標を右側CC
Dカメラ11Rと左側CCDカメラ11Lの間とする場
合には、上式(5)で算出された座標XP ′と両レンズ
の間隔dxaの1/2の差分をとればよい。
Similarly, for the X ′ coordinate X P ′ of the point P,
As shown in the schematic view of the X′Z ′ plane of FIG. 13B, it can be obtained by the similarity of triangles. And Y'of point P
The coordinates Y P ′ can also be obtained in the same manner by assuming a Y′Z ′ plane (not shown). In other words, these points P X 'coordinate X P' and Y 'coordinate Y P'
Can be calculated by the following equations (5) and (6), respectively. X P '= Z P' x LP / f = dxa · x LP / (x LP -x RP) ··· (5) Y P '= Z P' y LP / f = dxa · y LP / (x LP -X RP ) ... (6) Regarding the coordinate X P ′, the reference coordinate is the right CC
When the distance is between the D camera 11R and the left CCD camera 11L, the difference of 1/2 of the coordinate X P ′ calculated by the above equation (5) and the distance dxa between both lenses may be taken.

【0023】以上の式(4)〜式(6)にて算出された
X′Y′Z′座標系における点P(XP ′,YP ′,Z
P ′)は、上述したようにカメラ設置位置を基準とした
座標系の座標値であるので、この座標値を路面を基準と
したXYZ座標系における座標値に変換する必要があ
る。この場合、撮像部1(CCDカメラ11)の俯角が
θS であるとすれば、X′Y′Z′座標での点Pの座標
(XP ′,YP ′,ZP ′)と路面を基準としたXYZ
座標との関係は上記図12で示すようになる。
A point P (X P ′, Y P ′, Z in the X′Y′Z ′ coordinate system calculated by the above equations (4) to (6).
Since P ') is the coordinate value of the coordinate system with the camera installation position as the reference as described above, it is necessary to convert this coordinate value into the coordinate value in the XYZ coordinate system with the road surface as the reference. In this case, if the depression angle of the image pickup unit 1 (CCD camera 11) is θ S , the coordinates (X P ′, Y P ′, Z P ′) of the point P at the X′Y′Z ′ coordinates and the road surface. XYZ based on
The relationship with the coordinates is as shown in FIG.

【0024】従って、上式(4)〜式(6)で算出した
座標(ZP ′,YP ′,XP ′)は、次式(7)〜式
(9)の実行により、XYZ座標系における点Pの座標
(XP,YP ,ZP )に変換することができる。 XP =XP ′ ・・・(7) YP =H−ZP ′cos θS +YP ′sin θS ・・・(8) ZP =ZP ′sin θS +YP ′cos θS ・・・(9)
Therefore, the coordinates (Z P ′, Y P ′, XP ′) calculated by the above equations (4) to (6) are converted into XYZ coordinates by executing the following equations (7) to (9). It can be converted into the coordinates (X P , Y P , Z P ) of the point P in the system. X P = X P '··· ( 7) Y P = H-Z P' cos θ S + Y P 'sin θ S ··· (8) Z P = Z P' sin θ S + Y P 'cos θ S ... (9)

【0025】次に、データ処理部4による物体の認識処
理について説明する。まず、背景画像(高さ「0」の画
像)の除去処理について説明することとする。図14
(a)は右側CCDカメラ11Rで撮像された後、上述
した歪曲収差補正が施され、そして右側補正画像メモリ
32Rに保持された右側補正画像を示している。同図に
おいて、300は路面上に画かれた白線、また240は
ポール状の物体である。ここで、この右側補正画像メモ
リ32Rに保持されている右側補正画像に関し、その全
ての画像が高さ「0」の背景画像すなわち路面上に描か
れている画像だと仮定する。そしてこのように仮定した
右側補正画像に基づき、この右側補正画像があたかも左
側CCDカメラ11Lの撮像位置で撮像された画像(投
影画像)となるよう変換処理を行う〔図14(b)〕。
Next, the object recognition processing by the data processing unit 4 will be described. First, the removal process of the background image (image of height “0”) will be described. 14
(A) shows the right-side corrected image stored in the right-side corrected image memory 32R after being subjected to the above-described distortion aberration correction after being picked up by the right-side CCD camera 11R. In the figure, 300 is a white line drawn on the road surface, and 240 is a pole-shaped object. Here, it is assumed that all the right-side corrected images stored in the right-side corrected image memory 32R are background images having a height of "0", that is, images drawn on the road surface. Then, based on the right-side corrected image assumed in this way, conversion processing is performed so that this right-side corrected image becomes an image (projection image) taken at the image pickup position of the left CCD camera 11L [FIG. 14 (b)].

【0026】以下、この投影画像の変換処理について説
明する。ここで、右画像の点PR (xRP,yRP)に対応
する投影画像の点をPL ′(xLP′,yLP′)とする。
図12に示すように、カメラ座標のX′軸と路面座標の
X軸は平行であり、また、カメラによって撮像する走査
線のx軸(図13のxL 軸およびxR 軸)も共に平行で
あるとすると、同一物体を撮像した場合の撮像画像のy
L とyR 値は一致する。そして、画像の全てが路面上で
あるとすれば、上式(8)で示すYP の値は0となる。
以上から次式(10)及び式(11)を導くことができ
る。そして、式(11)のZP ′およびYP ′に式
(4)のZP ′及び式(6)のYP ′を代入することに
より、式(12)に示すように、xLP′を求めることが
できる。
The conversion process of the projected image will be described below. Here, the point of the projection image corresponding to the point P R (x RP , y RP ) of the right image is P L ′ (x LP ′, y LP ′).
As shown in FIG. 12, the X ′ axis of the camera coordinates and the X axis of the road surface coordinates are parallel, and the x axes (x L axis and x R axis in FIG. 13) of the scanning lines imaged by the camera are also parallel. , Y of the captured image when the same object is captured.
The L and y R values match. If all the images are on the road surface, the value of Y P shown in the above equation (8) is zero.
From the above, the following equations (10) and (11) can be derived. Then, by substituting equation (11) Z P 'Y P and of the formula (6)' of the formula (4) Z P 'and Y P' of, as shown in equation (12), x LP ' Can be asked.

【0027】 yLP′=yRP ・・・(10) 0=HP −ZP ′cos θS +YP ′sin θS ・・・(11) xLP′=(dxa・fcos θS −dxa・yRPsin θS )/H+xRP ・・・(12) 上式(10)及び式(12)の演算を行なうことによ
り、データ処理部4は、投影画像〔図14(b)〕を作
成する。
Y LP ′ = y RP (10) 0 = H P −Z P ′ cos θ S + Y P ′ sin θ S (11) x LP ′ = (dxa · f cos θ S −dxa · Y RP sin θ S ) / H + x RP (12) The data processing unit 4 creates a projection image [FIG. 14 (b)] by performing the calculations of the above formulas (10) and (12). To do.

【0028】そして、このようにして作成した投影画像
を左側補正画像に重畳すると図14(c)のようにな
る。すなわち、右側CCDカメラ11Rで撮像された画
像を投影した場合、路面上に画かれている白線等の模様
は左側CCDカメラ11Lで撮像された模様と位置、輝
度共に一致し、物体が路面より高くなるに従って差が大
きくなる。従って、左画像データと投影画像データの差
分をとることにより、高さのある物体を構成する画素以
外の路面を構成する画素の輝度値は値「0」または値
「0」に近い値となる。そして所定しきい値以下を値
「0」とすれば、全て値「0」となる。このようにし
て、左画像データと投影画像データの差分をとることに
より、その差分画像は図14(d)に示すように、路面
画像(高さ「0」の背景画像)が除去され、高さのある
部分のみが値「0」以外の値として取り出される。そし
て、この差分画像については記憶部3の差分画像メモリ
33に格納される。
Then, when the projection image thus created is superimposed on the left side corrected image, it becomes as shown in FIG. 14 (c). That is, when the image captured by the right CCD camera 11R is projected, the pattern such as a white line drawn on the road surface matches the pattern captured by the left CCD camera 11L in position and brightness, and the object is higher than the road surface. The greater the difference, the greater the difference. Therefore, by taking the difference between the left image data and the projection image data, the brightness value of the pixels forming the road surface other than the pixels forming the object having a height becomes a value "0" or a value close to "0". . If the value equal to or smaller than the predetermined threshold value is set to "0", all values will be "0". In this way, by taking the difference between the left image data and the projection image data, the road surface image (background image of height “0”) is removed from the difference image, as shown in FIG. 14D. Only the portion with the depth is extracted as a value other than the value “0”. Then, this difference image is stored in the difference image memory 33 of the storage unit 3.

【0029】ところで、上記投影画像には誤差が含まれ
ており、これにより上記差分画像〔図14(d)〕につ
いては、その路面画像が残ってしまう場合がある。この
ため、投影画像と左側補正画像との差分画像を生成する
場合には次のような処理を行なう。すなわち、図15
(a)及び(b)に示すように、投影画像の各画素の輝
度値I1 〜I7 と対応する左側補正画像の各画素の輝度
値I1 ′〜I 7 ′の差分を順次求め、その差分値が所定
値I0 以上となった画素〔画素I5 に相当〕について
は、図15(c)に示すように、画素I5 ′に隣接する
画素I4′及びI6 ′との差分を求める。そして、その
差分の最小値(同図の画素I4 ′との差分値)をその画
素に対する差分値とする。
By the way, the projected image contains an error.
The difference image [Fig. 14 (d)]
In some cases, the road surface image may remain. this
Therefore, a difference image between the projected image and the left-side corrected image is generated.
In that case, the following processing is performed. That is, FIG.
As shown in (a) and (b), the brightness of each pixel of the projected image
Degree value I1~ I7The brightness of each pixel of the left-side corrected image corresponding to
Value I1'~ I 7′ Is calculated sequentially, and the difference value is predetermined
Value I0The above pixels [pixel IFiveEquivalent to]
Is the pixel I as shown in FIG.FiveAdjacent to ′
Pixel IFour'And I6Find the difference with ′. And that
Minimum value of difference (pixel I in FIG.FourThe difference value from ′)
The difference value with respect to the prime.

【0030】このようにして撮像画像中の高さ「0」の
背景画像を除去し、高さのある画像すなわち物体の画像
のみを抽出する。これに続いて、抽出した物体画像につ
いてのエッジの抽出処理が行われる。次いで、この物体
エッジ抽出処理について説明する。
In this way, the background image of height "0" in the captured image is removed, and only the image with height, that is, the image of the object is extracted. Following this, edge extraction processing is performed on the extracted object image. Next, this object edge extraction processing will be described.

【0031】この物体エッジ抽出処理は、左側補正画像
メモリ32Lに格納された画像情報に基づいて行われ
る。すなわち、左側補正画像メモリ32Lに格納されて
いる左側補正画像に関し、そのm行n列の画像データの
輝度値Im,n を水平方向すなわち図17におけるX′軸
方向に走査し、次式(13)の演算によって微分画像を
生成する。 |Im,n+1 −Im,n |≧E0 ならば Em,n =1 |Im,n+1 −Im,n |<E0 ならば Em,n =0 ・・・(13) 上記式中、E0 はしきい値
This object edge extraction processing is performed based on the image information stored in the left side corrected image memory 32L. That is, with respect to the left-side corrected image stored in the left-side corrected image memory 32L, the brightness value I m, n of the image data in the m-th row and the n-th column is scanned in the horizontal direction, that is, in the X′-axis direction in FIG. A differential image is generated by the operation of 13). | I m, n + 1 −I m, n | ≧ E 0 , E m, n = 1 | I m, n + 1 −I m, n | <E 0 , E m, n = 0. (13) In the above equation, E 0 is the threshold value

【0032】この微分画像は、図16(b)に示すよう
に、物体や路面に画かれている文字等の縦方向エッジ部
分が「1」に、その他の部分は「0」となった画像とな
る。そして、この微分画像は記憶部3の微分画像メモリ
34に格納される。このようにして求めた微分画像〔図
16(b)〕と、前述した路面画像除去処理で生成され
差分画像メモリ33に保持された差分画像〔図14
(d)〕と重ね合せてアンドを取ると、図16(c)で
示す物体のエッジ部分のみが抽出された物体エッジの画
像が生成される。この物体エッジ画像については、エッ
ジ画像メモリ35に格納される。
In this differential image, as shown in FIG. 16B, an image in which the vertical edge portion of an object or a character drawn on the road surface is "1" and the other portions are "0". Becomes Then, this differential image is stored in the differential image memory 34 of the storage unit 3. The differential image obtained in this way [FIG. 16 (b)] and the differential image generated by the above-described road surface image removal processing and held in the differential image memory 33 [FIG.
When (d)] is superimposed and AND is taken, an image of the object edge in which only the edge part of the object shown in FIG. 16C is extracted is generated. This object edge image is stored in the edge image memory 35.

【0033】そしてデータ処理部4は、このエッジ画像
メモリ35に格納された物体エッジ画像に基づいて物体
を認識するとともに物体エッジと車両との相対位置を演
算する。さらに車両の転回情報から車両の進路を予測す
るとともにこの予測進路に基づいて認識した物体と車両
との衝突を予測し、必要があれば警報などを発して運転
者に注意を促す。
Then, the data processing unit 4 recognizes the object based on the object edge image stored in the edge image memory 35 and calculates the relative position between the object edge and the vehicle. Further, it predicts the course of the vehicle from the turning information of the vehicle, predicts a collision between the object recognized based on the predicted course and the vehicle, and issues a warning or the like to warn the driver when necessary.

【0034】[0034]

【発明が解決しようとする課題】このような先願装置に
おいては、撮像部1により撮像された映像信号に基づい
て、高さ「0」である背景画像すなわち路面画像を除去
することにより物体のエッジ画像を生成し、生成したエ
ッジ画像に基づいて物体と車両との相対位置などを算出
するように構成したので、無用な演算処理が省け、処理
を高速化できるという利点があり良い方法である。
In such a prior application device, the background image having the height of "0", that is, the road surface image is removed based on the video signal picked up by the image pickup unit 1 to remove the object image. Since it is configured to generate an edge image and calculate the relative position between the object and the vehicle based on the generated edge image, there is an advantage that unnecessary calculation processing can be omitted and the processing can be speeded up, which is a good method. .

【0035】ところで、この先願装置においては、上述
した各種演算を行うためのパラメータとして、右側CC
Dカメラ11Rのレンズ中心と左側CCDカメラ11L
のレンズ中心の配設間隔dxa、これら各レンズの焦点
距離f、これらCCDカメラ11R及び11Lの設置高
さH、CCDカメラ11R及び11Lの設置俯角θS
どを用いている。しかしながら、これらの各パラメータ
(以下設置パラメータという)は、撮像部1の車両への
取付状態などにより、一定なものとすることが困難であ
った。
By the way, in this prior application device, the right side CC is used as a parameter for performing the various calculations described above.
Center of lens of D camera 11R and left CCD camera 11L
The distance dxa between the lens centers, the focal length f of each lens, the installation height H of the CCD cameras 11R and 11L, the installation depression angle θ S of the CCD cameras 11R and 11L, and the like are used. However, it has been difficult to make these parameters (hereinafter referred to as installation parameters) constant depending on the mounting state of the imaging unit 1 on the vehicle.

【0036】そしてこの設置パラメータのずれは、計算
で算出した座標値と実際の座標値の差として表れて検出
誤差となり、本来「路面画像」として認識されなければ
ならない高さ「0」の背景画像が、高さのある物体すな
わち「障害物」として認識されてしまう。従って、この
設置パラメータを一定な値とするためには、撮像部1の
車両100への取り付けを正確に行う必要があり、取り
付けに時間を要していた。また、撮像部1を車両100
の所定位置に正確に取り付けたとしても時間の経過によ
りこの取付位置がずれてしまうので、設置パラメータを
一定の値に維持することが困難であった。
The deviation of the installation parameter appears as a difference between the coordinate value calculated by calculation and the actual coordinate value and becomes a detection error, and the background image of the height "0" which should originally be recognized as the "road surface image". Is recognized as a tall object, that is, an "obstacle". Therefore, in order to set the installation parameter to a constant value, it is necessary to accurately mount the image pickup unit 1 on the vehicle 100, which requires a long time for mounting. In addition, the image pickup unit 1 is connected to the vehicle
Even if it is correctly attached to the predetermined position, since this attachment position will shift with the passage of time, it was difficult to maintain the installation parameter at a constant value.

【0037】以上のように、この先願装置においては、
上述した点において、さらなる改良の余地があった。ま
た、この設置パラメータのばらつきにより、算出された
障害物の位置が実際の位置と異なってしまう場合があ
り、この点においてもさらなる改良の余地があった。よ
って本発明は、このような改良点に鑑み、上記設置パラ
メータのばらつきによる路面画像の誤認識を防止し、物
体を精度良く抽出できる車両周辺監視装置を提供するこ
と、並びに、障害物の位置を正確に算出できる車両周辺
監視装置を提供することを課題とする。
As described above, in this prior application device,
In the above points, there was room for further improvement. Further, the calculated position of the obstacle may be different from the actual position due to the variation of the installation parameters, and there is room for further improvement in this respect as well. Therefore, in view of such improvements, the present invention provides a vehicle periphery monitoring device capable of preventing an erroneous recognition of a road surface image due to the variation of the installation parameters, and accurately extracting an object, and a position of an obstacle. An object of the present invention is to provide a vehicle surroundings monitoring device that can be accurately calculated.

【0038】[0038]

【課題を解決するための手段】上記課題を解決するため
本発明によりなされた車両周辺監視装置を図1の基本構
成図に基づいて説明する。すなわち、本発明の車両周辺
監視装置は、車両の所定位置に配置されるとともに互い
に所定距離離間して設置された右側撮像手段11R及び
左側撮像手段11Lを備えた撮像手段1からの画像情報
に基づいて車両の周辺を監視する車両周辺監視装置にお
いて、前記右側撮像手段11Rからの右側画像情報を保
持する右側画像保持手段31Rと、前記左側撮像手段1
1Lからの左側画像情報を保持する左側画像保持手段3
1Lとを有する画像保持手段31と、前記撮像手段1の
設置状態に基づく検出誤差を補正するための補正情報を
取得する補正情報取得手段41aと、前記右側及び左側
画像情報と前記補正情報に基づき、高さ「0」の背景画
像を除去することにより物体の画像情報を抽出し、且
つ、この抽出した物体の画像情報を物体情報として出力
する物体抽出手段41bと、前記画像保持手段31に保
持された画像情報について水平方向の微分値を算出し、
この微分情報と前記物体情報に基づいて、物体のエッジ
を検出するとともにこの検出結果を物体エッジ情報とし
て出力する物体エッジ検出手段41cとを有し、前記物
体情報と前記物体エッジ情報とから車両周辺に存在する
物体を認識することを特徴としている。
A vehicle periphery monitoring device made according to the present invention to solve the above problems will be described with reference to the basic configuration diagram of FIG. That is, the vehicle periphery monitoring device of the present invention is based on the image information from the image pickup means 1 including the right side image pickup means 11R and the left side image pickup means 11L which are arranged at predetermined positions of the vehicle and are separated from each other by a predetermined distance. In the vehicle periphery monitoring device for monitoring the periphery of the vehicle by means of the right side image holding means 31R for holding the right side image information from the right side image pickup means 11R, and the left side image pickup means 1
Left side image holding means 3 for holding left side image information from 1L
1L, an image holding unit 31, a correction information obtaining unit 41a that obtains correction information for correcting a detection error based on the installation state of the image pickup unit 1, and based on the right and left image information and the correction information. , The object image extracting unit 41b which extracts the image information of the object by removing the background image of the height “0”, and outputs the extracted image information of the object as the object information, and the image storing unit 31 which holds the image information. Calculate the differential value in the horizontal direction for the image information
An object edge detection unit 41c that detects an edge of an object based on the differential information and the object information and outputs the detection result as the object edge information, and detects the vehicle periphery from the object information and the object edge information. It is characterized by recognizing objects existing in.

【0039】また、前記補正情報取得手段41aは、前
記右側画像情報と左側画像情報に基づいて撮像手段1が
撮像した画像信号の実視差を算出する実視差算出手段4
1eと、前記撮像手段1の設置状態に基づく計算上の理
論視差を算出する理論視差算出手段41fと、これらの
実視差及び理論視差に基づき補正情報を算出する補正情
報算出手段41gとを有することを特徴としている。
Further, the correction information acquisition means 41a calculates the actual parallax of the image signal picked up by the image pickup means 1 based on the right side image information and the left side image information.
1e, a theoretical parallax calculating unit 41f that calculates a theoretical theoretical parallax based on the installation state of the image pickup unit 1, and a correction information calculating unit 41g that calculates correction information based on these actual parallax and theoretical parallax. Is characterized by.

【0040】また、車両の任意の位置に前記撮像手段1
の撮像領域内に測定の基準となる基準画像を投射する基
準画像投射手段7を設け、前記実視差算出手段41e
は、前記基準画像を前記右側撮像手段11Rが撮像する
ことにより取得された右側基準画像と基準画像を前記左
側撮像手段11Lが撮像することにより取得された左側
基準画像に基づいて撮像手段1が撮像した画像信号の実
視差を算出することを特徴としている。
The image pickup means 1 is placed at an arbitrary position on the vehicle.
A reference image projecting unit 7 for projecting a reference image serving as a reference for measurement is provided in the image pickup area of the real parallax calculating unit 41e.
Is imaged by the imaging unit 1 based on the right side reference image acquired by the right side imaging unit 11R capturing the reference image and the left side reference image acquired by the left side imaging unit 11L capturing the reference image. The feature is that the actual parallax of the image signal is calculated.

【0041】また、前記物体エッジ検出手段41cで検
出された物体エッジを利用し、前記画像保持手段31に
保持されている画像情報に基づいて物体の位置を算出す
る物体位置算出手段41dと、前記車両と物体との相対
位置を表示する表示手段5を設け、前記物体位置算出手
段41dから出力された物体の位置情報に基づいて物体
の前記車両と物体との相対位置を運転者に知らせること
を特徴としている。
Also, an object position calculating means 41d for calculating the position of the object based on the image information held in the image holding means 31 using the object edge detected by the object edge detecting means 41c, Display means 5 for displaying the relative position of the vehicle and the object is provided, and the driver is informed of the relative position of the object of the vehicle based on the position information of the object output from the object position calculation means 41d. It has a feature.

【0042】また、前記物体エッジ検出手段41cで検
出された物体エッジを利用し、前記画像保持手段31に
保持されている画像情報に基づいて物体の位置を算出す
る物体位置算出手段41dと、前記車両の転回情報に基
づいて当該車両の進路を予測する進路予測手段41h
と、警報音などの警報を発生する警報手段6とを設け、
前記物体位置算出手段41dから出力された物体の位置
情報と前記進路予測手段41hからの予測進路情報に基
づいて車両と物体の衝突を予測するとともに「衝突す
る」と予測された場合に、前記警報手段6あるいは前記
表示手段5の少なくとも一方により警報を発生すること
を特徴としている。
Also, an object position calculating means 41d for calculating the position of the object based on the image information held in the image holding means 31, utilizing the object edge detected by the object edge detecting means 41c, Route prediction means 41h for predicting the route of the vehicle based on the turning information of the vehicle
And an alarm means 6 for issuing an alarm such as an alarm sound,
When the collision between the vehicle and the object is predicted based on the position information of the object output from the object position calculation means 41d and the predicted course information from the course prediction means 41h, and the "collision" is predicted, the alarm is issued. An alarm is generated by at least one of the means 6 and the display means 5.

【0043】[0043]

【作用】上記構成において、補正情報取得手段41aは
撮像手段1の設置状態に基づいて補正情報を算出し、物
体抽出手段41bは前記撮像手段1により撮像された右
側及び左側画像情報と前記補正情報とに基づいて高さ
「0」の背景画像を除去することにより物体の画像情報
を抽出する。物体エッジ検出手段41cは前記抽出され
た物体画像情報の微分情報と前記物体の画像情報とに基
づいて物体のエッジ画像を抽出する。そして、物体情報
と物体エッジ情報とから車両周辺に存在する物体を認識
する。すなわち、撮像手段1の設置状態に関する補正情
報を算出する手段を設けたので、設置状態に基づく路面
画像の誤認識をなくすことができ、物体画像の抽出を正
確に行うことができる。また、車両と物体との相対位置
を精度良く算出することができる。
In the above structure, the correction information acquisition means 41a calculates the correction information based on the installation state of the image pickup means 1, and the object extraction means 41b the right and left image information picked up by the image pickup means 1 and the correction information. The image information of the object is extracted by removing the background image of the height “0” based on and. The object edge detecting means 41c extracts the edge image of the object based on the differential information of the extracted object image information and the image information of the object. Then, the object existing around the vehicle is recognized from the object information and the object edge information. That is, since the means for calculating the correction information regarding the installation state of the image pickup means 1 is provided, it is possible to eliminate the erroneous recognition of the road surface image based on the installation state, and to accurately extract the object image. Further, the relative position between the vehicle and the object can be calculated with high accuracy.

【0044】実視差算出手段41eは右側撮像手段11
Rからの右側画像情報と左側撮像手段11Lからの左側
画像情報に基づいて撮像手段1の実視差を算出し、理論
視差算出手段41fは撮像手段1の設置状態に基づいて
理論視差を算出する。すなわち、右側画像情報と左側画
像情報とに基づいて補正情報を算出するように構成した
ので、装置を簡単に構成することができる。
The actual parallax calculation means 41e is the right side image pickup means 11
The actual parallax of the image pickup means 1 is calculated based on the right side image information from R and the left side image information from the left side image pickup means 11L, and the theoretical parallax calculation means 41f calculates the theoretical parallax based on the installation state of the image pickup means 1. That is, since the correction information is calculated based on the right-side image information and the left-side image information, the device can be easily configured.

【0045】基準画像投射手段7は撮像手段1の撮像領
域内に測定の基準となる基準画像を投射し、右側撮像手
段11R及び左側撮像手段11Lはそれぞれこの基準画
像を撮像する。実視差算出手段41eは右側撮像手段1
1Rに撮像された右側基準画像と左側撮像手段11Lに
撮像された左側基準画像により実視差を算出する。すな
わち、実視差算出用の基準画像を投射する手段を設けた
ので、路面の状況によらず補正情報を算出することがで
きる。
The reference image projecting means 7 projects a reference image serving as a measurement reference into the image pickup area of the image pickup means 1, and the right side image pickup means 11R and the left side image pickup means 11L respectively pick up the reference image. The actual parallax calculating means 41e is the right imaging means 1
The actual parallax is calculated from the right side reference image captured by 1R and the left side reference image captured by the left side imaging means 11L. That is, since the means for projecting the reference image for calculating the actual parallax is provided, the correction information can be calculated regardless of the road surface condition.

【0046】物体位置算出手段41dは物体エッジ検出
手段41cからの物体エッジ情報と画像保持手段31に
保持された画像情報に基づいて物体と車両との相対位置
を算出する。表示手段5は車両と物体との相対位置情報
に基づいて検出された物体についてその車両との相対位
置を運転者に知らせる。すなわち、検出された物体の車
両との相対位置を算出する手段と、この物体を表示する
手段とを設けたので、検出された物体に関し車両との相
対位置を運転者に知らせることができる。
The object position calculating means 41d calculates the relative position between the object and the vehicle based on the object edge information from the object edge detecting means 41c and the image information held in the image holding means 31. The display means 5 informs the driver of the relative position of the object detected based on the relative position information of the vehicle and the object. That is, since the means for calculating the relative position of the detected object with respect to the vehicle and the means for displaying this object are provided, it is possible to inform the driver of the relative position of the detected object with respect to the vehicle.

【0047】進路予測手段41hは車両の転回情報に基
づいて当該車両の進路を予測し、表示手段5あるいは警
報手段6は、この予測した車両進路と物体とが「衝突す
る」と予測された場合に警報を発生する。従って、物体
との衝突といった事故を未然に防ぐことができる。
The route predicting means 41h predicts the course of the vehicle based on the turning information of the vehicle, and the display means 5 or the warning means 6 predicts that the predicted vehicle course and the object "collide". Generate an alarm. Therefore, an accident such as a collision with an object can be prevented.

【0048】[0048]

【実施例】以下、本発明の車両周辺監視装置を図面とと
もに説明する。なお、本発明による車両周辺監視装置に
おいては、図9にて説明した先願装置とほぼ同様の構成
を有している。すなわち、図2に示すように、右側CC
Dカメラ11R及び左側CCDカメラ11Lなどを有す
る撮像部1と、ハンドル舵角センサや操舵角センサとし
て構成され車両の転回情報を出力する舵角検出部2と、
右側フレームメモリ31R、左側フレームメモリ31
L、右側補正画像メモリ32R、左側補正画像メモリ3
2L、差分画像メモリ33、微分画像メモリ34及びエ
ッジ画像メモリ35からなる記憶部3と、動作プログラ
ムに従って動作するCPU41、動作プログラムが格納
されたROM42及び必要な情報を一時格納するRAM
43からなるデータ処理部4と、運転者に対して物体と
車両との相対位置やメッセージなどを表示する表示部5
と、運転者に対してブザー音や音声ガイダンスを出力す
る音声指示部6とから構成され、これに加えて基準画像
を投射する画像投射部7が設けられている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A vehicle periphery monitoring device of the present invention will be described below with reference to the drawings. The vehicle periphery monitoring device according to the present invention has substantially the same configuration as the prior application device described with reference to FIG. That is, as shown in FIG.
An image pickup unit 1 having a D camera 11R, a left CCD camera 11L, and the like, and a steering angle detection unit 2 configured as a steering wheel steering angle sensor or a steering angle sensor to output vehicle turning information.
Right frame memory 31R, left frame memory 31
L, right side corrected image memory 32R, left side corrected image memory 3
2L, a difference image memory 33, a differential image memory 34, and an edge image memory 35, a storage unit 3, a CPU 41 that operates according to an operation program, a ROM 42 that stores the operation program, and a RAM that temporarily stores necessary information.
A data processing unit 4 composed of 43 and a display unit 5 for displaying a relative position between an object and a vehicle, a message, etc. to a driver.
And a voice instruction unit 6 that outputs a buzzer sound or voice guidance to the driver, and in addition to this, an image projection unit 7 that projects a reference image is provided.

【0049】この画像投射部7は、例えば図6(a)に
示すように、撮像部1内に組み込まれ、より詳細には右
側CCDカメラ11Rと左側CCDカメラ11L間のほ
ぼ中央位置に配置されている。そして、この画像投射部
7は、図6(b)に示すように、光源としての電球71
aと、その中央部に垂直方向(同図において上下方向)
に延長されたスリットが形成されたマスクパターン71
bと、レンズ71cとを有し、電球71aからの光をマ
スクパターン71bにより線状の光とし、この線状光を
レンズ71cを介して路面に投射する。また、この画像
投射部7を、図6(c)に示すように、レーザ光源72
a及びシリンドリカルレンズ72bから構成し、レーザ
光源72aから適宜走査されて出射されたレーザ光をシ
リンドリカルレンズ72bを介して線状の光とし、路面
に投射するように構成してもよい。
The image projection unit 7 is incorporated in the image pickup unit 1 as shown in FIG. 6A, for example, and more specifically, it is arranged at a substantially central position between the right CCD camera 11R and the left CCD camera 11L. ing. Then, as shown in FIG. 6B, the image projecting unit 7 uses the light bulb 71 as a light source.
a and the vertical direction in the central part (vertical direction in the figure)
The mask pattern 71 in which the slit extended to the
b and the lens 71c, the light from the electric bulb 71a is made into linear light by the mask pattern 71b, and this linear light is projected onto the road surface via the lens 71c. Further, as shown in FIG. 6C, the image projection unit 7 is replaced with a laser light source 72.
The laser light emitted from the laser light source 72a after being appropriately scanned may be converted into linear light via the cylindrical lens 72b and projected onto the road surface.

【0050】このような画像投射部7は、例えば図7
(a)に示すように、撮像部1による撮像領域100a
において、その中央部の手前側から奥側に亙る線状の光
としての基準画像400を投射する。なお、この画像投
射部7は単体構成としてもよく、この場合、画像投射部
7を同図に符号Aで示すように、撮像部1とは異なる任
意の位置に配置することができる。また、図6(b)で
説明したマスクパターン71bのスリットを、直線状に
配置した複数の矩形状スリットパターンとし、図7
(b)に示すように撮像領域100aの中央部手前側か
ら奥側に亙って直線状に配列された複数の基準点400
aを投射するように構成してもよい。
Such an image projection unit 7 is shown in FIG.
As shown in (a), the imaging area 100a by the imaging unit 1
At, the reference image 400 is projected as linear light extending from the front side to the back side of the central portion. The image projection unit 7 may be configured as a single unit, and in this case, the image projection unit 7 can be arranged at an arbitrary position different from the image pickup unit 1, as indicated by the symbol A in FIG. In addition, the slits of the mask pattern 71b described in FIG. 6B are a plurality of rectangular slit patterns linearly arranged, and
As shown in (b), a plurality of reference points 400 arranged in a straight line from the front side to the back side of the central portion of the imaging region 100a.
It may be configured to project a.

【0051】そして本発明においては、上記ROM42
に格納された動作プログラムすなわち上記データ処理部
4による処理動作も異なっている。以下、この処理動作
について図3〜図5のフローチャートを参照して説明す
る。この処理動作においては、まず図3のフローチャー
トにおけるステップS310にて、「0」補正値取得動
作が行われる。このステップS310における「0」補
正値取得動作は、具体的には図5のフローチャートによ
って行われる。
In the present invention, the ROM 42 is used.
The operation program stored in the above, that is, the processing operation by the data processing unit 4 is also different. Hereinafter, this processing operation will be described with reference to the flowcharts of FIGS. In this processing operation, first, in step S310 in the flowchart of FIG. 3, a “0” correction value acquisition operation is performed. The "0" correction value acquisition operation in step S310 is specifically performed by the flowchart of FIG.

【0052】すなわち、最初にステップS510にて、
右側CCDカメラ11R及び左側CCDカメラ11Lに
よる基準画像の取り込みが行われる。すなわち、このス
テップS510では、まず、画像投射部7(図6参照)
による監視領域100a内における基準画像400の投
射(図7参照)が行われる。続いて、撮像部1の右側C
CDカメラ11R及び左側CCDカメラ11Lにより投
射された基準画像400の撮像が行われる。これによ
り、それぞれ右側基準画像情報及び左側基準画像情報と
してフレームメモリ31R及びフレームメモリ31Lに
格納される。そして、このフレームメモリ31R及び3
1Lに格納された画像情報に関し、図10で歪曲収差の
補正処理が行われ、図8(a)に示す右側基準画像及び
図8(b)に示す左側基準画像が生成される。そして、
これらの基準画像は右側補正メモリ32R、左側補正メ
モリ32Lにそれぞれ格納される。
That is, first in step S510,
The reference image is captured by the right CCD camera 11R and the left CCD camera 11L. That is, in this step S510, first, the image projection unit 7 (see FIG. 6).
The reference image 400 is projected (see FIG. 7) in the monitoring area 100a by the. Then, the right side C of the image pickup unit 1
The reference image 400 projected by the CD camera 11R and the left CCD camera 11L is captured. As a result, the right reference image information and the left reference image information are stored in the frame memory 31R and the frame memory 31L, respectively. Then, the frame memories 31R and 3R
With respect to the image information stored in 1L, the distortion aberration correction process is performed in FIG. 10, and the right reference image shown in FIG. 8A and the left reference image shown in FIG. 8B are generated. And
These reference images are stored in the right side correction memory 32R and the left side correction memory 32L, respectively.

【0053】なお、このステップS510において、例
えば撮像部1の監視領域100aに路面に描かれたセン
ターラインなどの直線画像があれば、これを基準画像と
して取り込んでもよい。そして、このステップS510
が終了するとステップS520に移行する。
In step S510, if there is a straight line image such as a center line drawn on the road surface in the monitoring area 100a of the image pickup section 1, this may be taken in as a reference image. And this step S510
Is completed, the process proceeds to step S520.

【0054】ステップS520では、上記ステップS5
10で取得した左右基準画像に基づいて、基準画像にお
ける着目点の座標値を左右基準画像のそれぞれについて
取得する。詳細には、図8(a)における右側基準画像
400Rの左側エッジと走査ライン41nとの交点座標
をPRO(xRPO ,yRPO )として取得し、図8(b)に
おける左側基準画像400Lの左側エッジと走査ライン
41nとの交点座標をPLO(xLPO ,yLPO )として取
得する。そして、このような座標取得動作を上端の走査
ライン41aから下端の走査ライン41bまで順次行な
うことにより一群の交点座標を取得して、ステップS5
30に移行する。
In step S520, the above step S5 is performed.
Based on the left and right reference images acquired in 10, the coordinate values of the point of interest in the reference image are acquired for each of the left and right reference images. More specifically, the intersection coordinates of the left edge of the right reference image 400R in FIG. 8A and the scanning line 41n are acquired as P RO (x RPO , y RPO ) and the left reference image 400L in FIG. The intersection coordinates of the left edge and the scanning line 41n are acquired as P LO (x LPO , y LPO ). Then, such a coordinate acquisition operation is sequentially performed from the scanning line 41a at the upper end to the scanning line 41b at the lower end to acquire a group of intersection coordinates, and step S5
Move to 30.

【0055】なお、このステップS520において、任
意間隔で複数設定された走査ラインを演算の対象とする
ことにより、以後の演算処理を高速にすることができ
る。例えば、図8(c)に示すように、互いに所定間隔
毎に複数の走査ライン411〜419を設定し、この各
走査ライン411〜419と基準画像のエッジとの交点
座標を取得する。この取得動作により、走査ライン41
4については右側基準画像400Rとの交点座標PR4
左側基準画像400Lとの交点座標PL4とが取得され、
同様に走査ライン418については交点座標PR8とPL8
とが取得される。
In step S520, a plurality of scanning lines set at arbitrary intervals are targeted for calculation, whereby the subsequent calculation processing can be speeded up. For example, as shown in FIG. 8C, a plurality of scanning lines 411 to 419 are set at predetermined intervals, and the coordinates of the intersections of the scanning lines 411 to 419 and the edges of the reference image are acquired. By this acquisition operation, the scanning line 41
4, the intersection point coordinate P R4 with the right side reference image 400R and the intersection point coordinate P L4 with the left side reference image 400L are acquired,
Similarly, for the scan line 418, the intersection coordinates P R8 and P L8
And are obtained.

【0056】ステップS530では、上記ステップS5
20で取得した交点座標群のそれぞれの交点座標につい
て次式(14)の演算により、右側CCDカメラ11R
と左側CCDカメラ11Lにより撮像された画像が有す
る視差(実視差)Dacを算出する。 Dac=xLPO −xRPO ・・・(14) 例えば、図8(c)の走査ライン414及び418につ
いては、このステップS530により、それぞれの実視
差424(走査ライン414)及び実視差418(走査
ライン418)が算出される。
In step S530, the above step S5 is performed.
The right CCD camera 11R is calculated by calculating the following equation (14) for each intersection coordinate of the intersection coordinate group acquired in 20.
And the parallax (actual parallax) D ac of the image captured by the left CCD camera 11L is calculated. D ac = x LPO −x RPO (14) For example, regarding the scanning lines 414 and 418 of FIG. 8C, the actual parallax 424 (scanning line 414) and the actual parallax 418 ( The scan line 418) is calculated.

【0057】ステップS540では、撮像部1の設置パ
ラメータに基づく理論視差Dthを算出する。この理論視
差DthすなわちxLP′−xRPは、上式(12)に基づい
て導かれた次式(15)の演算により算出することがで
きる。Dth=xLP′−xRP =(dxa・fcos θS −dxa・yRPsin θS )/H・・・(15) このステップS540にて理論視差を算出すると、次に
ステップS550に移行する。
In step S540, the theoretical parallax D th based on the installation parameters of the image pickup section 1 is calculated. This theoretical parallax D th, that is, x LP ′ −x RP can be calculated by the calculation of the following expression (15) derived based on the above expression (12). D th = x LP ′ −x RP = (dxa · fcos θ S −dxa · y RP sin θ S ) / H (15) When the theoretical parallax is calculated in step S540, the process proceeds to step S550. To do.

【0058】ステップS550では、上記ステップS5
30で算出した実視差Dacと、上記ステップS540で
算出した理論視差Dthとの差分すなわち次式(16)に
より、「0」補正値k2 を算出する。 k2 =Dac−Dth ・・・(16) そして、この算出した「0」補正値k2 をデータ処理部
4のRAM43に格納して一連の「0」補正値取得動作
を終了し、図3のフローチャートのステップS320に
移行する。
In step S550, the above step S5 is performed.
The “0” correction value k 2 is calculated from the difference between the actual parallax D ac calculated in step S30 and the theoretical parallax D th calculated in step S540, that is, the following equation (16). k 2 = D ac −D th (16) Then, the calculated “0” correction value k 2 is stored in the RAM 43 of the data processing unit 4, and a series of “0” correction value acquisition operation is completed. The process moves to step S320 in the flowchart of FIG.

【0059】ステップS320では、撮像部1の右側C
CDカメラ11R及び左側CCDカメラ11Lからの映
像情報を右側画像情報及び左側画像情報としてそれぞれ
右側フレームメモリ31R及び左側フレームメモリ31
Lに格納し、ステップS330に移行する。なお、この
ステップS320において取得された画像情報は監視領
域100a内における画像情報であり、この監視領域1
00a内の障害物などを取得するためのものである。従
って、上記ステップS320(図5のフローチャート)
で取得した基準画像とは異なる画像である。そして、ス
テップS330では、右側フレームメモリ31R及び左
側フレームメモリ31Lに保持された画像情報を読み出
すとともにこの読み出した画像情報に対して図10で説
明した歪曲収差補正処理を行う。そしてこの補正処理を
施した補正画像情報をそれぞれ右側補正画像メモリ32
R及び左側補正画像メモリ32Lに格納した後にステッ
プS340に移行する。
In step S320, the right side C of the image pickup unit 1
Video information from the CD camera 11R and the left CCD camera 11L is used as right image information and left image information, respectively, the right frame memory 31R and the left frame memory 31.
Store in L and move to step S330. The image information acquired in step S320 is the image information in the monitoring area 100a.
This is for obtaining obstacles in 00a. Therefore, the above step S320 (flow chart of FIG. 5)
It is an image different from the reference image acquired in. Then, in step S330, the image information held in the right frame memory 31R and the left frame memory 31L is read, and the distortion aberration correction processing described in FIG. 10 is performed on the read image information. Then, the corrected image information that has been subjected to this correction processing is stored in the right side corrected image memory 32
After storing in the R and left side corrected image memory 32L, the process proceeds to step S340.

【0060】ステップS340では、左側補正画像メモ
リ32Lに保持された左側補正画像に対し、上式(1
3)の演算処理を行うことによりこの左側補正画像に対
する微分画像〔図16(b)〕を生成するとともにこの
生成した微分画像を微分画像メモリ34に格納する。そ
してステップS350に移行する。ステップS350で
は、図14で説明した投影画像作成処理、すなわち右側
補正画像メモリ32Rに格納されている右側補正画像の
高さを全て「0」と仮定するとともにこの右側補正画像
に対して座標変換処理を施して左側CCDカメラ11L
で撮像した投影画像〔図14(b)〕を作成する。
In step S340, with respect to the left side corrected image stored in the left side corrected image memory 32L, the above equation (1
The differential image [FIG. 16 (b)] for the left side corrected image is generated by performing the calculation process of 3), and the generated differential image is stored in the differential image memory 34. Then, the process proceeds to step S350. In step S350, the projection image creation process described in FIG. 14, that is, it is assumed that all the heights of the right side corrected images stored in the right side corrected image memory 32R are “0”, and the coordinate conversion process is performed on the right side corrected image. And left side CCD camera 11L
A projection image [Fig. 14 (b)] imaged in step 1 is created.

【0061】このステップS350においては、図5の
フローチャートで取得した「0」補正値k2 を用いるこ
とにより、撮像部1の設置パラメータのばらつきを補正
した投影画像を作成する。すなわち、このステップS3
50においては、次式(17)及び式(18)を実行し
て投影画像を作成する。 yLP′=yRP ・・・(17) xLP′=(dxa・fcos θS −dxa・yRPsin θS )/H+xRP+k2 ・・・(18) そして、このステップS350が終了するとステップS
360に移行する。ステップS360では、ステップS
350で作成した投影画像を左側補正画像に重畳〔図1
4(c)〕するとともに両者の差分をとることにより差
分画像〔図14(d)〕を作成し、この作成した差分画
像を差分画像メモリ33に格納する。そしてステップS
370に移行する。
In step S350, the projection image in which the variation in the installation parameters of the image pickup unit 1 is corrected is created by using the "0" correction value k 2 acquired in the flowchart of FIG. That is, this step S3
At 50, the following equations (17) and (18) are executed to create a projected image. y LP ′ = y RP (17) x LP ′ = (dxa · fcos θ S −dxa · y RP sin θ S ) / H + x RP + k 2 (18) Then, when this step S350 ends Step S
Move to 360. In step S360, step S
Superimpose the projection image created in 350 on the left correction image [Fig.
4 (c)] and the difference between the two is taken to create a difference image [FIG. 14 (d)], and the created difference image is stored in the difference image memory 33. And step S
Move to 370.

【0062】ステップS370では、物体エッジ画像作
成処理が行われる。すなわち、上記ステップS340で
微分画像メモリ34に保持された微分画像と上記ステッ
プS350で差分画像メモリ33に保持された差分画像
とを重ね合せてアンドを取ることにより、物体エッジ画
像〔図16(c)〕を生成する。そして生成した物体エ
ッジ画像をエッジ画像メモリ35に格納してステップS
380に移行する。ステップS380では、上記ステッ
プS370で作成した物体エッジ画像データのエッジ部
分について、測定すべき物体の左右画像の対応点を右側
補正画像メモリ32Rおよび左側補正画像メモリ32L
より抽出し、ステップS390に移行する。
In step S370, object edge image creation processing is performed. That is, the differential image stored in the differential image memory 34 in step S340 and the differential image stored in the differential image memory 33 in step S350 are overlapped and the AND is performed to obtain the object edge image [FIG. )] Is generated. Then, the generated object edge image is stored in the edge image memory 35, and step S
Move to 380. In step S380, for the edge portion of the object edge image data created in step S370, the corresponding points of the left and right images of the object to be measured are corrected to the right corrected image memory 32R and the left corrected image memory 32L.
More extraction is performed, and the process proceeds to step S390.

【0063】ステップS390では、上記ステップS3
70にて抽出した物体エッジの各座標点について図12
及び図13にて説明した3次元位置座標算出動作を行
い、このエッジ画像の3次元座標値を算出する。そし
て、このステップS390における座標位置算出動作で
は、図5のフローチャートで説明した「0」補正値k2
を利用して座標算出を行う。すなわち、このステップS
390では、次式(19)〜式(21)の演算を実行す
ることにより座標値ZP ′、XP ′及びYP ′を算出
し、さらにこの算出した座標値を用いて上式(7)〜式
(9)の演算を実行して座標値ZP 、XP 及びYP すな
わち監視領域100a内の障害物の位置情報を取得す
る。 ZP ′=dxa・f /(xLP−xRP+k2 ) ・・・(19) XP ′=dxa・xLP/(xLP−xRP+k2 ) ・・・(20) YP ′=dxa・yLP/(xLP−xRP+k2 ) ・・・(21) そして、このステップS390が終了すると、図4のフ
ローチャートに示すステップS410に移行する。
In step S390, the above step S3 is performed.
For each coordinate point of the object edge extracted in 70, FIG.
Also, the three-dimensional position coordinate calculation operation described with reference to FIG. 13 is performed to calculate the three-dimensional coordinate values of this edge image. Then, in the coordinate position calculating operation in step S390, the “0” correction value k 2 described in the flowchart of FIG.
Coordinates are calculated using. That is, this step S
In 390, the coordinate values Z P ′, X P ′, and Y P ′ are calculated by executing the operations of the following equations (19) to (21), and the calculated coordinate values are used to calculate the above equation (7). ) -Equation (9) is executed to obtain the coordinate values Z P , X P and Y P, that is, the position information of the obstacle in the monitoring area 100a. Z P '= dxa · f / (x LP -x RP + k 2) ··· (19) X P' = dxa · x LP / (x LP -x RP + k 2) ··· (20) Y P ' = Dxa · y LP / (x LP −x RP + k 2 ) ... (21) Then, when this step S390 ends, the process moves to step S410 shown in the flowchart of FIG.

【0064】ステップS410では、データ処理部4
は、舵角検出部2からの転回情報、例えばハンドルの舵
角情報を読み込む。そしてステップS420に移行す
る。ステップS420では、上記ステップS410にて
読み込んだ転回情報に基づいて車両の進路を予測し、こ
の予測進路に対し車両の形状情報を加味して車両の予測
軌跡を算出する。そして算出した予測軌跡をRAM43
に格納し、ステップS430に移行する。
In step S410, the data processing unit 4
Reads the turning information from the steering angle detector 2, for example, the steering angle information of the steering wheel. Then, the process proceeds to step S420. In step S420, the course of the vehicle is predicted based on the turning information read in step S410, and the predicted trajectory of the vehicle is calculated by adding the shape information of the vehicle to the predicted course. Then, the calculated predicted trajectory is stored in the RAM 43.
In step S430.

【0065】ステップS430では、前記ステップS3
90にて取得した障害物情報に基づき、監視領域100
a内に障害物が存在するか否かを判定する。そしてこの
ステップ430で「存在する」すなわち「有」と判定し
た場合には引き続くステップS440に移行し、一方
「存在しない」すなわち「無」と判定された場合には図
3のフローチャートのステップS300に移行する。
In step S430, the above-mentioned step S3 is performed.
Based on the obstacle information acquired at 90, the monitoring area 100
It is determined whether or not there is an obstacle in a. If it is determined in step 430 that “exists”, that is, “exists”, the process proceeds to subsequent step S440, while if it is determined that “does not exist”, that is, “none”, proceeds to step S300 in the flowchart of FIG. Transition.

【0066】ステップS440では、上記ステップS4
20にて算出した予測軌跡と、上記ステップS430に
て算出した障害物位置情報に基づいて、障害物のエッジ
間領域と車両とが衝突する可能性があるか否かを判定す
る。そして「衝突の可能性有り」と判定された場合には
ステップS441に移行し、「衝突の可能性無し」と判
定された場合にはステップS442に移行する。
In step S440, the above-mentioned step S4
Based on the predicted trajectory calculated in 20 and the obstacle position information calculated in step S430, it is determined whether there is a possibility of collision between the edge area of the obstacle and the vehicle. If it is determined that there is a possibility of collision, the process proceeds to step S441, and if it is determined that there is no possibility of collision, the process proceeds to step S442.

【0067】そしてステップS441では、音声指示部
6により運転者に対してブザー音あるいは音声ガイダン
スの警報を発するとともに、表示部5により車両と障害
物との衝突予測位置及びメッセージを表示する。また、
ステップS442では、表示部5により障害物と車両と
の相対位置を表示する。そして、これらのステップS4
41及びステップS442にて一連の処理を終了して、
図3のフローチャートのステップS300に移行する。
ステップS300では、次の処理動作における「0」補
正値を取得するか否かを判断し、ここで「取得する」す
なわち「Y」と判定した場合にはステップ310に移行
して「0」補正値k2 を更新する。また「取得しない」
すなわち「N」と判定した場合にはステップS320に
移行して再度一連の処理を行う。この場合の「0」補正
値k2 は、前回までの「0」補正値k2 を使用する。
In step S441, the voice instruction unit 6 issues a buzzer sound or a voice guidance alarm to the driver, and the display unit 5 displays a predicted collision position between the vehicle and the obstacle and a message. Also,
In step S442, the relative position between the obstacle and the vehicle is displayed on the display unit 5. Then, these steps S4
41 and step S442, the series of processes is terminated,
The process moves to step S300 in the flowchart of FIG.
In step S300, it is determined whether or not a “0” correction value in the next processing operation is to be acquired. If it is determined to “acquire”, that is, “Y”, the process proceeds to step 310 and the “0” correction is performed. Update the value k 2 . Also "do not get"
That is, when it is determined to be "N", the process proceeds to step S320 and the series of processes is performed again. This "0" correction value k 2 of the case, the use of "0" correction value k 2 up to the last time.

【0068】以上の説明から明らかなように、本発明の
基本構成と実施例とは次の対応関係を有している。すな
わち、撮像手段1は実施例における撮像部1に、右側撮
像手段11R及び左側撮像手段11Lはそれぞれ右側C
CDカメラ11R及び左側CCDカメラ11Lに、画像
保持手段31はフレームメモリ31R及び31Lに、補
正情報取得手段41aは図5のフローチャートにおける
ステップS510〜S550に、物体抽出手段41bは
図3のフローチャートにおけるステップS340〜S3
60に、物体エッジ検出手段41cは同じくステップS
370に、物体位置算出手段41dは同じくステップS
390に対応している。
As is clear from the above description, the basic configuration of the present invention and the embodiments have the following correspondence. That is, the image pickup unit 1 is the same as the image pickup unit 1 in the embodiment, and the right side image pickup unit 11R and the left side image pickup unit 11L are each on the right side C.
The CD camera 11R and the left CCD camera 11L, the image holding means 31 in the frame memories 31R and 31L, the correction information acquisition means 41a in steps S510 to S550 in the flowchart of FIG. 5, and the object extraction means 41b in the flowchart of FIG. S340-S3
In step 60, the object edge detection means 41c similarly performs step S
In 370, the object position calculation means 41d similarly performs step S
It corresponds to 390.

【0069】また、実視差算出手段41eは図5のフロ
ーチャートにおけるステップS510〜S530に、理
論視差算出手段41fは同じくステップS540に、補
正情報算出手段41gは同じくステップS550に対応
している。また、基準画像投射手段7は画像投射部7
に、進路予測手段41iは図4のフローチャートにおけ
るステップS410及びS420に、表示手段5は表示
部5に、警報手段6は音声指示部6に対応している。
The actual parallax calculating means 41e corresponds to steps S510 to S530 in the flowchart of FIG. 5, the theoretical parallax calculating means 41f corresponds to step S540, and the correction information calculating means 41g corresponds to step S550. Further, the reference image projection means 7 is the image projection unit 7
The route prediction means 41i corresponds to steps S410 and S420 in the flowchart of FIG. 4, the display means 5 corresponds to the display unit 5, and the alarm means 6 corresponds to the voice instruction unit 6.

【0070】[0070]

【発明の効果】以上説明したように、本発明の車両周辺
監視装置によれば、撮像手段の設置状態に関する補正情
報を算出する手段を設けたので、設置状態に基づく路面
画像の誤認識をなくすことができ、物体画像の抽出を正
確に行うことができる。また、車両と物体との相対位置
を精度良く算出することができる。
As described above, according to the vehicle periphery monitoring apparatus of the present invention, since the means for calculating the correction information regarding the installation state of the image pickup means is provided, the erroneous recognition of the road surface image based on the installation state is eliminated. Therefore, the object image can be accurately extracted. Further, the relative position between the vehicle and the object can be calculated with high accuracy.

【0071】また、右側画像情報と左側画像情報とに基
づいて補正情報を算出するように構成したので、装置を
簡単に構成することができる。
Further, since the correction information is calculated on the basis of the right side image information and the left side image information, the apparatus can be simply constructed.

【0072】また、実視差算出用の基準画像を投射する
手段を設けたので、路面の状況によらず補正情報を算出
することができる。
Further, since the means for projecting the reference image for calculating the actual parallax is provided, the correction information can be calculated regardless of the condition of the road surface.

【0073】また、検出された物体の車両との相対位置
を算出する手段と、この物体を表示する手段とを設けた
ので、検出された物体に関し車両との相対位置を運転者
に知らせることができる。
Since the means for calculating the relative position of the detected object with respect to the vehicle and the means for displaying this object are provided, it is possible to inform the driver of the relative position of the detected object with respect to the vehicle. it can.

【0074】また、車両の転回情報に基づいて当該車両
の進路を予測する手段と、この予測した車両進路と物体
とが「衝突する」と予測された場合に警報を発生する手
段とを設けたので、物体との衝突といった事故を未然に
防ぐことができる。
Further, means for predicting the course of the vehicle based on the turning information of the vehicle and means for issuing an alarm when the predicted vehicle course and an object are predicted to "collide" are provided. Therefore, an accident such as a collision with an object can be prevented.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本構成図である。FIG. 1 is a basic configuration diagram of the present invention.

【図2】本発明の実施例の構成図である。FIG. 2 is a configuration diagram of an embodiment of the present invention.

【図3】同実施例の動作フローチャートである。FIG. 3 is an operation flowchart of the same embodiment.

【図4】同実施例の動作フローチャートである。FIG. 4 is an operation flowchart of the embodiment.

【図5】同実施例の動作フローチャートである。FIG. 5 is an operation flowchart of the embodiment.

【図6】画像投射部7を説明する図である。FIG. 6 is a diagram illustrating an image projection unit 7.

【図7】基準画像400を説明する図である。7 is a diagram illustrating a reference image 400. FIG.

【図8】「0」補正値の取得動作を説明する図である。FIG. 8 is a diagram illustrating an operation of acquiring a “0” correction value.

【図9】先願装置の構成図である。FIG. 9 is a block diagram of a prior application device.

【図10】実施例及び先願装置におけるレンズ収差補正
の説明図である。
FIG. 10 is an explanatory diagram of lens aberration correction in the example and the prior application device.

【図11】同じく撮像部の取付態様の説明図である。FIG. 11 is an explanatory diagram of a manner of mounting the image pickup unit.

【図12】同じくカメラ俯角補正の説明図である。FIG. 12 is an explanatory diagram of camera depression angle correction.

【図13】同じく3次元位置測定の説明図である。FIG. 13 is also an explanatory diagram of three-dimensional position measurement.

【図14】同じく路面画像除去の説明図である。FIG. 14 is also an explanatory diagram of road surface image removal.

【図15】同じく差分画像作成の説明図である。FIG. 15 is an explanatory diagram of difference image creation.

【図16】同じく物体エッジ検出の説明図である。FIG. 16 is also an explanatory diagram of object edge detection.

【符号の説明】[Explanation of symbols]

1 撮像部 11R,11L CCDカメラ 2 舵角検出部 3 記憶部 31R,31L フレームメモリ 35 エッジ画像メモリ 4 データ処理部 41 CPU 42 ROM 43 RAM 5 表示部 6 音声指示部 7 画像投射部 100 車両 200 障害物 300 白線(路面画像) 400 基準画像 1 Image pickup unit 11R, 11L CCD camera 2 Steering angle detection unit 3 Storage unit 31R, 31L Frame memory 35 Edge image memory 4 Data processing unit 41 CPU 42 ROM 43 RAM 5 Display unit 6 Voice instruction unit 7 Image projection unit 100 Vehicle 200 Obstacle Object 300 White line (Road surface image) 400 Reference image

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐々木 一幸 静岡県裾野市御宿1500 矢崎総業株式会社 内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Kazuyuki Sasaki 1500 Onjuku, Susono-shi, Shizuoka Yazaki Corporation

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 車両の所定位置に配置されるとともに互
いに所定距離離間して設置された右側撮像手段及び左側
撮像手段を備えた撮像手段からの画像情報に基づいて車
両の周辺を監視する車両周辺監視装置において、 前記右側撮像手段からの右側画像情報を保持する右側画
像保持手段と、前記左側撮像手段からの左側画像情報を
保持する左側画像保持手段とを有する画像保持手段と、 前記撮像手段の設置状態に基づく検出誤差を補正するた
めの補正情報を取得する補正情報取得手段と、 前記右側及び左側画像情報と前記補正情報に基づき、高
さ「0」の背景画像を除去することにより物体の画像情
報を抽出し、且つ、この抽出した物体の画像情報を物体
情報として出力する物体抽出手段と、 前記画像保持手段に保持された画像情報について水平方
向の微分値を算出し、この微分情報と前記物体情報に基
づいて、物体のエッジを検出するとともにこの検出結果
を物体エッジ情報として出力する物体エッジ検出手段と
を有し、 前記物体情報と前記物体エッジ情報とから車両周辺に存
在する物体を認識することを特徴とする車両周辺監視装
置。
1. A vehicle periphery for monitoring the periphery of the vehicle on the basis of image information from an image pickup means provided with a right side image pickup means and a left side image pickup means arranged at a predetermined position of the vehicle and separated from each other by a predetermined distance. In the monitoring device, an image holding unit having a right side image holding unit holding the right side image information from the right side imaging unit and a left side image holding unit holding the left side image information from the left side imaging unit; A correction information acquisition unit that acquires correction information for correcting a detection error based on the installation state, and a background image of height “0” is removed based on the right and left image information and the correction information. Object extracting means for extracting image information and outputting the image information of the extracted object as object information, and image information held by the image holding means A differential value in the horizontal direction is calculated, and based on the differential information and the object information, an object edge detection unit that detects the edge of the object and outputs the detection result as object edge information is provided, and the object information is A vehicle periphery monitoring device, which recognizes an object existing around the vehicle from the object edge information.
【請求項2】 前記補正情報取得手段は、前記右側画像
情報と左側画像情報に基づいて撮像手段が撮像した画像
信号の実視差を算出する実視差算出手段と、前記撮像手
段の設置状態に基づく計算上の理論視差を算出する理論
視差算出手段と、これらの実視差及び理論視差に基づき
補正情報を算出する補正情報算出手段とを有することを
特徴とする請求項1記載の車両周辺監視装置。
2. The correction information acquisition means, based on the right side image information and the left side image information, an actual parallax calculation means for calculating an actual parallax of an image signal imaged by the imaging means, and an installation state of the imaging means. The vehicle periphery monitoring device according to claim 1, further comprising a theoretical parallax calculating unit that calculates a theoretical parallax and a correction information calculating unit that calculates correction information based on the actual parallax and the theoretical parallax.
【請求項3】 車両の任意の位置に前記撮像手段の撮像
領域内に測定の基準となる基準画像を投射する基準画像
投射手段を設け、 前記実視差算出手段は、前記基準画像を前記右側撮像手
段が撮像することにより取得された右側基準画像と基準
画像を前記左側撮像手段が撮像することにより取得され
た左側基準画像に基づいて撮像手段が撮像した画像信号
の実視差を算出することを特徴とする請求項2記載の車
両周辺監視装置。
3. A reference image projecting means for projecting a reference image serving as a measurement reference in an image pickup area of the image pickup means is provided at an arbitrary position of a vehicle, and the actual parallax calculation means picks up the reference image by the right side image pickup. Characterized in that the actual parallax of the image signal captured by the image capturing means is calculated based on the right side reference image acquired by the image capturing by the means and the left side reference image acquired by capturing the reference image by the left side image capturing means. The vehicle periphery monitoring device according to claim 2.
【請求項4】 前記物体エッジ検出手段で検出された物
体エッジを利用し、前記画像保持手段に保持されている
画像情報に基づいて物体の位置を算出する物体位置算出
手段と、前記車両と物体との相対位置を表示する表示手
段を設け、 前記物体位置算出手段から出力された物体の位置情報に
基づいて物体の前記車両と物体との相対位置を運転者に
知らせることを特徴とする請求項1、2又は3記載の車
両周辺監視装置。
4. An object position calculating means for calculating the position of the object based on the image information held in the image holding means using the object edge detected by the object edge detecting means, the vehicle and the object. A display means for displaying the relative position of the object is provided, and the driver is informed of the relative position of the object and the vehicle based on the position information of the object output from the object position calculation means. The vehicle periphery monitoring device according to 1, 2, or 3.
【請求項5】 前記物体エッジ検出手段で検出された物
体エッジを利用し、前記画像保持手段に保持されている
画像情報に基づいて物体の位置を算出する物体位置算出
手段と、前記車両の転回情報に基づいて当該車両の進路
を予測する進路予測手段と、警報音などの警報を発生す
る警報手段とを設け、 前記物体位置算出手段から出力された物体の位置情報と
前記進路予測手段からの予測進路情報に基づいて車両と
物体の衝突を予測するとともに「衝突する」と予測され
た場合に、前記警報手段あるいは前記表示手段の少なく
とも一方により警報を発生することを特徴とする請求項
1、2、3又は4記載の車両周辺監視装置。
5. An object position calculating means for calculating the position of the object based on the image information held in the image holding means using the object edge detected by the object edge detecting means, and the turning of the vehicle. A route prediction means for predicting the route of the vehicle based on the information, and an alarm means for issuing an alarm such as an alarm sound are provided, and the position information of the object output from the object position calculation means and the route prediction means are provided. 2. A collision is predicted between a vehicle and an object on the basis of predicted route information, and when a "collision" is predicted, an alarm is issued by at least one of the alarm means and the display means. The vehicle periphery monitoring device according to 2, 3, or 4.
JP04309995A 1995-03-02 1995-03-02 Vehicle periphery monitoring device Expired - Fee Related JP3478432B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04309995A JP3478432B2 (en) 1995-03-02 1995-03-02 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04309995A JP3478432B2 (en) 1995-03-02 1995-03-02 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JPH08241498A true JPH08241498A (en) 1996-09-17
JP3478432B2 JP3478432B2 (en) 2003-12-15

Family

ID=12654398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04309995A Expired - Fee Related JP3478432B2 (en) 1995-03-02 1995-03-02 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP3478432B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150302A (en) * 2000-11-15 2002-05-24 Toyota Motor Corp Road surface recognition device
JP2005511994A (en) * 2001-12-03 2005-04-28 ジェイ マジリ,ジョーゼフ 360 degree video camera for automobile
US7277123B1 (en) 1998-10-08 2007-10-02 Matsushita Electric Industrial Co., Ltd. Driving-operation assist and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7277123B1 (en) 1998-10-08 2007-10-02 Matsushita Electric Industrial Co., Ltd. Driving-operation assist and recording medium
US8077202B2 (en) 1998-10-08 2011-12-13 Panasonic Corporation Driving-operation assist and recording medium
US8111287B2 (en) 1998-10-08 2012-02-07 Panasonic Corporation Driving-operation assist and recording medium
US9272731B2 (en) 1998-10-08 2016-03-01 Panasonic Intellectual Property Corporation Of America Driving-operation assist and recording medium
JP2002150302A (en) * 2000-11-15 2002-05-24 Toyota Motor Corp Road surface recognition device
JP2005511994A (en) * 2001-12-03 2005-04-28 ジェイ マジリ,ジョーゼフ 360 degree video camera for automobile

Also Published As

Publication number Publication date
JP3478432B2 (en) 2003-12-15

Similar Documents

Publication Publication Date Title
JP3156817B2 (en) Vehicle periphery monitoring device
KR102022388B1 (en) Calibration system and method using real-world object information
US8184160B2 (en) Image processor, driving assistance system, and out-of-position detecting method
US6172601B1 (en) Three-dimensional scope system with a single camera for vehicles
EP2544449B1 (en) Vehicle perimeter monitoring device
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP2002359838A (en) Device for supporting driving
JP2006268076A (en) Driving assistance system
JP2010086268A (en) Display object recognition device for vehicle
JP2008085710A (en) Driving support system
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
JP2000293693A (en) Obstacle detecting method and device
JPH08339498A (en) Vehicle periphery monitor device
JP4397573B2 (en) Image processing device
JP3503840B2 (en) Vehicle periphery monitoring device
EP3893150A1 (en) Camera pose estimation techniques
JPH1144533A (en) Preceding vehicle detector
JP3478432B2 (en) Vehicle periphery monitoring device
JPH07250268A (en) Vehicle periphery monitoring device
JP2006160193A (en) Vehicular drive supporting device
JP4696925B2 (en) Image processing device
WO2020105499A1 (en) Image processing device, image processing method, and program
JP6960827B2 (en) Road surface area detector
JP3570635B2 (en) Vehicle periphery monitoring device
JP2006153768A (en) Position detection system and its correction method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030909

LAPS Cancellation because of no payment of annual fees