JPH07264577A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device

Info

Publication number
JPH07264577A
JPH07264577A JP5179094A JP5179094A JPH07264577A JP H07264577 A JPH07264577 A JP H07264577A JP 5179094 A JP5179094 A JP 5179094A JP 5179094 A JP5179094 A JP 5179094A JP H07264577 A JPH07264577 A JP H07264577A
Authority
JP
Japan
Prior art keywords
image
obstacle
vehicle
recorded
spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5179094A
Other languages
Japanese (ja)
Other versions
JP3570635B2 (en
Inventor
Naoto Ishikawa
直人 石川
Kazuyuki Sasaki
一幸 佐々木
Kazutomo Fujinami
一友 藤浪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP05179094A priority Critical patent/JP3570635B2/en
Publication of JPH07264577A publication Critical patent/JPH07264577A/en
Application granted granted Critical
Publication of JP3570635B2 publication Critical patent/JP3570635B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE:To immediately recognize the position of an obstacle by marking an object interfering with vehicle traveling on an image in a monitoring area. CONSTITUTION:When there is no object on a road, a luminescent point(LP) obtained from a photographed spot is previously recorded in a reference data recording part 13. When image pickup is executed by a camera 11, an LP extracting part 14 successively reads out respective picture elements recorded in a frame memory 12, compares the picture elements with a prescribed threshold and extracts a low LP part. Then the extracting part 14 calculates the center-of-gravity position of luminance of each picture element surrounded by low luminance picture elements and records the center-of-gravity position as an LP position. Then a moving LP extracting part 15 compares the LP position recorded in the recording part 13 with a position obtained by photographing the periphery of a vehicle and records a moving LP. An object position calculating part 16 calculates the three-dimensional position of the moving LP, and when an obstacle judging part 17 judges the existence of danger of collision, an obstacle marking part 18 marks an obstacle.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は自動車などの車両の周辺
を監視して、車両運転におけるドライバの安全確認を支
援するのに有効に適用される車両周辺監視装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle periphery monitoring device which is effectively applied to monitor the periphery of a vehicle such as an automobile and assist the driver's safety confirmation in driving the vehicle.

【0002】[0002]

【従来の技術】従来の車両周辺装置は、特願平4−17
0559号に記載されているように、路面に照射された
スポットの撮像輝点と同一スポットが物体で反射されて
撮像された輝点位置の移動量より物体の位置を算出して
障害物の存在を検出するようにしていた。
2. Description of the Related Art A conventional vehicle peripheral device is disclosed in Japanese Patent Application No. 4-17.
As described in No. 0559, the position of the object is calculated from the amount of movement of the bright spot position where the same spot as the captured bright spot of the spot illuminated on the road surface is reflected by the object, and the presence of an obstacle I was trying to detect.

【0003】すなわち、図5に示すように、車両に取付
られた投光器より、図6(A)に示すように多数のスポ
ットを物体が存在しない路面に照射して、その照射スポ
ットをカメラで撮像して記録しておき、図6(B)に示
すように、物体が存在する路面を撮像すると、物体に照
射されたスポットに対しては、撮像されたスポット位置
が変化する。
That is, as shown in FIG. 5, a floodlight mounted on a vehicle irradiates a large number of spots on a road surface where no object exists as shown in FIG. 6A, and the illuminated spots are imaged by a camera. Then, as shown in FIG. 6B, when the road surface on which the object exists is imaged, the imaged spot position changes with respect to the spot irradiated on the object.

【0004】このスポット位置の変化量より物体の位置
を算出して図18に示すように表示部に表示している。
また、この他、前記投光器に替えてカメラを設置し、左
右2台のカメラで撮像された両画像位置より物体の位置
を算出し、物体位置を図18に示すように表示部で表示
していた。
The position of the object is calculated from the amount of change in the spot position and displayed on the display unit as shown in FIG.
Further, in addition to this, a camera is installed in place of the floodlight, the position of the object is calculated from both image positions picked up by two left and right cameras, and the object position is displayed on the display unit as shown in FIG. It was

【0005】[0005]

【発明が解決しようとする課題】前述したように、従来
の車両周辺監視装置は、カメラで撮像したスポットの輝
点位置の移動量、または両カメラで撮像した画像位置の
差より高さのある物体の位置を算出し、車両の走行に障
害となる障害物を表示部でグラフィック図形を用いて表
示するようにしていた。
As described above, the conventional vehicle periphery monitoring device has a height higher than the amount of movement of the bright spot position of the spot imaged by the camera or the difference between the image positions imaged by both cameras. The position of the object is calculated, and the obstacle that hinders the traveling of the vehicle is displayed on the display unit using a graphic figure.

【0006】このため、表示部での表示は実際の監視領
域を撮像した画像とは異なり、安全確認が十分でないた
めグラフィック図形と撮像画像を切替えて監視するよう
にしていたが、この場合もグラフィック図形で表示され
た物体が撮像画像のどれに対応するかを認識するのに長
時間を要していた。
For this reason, the display on the display unit is different from the image of the actual monitoring area, so that the safety confirmation is not sufficient, so that the graphic figure and the captured image are switched and monitored. It took a long time to recognize which one of the captured images the object displayed as a figure corresponds to.

【0007】本発明はモニタに表示されている監視領域
を撮像した画像に車両の走行に障害となる物体をマーク
させて障害物の位置を直ちに認識できるように改良した
車両周辺監視装置を提供することを目的とする。
The present invention provides a vehicle periphery monitoring device improved so that an object which interferes with the traveling of a vehicle can be marked in an image obtained by picking up a monitoring area displayed on a monitor so that the position of the obstacle can be immediately recognized. The purpose is to

【0008】[0008]

【課題を解決するための手段】前述した課題を解決する
ために本発明が採用した手段を図1を参照して説明す
る。図1は本発明の基本構成図である。車両周辺の監視
領域を撮像する撮像手段(1)と、前記撮像手段(1)
で撮像された画像を表示する表示手段(2)と、前記撮
像手段(1)で撮像された画像データより物体の位置を
算出する物体位置算出手段(3)と、前記物体位置算出
手段(3)で算出された物体が車両の走行に障害となる
か否かを判定する障害物判定手段(4)と、前記障害物
判定手段(4)で車両の走行に障害となると判定された
場合、前記表示手段(2)で表示されている撮像画像の
障害となる物体にマークを行なう障害物マーク手段
(5)と、を備える。
Means adopted by the present invention for solving the above-mentioned problems will be described with reference to FIG. FIG. 1 is a basic configuration diagram of the present invention. Image pickup means (1) for picking up an image of a monitoring area around the vehicle, and the image pickup means (1)
Display means (2) for displaying the image captured by the image capturing means, object position calculating means (3) for calculating the position of the object from the image data captured by the image capturing means (1), and the object position calculating means (3 ) Obstacle determining means (4) for determining whether or not the object calculated in () interferes with the running of the vehicle, and when the obstacle determining means (4) determines that the object will interfere with the running of the vehicle, Obstacle marking means (5) for marking an obstacle in the captured image displayed on the display means (2).

【0009】また、前記撮像手段(1)が投光器より照
射される複数のスポットを撮像する。また、前記表示手
段(2)で表示する画像に対しては前記スポットの照射
光の波長の光を通過する帯域フィルタを撮像経路より除
去して前記撮像手段(1)で撮像する。
Further, the image pickup means (1) picks up an image of a plurality of spots illuminated by a light projector. Further, for the image displayed by the display means (2), a bandpass filter that passes light having the wavelength of the irradiation light of the spot is removed from the image pickup path, and the image is picked up by the image pickup means (1).

【0010】また、前記撮像手段(1)が監視領域を左
右2台のカメラで撮像する。
Further, the image pickup means (1) picks up an image of the monitoring area with two left and right cameras.

【0011】[0011]

【作用】撮像手段1は車両の周辺の監視領域を撮像す
る。物体位置算出手段3は撮像手段1で撮像された画像
データより物体の位置を算出する。
The image pickup means 1 picks up an image of the monitoring area around the vehicle. The object position calculation means 3 calculates the position of the object from the image data picked up by the image pickup means 1.

【0012】障害物判定手段4は物体位置算出手段3で
算出された物体が車両の走行に障害となるか否かを判定
する。障害物マーク手段5は、障害物判定手段4で車両
の走行に障害と判定された場合、撮像手段1で撮像され
表示手段2で表示されている画像の障害となる物体にマ
ーク付けを行なう。
The obstacle determining means 4 determines whether or not the object calculated by the object position calculating means 3 interferes with the running of the vehicle. When the obstacle determination means 4 determines that the traveling of the vehicle is an obstacle, the obstacle marking means 5 marks an obstacle object in the image captured by the image capturing means 1 and displayed on the display means 2.

【0013】また、投光器より照射するスポットを撮像
手段1が撮像して物体位置を算出する場合、撮像手段1
に設置されている帯域フィルタを撮像経路外に除去して
撮像した画像を表示手段2で表示して障害となる物体の
マーク付けを行なう。以上のように、車両周辺の監視領
域を撮像して表示している画像の車両の走行に障害とな
る物体に対してマーク付けを行なうようにしたので、直
ちに障害物の位置を認識することができ、安全にかつス
ムーズに車両の運転を行なうことができる。
When the image pickup means 1 picks up an image of the spot irradiated by the light projector to calculate the object position, the image pickup means 1 is used.
The band-pass filter installed at is removed outside the imaging path and the imaged image is displayed on the display unit 2 to mark an obstacle object. As described above, since the object that interferes with the traveling of the vehicle in the image displayed by capturing the image of the monitoring area around the vehicle is marked, it is possible to immediately recognize the position of the obstacle. Therefore, the vehicle can be driven safely and smoothly.

【0014】また、投光器より照射するスポットを撮像
して物体位置を算出する方法をとる場合は、帯域フィル
タを除去して撮像した画像を表示するようにしたので、
鮮明な画像が表示されマーク付けされた障害物を容易に
認識することができる。
Further, when the method of calculating the object position by imaging the spot irradiated by the projector, the band-pass filter is removed and the imaged image is displayed.
A clear image is displayed and the marked obstacle can be easily recognized.

【0015】[0015]

【実施例】本発明の第1の実施例を図2および図3を参
照して説明する。図2は本発明の第1の実施例の構成
図、図3は同実施例の動作フローチャートである。図2
において、10は投光器、11は撮像カメラ、12はフ
レームメモリ、13は参照データ記録部、14は輝点抽
出部、15は移動輝点抽出部、16は物体位置算出部、
17は障害物判定部、18は障害物マーク部、19は表
示部、20は帯域フィルタ、21は帯域フィルタ20を
撮像経路内外に挿入または除去するフィルタ挿入除去
部、22はその他の処理を行なう処理部、23はインタ
フェース(I/O)、24は全ての処理を実行するプロ
セッサ(CPU)である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a block diagram of the first embodiment of the present invention, and FIG. 3 is an operation flowchart of the same embodiment. Figure 2
In FIG. 10, 10 is a projector, 11 is an imaging camera, 12 is a frame memory, 13 is a reference data recording unit, 14 is a bright spot extraction unit, 15 is a moving bright spot extraction unit, 16 is an object position calculation unit,
Reference numeral 17 is an obstacle determination unit, 18 is an obstacle mark unit, 19 is a display unit, 20 is a band filter, 21 is a filter insertion / removal unit that inserts or removes the band filter 20 into or out of the imaging path, and 22 performs other processing. A processing unit, 23 is an interface (I / O), and 24 is a processor (CPU) that executes all processes.

【0016】投光器10はレーザ光を発するレーザ光源
10bとファイバグレイティング(FG)10aで構成
され、車両周辺の監視領域に格子状のレーザ光のスポッ
トを照射する。FG10aは、図4に示すように、直径
が数十μm、長さ10mmの光ファイバを100本程度
シート状に並べ、このシートを2枚直交して重ね合わせ
て構成される。
The projector 10 is composed of a laser light source 10b for emitting a laser beam and a fiber grating (FG) 10a, and irradiates a grid-shaped laser beam spot on a monitoring area around the vehicle. As shown in FIG. 4, the FG 10a is configured by arranging about 100 optical fibers each having a diameter of several tens of μm and a length of 10 mm in a sheet shape, and stacking these two sheets at right angles.

【0017】このFG1aにレーザ光源10bより矢印
で示すようにレーザ光が入射されると、レーザ光は個の
光ファイバの焦点で集光した後、球面波となり干渉しつ
つ広がって行き、その結果、投影面には格子状のスポッ
トが照射される。カメラ11は、投光器10で照射され
たスポットを撮像し、撮像された画像信号はフレームメ
モリ12に一時記録される。
When laser light is incident on the FG 1a from the laser light source 10b as indicated by an arrow, the laser light is condensed at the focal points of the individual optical fibers and then spreads as a spherical wave while interfering with each other. A grid-like spot is irradiated on the projection surface. The camera 11 captures an image of the spot illuminated by the light projector 10, and the captured image signal is temporarily recorded in the frame memory 12.

【0018】カメラ11の前面に設置されている帯域フ
ィルタ20は、投光器10のレーザ光源10bが発光す
る、例えば赤外領域である830nm付近の波長の光を
通過させる。帯域フィルタ20をカメラ11の前面に設
置する理由は、投光器10が照射したスポットをカメラ
11が撮像する場合、カメラ11にはスポットの他に太
陽光や照明光が入射されてスポットがマスクされるよう
になる。帯域フィルタ20は照射しているスポットの光
を通過させ、太陽や照明光を除去してS/Nを改善し、
確実にスポットの輝点を抽出できるようにするために設
置される。
The bandpass filter 20 installed on the front surface of the camera 11 allows the light emitted by the laser light source 10b of the projector 10 to pass, for example, light having a wavelength near 830 nm in the infrared region. The reason why the bandpass filter 20 is installed in front of the camera 11 is that when the camera 11 captures an image of the spot illuminated by the projector 10, sunlight or illumination light is incident on the camera 11 in addition to the spot, and the spot is masked. Like The bandpass filter 20 passes the light of the radiated spot, removes the sun and illumination light, and improves the S / N ratio.
It is installed to ensure that the bright spots of the spot can be extracted.

【0019】また、投光器10とカメラ11は、図5に
示すように、車両の後部に、地面に法線に対して角度θ
で固定して設置される。図6は照射されたスポットをカ
メラ11で撮像された画像を表わしており、図6(A)
は路面に物体が無い場合を示しており、また図6(B)
は物体が有る場合を示している。
Further, as shown in FIG. 5, the projector 10 and the camera 11 have an angle θ with respect to a normal line to the ground at the rear of the vehicle.
It is fixedly installed at. FIG. 6 shows an image of the illuminated spot taken by the camera 11, and FIG.
Shows the case where there is no object on the road surface, and FIG. 6 (B)
Indicates the case where there is an object.

【0020】投光器10より照射されたスポットが物体
に照射されると、カメラ11で撮像された画像のスポッ
ト位置が移動する。すなわち、物体が存在しない所では
図6(A)の○印で示すスポット位置と図6(B)の●
印で示すスポット位置は一致するが、物体にスポットが
照射されると○印位置と●印位置が一致しなくなる。
When the object is illuminated with the spot emitted from the projector 10, the spot position of the image captured by the camera 11 moves. That is, in a place where there is no object, the spot position indicated by a circle in FIG. 6A and the black circle in FIG.
The spot positions indicated by the marks match, but when the object is irradiated with the spots, the O mark positions and the ● mark positions do not match.

【0021】車両周辺監視装置は、この○印位置と●印
位置の移動量より物体位置を算出する。参照データ記録
部13には、予め、図6(A)で示したように、路面に
物体が存在しない場合に撮像したスポットより得られる
輝点位置を記録しておく。なお輝点位置は次に説明する
輝点抽出部によって行なわれる。
The vehicle periphery monitoring device calculates the object position based on the amount of movement of the positions marked with a circle and the positions marked with a circle. In the reference data recording unit 13, as shown in FIG. 6A, the bright spot position obtained from the spot imaged when no object is present on the road surface is recorded in advance. The bright spot position is determined by the bright spot extraction unit described below.

【0022】輝点抽出部14は、まず、カメラ11で撮
像され、フレームメモリ12に記録されている水平方向
(V軸)各画素を順次読出し、図7に示すように、背景
輝度に基づいて決められるしきい値と比較して、しきい
値より低い輝度の場合はその画素の輝度IをOにする。
First, the bright spot extracting section 14 sequentially reads each pixel in the horizontal direction (V axis) recorded by the camera 11 and recorded in the frame memory 12, and based on the background luminance, as shown in FIG. When the brightness is lower than the threshold value that is determined, the brightness I of the pixel is set to O.

【0023】フレームメモリ12に記録されている全て
の画素に対して上記処理を実施すると、照射されたスポ
ットを撮像した部分のみが図8に示すように抽出でき
る。なお図8は、1スポットを代表して示している。輝
点抽出部14は、次に、図8に示すように、輝度値が○
で囲まれ画素に対して、各画素の座標位置に輝度Iの重
み付けを行なって重心位置を算出し、算出された重心位
置を輝点位置として図示しないメモリに記録する。
When the above process is performed for all the pixels recorded in the frame memory 12, only the imaged portion of the illuminated spot can be extracted as shown in FIG. Note that FIG. 8 shows one spot as a representative. Then, the bright spot extraction unit 14 determines that the brightness value is ◯ as shown in FIG.
For the pixels surrounded by, the brightness I is weighted at the coordinate position of each pixel to calculate the barycentric position, and the calculated barycentric position is recorded in a memory (not shown) as a bright spot position.

【0024】参照データ記録部13には、予め、物体が
無い路面上を撮像し、前述した輝点抽出部14で抽出さ
れた輝点位置が記録されている。移動輝点抽出部15
は、参照データ記録部13に記録されている輝点位置
と、車両の周辺を撮像して得られた位置とを対比し、位
置が移動している輝点を図示しないメモリに記録する。
すなわち、投光器10より照射したスポットの中で物体
に照射されたスポットを撮像して得られた輝点を抽出す
る。
In the reference data recording unit 13, the bright spot positions which are picked up by the bright spot extracting unit 14 and which are obtained by imaging the road surface without any object are recorded in advance. Moving bright spot extraction unit 15
Compares the position of the bright spot recorded in the reference data recording unit 13 with the position obtained by imaging the periphery of the vehicle, and records the bright spot whose position is moving in a memory (not shown).
That is, a bright spot obtained by capturing an image of the spot illuminated on the object among the spots illuminated by the projector 10 is extracted.

【0025】物体位置算出部16は輝点位置より物体の
位置を算出する。図9は物体位置算出部16の物体位置
を算出するための説明図であって、図9(A)は、カメ
ラ11のレンズの光軸が路面と交わる点を原点とした
X,YおよびZ直交座標で表わしたものであり、図9
(B)はYおよびZ軸平面で表わしたものである。
The object position calculation unit 16 calculates the position of the object from the bright spot position. FIG. 9 is an explanatory diagram for calculating the object position of the object position calculation unit 16, and FIG. 9A shows X, Y and Z with the origin at the point where the optical axis of the lens of the camera 11 intersects the road surface. It is expressed in Cartesian coordinates and is shown in FIG.
(B) is represented by the Y and Z axis planes.

【0026】また、Lはカメラ11のレンズの焦点距
離、Dはレンズの中心と投光器10との距離、θは図5
で説明したカメラの設置俯角、Hはレンズの中心の路面
上高である。また点P(x,y,z)は投光器10より
のスポットが物体に照射された点、点P(u,v+δ)
は物体に照射されたスポットP(x,y,z)はカメラ
11が撮像して得られた輝点、点PA (xA ,yA
0)は物体が無い場合の路面を照射したスポット位置、
点PA (u,v)は点PA (xA ,yA ,0)を照射し
て得られる輝点位置を示す。
Further, L is the focal length of the lens of the camera 11, D is the distance between the center of the lens and the projector 10, and θ is shown in FIG.
The installation depression angle of the camera described above, H is the height on the road surface at the center of the lens. Further, a point P (x, y, z) is a point where the spot from the light projector 10 is applied to the object, and a point P (u, v + δ).
Is a bright spot obtained by the camera 11 capturing a spot P (x, y, z) irradiated on the object, and a point P A (x A , y A ,
0) is the spot position where the road surface is illuminated when there is no object,
A point P A (u, v) indicates a bright spot position obtained by irradiating the point P A (x A , y A , 0).

【0027】図9(A)より明らかなように、投光器1
0より照射したスポットが物体に照射された場合は、そ
の輝点位置は、物体が無い、すなわち路面上を照射した
時得られた輝点位置よりv軸(水平方向)方向に移動す
る。また、溝のように、路面より低い地点にスポットが
照射された場合は、逆方向に移動する。
As is clear from FIG. 9A, the projector 1
When the object is irradiated with a spot irradiated from 0, the bright spot position moves in the v-axis (horizontal direction) direction from the bright spot position obtained when there is no object, that is, when the spot is irradiated on the road surface. Also, when a spot is irradiated at a point lower than the road surface, such as a groove, the spot moves in the opposite direction.

【0028】したがって、点P(x,y,z)は三角測
量の原理より、 z=z′ cosθ+y′ sinθ−y″ sinθ cosθ y=y′/ cosθ−z tanθ x=(v+δ)(h′−z′)/L ・・・(1) ただし、z′=h′2 δ/(DL+Hδ) y′=u(h′−z′)/L h′=H/ cosθ+y″ sinθ y″=H( tanφ− tanθ) φ =θ+ tan-1(u/L) ・・・(2) で表わされ、物体位置算出部16は式(1)によって物
体位置x,yおよびzを算出する。
Therefore, the point P (x, y, z) is z = z ′ cos θ + y ′ sin θ−y ″ sin θ cos θ y = y ′ / cos θ−z tan θ x = (v + δ) (h ′) according to the principle of triangulation. -z ') / L ··· (1 ) However, z' = h '2 δ / (DL + Hδ) y' = u (h'-z ') / L h' = H / cosθ + y "sinθ y" = H (Tan φ−tan θ) φ = θ + tan −1 (u / L) (2), the object position calculation unit 16 calculates the object positions x, y, and z by the equation (1).

【0029】つぎに、図3を参照して、第1の実施例の
動作を説明する。処理S1では、処理部22は、フィル
タ挿入除去部21に指令して、帯域フィルタ20をカメ
ラ11の前面の撮像経路内に挿入する。処理S2では、
カメラ11は車両周辺の監視領域を撮像し、処理S3で
撮像された画像データがフレームメモリ12に記録され
る。
The operation of the first embodiment will be described below with reference to FIG. In process S1, the processing unit 22 instructs the filter insertion / removal unit 21 to insert the bandpass filter 20 into the imaging path on the front surface of the camera 11. In process S2,
The camera 11 images the monitoring area around the vehicle, and the image data imaged in step S3 is recorded in the frame memory 12.

【0030】処理S4では、輝点抽出部14は、フレー
ムメモリ12に記録された輝度値より、前述した処理に
より輝点位置を抽出して図示しないメモリに記録する。
処理S5では、移動輝点抽出部15は、参照データ記録
部13に記録されている路面に照射された輝点と、処理
S4で抽出した輝点との位置を調べ、位置移動が有った
輝点については図示しないメモリに記録する。
In process S4, the bright spot extraction unit 14 extracts the bright spot position from the brightness value recorded in the frame memory 12 by the above-described process and records it in a memory (not shown).
In the process S5, the moving bright spot extraction unit 15 checks the positions of the bright spots irradiated on the road surface recorded in the reference data recording unit 13 and the bright spots extracted in the process S4, and there is a position shift. The bright spots are recorded in a memory (not shown).

【0031】処理S6では、処理部21は、処理S5で
位置移動が有ったとして記録された輝点が有るか無いか
を判定し、判定がNOの場合は処理S1に移り、YES
の場合は処理S7に移る。処理S7では、物体位置算出
部16は、前述したように、式(1)の演算処理を行っ
て、移動した輝点に対応する物体の3次元位置を算出す
る。
In process S6, the processing unit 21 determines whether or not there is a bright spot recorded as having been moved in position in process S5. If the determination is NO, the process proceeds to process S1 and YES.
In case of, it moves to the processing S7. In process S7, the object position calculation unit 16 calculates the three-dimensional position of the object corresponding to the moved bright point by performing the calculation process of the equation (1) as described above.

【0032】処理S8では、障害物判定部17は、I/
O23より車両のハンドル舵角を取込み、車両の車行進
路を予測する。処理S9では、障害物判定部17は、処
理S7で算出された物体位置と処理S8で予測された進
路予測より衝突の危険が有るか無いかを判定し、判定が
NOの場合は処理S1に終り、YESの場合は処理S1
0に移って図示しないブザー等で警告する。
In step S8, the obstacle determining section 17 determines the I / O ratio.
The steering angle of the vehicle is taken in from O23 to predict the vehicle traveling path. In process S9, the obstacle determination unit 17 determines whether there is a danger of collision based on the object position calculated in process S7 and the route prediction predicted in process S8. If the determination is NO, the process proceeds to process S1. At the end, if YES, process S1
Move to 0 and warn with a buzzer (not shown).

【0033】処理S11では、障害物マーク部18はフ
ィルタ挿入除去部21に指令して帯域フィルタ20を撮
像経路外に除去させる。処理S12ではカメラ11は監
視領域を撮像してフレームメモリ12に記録する。
In step S11, the obstacle mark unit 18 instructs the filter insertion / removal unit 21 to remove the bandpass filter 20 outside the imaging path. In step S12, the camera 11 captures an image of the monitoring area and records it in the frame memory 12.

【0034】処理S11で帯域フィルタ20が除去され
ているので、処理S12で撮像された画像は自然の撮像
画像となる。なお、処理S11で帯域フィルタを除去す
るのと同時にレーザ光源10bの発光を停止させるよう
にしても良い。レーザ光源11bの発光を停止すると、
処理S12で撮像した画像にはスポットが現われず、よ
り自然な画像となる。
Since the band-pass filter 20 has been removed in the process S11, the image captured in the process S12 becomes a natural captured image. The emission of the laser light source 10b may be stopped at the same time when the bandpass filter is removed in the process S11. When the laser light source 11b stops emitting light,
No spot appears in the image captured in step S12, resulting in a more natural image.

【0035】処理S13では、障害物マーク部18は、
フレームメモリ12に記録されている画像を表示部19
に表示する。処理S14では、障害物マーク部18は、
処理S9で衝突の危険有りと判定された物体について、
図10に示すように、障害物マークを付ける。
In step S13, the obstacle mark portion 18
The image recorded in the frame memory 12 is displayed on the display unit 19
To display. In step S14, the obstacle mark portion 18
Regarding the object determined to be in danger of collision in the process S9,
Obstacle marks are added as shown in FIG.

【0036】障害物マーク付けの方法としては、処理S
12でフレームメモリ12に記録した画像データ値を変
更したり、記録されている画像データに重畳して行な
う。また、マーク付けには、図10に示すように○印
や、これらを連ねた棒状でマークし、またマーク色を障
害物の高さで変化させる方法、また、検出された障害物
の大きさ・形でマーク付けする等色々な方法が考えられ
る。
As a method of marking an obstacle, the process S
In step 12, the image data value recorded in the frame memory 12 is changed or superposed on the recorded image data. In addition, for marking, as shown in FIG. 10, a circle mark or a rod shape in which these marks are connected is used to mark, and the mark color is changed according to the height of the obstacle, and the size of the detected obstacle.・ Various methods such as marking with shape can be considered.

【0037】図10は、図6(B)で示すスポットが移
動した輝点位置に○印の障害物マークを付けるようにし
た例を示す。つぎに、本発明の第2の実施例を図11お
よび図12を参照して説明する。図11は本発明の第2
の実施例の構成図、図12は同実施例の動作フローチャ
ートである。
FIG. 10 shows an example in which an obstacle mark of O is attached to the bright spot position where the spot shown in FIG. 6B has moved. Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 11 shows the second aspect of the present invention.
FIG. 12 is a configuration diagram of this embodiment, and FIG. 12 is an operation flowchart of the embodiment.

【0038】図11において、31および32は車両の
周辺を撮像するカメラ、33および34はカメラ31お
よび32で撮像された画像信号を一時記録するフレーム
メモリ、35はフレームメモリ33および34に記録さ
れている画像データに対して、それぞれカメラ31およ
び32のレンズの歪曲収差を補正して、それぞれメモリ
(右)38およびメモリ(左)39に記録する歪曲収差
補正部、36はメモリ38または39に記憶されている
画像信号の中の路面画像を除去する路面画像除去部、3
7は物体のエッジを検出する物体エッジ検出部である。
In FIG. 11, 31 and 32 are cameras for picking up images around the vehicle, 33 and 34 are frame memories for temporarily recording the image signals picked up by the cameras 31 and 32, and 35 is recorded in the frame memories 33 and 34. The distortion aberration correction unit that corrects the distortion aberration of the lenses of the cameras 31 and 32 and records the image data in the memory (right) 38 and the memory (left) 39, respectively. Road surface image removing unit for removing the road surface image from the stored image signal, 3
Reference numeral 7 denotes an object edge detection unit that detects the edge of the object.

【0039】また、40は物体の位置を算出する物体位
置算出部、41は障害物判定部、42は障害物マーク
部、43は表示部、44はその他の処理を行なう処理
部、45はインタフェース(I/O)、46は処理を実
行するプロセッサ(CPU)である。
Further, 40 is an object position calculation unit for calculating the position of an object, 41 is an obstacle determination unit, 42 is an obstacle mark unit, 43 is a display unit, 44 is a processing unit for performing other processing, and 45 is an interface. (I / O) and 46 are processors (CPU) that execute processing.

【0040】まず歪曲収差補正部35について説明す
る。カメラ31および32で撮像された画像信号は、カ
メラ31および32のレンズに歪曲収差が有る場合は、
以後説明する路面画像除去部36、物体エッジ検出部3
7、物体位置算出部40の処理結果に誤差を発生する。
First, the distortion correction unit 35 will be described. When the lenses of the cameras 31 and 32 have distortion, the image signals captured by the cameras 31 and 32 are
The road surface image removing unit 36 and the object edge detecting unit 3 described below
7. An error occurs in the processing result of the object position calculation unit 40.

【0041】すなわち、カメラのレンズに収差が無い場
合、格子状の模様を撮像した場合は図13(A)に示す
ように格子状の画像データがフレームメモリに記録され
る。しかし、レンズに収差が有る場合は、図13(B)
または(C)に示すように歪んだ格子状画像が記録され
る。
That is, when there is no aberration in the lens of the camera or when a lattice pattern is imaged, lattice image data is recorded in the frame memory as shown in FIG. 13 (A). However, in the case where the lens has aberration, FIG.
Alternatively, a distorted lattice-shaped image is recorded as shown in (C).

【0042】収差量は光軸の中心より点Pの距離の3乗
に比例して大きくなる。すなわち、図13(D)に示す
ように、収差が無い時の点P(x0 ,y0 )が収差によ
って点P′(x,y)に結像したものとすると、収差量
Dは D=[(x0 −x)2 +(y0 −y)2 0.5 ・・・(3) となり、このDはレンズの中心点より点Pまでの距離の
3乗に比例する。すなわち、 [(x0 −x)2 +(y0 −y)2 0.5 =k[(x0 2−y0 20.5 3 ・・・(4) ただしkは比例定数となる。
The amount of aberration increases in proportion to the cube of the distance of the point P from the center of the optical axis. That is, as shown in FIG. 13D, when the point P (x 0 , y 0 ) when there is no aberration is imaged at the point P ′ (x, y) due to the aberration, the aberration amount D is D = [(x 0 -x) 2 + (y 0 -y) 2] 0.5 ··· (3) , and this D is proportional to the cube of the distance to the point P from the center point of the lens. That is, the [(x 0 -x) 2 + (y 0 -y) 2] 0.5 = k [(x 0 2 -y 0 2) 0.5] 3 ··· (4) where k is a proportional constant.

【0043】したがって、レンズに収差が存在する場合
は、例えば x0 ≒x(1−k(x2 +y2 )) y0 ≒y(1−k(x2 +y2 )) ・・・(5) なる演算を行って歪曲収差を補正する。
Therefore, when aberration is present in the lens, for example, x 0 ≈x (1-k (x 2 + y 2 )) y 0 ≈y (1-k (x 2 + y 2 )) (5 ) Is performed to correct distortion.

【0044】歪曲収差補正部35は、フレームメモリ3
3および34に記録されている画素データについて式
(5)の演算を行ってレンズ収差の補正を行なって、そ
れぞれ、メモリ38および39に記録する。また式
(5)の演算を行ってフレームメモリの画素の補正を行
なった場合、補正後のメモリ38および39にデータぬ
けが生ずる。このようなデータぬけの画素に対しては隣
接する画素のデータを基にして補間を行なう。
The distortion correction unit 35 is provided in the frame memory 3
The pixel data recorded in 3 and 34 are subjected to the calculation of the equation (5) to correct the lens aberration and recorded in the memories 38 and 39, respectively. In addition, when the calculation of the equation (5) is performed to correct the pixels of the frame memory, data omission occurs in the corrected memories 38 and 39. Interpolation is performed for such pixels without data based on the data of adjacent pixels.

【0045】カメラ31および32は、第1の実施例と
同様に、図5に示すように、車両後部に路面よりHなる
高さに設置されて、車両後方を撮像する。そこで、以後
の説明を容易にするため、図14に示すように、カメラ
設置点での座標をX′,Y′およびZ′で表わし、路面
での座標をX,YおよびYで表わすものとする。したが
って、カメラの設置俯角θS =90のときは、 X=X′,Y=Y′+H,Z=Z′ ・・・(6) となる。
Similar to the first embodiment, the cameras 31 and 32 are installed at a height H above the road surface at the rear of the vehicle to image the rear of the vehicle, as shown in FIG. Therefore, in order to facilitate the subsequent description, as shown in FIG. 14, the coordinates at the camera installation point are represented by X ′, Y ′, and Z ′, and the coordinates on the road surface are represented by X, Y, and Y. To do. Therefore, when the installation depression angle θ S of the camera is 90, X = X ′, Y = Y ′ + H, Z = Z ′ (6)

【0046】カメラ31および32のレンズの光軸は、
図15に示すように、両光軸ともZ′軸と一致させ、距
離Lだけ離れて設置される。まず、物体位置算出部30
での物体位置の算出方法について説明する。図15にお
いて、X′軸は両カメラのレンズの中心点を結ぶ方向に
とり、X′軸は路面と平行になるようにカメラ31およ
び32を設置する。
The optical axes of the lenses of the cameras 31 and 32 are
As shown in FIG. 15, both optical axes are aligned with the Z ′ axis, and are installed at a distance L. First, the object position calculation unit 30
A method of calculating the object position in will be described. In FIG. 15, the X ′ axis is taken in the direction connecting the center points of the lenses of both cameras, and the cameras 31 and 32 are installed so that the X ′ axis is parallel to the road surface.

【0047】Y′軸は、Z′軸とX′軸とに垂直となる
軸で、路面に垂直な軸である。以後の説明を容易にする
ため、X′,Y′およびZ′軸のO点はカメラ(左)3
2のレンズの中心にとる。このように設置されたカメラ
31および32によって撮像され、メモリ38および3
9に記録されている点P(XP ′,YP ′,ZP ′)の
記録を、それぞれPL (xLP,yLP)およびP
R (xRP,yRP)とすると、点Pまでの距離ZP ′は ZP ′=Lf/(xLP−xRP) ・・・(7) ただし、Lは両レンズの間隔 fはレンズの焦点距離 で表わされる。
The Y'axis is an axis perpendicular to the Z'axis and the X'axis, and is an axis perpendicular to the road surface. In order to facilitate the following description, the O point on the X ′, Y ′ and Z ′ axes is the camera (left) 3
Take the center of the second lens. Images are taken by the cameras 31 and 32 thus installed, and the memories 38 and 3 are taken.
The recording of the point P (X P ′, Y P ′, Z P ′) recorded at 9 is P L (x LP , y LP ) and P, respectively.
If R (x RP , y RP ), then the distance Z P ′ to the point P is Z P ′ = Lf / (x LP −x RP ) ... (7) where L is the distance between both lenses and f is the lens It is expressed by the focal length of.

【0048】したがって、物体位置算出部30は、メモ
リ39よりxLPを、またメモリ38よりxRPを読取って
P ′を算出する。また、点P(XP ′,YP ′,
P ′)のYP ′は、図15より、 YP ′=Atan ΦL =ZP ′tan ΦL /sin θL =ZP ′yLP/f ・・・(8) =LyLP/(xLP−xRP) ・・・(9) で表わされる。
Therefore, the object position calculator 30 reads x LP from the memory 39 and x RP from the memory 38 to calculate Z P ′. In addition, the point P (X P ′, Y P ′,
Z P ') of the Y P', from FIG. 15, Y P '= Atan Φ L = Z P' tan Φ L / sin θ L = Z P 'y LP / f ··· (8) = Ly LP / (X LP −x RP ) ... Represented by (9).

【0049】また、点P(XP ′,YP ′,ZP ′)の
P ′は、図15より、 XP ′=Acos θL =ZP ′cos θL / sinθL =ZP ′xLP/f ・・・(10) =LxLP/(xLP−xRP) ・・・(11) で表わされる。
From FIG. 15, the point P (X P ′, Y P ′, Z P ′) of X P ′ is as follows: X P ′ = A cos θ L = Z P ′ cos θ L / sin θ L = Z P 'x LP / f ··· (10 ) = Lx LP / (x LP -x RP) represented by (11).

【0050】カメラが図5で示すように、垂直方向より
θS 下方向に向けられている場合は補正が必要となる。
カメラの俯角がθS である場合、図14に示すようにな
る。X′,Y′およびZ′座標で表わした点Pの位置X
P ′,YP ′およびZP ′は路面座標X,YおよびZで
表わすと図14で示すようになる。
As shown in FIG. 5, when the camera is oriented θ S downward from the vertical direction, correction is necessary.
When the depression angle of the camera is θ S , it becomes as shown in FIG. Position X of point P represented by X ', Y'and Z'coordinates
P ', Y P' and Z P 'is as shown in Figure 14 is represented by a road surface coordinate X, Y and Z.

【0051】したがって、式(7),(9)および(1
1)で算出したZP ′,YP ′およびXP ′を用いて
X,YおよびZ座標で表わした点Pの値をXP ,YP
よびZ P とすると、 XP =XP ′ ・・・(12) YP =H−ZP ′cos θS +YP ′sin θS ・・・(13) ZP =ZP ′sin θS +YP ′cos θS ・・・(14) となる。
Therefore, equations (7), (9) and (1
Z calculated in 1)P′, YP'And XP'Using
The value of the point P represented by X, Y and Z coordinates is X.P, YPOh
And Z PThen, XP= XP′ ・ ・ ・ (12) YP= H-ZP′ Cos θS+ YP′ Sin θS (13) ZP= ZP′ Sin θS+ YP′ Cos θS (14)

【0052】また、カメラの左右の撮像角がθR の場合
は、Y軸を回転軸としてθR 回転する補正を行なう。物
体位置算出部30は式(12)〜(14)の演算を行っ
て物体位置を算出する。
When the left and right imaging angles of the camera are θ R , correction is performed by rotating θ R with the Y axis as the rotation axis. The object position calculation unit 30 calculates the object position by performing the calculations of Expressions (12) to (14).

【0053】つぎに路面画像除去部36について説明す
る。路面に白線や文字等が描かれている場合、この白線
や文字は物体と判定されて距離が算出される。しかし、
路面の白線や文字は車両の走行には何んら障害となるも
のでは無く、このような高さ0の物体は予め除去すれば
物体の位置算出処理が簡単となる。
Next, the road surface image removing section 36 will be described. When a white line or a character is drawn on the road surface, the white line or the character is determined to be an object and the distance is calculated. But,
White lines and characters on the road surface do not hinder the running of the vehicle at all, and such an object having a height of 0 can be removed in advance to simplify the object position calculation process.

【0054】路面画像を除去する原理を図16を参照し
て説明する。図16(A)はカメラ31で撮像され、メ
モリ38に記録されている右画像を示す。図16(A)
において、30aおよびbは路面上に画かれた白線、ま
た30cは物体(ポール)を示している。
The principle of removing the road surface image will be described with reference to FIG. FIG. 16A shows a right image captured by the camera 31 and recorded in the memory 38. FIG. 16 (A)
In the figure, 30a and 30b represent white lines drawn on the road surface, and 30c represents an object (pole).

【0055】そこで、メモリ38に記録されている右画
像は全て高さ0、すなわち路面上に画かれている画像だ
と仮定する。この右画像を左カメラ32が撮像したとし
て右画像を左画像に投影した画像を演算によって算出す
る(図16(B))。このようにして算出した投影画像
を左画像(メモリ39)に重畳すると図16(C)のよ
うになる。
Therefore, it is assumed that all the right images recorded in the memory 38 have a height of 0, that is, an image drawn on the road surface. An image obtained by projecting the right image on the left image is calculated by assuming that the left camera 32 has captured the right image (FIG. 16B). When the projection image calculated in this way is superimposed on the left image (memory 39), it becomes as shown in FIG.

【0056】すなわち、右側カメラ31で撮像された画
像を投影した場合、路面上に画かれている白線等の模様
は左側カメラ32で撮像された模様と位置、輝度共に一
致し、物体が路面より高くなるに従って差が大きくな
る。したがって、図16(D)に示すように、左画像デ
ータと投影画像データの差を求めることによって高さの
ある物体を構成する画素以外の路面を構成する画素の輝
度値は0または0に近い値となり、所定しきい値以下を
0とすれば、全て0となる。これにより高さのある部分
のみが0以外の値として取り出されて路面画像を除去す
ることができる。
That is, when the image picked up by the right camera 31 is projected, the pattern such as a white line drawn on the road surface coincides with the position picked up by the left camera 32 in terms of position and brightness, and the object is viewed from the road surface. The higher the height, the larger the difference. Therefore, as shown in FIG. 16D, the brightness value of the pixels forming the road surface other than the pixels forming the object having the height is 0 or close to 0 by obtaining the difference between the left image data and the projection image data. When the value equal to or smaller than the predetermined threshold value is set to 0, all the values become 0. As a result, only the height portion is extracted as a value other than 0, and the road surface image can be removed.

【0057】そこで、次に右画像を全て高さ0とした投
影画像の算出方法について説明する。右画像の点P
R (xRP,yRP)に対応する投影画像の点をPL ′(x
LP′,y LP′)とする。
Then, next, the right image is thrown with all the heights set to 0.
A method of calculating the shadow image will be described. Point P on the right image
R(XRP, YRP), The point of the projection image corresponding toL′ (X
LP′, Y LP′)

【0058】図7に示すように、カメラ座標のX′軸と
路面座標のX軸は平行であり、また、カメラによって撮
像する掃査線のx軸(図15のxL 軸およびxR 軸)も
共に平行であるとすると、同一物体を撮像した場合の撮
像画像のyL とyR 値は一致する。
As shown in FIG. 7, the X ′ axis of the camera coordinates and the X axis of the road surface coordinates are parallel to each other, and the x axis of the sweep line imaged by the camera (x L axis and x R axis in FIG. 15). ) Are also parallel, the y L and y R values of the captured image when the same object is captured are the same.

【0059】したがって、 yLP′=yRP ・・・(15) となる。また、xLP′は、画像の全てが路面上であると
すれば、式(13)で示すYPの値は0となり、 0=HP −ZP ′cos θS +YP ′sin θS ・・・(16) となる。
Therefore, y LP ′ = y RP (15) Further, x LP ′, if all of the image is on the road surface, the value of Y P shown in equation (13) is 0, and 0 = H P −Z P ′ cos θ S + Y P ′ sin θ S (16)

【0060】そこで、式(16)のZP ′およびYP
に式(7)のZP ′および式(9)のYP ′を代入して
LP′を求めると、 xLP′=(Lfcos θS −LyRPsin θS )/H+xRP ・・・(17) となる。
Therefore, Z P ′ and Y P ′ in equation (16) are
Substituting Z P ′ in equation (7) and Y P ′ in equation (9) into x LP ′, x LP ′ = (Lfcos θ S −Ly RP sin θ S ) / H + x RP ... (17)

【0061】路面画像除去部36は式(15)および
(17)の演算を行なって投影画像(図16(B))を
算出する。投影画像が作成されると左画像、すなわちメ
モリ39に記録されているデータとの差を求めて路面画
像を除去する(図16(D))。
The road surface image removing unit 36 calculates the projected image (FIG. 16B) by performing the operations of the equations (15) and (17). After the projection image is created, the difference from the left image, that is, the data recorded in the memory 39 is obtained, and the road surface image is removed (FIG. 16D).

【0062】つぎに物体エッジ検出部37について説明
する。図17(A)は、図16(A)で説明したと同様
な路面上に画かれた白線30aおよびbと路面上の物体
(ポール)30cを左側カメラ32が撮像し、メモリ3
9に記録されている画像データを示す。
Next, the object edge detector 37 will be described. In FIG. 17A, the left camera 32 images the white lines 30a and 30b and the object (pole) 30c on the road surface drawn on the road surface similar to that described in FIG.
9 shows the image data recorded in No. 9.

【0063】メモリ39に記録されているm行n列の画
像データの輝度値Im,n を水平方向に掃査し、 |Im,n+1 −Im,n |≧E0 ならば Em,n =1 |Im,n+1 −Im,n |<E0 ならば Em,n =0 ・・・(18) ただし、E0 はしきい値 なる処理を行なって微分画像を求めると、図17(B)
に示すように、物体や路面に画かれている文字等の縦方
向エッジ部分が“1”に、その他の部分は“0”とな
る。
The brightness value I m, n of the image data of m rows and n columns recorded in the memory 39 is swept in the horizontal direction, and if | I m, n + 1 −I m, n | ≧ E 0 If E m, n = 1 | I m, n + 1 −I m, n | <E 0, then E m, n = 0 (18) where E 0 is a threshold value and differentiated Obtaining the image, FIG. 17 (B)
As shown in, the vertical edge portion of an object or a character drawn on the road surface is "1", and the other portions are "0".

【0064】このようにして求めた微分画像(図17
(B))と、前述した路面画像除去部16で求めた差分
画像(図16(D))と重ね合せてアンドを取ると、図
17(C)で示す物体のエッジ部分のみが抽出される。
したがって、この抽出された物体のエッジ部分について
物体の3次元位置を算出させるようにすることによっ
て、演算処理を大幅に低減させることができる。
The differential image thus obtained (see FIG. 17)
(B)) and the difference image (FIG. 16 (D)) obtained by the road surface image removing unit 16 described above are overlapped and the AND operation is performed, and only the edge portion of the object shown in FIG. 17 (C) is extracted. .
Therefore, the calculation processing can be significantly reduced by calculating the three-dimensional position of the object with respect to the edge portion of the extracted object.

【0065】つぎに、図12を参照して実施例の動作を
説明する。処理S21では、処理部44は、カメラ31
および32で撮像した画像データを、それぞれフレーム
メモリ33および34に記録する。処理S22では、歪
曲収差補正部35は、フレームメモリ33および34に
記録されているデータに対して、カメラ31および32
のレンズの収差に対応する補正を行なって、それぞれ、
メモリ38および39に記録する。
Next, the operation of the embodiment will be described with reference to FIG. In process S21, the processing unit 44 determines that the camera 31
The image data captured by and 32 are recorded in the frame memories 33 and 34, respectively. In step S22, the distortion aberration correction unit 35 uses the cameras 31 and 32 for the data recorded in the frame memories 33 and 34.
Correcting the aberration of the lens of,
It is recorded in the memories 38 and 39.

【0066】処理S23では、物体エッジ検出部37
は、メモリ39に記録されている左画像データを水平方
向に掃査して、式(18)で示す演算を行なわせて左画
像の微分画像(図17(B))を作成して図示しないメ
モリに記録する。処理S24では、路面画像除去部36
は、メモリ38に記録されている右画像を路面上画像と
仮定して左画像に投影した投影画像(図16(B))を
作成して図示しないメモリに記録する。
In the process S23, the object edge detector 37
Is not shown by sweeping the left image data recorded in the memory 39 in the horizontal direction and performing the calculation shown in Expression (18) to create a differential image of the left image (FIG. 17B). Record in memory. In the process S24, the road surface image removing unit 36
Creates a projection image (FIG. 16 (B)) obtained by projecting the right image recorded in the memory 38 into a left image on the assumption that the right image is an image on the road surface and records it in a memory (not shown).

【0067】処理S25では、路面画像除去部36は、
メモリ38に記録されている左画像より処理S24で作
成した投影画像データを減算した差分画像(図16
(D))を作成して図示しないメモリに記録する。処理
S26では、物体エッジ検出部37は、処理S23で作
成した微分画像(図17(B))と処理S25で作成し
た差分画像(図16(D))より物体のエッジを表わす
物体エッジ画像(図17(C))を作成して図示しない
メモリに記録する。
In the process S25, the road surface image removing unit 36
A difference image obtained by subtracting the projection image data created in step S24 from the left image recorded in the memory 38 (see FIG. 16).
(D)) is created and recorded in a memory (not shown). In process S26, the object edge detection unit 37 uses the differential image (FIG. 17B) created in process S23 and the difference image (FIG. 16D) created in process S25 to represent an object edge image ( FIG. 17C is created and recorded in a memory (not shown).

【0068】処理S27では、処理部44は、処理S2
6で作成した物体エッジ画像データのエッジ部分につい
て、測定すべき物体の左右画像の対応点をメモリ38お
よび39より抽出する。処理S28では、物体位置算出
部30は、処理S27で抽出された点に対応する物体位
置を算出する。
In the process S27, the processing section 44 determines the process S2.
For the edge portion of the object edge image data created in 6, the corresponding points of the left and right images of the object to be measured are extracted from the memories 38 and 39. In process S28, the object position calculation unit 30 calculates the object position corresponding to the point extracted in process S27.

【0069】処理S29では、障害物判定部41は、処
理S28の処理結果より障害物が有るか否かを判定し、
判定がNOの場合は処理S30に移って、図示しないモ
ニタにフレーメモリ33または34に記録されている画
像を表示す。処理S31では、障害物判定部41は、I
/O45を介して舵角信号を読込み、処理S32に移っ
て読込んだ舵角より車両が走行する軌跡を推定する。
In process S29, the obstacle determining unit 41 determines whether or not there is an obstacle from the processing result of process S28.
If the determination is NO, the process proceeds to step S30, and the image recorded in the frame memory 33 or 34 is displayed on the monitor (not shown). In step S31, the obstacle determination unit 41 determines that the I
The steering angle signal is read via / O45, and the process proceeds to step S32 to estimate the trajectory of the vehicle on the basis of the read steering angle.

【0070】処理S33では、障害物判定部41は、検
出された障害物に対して車両が衝突の可能性が有るか否
かを処理S32の走行軌跡と比較して判定し、判定がY
ESの場合は処理S34に、また、衝突の可能性が無い
場合は処理S30に移ってモニタに撮像画像を表示して
処理S21に移る。
In the process S33, the obstacle determining unit 41 determines whether or not the vehicle may collide with the detected obstacle by comparing it with the traveling locus in the process S32, and the determination is Y.
If it is ES, the process proceeds to step S34. If there is no possibility of collision, the process proceeds to step S30 to display the captured image on the monitor and then proceeds to process S21.

【0071】処理S34では、障害物判定部41はブザ
ーを鳴らして警報を発する。処理S35では、障害物マ
ーク部42は、フレームメモリ33または34に記録さ
れている画像を表示部43に表示する。処理S36で
は、障害物マーク部42は、処理S33で衝突の可能性
が有りと判定された物体について、図10に示すように
障害物マークを付けて処理S21に移る。
In the process S34, the obstacle judging section 41 sounds a buzzer to give an alarm. In step S35, the obstacle mark unit 42 displays the image recorded in the frame memory 33 or 34 on the display unit 43. In process S36, the obstacle mark unit 42 adds an obstacle mark to the object determined to have a possibility of collision in process S33 as shown in FIG. 10, and proceeds to process S21.

【0072】なお、障害物のマーク方法は第1の実施例
で説明したと同様な方法で行なわれる。なお、処理S3
5での画像の表示をフレームメモリ34に記録されてい
る画像データで表示を行ない、処理S23で物体エッジ
検出部37が検出した物体エッジ(図17(C))を表
示画像に重畳するようにすれば、障害物のマーク付けを
容易に行なうことができる。
The obstacle marking method is the same as that described in the first embodiment. The process S3
The image in 5 is displayed using the image data recorded in the frame memory 34, and the object edge (FIG. 17C) detected by the object edge detection unit 37 in step S23 is superimposed on the display image. By doing so, marking of obstacles can be easily performed.

【0073】なお、以上説明した実施例では、右側画像
より投影画像を作成して左側画像に重畳したが、左側画
像より投影画像を作成して右側画像に重畳するようにし
てもよい。
In the embodiment described above, the projection image is created from the right side image and superimposed on the left side image, but the projection image may be created from the left side image and superimposed on the right side image.

【0074】[0074]

【発明の効果】以上説明したように、本発明によれば次
の効果が得られる。車両周辺の監視領域を撮像して表示
している画像の車両の走行に障害となる物体に対してマ
ーク付けを行なうようにしたので、直ちに障害物の位置
を認識することができ、安全にかつスムーズに車両の運
転を行なうことができる。
As described above, according to the present invention, the following effects can be obtained. Since the object that interferes with the traveling of the vehicle in the image displayed by imaging the monitoring area around the vehicle is marked, it is possible to immediately recognize the position of the obstacle, safely and The vehicle can be driven smoothly.

【0075】また、投光器より照射するスポットを撮像
して物体位置を算出する方法をとる場合は、帯域フィル
タを除去して撮像した画像を表示するようにしたので、
鮮明な画像が表示されマーク付けされた障害物を容易に
認識することができる。
Further, when the method of calculating the object position by imaging the spot irradiated by the projector, the band-pass filter is removed and the imaged image is displayed.
A clear image is displayed and the marked obstacle can be easily recognized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本構成図である。FIG. 1 is a basic configuration diagram of the present invention.

【図2】本発明の第1の実施例の構成図である。FIG. 2 is a configuration diagram of a first embodiment of the present invention.

【図3】同実施例の動作フローチャートである。FIG. 3 is an operation flowchart of the same embodiment.

【図4】実施例の投光器のファイバグレイティングの説
明図である。
FIG. 4 is an explanatory diagram of fiber grating of the projector of the embodiment.

【図5】実施例の投光器およびカメラの設置例を示す図
である。
FIG. 5 is a diagram showing an installation example of a floodlight and a camera of the embodiment.

【図6】撮像スポットの説明図である。FIG. 6 is an explanatory diagram of imaging spots.

【図7】撮像画像信号の一走査線上の輝度分布を示す図
である。
FIG. 7 is a diagram showing a luminance distribution on one scanning line of a captured image signal.

【図8】撮像画像信号より輝点位置を算出するための説
明図である。
FIG. 8 is an explanatory diagram for calculating a bright spot position from a captured image signal.

【図9】輝点位置より物体位置を算出するための説明図
である。
FIG. 9 is an explanatory diagram for calculating an object position from a bright spot position.

【図10】表示例を示す図である。FIG. 10 is a diagram showing a display example.

【図11】本発明の第2の実施例の構成図である。FIG. 11 is a configuration diagram of a second embodiment of the present invention.

【図12】同実施例の動作フローチャートである。FIG. 12 is an operation flowchart of the embodiment.

【図13】同実施例のレンズ収差補正の説明図である。FIG. 13 is an explanatory diagram of lens aberration correction of the same example.

【図14】同実施例のカメラ俯角補正の説明図である。FIG. 14 is an explanatory diagram of camera depression angle correction of the same embodiment.

【図15】同実施例の3次元位置測定説明図である。FIG. 15 is an explanatory diagram of three-dimensional position measurement of the same example.

【図16】同実施例の路面画像除去の説明図である。FIG. 16 is an explanatory diagram of road surface image removal according to the embodiment.

【図17】同実施例の物体エッジ検出の説明図である。FIG. 17 is an explanatory diagram of object edge detection according to the same embodiment.

【図18】従来の表示例を示す図である。FIG. 18 is a diagram showing a conventional display example.

【符号の説明】[Explanation of symbols]

1 撮像手段 2 表示手段 3 物体位置算出手段 4 障害物判定手段 5 障害物マーク手段 10 投光器 11,31,32 カメラ 10a ファイバグレイティング(FG) 10b レーザ光源 12,33,34 フレームメモリ 13 参照データ記録部 14 輝点抽出部 15 移動輝点抽出部 16,40 物体位置算出部 17,41 障害物判定部 18,42 障害物マーク部 19,43 表示部 20 帯域フィルタ 21 フィルタ挿入除去部 22,44 処理部 23,45 インタフェース(I/O) 24,46 プロセッサ(CPU) 35 歪曲収差補正部 36 路面画像除去部 37 物体エッジ検出部 38,39 メモリ DESCRIPTION OF SYMBOLS 1 Image pickup means 2 Display means 3 Object position calculation means 4 Obstacle determination means 5 Obstacle mark means 10 Projectors 11, 31, 32 Cameras 10a Fiber grating (FG) 10b Laser light source 12, 33, 34 Frame memory 13 Reference data recording Part 14 Bright spot extraction part 15 Moving bright spot extraction part 16,40 Object position calculation part 17,41 Obstacle determination part 18,42 Obstacle mark part 19,43 Display part 20 Bandpass filter 21 Filter insertion removal part 22,44 Processing Part 23, 45 Interface (I / O) 24, 46 Processor (CPU) 35 Distortion aberration corrector 36 Road surface image remover 37 Object edge detector 38, 39 Memory

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 車両周辺の監視領域を撮像する撮像手段
と、 前記撮像手段で撮像された画像を表示する表示手段と、 前記撮像手段で撮像された画像データより物体の位置を
算出する物体位置算出手段と、 前記物体位置算出手段で算出された物体が車両の走行に
障害となるか否かを判定する障害物判定手段と、 前記障害物判定手段で車両の走行に障害となると判定さ
れた場合、前記表示手段で表示されている撮像画像の障
害となる物体にマーク付けを行なう障害物マーク手段
と、を備えたことを特徴とする車両周辺監視装置。
1. An image pickup unit for picking up an image of a surveillance area around a vehicle, a display unit for displaying an image picked up by the image pickup unit, and an object position for calculating a position of an object from image data picked up by the image pickup unit. Calculating means, an obstacle determining means for determining whether or not the object calculated by the object position calculating means interferes with the traveling of the vehicle, and the obstacle determining means for determining with the obstacle for traveling of the vehicle In this case, the vehicle periphery monitoring device is provided with: obstacle marking means for marking an object that obstructs the captured image displayed on the display means.
【請求項2】 前記撮像手段が投光器より照射される複
数のスポットを撮像するものであることを特徴とする請
求項1記載の車両周辺監視装置。
2. The vehicle periphery monitoring device according to claim 1, wherein the image pickup means picks up an image of a plurality of spots illuminated by a light projector.
【請求項3】 前記表示手段で表示する画像に対しては
前記スポットの照射光の波長の光を通過する帯域フィル
タを撮像経路より除去して前記撮像手段で撮像されたも
のであることを特徴とする請求項2記載の車両周辺監視
装置。
3. The image displayed by the display means is imaged by the image pickup means by removing a bandpass filter that passes light having the wavelength of the irradiation light of the spot from the image pickup path. The vehicle periphery monitoring device according to claim 2.
【請求項4】 前記撮像手段が監視領域を左右2台のカ
メラで撮像するものであることを特徴とする請求項1記
載の車両周辺監視装置。
4. The vehicle periphery monitoring device according to claim 1, wherein the image capturing means captures an image of the monitoring area with two left and right cameras.
JP05179094A 1994-03-23 1994-03-23 Vehicle periphery monitoring device Expired - Fee Related JP3570635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05179094A JP3570635B2 (en) 1994-03-23 1994-03-23 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05179094A JP3570635B2 (en) 1994-03-23 1994-03-23 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JPH07264577A true JPH07264577A (en) 1995-10-13
JP3570635B2 JP3570635B2 (en) 2004-09-29

Family

ID=12896744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05179094A Expired - Fee Related JP3570635B2 (en) 1994-03-23 1994-03-23 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP3570635B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998020302A1 (en) * 1996-11-06 1998-05-14 Komatsu Ltd. Device for detecting obstacle on surface of traveling road of traveling object
JP2006311214A (en) * 2005-04-28 2006-11-09 Aisin Seiki Co Ltd Monitoring system for periphery of vehicle
WO2006118076A1 (en) * 2005-04-28 2006-11-09 Aisin Seiki Kabushiki Kaisha System for monitoring periphery of vehicle
JP2006311216A (en) * 2005-04-28 2006-11-09 Aisin Seiki Co Ltd Monitoring system for periphery of vehicle
JP2006311215A (en) * 2005-04-28 2006-11-09 Aisin Seiki Co Ltd Monitoring system for periphery of vehicle
US7800643B2 (en) 2005-06-28 2010-09-21 Fujitsu Limited Image obtaining apparatus
US9658056B2 (en) 2014-04-03 2017-05-23 Canon Kabushiki Kaisha Projection apparatus for measurement system based on exit pupil positions

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019134142A1 (en) * 2018-12-12 2020-06-18 Analog Devices, Inc. BUILT-IN CALIBRATION OF RUN TIME DEPTH IMAGING SYSTEMS

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998020302A1 (en) * 1996-11-06 1998-05-14 Komatsu Ltd. Device for detecting obstacle on surface of traveling road of traveling object
JP2006311214A (en) * 2005-04-28 2006-11-09 Aisin Seiki Co Ltd Monitoring system for periphery of vehicle
WO2006118076A1 (en) * 2005-04-28 2006-11-09 Aisin Seiki Kabushiki Kaisha System for monitoring periphery of vehicle
JP2006311216A (en) * 2005-04-28 2006-11-09 Aisin Seiki Co Ltd Monitoring system for periphery of vehicle
JP2006311215A (en) * 2005-04-28 2006-11-09 Aisin Seiki Co Ltd Monitoring system for periphery of vehicle
JP4730589B2 (en) * 2005-04-28 2011-07-20 アイシン精機株式会社 Vehicle perimeter monitoring system
JP4730588B2 (en) * 2005-04-28 2011-07-20 アイシン精機株式会社 Vehicle perimeter monitoring system
US7800643B2 (en) 2005-06-28 2010-09-21 Fujitsu Limited Image obtaining apparatus
US9658056B2 (en) 2014-04-03 2017-05-23 Canon Kabushiki Kaisha Projection apparatus for measurement system based on exit pupil positions

Also Published As

Publication number Publication date
JP3570635B2 (en) 2004-09-29

Similar Documents

Publication Publication Date Title
JP3156817B2 (en) Vehicle periphery monitoring device
US20200285864A1 (en) Barrier and guardrail detection using a single camera
JP2667924B2 (en) Aircraft docking guidance device
US8089512B2 (en) Driving support device, driving support method and computer program
JP2008158958A (en) Road surface determination method and road surface determination device
JP5160370B2 (en) Autonomous mobile robot device, mobile body steering assist device, autonomous mobile robot device control method, and mobile body steering assist method
JP5106771B2 (en) Road marking measuring device
JP3570635B2 (en) Vehicle periphery monitoring device
JP2560702B2 (en) Lane recognition device on the road
JP5539250B2 (en) Approaching object detection device and approaching object detection method
CN112902958A (en) Mobile robot based on laser visual information obstacle avoidance navigation
JPH08339498A (en) Vehicle periphery monitor device
JPH07250268A (en) Vehicle periphery monitoring device
JPH11139225A (en) Tunnel detector device and vehicle control device using it
JP2007326428A (en) Parking assisting device
JP4936045B2 (en) Vehicle color discrimination device, method and program
JP4397573B2 (en) Image processing device
JPH06325298A (en) Device for monitoring vehicle periphery
JPH07329636A (en) Monitor around vehicle
JPH04193641A (en) Obstacle detection device for vehicle
JPH0687377A (en) Monitor for vehicle periphery
JP4165966B2 (en) Object recognition device
JPH08280006A (en) Vehicle periphery monitoring device
JP3419919B2 (en) Moving object detection device
JP3478432B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Effective date: 20040127

Free format text: JAPANESE INTERMEDIATE CODE: A131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040615

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20040618

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040618

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees