JP3570635B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP3570635B2
JP3570635B2 JP05179094A JP5179094A JP3570635B2 JP 3570635 B2 JP3570635 B2 JP 3570635B2 JP 05179094 A JP05179094 A JP 05179094A JP 5179094 A JP5179094 A JP 5179094A JP 3570635 B2 JP3570635 B2 JP 3570635B2
Authority
JP
Japan
Prior art keywords
image
obstacle
imaging
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05179094A
Other languages
Japanese (ja)
Other versions
JPH07264577A (en
Inventor
直人 石川
一幸 佐々木
一友 藤浪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP05179094A priority Critical patent/JP3570635B2/en
Publication of JPH07264577A publication Critical patent/JPH07264577A/en
Application granted granted Critical
Publication of JP3570635B2 publication Critical patent/JP3570635B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【産業上の利用分野】
本発明は自動車などの車両の周辺を監視して、車両運転におけるドライバの安全確認を支援するのに有効に適用される車両周辺監視装置に関する。
【0002】
【従来の技術】
従来の車両周辺装置は、特願平4−170559号に記載されているように、路面に照射されたスポットの撮像輝点と同一スポットが物体で反射されて撮像された輝点位置の移動量より物体の位置を算出して障害物の存在を検出するようにしていた。
【0003】
すなわち、図5に示すように、車両に取付られた投光器より、図6(A)に示すように多数のスポットを物体が存在しない路面に照射して、その照射スポットをカメラで撮像して記録しておき、図6(B)に示すように、物体が存在する路面を撮像すると、物体に照射されたスポットに対しては、撮像されたスポット位置が変化する。
【0004】
このスポット位置の変化量より物体の位置を算出して図18に示すように表示部に表示している。
また、この他、前記投光器に替えてカメラを設置し、左右2台のカメラで撮像された両画像位置より物体の位置を算出し、物体位置を図18に示すように表示部で表示していた。
【0005】
【発明が解決しようとする課題】
前述したように、従来の車両周辺監視装置は、カメラで撮像したスポットの輝点位置の移動量、または両カメラで撮像した画像位置の差より高さのある物体の位置を算出し、車両の走行に障害となる障害物を表示部でグラフィック図形を用いて表示するようにしていた。
【0006】
このため、表示部での表示は実際の監視領域を撮像した画像とは異なり、安全確認が十分でないためグラフィック図形と撮像画像を切替えて監視するようにしていたが、この場合もグラフィック図形で表示された物体が撮像画像のどれに対応するかを認識するのに長時間を要していた。
【0007】
本発明はモニタに表示されている監視領域を撮像した画像に車両の走行に障害となる物体をマークさせて障害物の位置を直ちに認識できるように改良した車両周辺監視装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
前述した課題を解決するために本発明が採用した手段を図1を参照して説明する。図1は本発明の基本構成図である。
車両周辺の監視領域を撮像する撮像手段(1)と、
前記撮像手段(1)で撮像された画像を表示する表示手段(2)と、
前記撮像手段(1)で撮像された画像データより物体の位置を算出する物体位置算出手段(3)と、
前記物体位置算出手段(3)で算出された物体が車両の走行に障害となるか否かを判定する障害物判定手段(4)と、
前記障害物判定手段(4)で車両の走行に障害となると判定された場合、前記表示手段(2)で表示されている撮像画像の障害となる物体にマークを行なう障害物マーク手段(5)と、
を備える。
【0009】
また、前記撮像手段(1)が投光器より照射される複数のスポットを撮像する。
また、前記表示手段(2)で表示する画像に対しては前記スポットの照射光の波長の光を通過する帯域フィルタを撮像経路より除去して前記撮像手段(1)で撮像する。
【0010】
また、前記撮像手段(1)が監視領域を左右2台のカメラで撮像し、
一方のカメラで撮像した画像が全て路面上に画かれている画像であると仮定して、他方のカメラによる画像に投影した画像を演算し、
前記他方のカメラで撮像した画像から前記投影した画像を除去することにより路面画像を除去した差分画像を求め、
前記他方のカメラで撮像した画像の微分画像と前記差分画像とを重ねてアンドを取って抽出したエッジ部分を利用して、前記物体の位置を算出する。
【0011】
【作用】
撮像手段1は車両の周辺の監視領域を撮像する。
物体位置算出手段3は撮像手段1で撮像された画像データより物体の位置を算出する。
【0012】
障害物判定手段4は物体位置算出手段3で算出された物体が車両の走行に障害となるか否かを判定する。
障害物マーク手段5は、障害物判定手段4で車両の走行に障害と判定された場合、撮像手段1で撮像され表示手段2で表示されている画像の障害となる物体にマーク付けを行なう。
【0013】
また、投光器より照射するスポットを撮像手段1が撮像して物体位置を算出する場合、撮像手段1に設置されている帯域フィルタを撮像経路外に除去して撮像した画像を表示手段2で表示して障害となる物体のマーク付けを行なう。
以上のように、車両周辺の監視領域を撮像して表示している画像の車両の走行に障害となる物体に対してマーク付けを行なうようにしたので、直ちに障害物の位置を認識することができ、安全にかつスムーズに車両の運転を行なうことができる。
【0014】
また、投光器より照射するスポットを撮像して物体位置を算出する方法をとる場合は、帯域フィルタを除去して撮像した画像を表示するようにしたので、鮮明な画像が表示されマーク付けされた障害物を容易に認識することができる。
また、前記撮像手段(1)が監視領域を左右2台のカメラで撮像し、一方のカメラで撮像した画像が全て路面上に画かれている画像であると仮定して、他方のカメラによる画像に投影した画像を演算し、他方のカメラで撮像した画像から投影した画像を除去することにより路面画像を除去した差分画像を求め、他方のカメラで撮像した画像の微分画像と差分画像とを重ねてアンドを取って抽出したエッジ部分を利用して、物体の位置を算出するようにしているので、演算処理を大幅に低減させることができる。
【0015】
【実施例】
本発明の第1の実施例を図2および図3を参照して説明する。図2は本発明の第1の実施例の構成図、図3は同実施例の動作フローチャートである。
図2において、10は投光器、11は撮像カメラ、12はフレームメモリ、13は参照データ記録部、14は輝点抽出部、15は移動輝点抽出部、16は物体位置算出部、17は障害物判定部、18は障害物マーク部、19は表示部、20は帯域フィルタ、21は帯域フィルタ20を撮像経路内外に挿入または除去するフィルタ挿入除去部、22はその他の処理を行なう処理部、23はインタフェース(I/O)、24は全ての処理を実行するプロセッサ(CPU)である。
【0016】
投光器10はレーザ光を発するレーザ光源10bとファイバグレイティング(FG)10aで構成され、車両周辺の監視領域に格子状のレーザ光のスポットを照射する。
FG10aは、図4に示すように、直径が数十μm、長さ10mmの光ファイバを100本程度シート状に並べ、このシートを2枚直交して重ね合わせて構成される。
【0017】
このFG1aにレーザ光源10bより矢印で示すようにレーザ光が入射されると、レーザ光は個の光ファイバの焦点で集光した後、球面波となり干渉しつつ広がって行き、その結果、投影面には格子状のスポットが照射される。
カメラ11は、投光器10で照射されたスポットを撮像し、撮像された画像信号はフレームメモリ12に一時記録される。
【0018】
カメラ11の前面に設置されている帯域フィルタ20は、投光器10のレーザ光源10bが発光する、例えば赤外領域である830nm付近の波長の光を通過させる。
帯域フィルタ20をカメラ11の前面に設置する理由は、投光器10が照射したスポットをカメラ11が撮像する場合、カメラ11にはスポットの他に太陽光や照明光が入射されてスポットがマスクされるようになる。帯域フィルタ20は照射しているスポットの光を通過させ、太陽や照明光を除去してS/Nを改善し、確実にスポットの輝点を抽出できるようにするために設置される。
【0019】
また、投光器10とカメラ11は、図5に示すように、車両の後部に、地面に法線に対して角度θで固定して設置される。
図6は照射されたスポットをカメラ11で撮像された画像を表わしており、図6(A)は路面に物体が無い場合を示しており、また図6(B)は物体が有る場合を示している。
【0020】
投光器10より照射されたスポットが物体に照射されると、カメラ11で撮像された画像のスポット位置が移動する。すなわち、物体が存在しない所では図6(A)の○印で示すスポット位置と図6(B)の●印で示すスポット位置は一致するが、物体にスポットが照射されると○印位置と●印位置が一致しなくなる。
【0021】
車両周辺監視装置は、この○印位置と●印位置の移動量より物体位置を算出する。
参照データ記録部13には、予め、図6(A)で示したように、路面に物体が存在しない場合に撮像したスポットより得られる輝点位置を記録しておく。なお輝点位置は次に説明する輝点抽出部によって行なわれる。
【0022】
輝点抽出部14は、まず、カメラ11で撮像され、フレームメモリ12に記録されている水平方向(V軸)各画素を順次読出し、図7に示すように、背景輝度に基づいて決められるしきい値と比較して、しきい値より低い輝度の場合はその画素の輝度IをOにする。
【0023】
フレームメモリ12に記録されている全ての画素に対して上記処理を実施すると、照射されたスポットを撮像した部分のみが図8に示すように抽出できる。なお図8は、1スポットを代表して示している。
輝点抽出部14は、次に、図8に示すように、輝度値が○で囲まれ画素に対して、各画素の座標位置に輝度Iの重み付けを行なって重心位置を算出し、算出された重心位置を輝点位置として図示しないメモリに記録する。
【0024】
参照データ記録部13には、予め、物体が無い路面上を撮像し、前述した輝点抽出部14で抽出された輝点位置が記録されている。
移動輝点抽出部15は、参照データ記録部13に記録されている輝点位置と、車両の周辺を撮像して得られた位置とを対比し、位置が移動している輝点を図示しないメモリに記録する。すなわち、投光器10より照射したスポットの中で物体に照射されたスポットを撮像して得られた輝点を抽出する。
【0025】
物体位置算出部16は輝点位置より物体の位置を算出する。
図9は物体位置算出部16の物体位置を算出するための説明図であって、図9(A)は、カメラ11のレンズの光軸が路面と交わる点を原点としたX,YおよびZ直交座標で表わしたものであり、図9(B)はYおよびZ軸平面で表わしたものである。
【0026】
また、Lはカメラ11のレンズの焦点距離、Dはレンズの中心と投光器10との距離、θは図5で説明したカメラの設置俯角、Hはレンズの中心の路面上高である。
また点P(x,y,z)は投光器10よりのスポットが物体に照射された点、点P(u,v+δ)は物体に照射されたスポットP(x,y,z)はカメラ11が撮像して得られた輝点、点P(x,y,0)は物体が無い場合の路面を照射したスポット位置、点P(u,v)は点P(x,y,0)を照射して得られる輝点位置を示す。
【0027】
図9(A)より明らかなように、投光器10より照射したスポットが物体に照射された場合は、その輝点位置は、物体が無い、すなわち路面上を照射した時得られた輝点位置よりv軸(水平方向)方向に移動する。また、溝のように、路面より低い地点にスポットが照射された場合は、逆方向に移動する。
【0028】
したがって、点P(x,y,z)は三角測量の原理より、

Figure 0003570635
で表わされ、物体位置算出部16は式(1)によって物体位置x,yおよびzを算出する。
【0029】
つぎに、図3を参照して、第1の実施例の動作を説明する。
処理S1では、処理部22は、フィルタ挿入除去部21に指令して、帯域フィルタ20をカメラ11の前面の撮像経路内に挿入する。
処理S2では、カメラ11は車両周辺の監視領域を撮像し、処理S3で撮像された画像データがフレームメモリ12に記録される。
【0030】
処理S4では、輝点抽出部14は、フレームメモリ12に記録された輝度値より、前述した処理により輝点位置を抽出して図示しないメモリに記録する。
処理S5では、移動輝点抽出部15は、参照データ記録部13に記録されている路面に照射された輝点と、処理S4で抽出した輝点との位置を調べ、位置移動が有った輝点については図示しないメモリに記録する。
【0031】
処理S6では、処理部21は、処理S5で位置移動が有ったとして記録された輝点が有るか無いかを判定し、判定がNOの場合は処理S1に移り、YESの場合は処理S7に移る。
処理S7では、物体位置算出部16は、前述したように、式(1)の演算処理を行って、移動した輝点に対応する物体の3次元位置を算出する。
【0032】
処理S8では、障害物判定部17は、I/O23より車両のハンドル舵角を取込み、車両の車行進路を予測する。
処理S9では、障害物判定部17は、処理S7で算出された物体位置と処理S8で予測された進路予測より衝突の危険が有るか無いかを判定し、判定がNOの場合は処理S1に終り、YESの場合は処理S10に移って図示しないブザー等で警告する。
【0033】
処理S11では、障害物マーク部18はフィルタ挿入除去部21に指令して帯域フィルタ20を撮像経路外に除去させる。
処理S12ではカメラ11は監視領域を撮像してフレームメモリ12に記録する。
【0034】
処理S11で帯域フィルタ20が除去されているので、処理S12で撮像された画像は自然の撮像画像となる。
なお、処理S11で帯域フィルタを除去するのと同時にレーザ光源10bの発光を停止させるようにしても良い。レーザ光源11bの発光を停止すると、処理S12で撮像した画像にはスポットが現われず、より自然な画像となる。
【0035】
処理S13では、障害物マーク部18は、フレームメモリ12に記録されている画像を表示部19に表示する。
処理S14では、障害物マーク部18は、処理S9で衝突の危険有りと判定された物体について、図10に示すように、障害物マークを付ける。
【0036】
障害物マーク付けの方法としては、処理S12でフレームメモリ12に記録した画像データ値を変更したり、記録されている画像データに重畳して行なう。
また、マーク付けには、図10に示すように○印や、これらを連ねた棒状でマークし、またマーク色を障害物の高さで変化させる方法、また、検出された障害物の大きさ・形でマーク付けする等色々な方法が考えられる。
【0037】
図10は、図6(B)で示すスポットが移動した輝点位置に○印の障害物マークを付けるようにした例を示す。
つぎに、本発明の第2の実施例を図11および図12を参照して説明する。図11は本発明の第2の実施例の構成図、図12は同実施例の動作フローチャートである。
【0038】
図11において、31および32は車両の周辺を撮像するカメラ、33および34はカメラ31および32で撮像された画像信号を一時記録するフレームメモリ、35はフレームメモリ33および34に記録されている画像データに対して、それぞれカメラ31および32のレンズの歪曲収差を補正して、それぞれメモリ(右)38およびメモリ(左)39に記録する歪曲収差補正部、36はメモリ38または39に記憶されている画像信号の中の路面画像を除去する路面画像除去部、37は物体のエッジを検出する物体エッジ検出部である。
【0039】
また、40は物体の位置を算出する物体位置算出部、41は障害物判定部、42は障害物マーク部、43は表示部、44はその他の処理を行なう処理部、45はインタフェース(I/O)、46は処理を実行するプロセッサ(CPU)である。
【0040】
まず歪曲収差補正部35について説明する。
カメラ31および32で撮像された画像信号は、カメラ31および32のレンズに歪曲収差が有る場合は、以後説明する路面画像除去部36、物体エッジ検出部37、物体位置算出部40の処理結果に誤差を発生する。
【0041】
すなわち、カメラのレンズに収差が無い場合、格子状の模様を撮像した場合は図13(A)に示すように格子状の画像データがフレームメモリに記録される。しかし、レンズに収差が有る場合は、図13(B)または(C)に示すように歪んだ格子状画像が記録される。
【0042】
収差量は光軸の中心より点Pの距離の3乗に比例して大きくなる。
すなわち、図13(D)に示すように、収差が無い時の点P(x,y)が収差によって点P′(x,y)に結像したものとすると、収差量Dは
D=[(x−x)+(y−y)0.5 ・・・(3)
となり、このDはレンズの中心点より点Pまでの距離の3乗に比例する。すなわち、
[(x−x)+(y−y)0.5 =k[(x −y 0.5 ・・・(4)
ただしkは比例定数
となる。
【0043】
したがって、レンズに収差が存在する場合は、例えば
Figure 0003570635
なる演算を行って歪曲収差を補正する。
【0044】
歪曲収差補正部35は、フレームメモリ33および34に記録されている画素データについて式(5)の演算を行ってレンズ収差の補正を行なって、それぞれ、メモリ38および39に記録する。
また式(5)の演算を行ってフレームメモリの画素の補正を行なった場合、補正後のメモリ38および39にデータぬけが生ずる。このようなデータぬけの画素に対しては隣接する画素のデータを基にして補間を行なう。
【0045】
カメラ31および32は、第1の実施例と同様に、図5に示すように、車両後部に路面よりHなる高さに設置されて、車両後方を撮像する。
そこで、以後の説明を容易にするため、図14に示すように、カメラ設置点での座標をX′,Y′およびZ′で表わし、路面での座標をX,YおよびYで表わすものとする。したがって、カメラの設置俯角θ=90のときは、
X=X′,Y=Y′+H,Z=Z′ ・・・(6)
となる。
【0046】
カメラ31および32のレンズの光軸は、図15に示すように、両光軸ともZ′軸と一致させ、距離Lだけ離れて設置される。
まず、物体位置算出部30での物体位置の算出方法について説明する。
図15において、X′軸は両カメラのレンズの中心点を結ぶ方向にとり、X′軸は路面と平行になるようにカメラ31および32を設置する。
【0047】
Y′軸は、Z′軸とX′軸とに垂直となる軸で、路面に垂直な軸である。
以後の説明を容易にするため、X′,Y′およびZ′軸のO点はカメラ(左)32のレンズの中心にとる。
このように設置されたカメラ31および32によって撮像され、メモリ38および39に記録されている点P(X′,Y′,Z′)の記録を、それぞれP(xLP,yLP)およびP(xRP,yRP)とすると、点Pまでの距離Z′は
′=Lf/(xLP−xRP) ・・・(7)
ただし、Lは両レンズの間隔
fはレンズの焦点距離
で表わされる。
【0048】
したがって、物体位置算出部30は、メモリ39よりxLPを、またメモリ38よりxRPを読取ってZ′を算出する。
また、点P(X′,Y′,Z′)のY′は、図15より、
Figure 0003570635
で表わされる。
【0049】
また、点P(X′,Y′,Z′)のX′は、図15より、
Figure 0003570635
で表わされる。
【0050】
カメラが図5で示すように、垂直方向よりθ下方向に向けられている場合は補正が必要となる。
カメラの俯角がθである場合、図14に示すようになる。
X′,Y′およびZ′座標で表わした点Pの位置X′,Y′およびZ′は路面座標X,YおよびZで表わすと図14で示すようになる。
【0051】
したがって、式(7),(9)および(11)で算出したZ′,Y′およびX′を用いてX,YおよびZ座標で表わした点Pの値をX,YおよびZとすると、
=X′ ・・・(12)
=H−Z′cos θ+Y′sin θ ・・・(13)
=Z′sin θ+Y′cos θ ・・・(14)
となる。
【0052】
また、カメラの左右の撮像角がθの場合は、Y軸を回転軸としてθ回転する補正を行なう。
物体位置算出部30は式(12)〜(14)の演算を行って物体位置を算出する。
【0053】
つぎに路面画像除去部36について説明する。
路面に白線や文字等が描かれている場合、この白線や文字は物体と判定されて距離が算出される。しかし、路面の白線や文字は車両の走行には何んら障害となるものでは無く、このような高さ0の物体は予め除去すれば物体の位置算出処理が簡単となる。
【0054】
路面画像を除去する原理を図16を参照して説明する。
図16(A)はカメラ31で撮像され、メモリ38に記録されている右画像を示す。図16(A)において、30aおよびbは路面上に画かれた白線、また30cは物体(ポール)を示している。
【0055】
そこで、メモリ38に記録されている右画像は全て高さ0、すなわち路面上に画かれている画像だと仮定する。この右画像を左カメラ32が撮像したとして右画像を左画像に投影した画像を演算によって算出する(図16(B))。
このようにして算出した投影画像を左画像(メモリ39)に重畳すると図16(C)のようになる。
【0056】
すなわち、右側カメラ31で撮像された画像を投影した場合、路面上に画かれている白線等の模様は左側カメラ32で撮像された模様と位置、輝度共に一致し、物体が路面より高くなるに従って差が大きくなる。
したがって、図16(D)に示すように、左画像データと投影画像データの差を求めることによって高さのある物体を構成する画素以外の路面を構成する画素の輝度値は0または0に近い値となり、所定しきい値以下を0とすれば、全て0となる。これにより高さのある部分のみが0以外の値として取り出されて路面画像を除去することができる。
【0057】
そこで、次に右画像を全て高さ0とした投影画像の算出方法について説明する。
右画像の点P(xRP,yRP)に対応する投影画像の点をP′(xLP′,yLP′)とする。
【0058】
図7に示すように、カメラ座標のX′軸と路面座標のX軸は平行であり、また、カメラによって撮像する掃査線のx軸(図15のx軸およびx軸)も共に平行であるとすると、同一物体を撮像した場合の撮像画像のyとy値は一致する。
【0059】
したがって、
LP′=yRP ・・・(15)
となる。
また、xLP′は、画像の全てが路面上であるとすれば、式(13)で示すYの値は0となり、
0=H−Z′cos θ+Y′sin θ ・・・(16)
となる。
【0060】
そこで、式(16)のZ′およびY′に式(7)のZ′および式(9)のY′を代入してxLP′を求めると、
LP′=(Lfcos θ−LyRPsin θ)/H+xRP ・・・(17)
となる。
【0061】
路面画像除去部36は式(15)および(17)の演算を行なって投影画像(図16(B))を算出する。
投影画像が作成されると左画像、すなわちメモリ39に記録されているデータとの差を求めて路面画像を除去する(図16(D))。
【0062】
つぎに物体エッジ検出部37について説明する。
図17(A)は、図16(A)で説明したと同様な路面上に画かれた白線30aおよびbと路面上の物体(ポール)30cを左側カメラ32が撮像し、メモリ39に記録されている画像データを示す。
【0063】
メモリ39に記録されているm行n列の画像データの輝度値Im,n を水平方向に掃査し、
Figure 0003570635
ただし、Eはしきい値
なる処理を行なって微分画像を求めると、図17(B)に示すように、物体や路面に画かれている文字等の縦方向エッジ部分が“1”に、その他の部分は“0”となる。
【0064】
このようにして求めた微分画像(図17(B))と、前述した路面画像除去部16で求めた差分画像(図16(D))と重ね合せてアンドを取ると、図17(C)で示す物体のエッジ部分のみが抽出される。
したがって、この抽出された物体のエッジ部分について物体の3次元位置を算出させるようにすることによって、演算処理を大幅に低減させることができる。
【0065】
つぎに、図12を参照して実施例の動作を説明する。
処理S21では、処理部44は、カメラ31および32で撮像した画像データを、それぞれフレームメモリ33および34に記録する。
処理S22では、歪曲収差補正部35は、フレームメモリ33および34に記録されているデータに対して、カメラ31および32のレンズの収差に対応する補正を行なって、それぞれ、メモリ38および39に記録する。
【0066】
処理S23では、物体エッジ検出部37は、メモリ39に記録されている左画像データを水平方向に掃査して、式(18)で示す演算を行なわせて左画像の微分画像(図17(B))を作成して図示しないメモリに記録する。
処理S24では、路面画像除去部36は、メモリ38に記録されている右画像を路面上画像と仮定して左画像に投影した投影画像(図16(B))を作成して図示しないメモリに記録する。
【0067】
処理S25では、路面画像除去部36は、メモリ38に記録されている左画像より処理S24で作成した投影画像データを減算した差分画像(図16(D))を作成して図示しないメモリに記録する。
処理S26では、物体エッジ検出部37は、処理S23で作成した微分画像(図17(B))と処理S25で作成した差分画像(図16(D))より物体のエッジを表わす物体エッジ画像(図17(C))を作成して図示しないメモリに記録する。
【0068】
処理S27では、処理部44は、処理S26で作成した物体エッジ画像データのエッジ部分について、測定すべき物体の左右画像の対応点をメモリ38および39より抽出する。
処理S28では、物体位置算出部30は、処理S27で抽出された点に対応する物体位置を算出する。
【0069】
処理S29では、障害物判定部41は、処理S28の処理結果より障害物が有るか否かを判定し、判定がNOの場合は処理S30に移って、図示しないモニタにフレーメモリ33または34に記録されている画像を表示す。
処理S31では、障害物判定部41は、I/O45を介して舵角信号を読込み、処理S32に移って読込んだ舵角より車両が走行する軌跡を推定する。
【0070】
処理S33では、障害物判定部41は、検出された障害物に対して車両が衝突の可能性が有るか否かを処理S32の走行軌跡と比較して判定し、判定がYESの場合は処理S34に、また、衝突の可能性が無い場合は処理S30に移ってモニタに撮像画像を表示して処理S21に移る。
【0071】
処理S34では、障害物判定部41はブザーを鳴らして警報を発する。
処理S35では、障害物マーク部42は、フレームメモリ33または34に記録されている画像を表示部43に表示する。
処理S36では、障害物マーク部42は、処理S33で衝突の可能性が有りと判定された物体について、図10に示すように障害物マークを付けて処理S21に移る。
【0072】
なお、障害物のマーク方法は第1の実施例で説明したと同様な方法で行なわれる。
なお、処理S35での画像の表示をフレームメモリ34に記録されている画像データで表示を行ない、処理S23で物体エッジ検出部37が検出した物体エッジ(図17(C))を表示画像に重畳するようにすれば、障害物のマーク付けを容易に行なうことができる。
【0073】
なお、以上説明した実施例では、右側画像より投影画像を作成して左側画像に重畳したが、左側画像より投影画像を作成して右側画像に重畳するようにしてもよい。
【0074】
【発明の効果】
以上説明したように、本発明によれば次の効果が得られる。
車両周辺の監視領域を撮像して表示している画像の車両の走行に障害となる物体に対してマーク付けを行なうようにしたので、直ちに障害物の位置を認識することができ、安全にかつスムーズに車両の運転を行なうことができる。
【0075】
また、投光器より照射するスポットを撮像して物体位置を算出する方法をとる場合は、帯域フィルタを除去して撮像した画像を表示するようにしたので、鮮明な画像が表示されマーク付けされた障害物を容易に認識することができる。
【図面の簡単な説明】
【図1】本発明の基本構成図である。
【図2】本発明の第1の実施例の構成図である。
【図3】同実施例の動作フローチャートである。
【図4】実施例の投光器のファイバグレイティングの説明図である。
【図5】実施例の投光器およびカメラの設置例を示す図である。
【図6】撮像スポットの説明図である。
【図7】撮像画像信号の一走査線上の輝度分布を示す図である。
【図8】撮像画像信号より輝点位置を算出するための説明図である。
【図9】輝点位置より物体位置を算出するための説明図である。
【図10】表示例を示す図である。
【図11】本発明の第2の実施例の構成図である。
【図12】同実施例の動作フローチャートである。
【図13】同実施例のレンズ収差補正の説明図である。
【図14】同実施例のカメラ俯角補正の説明図である。
【図15】同実施例の3次元位置測定説明図である。
【図16】同実施例の路面画像除去の説明図である。
【図17】同実施例の物体エッジ検出の説明図である。
【図18】従来の表示例を示す図である。
【符号の説明】
1 撮像手段
2 表示手段
3 物体位置算出手段
4 障害物判定手段
5 障害物マーク手段
10 投光器
11,31,32 カメラ
10a ファイバグレイティング(FG)
10b レーザ光源
12,33,34 フレームメモリ
13 参照データ記録部
14 輝点抽出部
15 移動輝点抽出部
16,40 物体位置算出部
17,41 障害物判定部
18,42 障害物マーク部
19,43 表示部
20 帯域フィルタ
21 フィルタ挿入除去部
22,44 処理部
23,45 インタフェース(I/O)
24,46 プロセッサ(CPU)
35 歪曲収差補正部
36 路面画像除去部
37 物体エッジ検出部
38,39 メモリ[0001]
[Industrial applications]
The present invention relates to a vehicle periphery monitoring device that is effectively applied to monitor the periphery of a vehicle such as an automobile and assist the driver in confirming the safety of driving the vehicle.
[0002]
[Prior art]
As described in Japanese Patent Application No. 4-170559, a conventional vehicle peripheral device moves a bright spot position where the same spot as an imaged bright spot of a spot irradiated on a road surface is reflected by an object and imaged. The position of the object is calculated to detect the presence of the obstacle.
[0003]
In other words, as shown in FIG. 5, a large number of spots are illuminated by a projector mounted on a vehicle onto a road surface where no object exists as shown in FIG. 6A, and the illuminated spots are imaged and recorded by a camera. In addition, as shown in FIG. 6B, when the road surface on which the object exists is imaged, the position of the imaged spot changes with respect to the spot irradiated on the object.
[0004]
The position of the object is calculated from the change amount of the spot position and is displayed on the display unit as shown in FIG.
In addition, a camera is installed in place of the projector, and the position of the object is calculated from both image positions captured by the two left and right cameras, and the object position is displayed on the display unit as shown in FIG. Was.
[0005]
[Problems to be solved by the invention]
As described above, the conventional vehicle periphery monitoring device calculates the movement amount of the bright spot position of the spot captured by the camera or the position of an object having a height higher than the difference between the image positions captured by the two cameras, and calculates the position of the vehicle. Obstacles that hinder driving are displayed on the display unit using graphic figures.
[0006]
For this reason, the display on the display unit is different from the image captured in the actual monitoring area, and the safety is not sufficiently confirmed, so that the monitoring is performed by switching between the graphic figure and the captured image. It took a long time to recognize which of the captured images the object corresponds to.
[0007]
SUMMARY OF THE INVENTION It is an object of the present invention to provide an improved vehicle periphery monitoring device in which an image of a monitoring area displayed on a monitor is marked with an obstacle to travel of the vehicle so that the position of the obstacle can be immediately recognized. And
[0008]
[Means for Solving the Problems]
Means adopted by the present invention to solve the above-described problem will be described with reference to FIG. FIG. 1 is a basic configuration diagram of the present invention.
Imaging means (1) for imaging a monitoring area around the vehicle;
A display unit (2) for displaying an image taken by the imaging unit (1);
An object position calculating means (3) for calculating the position of the object from the image data picked up by the image pickup means (1);
Obstacle determining means (4) for determining whether or not the object calculated by the object position calculating means (3) is an obstacle to running of the vehicle;
Obstacle marking means (5) for marking an obstacle in the captured image displayed on the display means (2) when the obstacle determining means (4) determines that the obstacle is an obstacle to the running of the vehicle. When,
Is provided.
[0009]
Further, the imaging means (1) images a plurality of spots irradiated from the light projector.
Further, for the image displayed by the display means (2), a bandpass filter passing light having the wavelength of the irradiation light of the spot is removed from the imaging path, and the image is imaged by the imaging means (1).
[0010]
Further, the imaging means (1) images the monitoring area with two left and right cameras,
Assuming that the images captured by one camera are all images drawn on the road surface, calculate the image projected on the image by the other camera,
Obtain a difference image by removing the road surface image by removing the projected image from the image captured by the other camera,
The position of the object is calculated by using an edge portion extracted by superimposing a differential image of the image captured by the other camera and the differential image and obtaining an AND.
[0011]
[Action]
The imaging means 1 images a monitoring area around the vehicle.
The object position calculator 3 calculates the position of the object from the image data captured by the imager 1.
[0012]
The obstacle determining means 4 determines whether or not the object calculated by the object position calculating means 3 becomes an obstacle to the running of the vehicle.
When the obstacle determination unit 4 determines that the traveling of the vehicle is an obstacle, the obstacle mark unit 5 marks an obstacle that is an obstacle in the image captured by the imaging unit 1 and displayed on the display unit 2.
[0013]
Further, when the image pickup means 1 picks up an image of a spot irradiated from the light projector and calculates the object position, the bandpass filter installed in the image pickup means 1 is removed outside the image pickup path and the picked up image is displayed on the display means 2. To mark obstacles.
As described above, since an object that is an obstacle to the running of the vehicle in the image displayed by capturing and displaying the monitoring area around the vehicle is marked, the position of the obstacle can be immediately recognized. It is possible to safely and smoothly drive the vehicle.
[0014]
Also, when the method of calculating the object position by imaging the spot irradiated by the projector is adopted, since the band-pass filter is removed and the captured image is displayed, a clear image is displayed and the obstacle marked is marked. An object can be easily recognized.
Further, the image capturing means (1) captures an image of the monitoring area with two cameras on the left and right, and assuming that all images captured by one camera are images drawn on a road surface, the image captured by the other camera is used. Calculate the image projected on the other camera, remove the projected image from the image captured by the other camera to obtain a difference image from which the road surface image is removed, and superimpose the differential image and the difference image of the image captured by the other camera. Since the position of the object is calculated by using the edge portion extracted by extracting the AND, the arithmetic processing can be greatly reduced.
[0015]
【Example】
A first embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a block diagram of the first embodiment of the present invention, and FIG. 3 is an operation flowchart of the first embodiment.
2, reference numeral 10 denotes a projector, 11 denotes an imaging camera, 12 denotes a frame memory, 13 denotes a reference data recording unit, 14 denotes a bright spot extracting unit, 15 denotes a moving bright spot extracting unit, 16 denotes an object position calculating unit, and 17 denotes an obstacle. An object determining unit, 18 is an obstacle mark unit, 19 is a display unit, 20 is a bandpass filter, 21 is a filter insertion / removal unit that inserts or removes the bandpass filter 20 inside or outside the imaging path, 22 is a processing unit that performs other processing, 23 is an interface (I / O), and 24 is a processor (CPU) that executes all processes.
[0016]
The light projector 10 includes a laser light source 10b that emits laser light and a fiber grating (FG) 10a, and irradiates a monitoring area around the vehicle with a grid-like laser light spot.
As shown in FIG. 4, the FG 10a is formed by arranging about 100 optical fibers having a diameter of several tens of μm and a length of 10 mm in a sheet shape, and superposing two such sheets orthogonally.
[0017]
When laser light is incident on the FG 1a from the laser light source 10b as shown by an arrow, the laser light is condensed at the focal point of each optical fiber, and then spreads as a spherical wave while interfering. As a result, the projection surface Is irradiated with a grid-like spot.
The camera 11 captures an image of the spot irradiated by the light projector 10, and the captured image signal is temporarily recorded in the frame memory 12.
[0018]
The bandpass filter 20 installed in front of the camera 11 allows light having a wavelength near 830 nm, which is an infrared region, emitted by the laser light source 10b of the light projector 10 to pass.
The reason why the bandpass filter 20 is installed on the front of the camera 11 is that when the camera 11 captures an image of a spot irradiated by the projector 10, sunlight and illumination light besides the spot are incident on the camera 11 to mask the spot. Become like The bandpass filter 20 is provided to allow the light of the radiating spot to pass therethrough, remove the sun and illumination light, improve the S / N, and reliably extract the bright spot of the spot.
[0019]
Further, as shown in FIG. 5, the light projector 10 and the camera 11 are fixedly mounted on the ground at an angle θ with respect to a normal line on the ground.
FIG. 6 shows an image of the irradiated spot captured by the camera 11, FIG. 6 (A) shows a case where there is no object on the road surface, and FIG. 6 (B) shows a case where there is an object. ing.
[0020]
When the spot irradiated from the light projector 10 is irradiated on the object, the spot position of the image captured by the camera 11 moves. That is, in a place where no object exists, the spot position indicated by a circle in FIG. 6 (A) and the spot position indicated by a circle in FIG. 6 (B) coincide with each other. ● The mark positions do not match.
[0021]
The vehicle periphery monitoring device calculates the object position from the movement amount between the mark position and the mark position.
As shown in FIG. 6A, a bright spot position obtained from an imaged spot when no object exists on the road surface is recorded in the reference data recording unit 13 in advance. The bright spot position is determined by a bright spot extracting unit described below.
[0022]
First, the bright spot extracting unit 14 sequentially reads out each pixel in the horizontal direction (V axis) recorded by the camera 11 and recorded in the frame memory 12, and is determined based on the background luminance as shown in FIG. If the luminance is lower than the threshold value as compared with the threshold value, the luminance I of the pixel is set to O.
[0023]
When the above processing is performed on all the pixels recorded in the frame memory 12, only the portion where the irradiated spot is imaged can be extracted as shown in FIG. FIG. 8 shows one spot as a representative.
Next, as shown in FIG. 8, the bright point extraction unit 14 calculates the center of gravity position by weighting the coordinate position of each pixel with the luminance I for a pixel whose luminance value is enclosed by a circle. The center of gravity position is recorded as a bright spot position in a memory (not shown).
[0024]
The reference data recording unit 13 previously captures an image of a road surface without an object, and records the bright spot positions extracted by the bright spot extracting unit 14 described above.
The moving bright spot extracting unit 15 compares the bright spot position recorded in the reference data recording unit 13 with the position obtained by imaging the periphery of the vehicle, and does not illustrate the bright spot whose position is moving. Record in memory. That is, among the spots illuminated by the light projector 10, the bright spot obtained by imaging the spot illuminated on the object is extracted.
[0025]
The object position calculator 16 calculates the position of the object from the bright spot position.
FIG. 9 is an explanatory diagram for calculating the object position of the object position calculation unit 16. FIG. 9A shows X, Y, and Z with the origin at the point where the optical axis of the lens of the camera 11 intersects the road surface. FIG. 9 (B) is a representation in the Y and Z axis planes.
[0026]
L is the focal length of the lens of the camera 11, D is the distance between the center of the lens and the projector 10, θ is the angle of depression of the camera described with reference to FIG. 5, and H is the height of the center of the lens on the road surface.
Further, a point P (x, y, z) is a point where the spot from the light projector 10 irradiates the object, and a point P (u, v + δ) is the point P (x, y, z) where the object is illuminated by the camera 11. Bright point obtained by imaging, point PA(XA, YA, 0) is the spot position illuminated on the road surface when there is no object, point PA(U, v) is the point PA(XA, YA, 0).
[0027]
As is clear from FIG. 9A, when the spot irradiated from the light projector 10 is irradiated on the object, the bright spot position is determined by the absence of the object, that is, the bright spot position obtained when the object is irradiated on the road surface. Move in the v-axis (horizontal direction) direction. When the spot is irradiated to a point lower than the road surface, such as a groove, the spot moves in the opposite direction.
[0028]
Therefore, the point P (x, y, z) is calculated according to the principle of triangulation.
Figure 0003570635
The object position calculation unit 16 calculates the object positions x, y, and z according to equation (1).
[0029]
Next, the operation of the first embodiment will be described with reference to FIG.
In the process S1, the processing unit 22 instructs the filter insertion / removal unit 21 to insert the bandpass filter 20 into the imaging path on the front surface of the camera 11.
In the process S2, the camera 11 captures an image of the monitoring area around the vehicle, and the image data captured in the process S3 is recorded in the frame memory 12.
[0030]
In the processing S4, the bright spot extracting unit 14 extracts the bright spot position from the luminance value recorded in the frame memory 12 by the above-described processing, and records it in a memory (not shown).
In the processing S5, the moving luminescent spot extracting unit 15 checks the positions of the luminescent spot illuminated on the road surface recorded in the reference data recording unit 13 and the luminescent spot extracted in the processing S4, and there is a position shift. The bright spot is recorded in a memory (not shown).
[0031]
In the process S6, the processing unit 21 determines whether or not there is a bright spot recorded as having the position movement in the process S5. If the determination is NO, the process proceeds to the process S1, and if the determination is YES, the process S7 is performed. Move on to
In the process S7, the object position calculation unit 16 calculates the three-dimensional position of the object corresponding to the moved bright spot by performing the calculation processing of the equation (1) as described above.
[0032]
In the process S8, the obstacle determination unit 17 takes in the steering angle of the vehicle from the I / O 23 and predicts the vehicle traveling path.
In the process S9, the obstacle determination unit 17 determines whether there is a danger of a collision based on the object position calculated in the process S7 and the course prediction predicted in the process S8, and if the determination is NO, the process proceeds to the process S1. If the determination is YES, the process proceeds to step S10 to warn the user with a buzzer or the like (not shown).
[0033]
In the process S11, the obstacle mark unit 18 instructs the filter insertion / removal unit 21 to remove the bandpass filter 20 out of the imaging path.
In step S12, the camera 11 captures an image of the monitoring area and records it in the frame memory 12.
[0034]
Since the bandpass filter 20 has been removed in step S11, the image captured in step S12 is a natural captured image.
The emission of the laser light source 10b may be stopped simultaneously with the removal of the bandpass filter in the processing S11. When the emission of the laser light source 11b is stopped, no spot appears in the image captured in step S12, and the image becomes more natural.
[0035]
In the process S13, the obstacle mark unit 18 displays the image recorded in the frame memory 12 on the display unit 19.
In step S14, the obstacle mark unit 18 attaches an obstacle mark to the object determined to be in danger of collision in step S9, as shown in FIG.
[0036]
As a method of marking an obstacle, the image data value recorded in the frame memory 12 in the process S12 is changed or superimposed on the recorded image data.
In addition, as shown in FIG. 10, a method of changing the mark color by changing the mark color with the height of the obstacle, or the size of the detected obstacle,・ Various methods such as marking with shapes are conceivable.
[0037]
FIG. 10 shows an example in which an obstruction mark indicated by a circle is placed at the bright spot position where the spot shown in FIG. 6B has moved.
Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 11 is a block diagram of a second embodiment of the present invention, and FIG. 12 is an operation flowchart of the second embodiment.
[0038]
In FIG. 11, reference numerals 31 and 32 denote cameras for imaging the periphery of the vehicle, reference numerals 33 and 34 denote frame memories for temporarily recording image signals captured by the cameras 31 and 32, and reference numeral 35 denotes images recorded in the frame memories 33 and 34. The distortion correction unit 36 corrects the distortion of the lenses of the cameras 31 and 32 with respect to the data, and records the corrected data in the memory (right) 38 and the memory (left) 39, respectively. A road surface image removing unit 37 for removing the road surface image from the image signal present is an object edge detecting unit 37 for detecting the edge of the object.
[0039]
Reference numeral 40 denotes an object position calculation unit for calculating the position of the object, 41 denotes an obstacle determination unit, 42 denotes an obstacle mark unit, 43 denotes a display unit, 44 denotes a processing unit that performs other processing, and 45 denotes an interface (I / I / O). O) and 46 are processors (CPU) that execute processing.
[0040]
First, the distortion correction unit 35 will be described.
When the lenses of the cameras 31 and 32 have distortion, the image signals captured by the cameras 31 and 32 include the processing results of the road surface image removing unit 36, the object edge detecting unit 37, and the object position calculating unit 40 described below. Generates an error.
[0041]
That is, when there is no aberration in the camera lens and when a lattice pattern is imaged, lattice image data is recorded in the frame memory as shown in FIG. However, when the lens has an aberration, a distorted lattice image is recorded as shown in FIG. 13B or 13C.
[0042]
The amount of aberration increases in proportion to the cube of the distance of the point P from the center of the optical axis.
That is, as shown in FIG. 13D, the point P (x0, Y0) Is imaged at the point P ′ (x, y) by aberration, the amount of aberration D is
D = [(x0-X)2+ (Y0-Y)2]0.5            ... (3)
Where D is proportional to the cube of the distance from the center point of the lens to the point P. That is,
[(X0-X)2+ (Y0-Y)2]0.5= K [(x0 2-Y0 2)0.5]3... (4)
Where k is a proportional constant
It becomes.
[0043]
Therefore, if there is aberration in the lens, for example,
Figure 0003570635
The following calculation is performed to correct the distortion.
[0044]
The distortion correction unit 35 corrects the lens aberration by performing the operation of Expression (5) on the pixel data recorded in the frame memories 33 and 34, and records the corrected data in the memories 38 and 39, respectively.
Also, when the pixel of the frame memory is corrected by performing the operation of the equation (5), data loss occurs in the corrected memories 38 and 39. For such a pixel without data, interpolation is performed based on the data of the adjacent pixel.
[0045]
Similar to the first embodiment, the cameras 31 and 32 are installed at the rear of the vehicle at a height of H from the road surface, as shown in FIG. 5, and image the rear of the vehicle.
Therefore, in order to facilitate the following description, as shown in FIG. 14, the coordinates at the camera installation point are represented by X ', Y' and Z ', and the coordinates on the road surface are represented by X, Y and Y. I do. Therefore, the camera installation depression angle θS= 90
X = X ', Y = Y' + H, Z = Z '(6)
It becomes.
[0046]
As shown in FIG. 15, the optical axes of the lenses of the cameras 31 and 32 coincide with the Z ′ axis, and are installed at a distance L.
First, a method of calculating an object position in the object position calculation unit 30 will be described.
In FIG. 15, the X 'axis is set in the direction connecting the center points of the lenses of both cameras, and the cameras 31 and 32 are installed so that the X' axis is parallel to the road surface.
[0047]
The Y 'axis is an axis perpendicular to the Z' axis and the X 'axis, and is an axis perpendicular to the road surface.
In order to facilitate the following description, the point O on the X ', Y' and Z 'axes is set at the center of the lens of the camera (left) 32.
The points P (X) which are imaged by the cameras 31 and 32 installed in this way and are recorded in the memories 38 and 39.P', YP', ZP′) Is PL(XLP, YLP) And PR(XRP, YRP), The distance Z to the point PP
ZP'= Lf / (xLP-XRP) (7)
Where L is the distance between both lenses
f is the focal length of the lens
Is represented by
[0048]
Therefore, the object position calculator 30 obtains xLPAnd x from memory 38RPRead ZP'.
Also, the point P (XP', YP', ZP') YP'From FIG.
Figure 0003570635
Is represented by
[0049]
Also, the point P (XP', YP', ZP') XP'From FIG.
Figure 0003570635
Is represented by
[0050]
As shown in FIG.SIf it is directed downward, correction is required.
The angle of depression of the camera is θSIn this case, the result is as shown in FIG.
The position X of the point P represented by X ', Y' and Z 'coordinatesP', YP'And ZP'Is represented by road surface coordinates X, Y and Z as shown in FIG.
[0051]
Therefore, Z calculated by equations (7), (9) and (11)P', YP'And XP′, The value of point P expressed by X, Y and Z coordinatesP, YPAnd ZPThen
XP= XP'... (12)
YP= H-ZP'Cos θS+ YP'Sin θS              ... (13)
ZP= ZP'Sin θS+ YP'Cos θS                  ... (14)
It becomes.
[0052]
Also, when the imaging angles of the left and rightRIn the case of, θRPerform rotation correction.
The object position calculation unit 30 calculates the object position by performing the calculations of Expressions (12) to (14).
[0053]
Next, the road surface image removing unit 36 will be described.
When a white line or a character is drawn on the road surface, the white line or the character is determined as an object, and the distance is calculated. However, white lines and characters on the road surface do not hinder the running of the vehicle at all, and if such an object having a height of 0 is removed in advance, the position calculation processing of the object can be simplified.
[0054]
The principle of removing the road surface image will be described with reference to FIG.
FIG. 16A shows a right image captured by the camera 31 and recorded in the memory 38. In FIG. 16A, 30a and 30b indicate white lines drawn on the road surface, and 30c indicates an object (pole).
[0055]
Therefore, it is assumed that all the right images recorded in the memory 38 have a height of 0, that is, images drawn on a road surface. Assuming that the right image is captured by the left camera 32, an image obtained by projecting the right image on the left image is calculated by calculation (FIG. 16B).
When the projection image thus calculated is superimposed on the left image (memory 39), the result is as shown in FIG.
[0056]
That is, when an image captured by the right camera 31 is projected, a pattern such as a white line drawn on the road surface matches the position and the luminance of the pattern captured by the left camera 32, and as the object becomes higher than the road surface, The difference increases.
Therefore, as shown in FIG. 16D, the luminance value of the pixels constituting the road surface other than the pixels constituting the tall object by calculating the difference between the left image data and the projection image data is 0 or close to 0. If all the values are equal to or smaller than the predetermined threshold value and are set to 0, all the values become 0. Thereby, only a portion having a height is extracted as a value other than 0, and the road surface image can be removed.
[0057]
Therefore, a method of calculating a projected image in which all the right images have a height of 0 will be described.
Point P in the right imageR(XRP, YRP) Is the point of the projected image corresponding to PL′ (XLP', YLP').
[0058]
As shown in FIG. 7, the X 'axis of the camera coordinates and the X axis of the road surface coordinates are parallel, and the x axis of the sweep line imaged by the camera (x in FIG. 15).LAxis and xRAxes are also parallel, y of the captured image when the same object is capturedLAnd yRThe values match.
[0059]
Therefore,
yLP'= YRP                                          ... (15)
It becomes.
Also, xLP′ Is Y given by equation (13) if all of the images are on the road surface.PBecomes 0,
0 = HP-ZP'Cos θS+ YP'Sin θS              ... (16)
It becomes.
[0060]
Therefore, Z in equation (16)P'And YP'To the Z of equation (7)P'And Y in equation (9)P'And substitute xLP
xLP'= (Lfcos θS-LyRPsin θS) / H + xRP    ... (17)
It becomes.
[0061]
The road surface image removing unit 36 calculates the projection images (FIG. 16B) by performing the calculations of the equations (15) and (17).
When the projection image is created, the difference from the left image, that is, the data recorded in the memory 39 is obtained, and the road surface image is removed (FIG. 16D).
[0062]
Next, the object edge detector 37 will be described.
FIG. 17A shows white lines 30 a and 30 b drawn on the road surface and an object (pole) 30 c on the road surface which are similar to those described with reference to FIG. The image data is shown.
[0063]
The luminance value I of the image data of m rows and n columns recorded in the memory 39m, nSweeps horizontally,
Figure 0003570635
Where E0Is the threshold
When the differential image is obtained by performing the following processing, as shown in FIG. 17B, the vertical edge portion of the object or the character drawn on the road surface becomes “1”, and the other portions become “0”. Become.
[0064]
When the differential image (FIG. 17 (B)) obtained in this way and the difference image (FIG. 16 (D)) obtained by the above-described road surface image removing unit 16 are overlapped and ANDed, FIG. 17 (C) Only the edge portions of the object indicated by are extracted.
Therefore, by calculating the three-dimensional position of the object with respect to the extracted edge portion of the object, the arithmetic processing can be significantly reduced.
[0065]
Next, the operation of the embodiment will be described with reference to FIG.
In the process S21, the processing unit 44 records the image data captured by the cameras 31 and 32 in the frame memories 33 and 34, respectively.
In the process S22, the distortion correction unit 35 corrects the data recorded in the frame memories 33 and 34 in accordance with the aberrations of the lenses of the cameras 31 and 32, and records the data in the memories 38 and 39, respectively. I do.
[0066]
In the process S23, the object edge detecting section 37 sweeps the left image data recorded in the memory 39 in the horizontal direction, performs the operation represented by Expression (18), and differentiates the left image (see FIG. B)) is created and recorded in a memory (not shown).
In the process S24, the road surface image removing unit 36 creates a projection image (FIG. 16B) projected on the left image assuming that the right image recorded in the memory 38 is an image on the road surface and stores it in a memory (not shown). Record.
[0067]
In the process S25, the road surface image removing unit 36 creates a difference image (FIG. 16D) obtained by subtracting the projection image data created in the process S24 from the left image recorded in the memory 38, and records the difference image in a memory (not shown). I do.
In the process S26, the object edge detecting unit 37 uses the differential image (FIG. 17B) created in the process S23 and the difference image (FIG. 16D) created in the process S25 to create an object edge image (FIG. 16D) representing an object edge. 17 (C) is created and recorded in a memory (not shown).
[0068]
In step S27, the processing unit 44 extracts corresponding points of the left and right images of the object to be measured from the memories 38 and 39 for the edge portion of the object edge image data created in step S26.
In step S28, the object position calculator 30 calculates an object position corresponding to the point extracted in step S27.
[0069]
In the process S29, the obstacle determination unit 41 determines whether or not there is an obstacle based on the processing result of the process S28. If the determination is NO, the process proceeds to the process S30, and the monitor (not shown) stores the information in the frame memory 33 or 34. Display the recorded image.
In the process S31, the obstacle determination unit 41 reads the steering angle signal via the I / O 45, and proceeds to the process S32 to estimate the trajectory on which the vehicle travels based on the read steering angle.
[0070]
In the process S33, the obstacle determination unit 41 determines whether or not there is a possibility that the vehicle will collide with the detected obstacle by comparing with the traveling locus in the process S32. In S34, when there is no possibility of collision, the process proceeds to S30, where the captured image is displayed on the monitor, and the process proceeds to S21.
[0071]
In the process S34, the obstacle determining unit 41 sounds a buzzer and issues an alarm.
In the process S35, the obstacle mark unit 42 displays an image recorded in the frame memory 33 or 34 on the display unit 43.
In the process S36, the obstacle mark unit 42 attaches an obstacle mark to the object determined to have a possibility of collision in the process S33 as shown in FIG. 10 and proceeds to the process S21.
[0072]
The method of marking an obstacle is performed in the same manner as described in the first embodiment.
The display of the image in the process S35 is performed using the image data recorded in the frame memory 34, and the object edge (FIG. 17C) detected by the object edge detection unit 37 in the process S23 is superimposed on the display image. By doing so, it is possible to easily mark an obstacle.
[0073]
In the embodiment described above, a projection image is created from the right image and is superimposed on the left image. However, a projection image may be created from the left image and superimposed on the right image.
[0074]
【The invention's effect】
As described above, according to the present invention, the following effects can be obtained.
Since an image of the monitoring area around the vehicle is displayed and marked with an object that is an obstacle to the traveling of the vehicle, the position of the obstacle can be immediately recognized, and the safe and secure operation can be performed. The vehicle can be operated smoothly.
[0075]
Also, when the method of calculating the object position by imaging the spot irradiated by the projector is adopted, since the band-pass filter is removed and the captured image is displayed, a clear image is displayed and the obstacle marked is marked. An object can be easily recognized.
[Brief description of the drawings]
FIG. 1 is a basic configuration diagram of the present invention.
FIG. 2 is a configuration diagram of a first embodiment of the present invention.
FIG. 3 is an operation flowchart of the embodiment.
FIG. 4 is an explanatory diagram of fiber grating of the projector according to the embodiment.
FIG. 5 is a diagram illustrating an example of installation of a projector and a camera according to the embodiment.
FIG. 6 is an explanatory diagram of an imaging spot.
FIG. 7 is a diagram illustrating a luminance distribution on one scanning line of a captured image signal.
FIG. 8 is an explanatory diagram for calculating a bright spot position from a captured image signal.
FIG. 9 is an explanatory diagram for calculating an object position from a bright spot position.
FIG. 10 is a diagram showing a display example.
FIG. 11 is a configuration diagram of a second embodiment of the present invention.
FIG. 12 is an operation flowchart of the embodiment.
FIG. 13 is an explanatory diagram of lens aberration correction of the same embodiment.
FIG. 14 is an explanatory diagram of camera depression angle correction of the embodiment.
FIG. 15 is an explanatory diagram of three-dimensional position measurement according to the same embodiment.
FIG. 16 is an explanatory diagram of road surface image removal of the embodiment.
FIG. 17 is an explanatory diagram of object edge detection of the embodiment.
FIG. 18 is a diagram showing a conventional display example.
[Explanation of symbols]
1 imaging means
2 Display means
3 Object position calculation means
4 Obstacle judgment means
5 Obstacle mark means
10 Floodlight
11,31,32 camera
10a Fiber grating (FG)
10b laser light source
12, 33, 34 frame memory
13 Reference data recording unit
14 Bright spot extractor
15 Moving bright spot extractor
16,40 Object position calculation unit
17, 41 Obstacle judgment unit
18,42 Obstacle mark part
19, 43 display unit
20 band filter
21 Filter insertion and removal unit
22, 44 processing unit
23, 45 interface (I / O)
24, 46 processor (CPU)
35 Distortion aberration corrector
36 Road surface image remover
37 Object edge detector
38,39 memory

Claims (2)

車両周辺の監視領域を撮像する撮像手段と、
前記撮像手段で撮像された画像を表示する表示手段と、
前記撮像手段で撮像された画像データより物体の位置を算出する物体位置算出手段と、
前記物体位置算出手段で算出された物体が車両の走行に障害となるか否かを判定する障害物判定手段と、
前記障害物判定手段で車両の走行に障害となると判定された場合、前記表示手段で表示されている撮像画像の障害となる物体にマーク付けを行なう障害物マーク手段とを備え
前記撮像手段が投光器より照射される複数のスポットを撮像するものであり、 前記表示手段で表示する画像に対しては前記スポットの照射光の波長の光を通過する帯域フィルタを撮像経路より除去して前記撮像手段で撮像されたものである
ことを特徴とする車両周辺監視装置。
Imaging means for imaging a monitoring area around the vehicle;
Display means for displaying an image taken by the imaging means;
Object position calculation means for calculating the position of the object from the image data imaged by the imaging means,
Obstacle determining means for determining whether the object calculated by the object position calculating means is an obstacle to running of the vehicle,
When it is determined that the obstacle is determined to be an obstacle to the running of the vehicle by the obstacle determining means, the obstacle determining means for marking an obstacle to the captured image displayed on the display means ,
The imaging means is for imaging a plurality of spots radiated from a projector, and for an image displayed by the display means, a bandpass filter passing light having a wavelength of irradiation light of the spot is removed from an imaging path. A vehicle periphery monitoring device characterized by being imaged by the imaging means .
車両周辺の監視領域を撮像する撮像手段と、
前記撮像手段で撮像された画像を表示する表示手段と、
前記撮像手段で撮像された画像データより物体の位置を算出する物体位置算出手段と、
前記物体位置算出手段で算出された物体が車両の走行に障害となるか否かを判定する障害物判定手段と、
前記障害物判定手段で車両の走行に障害となると判定された場合、前記表示手段で表示されている撮像画像の障害となる物体にマーク付けを行なう障害物マーク手段とを備え
前記撮像手段が監視領域を左右2台のカメラで撮像するものであり、
一方のカメラで撮像した画像が全て路面上に画かれている画像であると仮定して、他方のカメラによる画像に投影した画像を演算し、
前記他方のカメラで撮像した画像から前記投影した画像を除去することにより路面画像を除去した差分画像を求め、
前記他方のカメラで撮像した画像の微分画像と前記差分画像とを重ねてアンドを取って抽出したエッジ部分を利用して、前記物体の位置を算出する、
ことを特徴とする車両周辺監視装置。
Imaging means for imaging a monitoring area around the vehicle;
Display means for displaying an image taken by the imaging means;
Object position calculation means for calculating the position of the object from the image data imaged by the imaging means,
Obstacle determining means for determining whether the object calculated by the object position calculating means is an obstacle to running of the vehicle,
When it is determined that the obstacle is determined to be an obstacle to the running of the vehicle by the obstacle determining means, the obstacle determining means for marking an obstacle to the captured image displayed on the display means ,
The imaging means captures an image of the monitoring area with two cameras on the left and right,
Assuming that the images captured by one camera are all images drawn on the road surface, calculate the image projected on the image by the other camera,
Obtain a difference image by removing the road surface image by removing the projected image from the image captured by the other camera,
The differential image of the image captured by the other camera and the difference image are overlapped with each other, and an AND is used to calculate the position of the object using an extracted edge portion.
A vehicle periphery monitoring device, characterized in that:
JP05179094A 1994-03-23 1994-03-23 Vehicle periphery monitoring device Expired - Fee Related JP3570635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05179094A JP3570635B2 (en) 1994-03-23 1994-03-23 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05179094A JP3570635B2 (en) 1994-03-23 1994-03-23 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JPH07264577A JPH07264577A (en) 1995-10-13
JP3570635B2 true JP3570635B2 (en) 2004-09-29

Family

ID=12896744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05179094A Expired - Fee Related JP3570635B2 (en) 1994-03-23 1994-03-23 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP3570635B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230055829A1 (en) * 2018-12-12 2023-02-23 Analog Devices, Inc. Built-in calibration of time-of-flight depth imaging systems

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10141954A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Device for detecting obstruction on track for moving body
JP4730589B2 (en) * 2005-04-28 2011-07-20 アイシン精機株式会社 Vehicle perimeter monitoring system
JP4849298B2 (en) * 2005-04-28 2012-01-11 アイシン精機株式会社 Vehicle perimeter monitoring system
JP4730588B2 (en) * 2005-04-28 2011-07-20 アイシン精機株式会社 Vehicle perimeter monitoring system
EP1876829A4 (en) * 2005-04-28 2010-06-09 Aisin Seiki Vehicle vicinity monitoring system
JP4644540B2 (en) 2005-06-28 2011-03-02 富士通株式会社 Imaging device
JP6376809B2 (en) 2014-04-03 2018-08-22 キヤノン株式会社 Projection device and imaging device used in three-dimensional shape measurement system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230055829A1 (en) * 2018-12-12 2023-02-23 Analog Devices, Inc. Built-in calibration of time-of-flight depth imaging systems
US11961257B2 (en) * 2018-12-12 2024-04-16 Analog Devices, Inc. Built-in calibration of time-of-flight depth imaging systems

Also Published As

Publication number Publication date
JPH07264577A (en) 1995-10-13

Similar Documents

Publication Publication Date Title
JP3156817B2 (en) Vehicle periphery monitoring device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP5083841B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
EP2958054B1 (en) Hazard detection in a scene with moving shadows
JPH10285582A (en) Vehicle outside monitoring device
JP4893212B2 (en) Perimeter monitoring device
JP5106771B2 (en) Road marking measuring device
CN112036210A (en) Method and device for detecting obstacle, storage medium and mobile robot
JP2006268076A (en) Driving assistance system
JP3570635B2 (en) Vehicle periphery monitoring device
CN110717445A (en) Front vehicle distance tracking system and method for automatic driving
JP3328711B2 (en) Vehicle height measuring device and vehicle monitoring system using the same
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2013129278A (en) Image display device, calibration method of imaging camera in image display device, and calibration program
JPH08339498A (en) Vehicle periphery monitor device
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP2007326428A (en) Parking assisting device
JPH07250268A (en) Vehicle periphery monitoring device
JP2013146032A (en) Driver monitor system and processing method thereof
JP4397573B2 (en) Image processing device
JP4936045B2 (en) Vehicle color discrimination device, method and program
JPH07329636A (en) Monitor around vehicle
JP3260503B2 (en) Runway recognition device and runway recognition method
CN107330877B (en) Method and system for adjusting offset of optical fiber display area
JP3503840B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040615

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20040618

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees