JP4209105B2 - Vehicle periphery visual recognition device - Google Patents

Vehicle periphery visual recognition device Download PDF

Info

Publication number
JP4209105B2
JP4209105B2 JP2001376148A JP2001376148A JP4209105B2 JP 4209105 B2 JP4209105 B2 JP 4209105B2 JP 2001376148 A JP2001376148 A JP 2001376148A JP 2001376148 A JP2001376148 A JP 2001376148A JP 4209105 B2 JP4209105 B2 JP 4209105B2
Authority
JP
Japan
Prior art keywords
image
road
road area
reference position
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001376148A
Other languages
Japanese (ja)
Other versions
JP2003179915A (en
Inventor
恭一 阿部
高広 前村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2001376148A priority Critical patent/JP4209105B2/en
Publication of JP2003179915A publication Critical patent/JP2003179915A/en
Application granted granted Critical
Publication of JP4209105B2 publication Critical patent/JP4209105B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、車両の左右方向の視界を撮像して運転者に呈示する車両周辺視認装置に関するものである。
【0002】
【関連する背景技術】
例えば、見通しの悪い交差点等では、運転者は安全確認のために交差する道路に自車のフロント部を迫り出すことから、交通を妨げてしまう等の不具合が生じる。この対策として、例えば特許第3033389号では、車両のフロント部に左右に向けて一対のCCDカメラを設置し、これらのCCDカメラで撮像した左右の視界をディスプレイで運転者に呈示するようにした技術が提案されている。又、特開2000−71875号には、ミラーを介して左右の視界を単一のCCDカメラにより撮像するようにした技術が提案されている。
【0003】
そして、何れの周辺視認装置でも、交差する道路に対して自車が斜めに停車した場合を想定して、道路の角度に応じてCCDカメラの角度を水平方向に変更する機構を備えており、これにより自車が斜めに停車したときにも、左右の道路状況を表す適切な画像が得られるように配慮している。
【0004】
【発明が解決しようとする課題】
しかしながら、上記した何れの車両周辺視認装置でも、具体的なカメラ角度の制御内容についての提案はなされていない。安全確認時の運転者は、ディスプレイ上に表示された画像に基づいて道路状況を把握することから、実際の道路状況に則した把握し易い画像を表示する必要があり、特に上記のように自車が斜めに停車した場合には、カメラ角度を不適切に変更すると、現実と全く異なる左右画像が表示されて運転者の参考にならない。
【0005】
しかも、上記した車両周辺視認装置は、カメラ角度を変更するための機構を必要とすることから、これによる種々の弊害、例えば部品点数の増加に伴って重量増しや製造コストの高騰を生じたり、或いは可動部分の故障によって信頼性を低下させたりする等の弊害を引き起こすという別の問題もある。
本発明はこのような問題点を解決するためになされたもので、その目的とするところは、カメラ角度を変更する機構を廃して、これによる弊害を未然に防止した上で、道路状況を表す適切な画像を自動的に表示して、運転者に道路状況を極めて容易且つ迅速に確認させることができる車両周辺視認装置を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するため、請求項1の発明は、車両の車幅方向の視界を撮像するように配置され、交差する道路の状況を表す道路領域に対して水平方向に余裕をもった広い画角が設定された撮像手段と、撮像手段にて撮像された画像から道路領域に対して所定の位置関係を有する基準位置を特定する基準位置特定手段と、基準位置特定手段にて特定された基準位置に基づいて、撮像画像から道路領域の画像を抽出する道路領域抽出手段と、道路領域抽出手段にて抽出された道路領域の画像を拡大して表示する画像表示手段と、道路領域抽出手段にて抽出された道路領域が撮像画像から食み出しているときに、撮像画像とのずれ量が所定の閾値未満か否かを判定するずれ量判定手段と、ずれ量判定手段によりずれ量が閾値未満と判定されたときに、道路領域を移動させて撮像画像内に納める道路領域補正手段と、ずれ量判定手段によりずれ量が閾値以上と判定されたときに、運転者に警告を発する警告手段とを備えたものである。
【0007】
従って、車両の車幅方向の視界が撮像手段により撮像され、その撮像画像から道路領域に対して所定の位置関係を有する基準位置が基準位置特定手段により特定され、特定された基準位置に基づき、道路領域抽出手段により撮像画像から道路領域の画像が抽出されて、画像表示手段により拡大表示される。
そして、このように撮像画像から道路領域を抽出して拡大表示するようにしたため、撮像手段の画角は、運転者が道路状況を確認するための画角より広く設定可能、換言すれば、交差する道路の状況を表す道路領域に対して水平方向に余裕をもった広い画角に設定可能となり、交差する道路に対して自車が斜めに停車した場合でも、撮像画像内に交差する道路領域が捉えられ、結果として、カメラ角度を変更する機構を廃した上で、交差する道路状況を表す適切な画像を表示可能となる。従って、例えば、変形T字路における交差する道路、或いは交差点で右折するときの対向車線等も撮像可能となり、その撮像画像から交差する道路や対向車線を道路領域として抽出して、運転者の確認に役立てることが可能となる。
また、抽出された道路領域の画像が撮像画像から食み出しているときには、そのずれ量がずれ量判定手段により判定され、ずれ量が所定の閾値未満のときには、道路領域の画像が移動されて撮像画像内に納められる。従って、このような場合でも、道路領域を運転者の確認に役立てることが可能となる。また、ずれ量が閾値以上のときには、警告手段により運転者に警告が発せられるため、目視による安全確認が促される。
【0008】
請求項2の発明は、基準位置特定手段が、撮像画像から複数の直線成分を抽出すると共に、抽出した直線成分が交差する消失点を基準位置として特定し、道路領域抽出手段が、消失点を中心とした少なくとも下方、左方及び右方の所定範囲を道路領域の画像として撮像画像から抽出するものである。
道路領域を構成するセンタラインや路側等の平行な複数の直線成分が画像上では一点に交わり、この集中するポイントである消失点の位置と道路領域との間には一定の相関関係が成立し、消失点より若干下方に道路領域が位置する。従って、この消失点を基準位置と見なし、消失点を中心とした少なくとも下方、左方及び右方の所定範囲を上記道路領域の画像として上記撮像画像から抽出すれば、自ずと適切な道路領域を表示可能となる。
【0010】
請求項の発明では、撮像手段が、車両の左方及び右方の視界をそれぞれ撮像し、左右の撮像画像に基づいて、基準位置特定手段による基準位置の特定、道路領域抽出手段による道路領域の抽出、画像表示手段による画像の拡大表示が個別に行われるものである。従って、左方及び右方の視界について各処理を個別に行うため、例えば左右の道路状況が全く異なる場合であっても、適切な道路領域をそれぞれ抽出して拡大表示可能となる。
【0011】
【発明の実施の形態】
以下、本発明を具体化した車両周辺視認装置の一実施形態を説明する。
図1は本実施形態の車両周辺視認装置を示す全体構成図である。車両周辺視認装置の全体的な制御を実行するECU(電子コントロールユニット)1は車室内に設置されており、図示しない入出力装置、記憶装置(ROM、RAM等)、中央処理装置(CPU)、タイマカウンタ等を備えている。ECU1の入力側には、車両周辺視認装置の電源スイッチ2、及び一対のCCDカメラ3a,3b(撮像手段)等のセンサ・スイッチ類が接続され、ECU1の出力側には、車両のインストルメントパネル上に設置された液晶ディスプレイ4(画像表示手段)及びスピーカ5等のデバイス類が接続されている。
【0012】
上記CCDカメラ3a,3bは、車両の左右のフロントフェンダーに内蔵され、車両の左方及び右方の視界をそれぞれ撮像するようになっている。本実施形態のCCDカメラ3a,3bは受光部分に広角レンズが備えられており、その画角は、例えば上記従来技術に適用されたCCDカメラの画角に比較して大幅に拡大されている。
【0013】
以下、CCDカメラ3a,3bの画角の設定状態を説明すると、図2はCCDカメラの画角と、後述のように撮像画像から抽出された道路領域の画角とを比較した説明図である。この種の周辺視認装置は、CCDカメラ3a,3bによる撮像画像をディスプレイ4上に表示するものであるが、運転者が交差する道路の状況(例えば、道路上の走行車両の有無等)をディスプレイ14上で把握するには、該当する領域(以下、道路領域という)をある程度の大きさで表示する必要がある。このため、従来技術ではCCDカメラの画角を例えば30°程度に設定しており、この画角は、後述する抽出画像の画角βと同程度でかなり狭いため、交差する道路に対して自車が僅かに斜めに停車しただけで、画角内から交差する道路領域が外れてしまう。言うまでもないが、従来技術がカメラ角度を変更する機構を備えているのは、このような場合を想定したものである。
【0014】
これに対して本実施形態では、CCDカメラ3a,3bの画角が格段に広いα、例えば90°程度に設定されている。従って、図2に示す変形T字路等で自車が斜めに停車した場合でも、カメラ角度を変更することなく、画角中に交差する道路領域が捉えられる。そして、本実施形態では、このようにしてCCDカメラ3a,3bにより撮像された画像から交差する道路領域を抽出してディスプレイ4上に拡大表示しており、以下、当該処理の詳細を説明する。
【0015】
ここで、図3は右側のCCDカメラによる撮像画像を示す説明図、図4は撮像画像から抽出された道路領域の画像を示す説明図である。これらの図に示すように、自車の右方の撮像画像E1中において、交差する道路のセンタラインL1や路側L2等の平行な複数の直線(つまり、後述する直線成分y)は画像中の一点で交わる特性を有する。以下、このポイントを消失点VPと称するが、この消失点VPの位置と確認を要する道路上の走行車両等の位置(つまり、道路領域E2)との間には一定の相関関係が成立し、常に消失点VPより若干下方に走行車両等が位置することが判明している。
【0016】
自車がT字路や交差点に至って、運転者により電源スイッチ2が投入されると、ECU1は図5に示す画像抽出・表示ルーチンを所定の制御インターバルで実行する。尚、当該処理は、右側のCCDカメラ3aと左側のCCDカメラ3bの撮像画像E1について個別に行われ、その内容は全く同様であるため、以降では右側の処理についてのみ説明する。まず、ステップS2で右側のCCDカメラ3aの撮像画像E1を取り込み、ステップS4で撮像画像E1から輝度変化が所定の閾値以上のポイント(以下、輝度変化点という)を複数抽出する。続くステップS6で、抽出した各輝度変化点に基づいて2本以上の直線成分y=Aix+Biと重みwiとをHough変換により求める。直線成分yは画像中のセンタラインL1や路側L2等であり、重みwiは直線としての信憑性を表すことになる。このHough変換は画像中の直線成分yを特定するための周知の手法であるが、以下に、図6に従って概略的な手順を説明する。
【0017】
図6は画像上でHough変換により直線成分yを抽出するときの原理を表す説明図であり、この図では画像をx−y平面として表し、破線で示す直線成分y上において3点の輝度変化点Pが抽出されている(図の上段)。まず、これらの輝度変化点Pに対してHough変換を適用する。即ち、各輝度変化点Pを通過する全ての角度の直線(図中に1本例示)を想定し、各直線について原点(0,0)からの直交距離ρ及び角度θを算出し、得られた直交距離ρ及び角度θを各輝度変化点毎にまとめて、各輝度変化点Pをρ−θ平面上の曲線として表す(図の中段)。
【0018】
次いで、このρ−θ平面をρとθで特定される多数のセルに区画し、各セル内に位置する上記曲線の数を投票して、投票度数分布を求める(図の下段)。その後、投票度数分布から極大点(ρ,θ)を割り出し、この極大点(ρ,θ)に対して上記Hough変換と逆の手順(逆Hough変換)を適用すると、図の上段に破線で示す直線成分yが特定されると共に、このときの投票数が重みwiとされる。尚、図では、投票数3を得た座標(3,7)が極大点として求められている。
【0019】
つまり、求めた極大点(ρ,θ)とは、図の中段において各曲線が交わる座標を表し、この座標は、図の上段において各輝度変化点Pを通過する傾き及び切片が等しい共通の直線成分(即ち、破線の直線成分y)を表す。よって、この極大値(ρ,θ)を逆Hough変換すれば、各輝度変化点Pを生じる要因となった直線成分yを求めることができる。そして、多数の輝度変化点Pに基づいて特定された直線成分y(換言すれば、画像としてのコントラストが明瞭な直線成分)ほど、大きな投票数に基づいて重みwiが大きな値に設定される。
【0020】
このようにして2本以上の直線成分y及び重みwiを特定した後、ECU11はステップS8に移行する。ステップS8では2本の直線成分yの交点pi(xi,yi)及び各交点piの重みwpiを求める。上記ステップS6では2本以上の直線成分yが特定されているため、これらの直線成分yの全ての組み合わせについて交点piが求められる一方、各交点piの基になった2直線yの重みwiを加算や乗算することで、相関する値として重みwpiが求められる。
【0021】
前記ステップS6で求められた直線成分yにはノイズ的なものが含まれることがあるが、このような直線成分yは重みwiが小であり、その直線成分yに基づく交点piの重みwpiも必然的に小となる。図7は図3に示した画像に基づく交点piの特定状況を示す説明図であり、同図では3本の直線成分yが抽出されて、各直線成分yから3つの交点piが特定された場合を示している。
【0022】
続くステップS10では、各交点pi及び重みwpiに基づいて重心位置を求め、この重心位置を消失点VPとして定める(基準位置特定手段)。図8は図7に示した交点piに基づく消失点VPの特定状況を示す説明図であり、3つの交点piから消失点VPが特定されている。尚、各交点piの位置のみならず重みwpiも考慮されるため、例えば、重みwpiが大の交点piが他の交点piから離間した位置に存在すれば、必然的に消失点VPは重みwpiが大の交点piに接近することになる。
【0023】
続くステップS12ではCCDカメラ3aの撮像画像E1内から交差する道路領域E2を抽出可能か否かを判定する。抽出すべき道路領域E2は、図8に示すように予め消失点VPを基準として設定されている。即ち、図3に基づいて述べたように、交差する道路上の走行車両等は、常に消失点VPより若干下方に位置するため、道路領域E2内に走行車両等(乗用車、トラック等の種別に関わらず)が確実に捉えられるように、例えば図8に示す如く、消失点VPを中心として、左方及び右方にそれぞれL1、上方にL2、下方にL3(>L2)の範囲を道路領域E2として設定する。尚、実際のL1〜L3は画素数として設定され、抽出処理も画素数に基づいて実施される。
【0024】
上記ステップS12の判定がYES(肯定)のときには、ステップS14に移行して撮像画像E1内から道路領域E2を抽出し(道路領域抽出手段)、続くステップS16で抽出した道路領域E2をディスプレイ4上に表示し(画像表示手段)、ルーチンを終了する。ECU1は以上の処理を繰り返し、その度に新たな撮像画像E1に基づいて道路領域E2が順次抽出されるため、ディスプレイ4上では、交差する道路状況がリアルタイムで擬似的な動画として表示される。
【0025】
結果として、図2に示す右側CCDカメラ3aの画角αで撮像された画像E1から、βに相当する画角で道路領域E2が抽出されることになり(左側も同様)、図3に示す撮像画像E1に比較して、道路領域E2は図4に示すように拡大表示されて、運転者が交差する道路状況を容易に把握可能となる。
一方、図9は撮像画像から道路領域が食み出し、且つ、そのずれ量が小の場合を示す説明図である。上記ステップS12の判定がNO(否定)のとき、つまり、消失点VPを基準とした正規位置に道路領域E2を設定すると、図中にハッチング枠で示すように撮像画像E1内から食み出すときには、ステップS18に移行する。ステップS18では、撮像画像E1に対する道路領域E2のずれ量が大であるか否かを判定する(ずれ量判定手段)。例えば、道路領域E2の位置は消失点VPの位置と相関するため、撮像画像E1に対する消失点VPの距離Lvpを算出して、その距離Lvpが所定の閾値未満のときには、ステップS18でNOの判定を下してステップS20に移行する。
【0026】
ステップS20では道路領域E2の補正処理を行い、道路領域E2を正規位置から最短距離で移動させて、2点鎖線で示すように撮像画像E1内に納める(道路領域補正手段)。その後は、上記ステップS14で補正後の道路領域E2を抽出し、ステップS16でディスプレイ4上に拡大表示して、ルーチンを終了する。
撮像画像E1に対する道路領域E2のずれ量が小のときには、補正時の道路領域E2の移動距離が短くなるため、補正後においても消失点VPの下方に位置する走行車両等が道路領域E2内に捉えられ、運転者の道路状況の把握に役立てることが可能となる。
【0027】
一方、上記ステップS18の判定がYESのとき、つまり道路領域E2のずれ量が大であり、上記補正を実施しても肝心の走行車両等を道路領域E2内に捉えられないと推測される場合には、ステップS22に移行してディスプレイ4やスピーカ5により運転者に警告を発する(警告手段)。この警告により運転者は注意を促されて、目視による安全確認を行う。
【0028】
尚、以上の右側のCCDカメラ3aに対する処理と並行して、ステップS24では左側のCCDカメラ3bに対して全く同様の処理が行われる。
以上のように本実施形態の車両周辺視認装置では、CCDカメラ3a,3bの画角を拡大することにより、交差する道路に対して自車が斜めに停車した場合でも、撮像画像E1中に交差する道路領域E2を捕捉可能とすると共に、その撮像画像E1中から消失点VPに基づいて交差する道路領域E2を抽出した上で、運転者が把握可能な大きさに拡大表示するようにしている。従って、従来技術が備えていたカメラ角度を変更する機構を廃して、これによる重量増し等の種々の弊害を未然に防止でき、且つ、交差する道路状況を表す適切な画像(道路領域E2)を自動的に表示して、運転者に道路状況を極めて容易且つ迅速に確認させることができる。
【0029】
又、広角レンズの使用によりCCDカメラ3a,3bの画角を大幅に拡大して、広い領域を撮像するようにしたため、上記変形T字路のみならず種々の運転状況に利用でき、例えば自車が交差点で右折する場合に、右折対向車に遮られて視認し難い直進対向車を画像内に捉えて、ディスプレイ4上に拡大表示することもできる。よって、利用可能な運転状況を大幅に拡大することができる。
【0030】
更に、左右のCCDカメラ3a,3bの撮像画像E1に基づいて、消失点VPの特定、道路領域E2の抽出、画像の拡大表示を個別に行うようにしたため、左右の道路状況が全く異なる場合であっても、常に的確な道路領域E2をそれぞれ抽出して拡大表示でき、もって、運転者の適切な判断を促すことができる。
以上で実施形態の説明を終えるが、本発明の態様はこの実施形態に限定されるものではない。例えば、上記実施形態では、CCDカメラ3a,3bを車両の前部(フロントフェンダー)に設けて、通常の走行中に交差点等に到達したときの道路状況の確認に利用したが、例えばCCDカメラ3a,3bを車両の後部に設けて、車庫や駐車場から後退で道路に出るときの確認に利用してもよい。
【0031】
又、上記実施形態では、CCDカメラ3a,3bをフロントフェンダーに内蔵したが、その設置場所はこれに限らず、例えばフロントバンパーやサイドアンダーミラー等に内蔵してもよいし、左右を独立して設けることなく、例えば図10に示すように、V字状に配置したミラー11を介して左右の画像を共通のCCDカメラ12(撮像手段)に採り込むように構成してもよい。尚、言うまでもなく、この場合のCCDカメラ12も広角レンズの採用により画角が拡大され、広い領域を撮像可能となっている。一方、このようにミラー11を介して画像を採り込む場合には、広角レンズに代えてミラー11を凸状に形成することで、CCDカメラ12の実質的な画角を拡大してもよい。
【0032】
更に、上記実施形態では、左側と右側のCCDカメラ3a,3bについて個別に画像解析を実施して道路領域E2を抽出したが、例えば、交差する道路が直線路の場合には、左右の道路領域E2が180°反対側に位置するため、一方の撮像画像E1中で抽出した道路領域E2の位置に基づいて、幾何学的に他方の撮像画像E1中の道路領域E2を特定可能である。よって、他方の道路領域E2については、このようにして道路領域E2を抽出してもよい。
【0033】
一方、上記実施形態では、運転者の電源スイッチ2の操作に応じてディスプレイ4上の画像表示を開始したが、例えばナビゲーション装置から得たGPS情報に基づいて自車位置を割り出すと共に、地図データベースから自車位置周辺の道路状況を得て、自車がT字路や交差点に到達したと判断したときに、自動的に画像表示を開始するようにしてもよい。
【0034】
又、上記実施形態では、消失点VPに基づいて道路領域E2を抽出したが、消失点VPと相関する要素に基づいて行うことも可能である。例えば、消失点VPの位置が変化すれば、道路の方向、即ち、直線成分yの傾きや切片が変化することから、消失点VPに基づく処理に代えて、直線成分yが傾きや切片に基づいて道路領域E2を抽出してもよい。
【0035】
【発明の効果】
以上説明したように請求項1,2の発明の車両周辺視認装置によれば、撮像手段の画角を広く設定して、その撮像画像から道路領域を抽出して拡大表示するようにしたため、カメラ角度を変更する機構を廃して、これによる弊害を未然に防止した上で、道路状況を表す適切な左右画像を自動的に表示して、運転者に道路状況を極めて容易且つ迅速に確認させることができる。
【0036】
請求項の発明の車両周辺視認装置によれば、請求項1又は2の発明に加えて、左方及び右方の視界について各処理を個別に行うようにしたため、常に的確な道路領域を表示して、運転者の適切な判断を促すことができる。
【図面の簡単な説明】
【図1】実施形態の車両周辺視認装置を示す全体構成図である。
【図2】変形T字路におけるCCDカメラの画角と撮像画像から抽出された道路領域の画角とを比較した説明図である。
【図3】右側のCCDカメラによる撮像画像を示す説明図である。
【図4】撮像画像から抽出された道路領域の画像を示す説明図である。
【図5】ECUが実行する画像抽出・表示ルーチンを示すフローチャートである。
【図6】画像上でHough変換により直線成分yの抽出するときの原理を表す説明図である。
【図7】図3の画像に基づく交点piの特定状況を示す説明図である。
【図8】消失点VPに対する道路領域の抽出状況を示す説明図である。
【図9】撮像画像から道路領域が食み出したときの補正状況を示す説明図である。
【図10】ミラーを利用したCCDカメラの別例を示す図である。
【符号の説明】
1 ECU(基準位置特定手段、道路領域抽出手段、画像表示手段)
3a,3b,12 CCDカメラ
4 ディスプレイ(画像表示手段)
E1 道路領域
E2 撮像手段
VP 消失点(基準位置)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle periphery visual recognition device that captures an image of a field of view in the left-right direction of a vehicle and presents it to a driver.
[0002]
[Related background]
For example, at an intersection with poor visibility, the driver pushes the front part of the vehicle to the intersecting road for safety confirmation, which causes problems such as hindering traffic. As a countermeasure, for example, in Japanese Patent No. 3033389, a pair of CCD cameras are installed on the front part of the vehicle toward the left and right, and the left and right fields of view captured by these CCD cameras are presented to the driver on a display. Has been proposed. Japanese Patent Laid-Open No. 2000-71875 proposes a technique in which a left and right field of view is imaged by a single CCD camera via a mirror.
[0003]
And in any peripheral visual recognition device, assuming the case where the vehicle stops diagonally with respect to the intersecting road, it is equipped with a mechanism that changes the angle of the CCD camera in the horizontal direction according to the angle of the road, Thus, consideration is given to obtaining an appropriate image representing the left and right road conditions even when the vehicle stops diagonally.
[0004]
[Problems to be solved by the invention]
However, any of the above-described vehicle periphery visual recognition devices has not been proposed with respect to specific control details of the camera angle. The driver at the time of safety confirmation grasps the road condition based on the image displayed on the display. Therefore, the driver needs to display an easy-to-understand image according to the actual road condition. When the car stops at an angle, if the camera angle is changed inappropriately, left and right images that are completely different from the reality are displayed, which is not helpful to the driver.
[0005]
Moreover, since the above-described vehicle periphery visual recognition device requires a mechanism for changing the camera angle, various adverse effects caused by this, such as an increase in the number of parts and an increase in manufacturing cost, Alternatively, there is another problem of causing adverse effects such as a decrease in reliability due to a failure of the movable part.
The present invention has been made to solve such problems, and the object of the present invention is to eliminate the mechanism for changing the camera angle and to prevent roadblocks from occurring, and to express road conditions. An object of the present invention is to provide a vehicle periphery visual recognition device that automatically displays an appropriate image and allows a driver to check road conditions very easily and quickly.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the invention of claim 1 is arranged so as to capture the field of view of the vehicle in the vehicle width direction, and has a wide image with a margin in the horizontal direction with respect to the road area representing the situation of the intersecting road. An imaging unit in which a corner is set, a reference position specifying unit that specifies a reference position having a predetermined positional relationship with respect to a road area from an image captured by the imaging unit, and a reference specified by the reference position specifying unit Road area extraction means for extracting a road area image from the captured image based on the position, image display means for enlarging and displaying the road area image extracted by the road area extraction means, and road area extraction means when the road area extracted Te is protruding from the captured image, and shift amount determining means determines the amount of deviation between the captured image whether less than a predetermined threshold value, the shift amount using the shift amount determining means When judged to be less than the threshold A road area correcting means kept within the captured image by moving the road area, when the shift amount is determined to be above the threshold due to a shift amount determining means, which has a warning means for issuing a warning to the driver is there.
[0007]
Accordingly, the field of view of the vehicle in the vehicle width direction is imaged by the imaging means, a reference position having a predetermined positional relationship with respect to the road area is specified by the reference position specifying means from the captured image, and based on the specified reference position, An image of the road area is extracted from the captured image by the road area extraction means, and is enlarged and displayed by the image display means.
Since the road area is extracted from the captured image and enlarged and displayed in this way, the angle of view of the imaging means can be set wider than the angle of view for the driver to check the road condition, in other words, the intersection A wide field angle with a margin in the horizontal direction can be set with respect to the road area representing the situation of the road to be intersected, and the road area that intersects in the captured image even when the vehicle stops diagonally with respect to the intersecting road As a result, a mechanism for changing the camera angle can be eliminated, and an appropriate image representing a crossing road condition can be displayed. Therefore, for example, it is possible to capture an intersecting road on a modified T-shaped road, or an oncoming lane when turning right at an intersection, and the intersecting road or oncoming lane is extracted from the captured image as a road area to check the driver. It can be useful for.
In addition, when the extracted road area image protrudes from the captured image, the deviation amount is determined by the deviation amount determination means. When the deviation amount is less than a predetermined threshold, the road area image is moved. It is stored in the captured image. Therefore, even in such a case, the road area can be used for confirmation of the driver. Further, when the deviation amount is equal to or larger than the threshold value, a warning is issued to the driver by the warning means, and visual safety confirmation is prompted.
[0008]
In the invention of claim 2, the reference position specifying means extracts a plurality of linear components from the captured image, specifies a vanishing point where the extracted linear components intersect as a reference position, and the road area extracting means determines the vanishing point. A predetermined range of at least the lower, left, and right sides at the center is extracted from the captured image as a road region image .
A plurality of parallel linear component of the center line and road or the like constituting the road area intersect at one point in the image, certain correlation is established between the position and the road region of the vanishing point is a point that the concentration The road area is located slightly below the vanishing point . Therefore, if this vanishing point is regarded as a reference position and a predetermined range of at least the lower, left, and right sides centered on the vanishing point is extracted from the captured image as an image of the road region, an appropriate road region is automatically displayed. It becomes possible.
[0010]
In the invention of claim 3 , the imaging means images the left and right fields of view of the vehicle, specifies the reference position by the reference position specifying means, and the road area by the road area extraction means, based on the left and right captured images. Extraction and image enlargement display by the image display means are performed individually. Therefore, since each process is performed separately for the left and right fields of view, for example, even when the left and right road conditions are completely different, it is possible to extract and display an appropriate road area.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of a vehicle periphery visualizing device embodying the present invention will be described.
FIG. 1 is an overall configuration diagram showing a vehicle periphery visual recognition apparatus according to the present embodiment. An ECU (electronic control unit) 1 that performs overall control of the vehicle periphery visual recognition device is installed in a vehicle interior, and includes an input / output device (not shown), a storage device (ROM, RAM, etc.), a central processing unit (CPU), A timer counter and the like are provided. The input side of the ECU 1 is connected to a power switch 2 of the vehicle periphery visual recognition device and sensors / switches such as a pair of CCD cameras 3a and 3b (imaging means), and the output side of the ECU 1 is connected to an instrument panel of the vehicle. Devices such as a liquid crystal display 4 (image display means) and a speaker 5 installed on the top are connected.
[0012]
The CCD cameras 3a and 3b are built in the left and right front fenders of the vehicle, and respectively capture the left and right fields of view of the vehicle. The CCD cameras 3a and 3b of the present embodiment are provided with a wide-angle lens in the light receiving portion, and the angle of view is greatly enlarged compared to the angle of view of the CCD camera applied to the above-described conventional technology, for example.
[0013]
Hereinafter, the setting state of the angle of view of the CCD cameras 3a and 3b will be described. FIG. 2 is an explanatory diagram comparing the angle of view of the CCD camera and the angle of view of the road area extracted from the captured image as described later. . This type of peripheral visual recognition device displays images captured by the CCD cameras 3a and 3b on the display 4, but displays the situation of the road where the driver crosses (for example, the presence or absence of a traveling vehicle on the road). 14, it is necessary to display a corresponding area (hereinafter referred to as a road area) with a certain size. For this reason, in the prior art, the angle of view of the CCD camera is set to about 30 °, for example. This angle of view is substantially the same as the angle of view β of the extracted image described later, and is therefore quite narrow. If the car stops at a slight angle, the intersecting road area will be removed from the angle of view. Needless to say, such a case is assumed that the prior art includes a mechanism for changing the camera angle.
[0014]
On the other hand, in the present embodiment, the angle of view of the CCD cameras 3a and 3b is set to an extremely wide α, for example, about 90 °. Therefore, even when the vehicle stops obliquely on the modified T-shaped road shown in FIG. 2, a road area that intersects the angle of view can be captured without changing the camera angle. In this embodiment, a road area that intersects is extracted from the images picked up by the CCD cameras 3a and 3b in this way and is enlarged and displayed on the display 4. Hereinafter, details of the processing will be described.
[0015]
Here, FIG. 3 is an explanatory diagram illustrating an image captured by the right CCD camera, and FIG. 4 is an explanatory diagram illustrating an image of a road region extracted from the captured image. As shown in these drawings, in the captured image E1 on the right side of the own vehicle, a plurality of parallel straight lines (that is, a straight line component y described later) such as the center line L1 and the road side L2 of the intersecting road are included in the image. It has the characteristic of intersecting at one point. Hereinafter, this point is referred to as a vanishing point VP, and a certain correlation is established between the position of the vanishing point VP and the position of a traveling vehicle or the like on the road that requires confirmation (that is, the road region E2). It has been found that a traveling vehicle or the like is always located slightly below the vanishing point VP.
[0016]
When the vehicle reaches a T-junction or an intersection and the power switch 2 is turned on by the driver, the ECU 1 executes an image extraction / display routine shown in FIG. 5 at a predetermined control interval. This process is performed individually for the captured images E1 of the right CCD camera 3a and the left CCD camera 3b, and the contents are exactly the same, so only the right process will be described below. First, in step S2, a captured image E1 of the right CCD camera 3a is captured, and in step S4, a plurality of points whose luminance change is equal to or greater than a predetermined threshold (hereinafter referred to as luminance change points) are extracted from the captured image E1. In subsequent step S6, two or more linear components y = Aix + Bi and weight wi are obtained by Hough transform based on each extracted luminance change point. The straight line component y is the center line L1, the road side L2, etc. in the image, and the weight w i represents the credibility as a straight line. This Hough transform is a well-known method for specifying a linear component y in an image. A schematic procedure will be described below with reference to FIG.
[0017]
FIG. 6 is an explanatory diagram showing the principle when a linear component y is extracted by Hough transform on an image. In this figure, the image is represented as an xy plane, and the luminance change at three points on the linear component y indicated by a broken line. A point P is extracted (upper part of the figure). First, the Hough transform is applied to these luminance change points P. That is, assuming a straight line of all angles passing through each luminance change point P (one example in the figure), the orthogonal distance ρ and the angle θ from the origin (0, 0) are calculated for each straight line. The orthogonal distance ρ and the angle θ are collected for each luminance change point, and each luminance change point P is represented as a curve on the ρ-θ plane (middle of the figure).
[0018]
Next, the ρ-θ plane is divided into a large number of cells specified by ρ and θ, and the number of the curves located in each cell is voted to obtain a vote frequency distribution (lower part of the figure). Then, when the local maximum point (ρ, θ) is determined from the voting frequency distribution and a procedure (inverse Hough conversion) opposite to the above Hough transform is applied to the local maximum point (ρ, θ), it is indicated by a broken line in the upper part of the figure. The straight line component y is specified, and the number of votes at this time is set as the weight wi. In the figure, the coordinates (3, 7) at which the number of votes 3 is obtained are obtained as maximum points.
[0019]
In other words, the obtained local maximum point (ρ, θ) represents the coordinates at which the curves intersect in the middle part of the figure, and these coordinates are a common straight line having the same slope and intercept passing through the luminance change points P in the upper part of the figure. Represents a component (that is, a broken line component y). Therefore, if the local maximum value (ρ, θ) is subjected to inverse Hough transform, the linear component y that causes each luminance change point P can be obtained. The weight wi is set to a larger value based on the larger number of votes for the linear component y specified based on the large number of luminance change points P (in other words, the linear component with clear contrast as an image).
[0020]
After specifying two or more linear components y and weights wi in this way, the ECU 11 proceeds to step S8. In step S8, the intersection point pi (xi, yi) of the two linear components y and the weight wpi of each intersection point pi are obtained. In step S6, since two or more straight line components y are specified, the intersection points pi are obtained for all combinations of these straight line components y, while the weights w i of the two straight lines y that form the basis of each intersection point pi are obtained. By addition or multiplication, a weight wpi is obtained as a correlated value.
[0021]
The straight line component y obtained in step S6 may include a noise component, but such a straight line component y has a small weight wi, and the weight wpi of the intersection point pi based on the straight line component y is also the same. Inevitably small. FIG. 7 is an explanatory diagram showing the situation of specifying the intersection point pi based on the image shown in FIG. 3. In FIG. 7, three line components y are extracted and three intersection points pi are specified from each line component y. Shows the case.
[0022]
In the subsequent step S10, the center of gravity position is obtained based on each intersection pi and the weight wpi, and this center of gravity position is determined as the vanishing point VP (reference position specifying means). FIG. 8 is an explanatory diagram showing the specification of the vanishing point VP based on the intersection point pi shown in FIG. 7, and the vanishing point VP is specified from the three intersection points pi. In addition, since not only the position of each intersection point pi but also the weight wpi is considered, for example, if the intersection point pi having a large weight wpi exists at a position separated from other intersection points pi, the vanishing point VP inevitably has the weight wpi. Will approach the large intersection point pi.
[0023]
In a succeeding step S12, it is determined whether or not the intersecting road area E2 can be extracted from the captured image E1 of the CCD camera 3a. The road area E2 to be extracted is set in advance with reference to the vanishing point VP as shown in FIG. That is, as described with reference to FIG. 3, the traveling vehicles etc. on the intersecting road are always located slightly below the vanishing point VP. Therefore, the traveling vehicles etc. (classified as passenger cars, trucks, etc.) in the road area E2. 8), for example, as shown in FIG. 8, the range of L1 on the left and right, L2 on the upper side, and L3 (> L2) on the lower side is centered on the vanishing point VP. Set as E2. The actual L1 to L3 are set as the number of pixels, and the extraction process is also performed based on the number of pixels.
[0024]
When the determination in step S12 is YES (positive), the process proceeds to step S14 to extract the road area E2 from the captured image E1 (road area extraction means), and the road area E2 extracted in the subsequent step S16 is displayed on the display 4. (Image display means) and the routine is terminated. The ECU 1 repeats the above processing, and each time the road area E2 is sequentially extracted based on the new captured image E1, the intersecting road condition is displayed on the display 4 as a pseudo moving image in real time.
[0025]
As a result, the road region E2 is extracted at an angle of view corresponding to β from the image E1 captured at the angle of view α of the right CCD camera 3a shown in FIG. 2 (the same applies to the left side), as shown in FIG. Compared with the captured image E1, the road area E2 is enlarged and displayed as shown in FIG. 4, and the road situation where the driver intersects can be easily grasped.
On the other hand, FIG. 9 is an explanatory diagram showing a case where a road region protrudes from a captured image and the amount of shift is small. When the determination in step S12 is NO (No), that is, when the road region E2 is set at the normal position with the vanishing point VP as a reference, when the image protrudes from the captured image E1 as indicated by a hatched frame in the figure. The process proceeds to step S18. In step S18, it is determined whether or not the shift amount of the road area E2 with respect to the captured image E1 is large (deviation amount determination means) . For example, since the position of the road region E2 correlates with the position of the vanishing point VP, the distance Lvp of the vanishing point VP with respect to the captured image E1 is calculated, and when the distance Lvp is less than a predetermined threshold, NO is determined in step S18. And go to step S20.
[0026]
In step S20, the road area E2 is corrected, and the road area E2 is moved from the normal position by the shortest distance and is stored in the captured image E1 as indicated by a two-dot chain line (road area correction means) . Thereafter, the corrected road area E2 is extracted in step S14, enlarged and displayed on the display 4 in step S16, and the routine is terminated.
When the amount of deviation of the road area E2 with respect to the captured image E1 is small, the travel distance of the road area E2 at the time of correction is short, so that a traveling vehicle or the like located below the vanishing point VP is within the road area E2 even after correction. It can be captured and used for grasping the road condition of the driver.
[0027]
On the other hand, when the determination in step S18 is YES, that is, when the deviation amount of the road area E2 is large, it is estimated that the important traveling vehicle or the like cannot be captured in the road area E2 even if the correction is performed. In step S22, a warning is issued to the driver through the display 4 and the speaker 5 (warning means) . This warning alerts the driver and performs a visual safety check.
[0028]
In parallel with the above processing for the right CCD camera 3a, the same processing is performed for the left CCD camera 3b in step S24.
As described above, in the vehicle periphery visual recognition device according to the present embodiment, by expanding the angle of view of the CCD cameras 3a and 3b, even if the own vehicle stops diagonally with respect to the intersecting road, it intersects in the captured image E1. The road area E2 to be captured can be captured, and the intersecting road area E2 is extracted from the captured image E1 based on the vanishing point VP, and then enlarged to a size that can be grasped by the driver. . Accordingly, the mechanism for changing the camera angle provided in the prior art can be eliminated to prevent various adverse effects such as weight increase, and an appropriate image (road region E2) representing the road condition intersecting can be obtained. It can be displayed automatically, allowing the driver to check the road conditions very easily and quickly.
[0029]
Further, the use of the wide-angle lens greatly expands the angle of view of the CCD cameras 3a and 3b so as to capture a wide area, so that it can be used not only for the modified T-shaped road but also for various driving situations. When turning right at an intersection, a straight oncoming vehicle that is blocked by a right turn oncoming vehicle and difficult to see can be captured in the image and displayed on the display 4 in an enlarged manner. Therefore, the available driving situation can be greatly expanded.
[0030]
Furthermore, since the vanishing point VP is specified, the road region E2 is extracted, and the enlarged image is displayed separately based on the captured images E1 of the left and right CCD cameras 3a and 3b, the left and right road conditions are completely different. Even in such a case, it is possible to always extract and display an accurate road region E2 respectively, thereby prompting the driver to make an appropriate determination.
This is the end of the description of the embodiment, but the aspect of the present invention is not limited to this embodiment. For example, in the above-described embodiment, the CCD cameras 3a and 3b are provided in the front part (front fender) of the vehicle and used for checking road conditions when the vehicle reaches an intersection or the like during normal traveling. For example, the CCD camera 3a , 3b may be provided in the rear part of the vehicle and used for confirmation when going back from the garage or parking lot.
[0031]
In the above embodiment, the CCD cameras 3a and 3b are built in the front fender. However, the installation location is not limited to this. For example, the CCD cameras 3a and 3b may be built in a front bumper, a side under mirror, or the like. Instead, for example, as shown in FIG. 10, the left and right images may be taken into a common CCD camera 12 (imaging means) via a mirror 11 arranged in a V shape. Needless to say, the CCD camera 12 in this case also has a wide angle of view by adopting a wide-angle lens, and can capture a wide area. On the other hand, when taking an image through the mirror 11 as described above, the substantial angle of view of the CCD camera 12 may be enlarged by forming the mirror 11 in a convex shape instead of the wide-angle lens.
[0032]
Furthermore, in the above embodiment, the left and right CCD cameras 3a and 3b are individually subjected to image analysis to extract the road area E2. For example, when the intersecting road is a straight road, the left and right road areas are extracted. Since E2 is located on the opposite side of 180 °, the road area E2 in the other captured image E1 can be specified geometrically based on the position of the road area E2 extracted in one captured image E1. Therefore, the road area E2 may be extracted in this way for the other road area E2.
[0033]
On the other hand, in the above embodiment, image display on the display 4 is started in response to the driver's operation of the power switch 2, but for example, the vehicle position is determined based on GPS information obtained from the navigation device, and from the map database. Image display may be started automatically when it is determined that the vehicle has reached a T-junction or an intersection after obtaining the road conditions around the vehicle position.
[0034]
Moreover, in the said embodiment, although the road area | region E2 was extracted based on the vanishing point VP, it is also possible to perform based on the element correlated with the vanishing point VP. For example, if the position of the vanishing point VP changes, the road direction, that is, the slope or intercept of the straight line component y changes, so that instead of the process based on the vanishing point VP, the straight line component y is based on the slope or intercept. The road area E2 may be extracted.
[0035]
【The invention's effect】
As described above, according to the vehicle periphery visual recognition device of the first and second aspects of the invention, since the angle of view of the image pickup means is set wide, the road area is extracted from the picked-up image, and is enlarged and displayed. The mechanism to change the angle is abolished to prevent harmful effects, and the right and left images showing the road conditions are automatically displayed to make the driver check the road conditions very easily and quickly. Can do.
[0036]
According to the vehicle periphery visual recognition device of the invention of claim 3 , in addition to the invention of claim 1 or 2 , since each process is separately performed for the left and right fields of view, an accurate road area is always displayed. Thus, it is possible to prompt the driver to make an appropriate judgment.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram showing a vehicle periphery visual recognition apparatus according to an embodiment.
FIG. 2 is an explanatory diagram comparing the angle of view of a CCD camera on a modified T-shaped road and the angle of view of a road area extracted from a captured image.
FIG. 3 is an explanatory diagram showing an image captured by the right CCD camera.
FIG. 4 is an explanatory diagram showing an image of a road area extracted from a captured image.
FIG. 5 is a flowchart showing an image extraction / display routine executed by the ECU.
FIG. 6 is an explanatory diagram showing the principle when a linear component y is extracted by Hough transform on an image.
7 is an explanatory diagram showing a specific situation of an intersection point pi based on the image of FIG. 3. FIG.
FIG. 8 is an explanatory diagram showing a road area extraction status for a vanishing point VP;
FIG. 9 is an explanatory diagram illustrating a correction situation when a road region protrudes from a captured image.
FIG. 10 is a diagram showing another example of a CCD camera using a mirror.
[Explanation of symbols]
1 ECU (reference position specifying means, road area extracting means, image display means)
3a, 3b, 12 CCD camera 4 Display (image display means)
E1 Road area E2 Imaging means VP Vanishing point (reference position)

Claims (3)

車両の車幅方向の視界を撮像するように配置され、交差する道路の状況を表す道路領域に対して水平方向に余裕をもった広い画角が設定された撮像手段と、
上記撮像手段にて撮像された画像から道路領域に対して所定の位置関係を有する基準位置を特定する基準位置特定手段と、
上記基準位置特定手段にて特定された基準位置に基づいて、上記撮像画像から上記道路領域の画像を抽出する道路領域抽出手段と、
上記道路領域抽出手段にて抽出された道路領域の画像を拡大して表示する画像表示手段と、
上記道路領域抽出手段にて抽出された道路領域が上記撮像画像から食み出しているときに、撮像画像とのずれ量が所定の閾値未満か否かを判定するずれ量判定手段と、
上記ずれ量判定手段により上記ずれ量が閾値未満と判定されたときに、上記道路領域を移動させて上記撮像画像内に納める道路領域補正手段と、
上記ずれ量判定手段により上記ずれ量が閾値以上と判定されたときに、運転者に警告を発する警告手段と
を備えたことを特徴とする車両周辺視認装置。
An imaging means that is arranged to image the field of view of the vehicle in the vehicle width direction and has a wide angle of view with a margin in the horizontal direction with respect to a road area that represents the condition of the intersecting road;
Reference position specifying means for specifying a reference position having a predetermined positional relationship with respect to a road area from an image picked up by the image pickup means;
Road area extracting means for extracting an image of the road area from the captured image based on the reference position specified by the reference position specifying means;
Image display means for enlarging and displaying an image of the road area extracted by the road area extraction means;
When the road area extracted by the road region extracting means is protruding from the captured image, and shift amount determining means determines the amount of deviation between the captured image whether less than a predetermined threshold,
When the shift amount is determined to be less than the threshold value by the shift amount determining means, and the road area correcting means moves the road area kept within the captured image,
A vehicle periphery visualizing device comprising: warning means for issuing a warning to a driver when the deviation amount is determined to be greater than or equal to a threshold value by the deviation amount determination means.
上記基準位置特定手段は、上記撮像画像から複数の直線成分を抽出すると共に、該抽出した直線成分が交差する消失点を上記基準位置として特定し、上記道路領域抽出手段は、上記消失点を中心とした少なくとも下方、左方及び右方の所定範囲を上記道路領域の画像として上記撮像画像から抽出することを特徴とする請求項1に記載の車両周辺視認装置。  The reference position specifying unit extracts a plurality of linear components from the captured image, specifies a vanishing point where the extracted linear components intersect as the reference position, and the road region extracting unit centers on the vanishing point. The vehicle periphery visual recognition device according to claim 1, wherein at least a predetermined range of the lower side, the left side, and the right side is extracted from the captured image as an image of the road region. 上記撮像手段は、車両の左方及び右方の視界をそれぞれ撮像し、該左右の撮像画像に基づいて、上記基準位置特定手段による基準位置の特定、上記道路領域抽出手段による道路領域の抽出、上記画像表示手段による画像の拡大表示が個別に行われることを特徴とする請求項1又は2記載の車両周辺視認装置。The imaging means images the left and right fields of view of the vehicle, and based on the left and right captured images, specifies the reference position by the reference position specifying means, extracts the road area by the road area extracting means, 3. The vehicle periphery visualizing device according to claim 1, wherein the enlarged display of the image by the image display means is performed individually.
JP2001376148A 2001-12-10 2001-12-10 Vehicle periphery visual recognition device Expired - Fee Related JP4209105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001376148A JP4209105B2 (en) 2001-12-10 2001-12-10 Vehicle periphery visual recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001376148A JP4209105B2 (en) 2001-12-10 2001-12-10 Vehicle periphery visual recognition device

Publications (2)

Publication Number Publication Date
JP2003179915A JP2003179915A (en) 2003-06-27
JP4209105B2 true JP4209105B2 (en) 2009-01-14

Family

ID=19184401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001376148A Expired - Fee Related JP4209105B2 (en) 2001-12-10 2001-12-10 Vehicle periphery visual recognition device

Country Status (1)

Country Link
JP (1) JP4209105B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005013920B4 (en) 2004-03-26 2007-12-13 Mitsubishi Jidosha Kogyo K.K. Front view monitoring apparatus
JP2007006165A (en) * 2005-06-24 2007-01-11 Fujifilm Holdings Corp Imaging device, imaging method, and imaging program
JP4591292B2 (en) * 2005-09-20 2010-12-01 株式会社デンソー Vehicle driving support device
JP2022121820A (en) * 2021-02-09 2022-08-22 トヨタ自動車株式会社 Robot control system, robot control method, and control program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3365516B2 (en) * 1992-03-31 2003-01-14 本田技研工業株式会社 Ambient monitoring system for vehicles
JP2001222800A (en) * 2000-02-10 2001-08-17 Yazaki Corp Side monitoring device for vehicle

Also Published As

Publication number Publication date
JP2003179915A (en) 2003-06-27

Similar Documents

Publication Publication Date Title
RU2700635C1 (en) Method and device for parking places detection
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
US6556133B2 (en) Vehicle-use surroundings monitoring system
US7346191B2 (en) Moving obstacle detecting device
US8896687B2 (en) Lane departure prevention support apparatus, method of displaying a lane boundary line and program
JP5421072B2 (en) Approaching object detection system
US7518490B2 (en) Method and system of monitoring around a vehicle
DE102014217437A1 (en) Warning display device and warning display method
CN107229906A (en) A kind of automobile overtaking's method for early warning based on units of variance model algorithm
JPH1040499A (en) Outside recognizing device for vehicle
EP3731138A1 (en) Image processing device and image processing method
JP2004310522A (en) Vehicular image processor
JPH1062162A (en) Detector for obstacle
JP4209105B2 (en) Vehicle periphery visual recognition device
JP6595647B2 (en) Travel control device, vehicle, and travel control method
JP2015011456A (en) Vehicle information provision device
US11299148B2 (en) Travel control apparatus and vehicle
JP2021197009A (en) Risk determination system and risk determination program
JP4696213B2 (en) Vehicle periphery visual recognition device
JP2919718B2 (en) Vehicle distance measuring device and vehicle equipped with it
JP2005309660A (en) Device supporting vehicle in turning right or left
JPH02241855A (en) Preceding vehicle identifying method
JP2005205983A (en) Apparatus for visually recognizing surrounding of own vehicle
JP4218441B2 (en) On-vehicle moving body detection device
JP2005217482A (en) Vehicle periphery monitoring method and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060307

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080827

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081022

R151 Written notification of patent or utility model registration

Ref document number: 4209105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131031

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees