JP5874411B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP5874411B2
JP5874411B2 JP2012014245A JP2012014245A JP5874411B2 JP 5874411 B2 JP5874411 B2 JP 5874411B2 JP 2012014245 A JP2012014245 A JP 2012014245A JP 2012014245 A JP2012014245 A JP 2012014245A JP 5874411 B2 JP5874411 B2 JP 5874411B2
Authority
JP
Japan
Prior art keywords
detection
vehicle
detected
captured image
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012014245A
Other languages
English (en)
Other versions
JP2013156672A (ja
Inventor
勝之 今西
勝之 今西
博彦 柳川
博彦 柳川
典史 松川
典史 松川
昇幸 横田
昇幸 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2012014245A priority Critical patent/JP5874411B2/ja
Publication of JP2013156672A publication Critical patent/JP2013156672A/ja
Application granted granted Critical
Publication of JP5874411B2 publication Critical patent/JP5874411B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両周辺監視装置に関するものである。
特許文献1には、自車両外部の周辺の撮影画像を取得し、取得した撮影画像中の所定の位置に検出ラインを設定し、設定した検出ライン上の画素の値の変化に応じた情報表示を行う技術が開示されている。このようにすることで、撮影画像に写った移動物体をドライバーに認識させる処理を少ない処理負荷で実現することができる。
特開2011−253448号公報
発明者の検討によれば、ドライバーに認識させたい移動体としては、道路上の移動体がある。しかしながら、特許文献1の技術では、検出ラインの位置が撮影画像中で固定されているので、検出ラインの延びる方向が道路の延びる方向と無関係になってしまう。
本発明は上記点に鑑み、撮影画像中の検出ライン上の画素値変化に応じた情報表示を行う技術において、道路上の移動体を従来よりもドライバーに認識させ易くすることを目的とする。
上記目的を達成するための請求項1に記載の発明は、道路の延びる方向である道路方向を、車両を基準として検出する検出手段(115)と、前記車両の外部の周囲を撮影するカメラ(2)によって撮影された撮影画像を取得する取得手段(110、123)と、前記検出手段(115)が検出した前記道路方向に沿って平行な検知ラインを設定し、設定した前記検知ラインの前記撮影画像中における位置を算出する設定手段(120、125、155)と、前記撮影画像中の前記検知ラインの位置における画素の値の変化に応じて情報表示を行う表示手段(135、140、145)と、を備えたことを特徴とする車両周辺監視装置である。
このように、道路の延びる方向である道路方向を検出し、検出した道路方向に沿ったラインを、検出用のラインとして撮影画像中に設定することで、道路上の移動体を従来よりもドライバーに認識させ易くすることができる。
また、請求項2に記載の発明は、請求項1に記載の車両周辺監視装置において、前記設定手段(120、125、155)は、前記検出手段(115)が検出した前記道路方向に平行な検知ラインを、3次元空間中の地面よりも高い位置に設定し、設定した前記検知ラインの前記撮影画像中における位置を算出することを特徴とする。このように、検知ラインを地面よりも高い位置に配置することで、車両、人等、重心位置が地面よりも高い位置にある物体をより正確に検知できる。
また、請求項3に記載の発明は、請求項1または2に記載の車両周辺監視装置において、前記設定手段(120、125、155)は、前記車両の移動を表す車両移動信号に基づいて、前記車両が移動しても前記検知ラインが地面に対して静止するよう、前記検知ラインの前記撮影画像中における位置を変化させることを特徴とする。このようにすることで、車両が移動しても、検知ラインの撮影画像中の向きが道路方向に対してずれてしまうことがなくなる。
また、請求項4に記載の発明は、請求項1ないし3のいずれか1つに記載の車両周辺監視装置において、前記表示手段は、前記撮影画像中の前記検知ラインの位置を複数個の検知領域に領域分けし、分けられた検知領域毎にしきい値を設定し、各検知領域で、当該各検知領域における画素間の輝度値の変化量が、当該検知領域に対して設定されたしきい値よりも大きい場合に、物体の端部を検出し、物体の端部が検出されたことに基づいて警告を行い、物体の端部が検出されなかったことに基づいて警告を行わないことを特徴とする。
このように、検知ラインの位置を複数個の検知領域に領域分けし、分けられた検知領域毎にしきい値を設定することで、検知ラインの位置によって被写体の環境(日照の有無等)が大きく変化する場合にも、しきい値を検知領域毎に変えることで対応可能である。
また、請求項5に記載の発明は、請求項1ないし4のいずれか1つに記載の車両周辺監視装置において、前記検出手段は、前記カメラ(2)によって撮影された撮影画像のエッジ抽出を行い、抽出されたエッジに基づいて直線検出を行い、その直線検出によって検出された直線の方向に基づいて、前記道路方向を検出することを特徴とする。
このように、接近物体を検知するためのカメラを流用して、当該撮影画像中のエッジに基づいて検出された直線を用いて撮影画像を抽出することで、新たなハードウェアを導入することなく道路方向の検出を行うことができる。
また、請求項6に記載の発明は、請求項5に記載の車両周辺監視装置において、前記検出手段は、抽出された前記エッジに基づいてハフ変換による直線検出を行い、その直線検出によって検出された複数の直線の鳥瞰変換を行い、前記複数の直線のハフ変換時の投票数に基づき、当該鳥瞰変換後の前記複数の直線の傾き範囲毎に当該投票数を集計し、最も投票数が多い傾き範囲内の傾きを特定し、特定した傾きの直線が延びる方向を道路方向として検出することを特徴とする。
このように、ハフ変換時の投票数を傾き範囲毎に集計して道路方向を検出することもできるが、他の例として、ハフ変換時の投票数ではなく直線の数を傾き範囲毎に集計して道路方向を検出することも可能である。しかし、前者の方法の方が、より正確に等路方向を検出することができる。
また、請求項7に記載の発明は、請求項1ないし6のいずれか1つに記載の車両周辺監視装置において、前記検知ラインは、前記撮影画像中において曲線状になっていることを特徴とする。
また、請求項8に記載の発明は、請求項1ないし7のいずれか1つに記載の車両周辺監視装置において、前記設定手段は、前記検出手段(115)が検出した前記道路方向に沿って平行な複数本の検知ラインを設定し、設定した前記複数本の検知ラインの前記撮影画像中における位置を算出し、前記表示手段は、前記撮影画像中の前記複数本の検知ラインの位置における画素の値の変化に応じて情報表示を行い、前記複数本の検知ラインは、前記撮影画像中で、左右方向中央部よりも左右方向端部において、互いの間隔が狭くなっていることを特徴とする。
お、上記および特許請求の範囲における括弧内の符号は、特許請求の範囲に記載され
た用語と後述の実施形態に記載される当該用語を例示する具体物等との対応関係を示すも
のである。
本実施形態に係る車載システムの構成を示す図である。 制御装置が実行する処理のフローチャートである。 道路方向検出処理の詳細を示すフローチャートである。 撮影画像の一例である。 撮影画像の一部範囲11を表す図である。 検出された直線の地面上における配置を表す画像である。 3次元空間中において検知ライン15の配置を例示する図である。 撮影画像中の検知ライン21〜23および分割線31〜35を示す図である。
以下、本発明の一実施形態について説明する。図1に、本実施形態に係る車両周辺監視装置システムの構成を示す。この車両周辺監視装置システムは、車両に搭載され、制御装置1、カメラ2、ディスプレイ3、音声出力装置4等を備えている。
制御装置1(車両周辺監視装置の一例に相当する)は、CPU、RAM、ROM等を備えており、CPUがROMに記憶されたプログラムを実行することで、後述する処理を実現する。
この制御装置1には、図示しないギア位置センサからギア位置を示す信号が入力されるようになっており、また、図示しない車速センサから車両の位置を示す信号が入力されるようになっており、また、図示しないステアリング角センサからステアリング角の信号が入力されるようになっている。
カメラ2は、車両の後部に取り付けられ、車両外の車両後方を繰り返し(1/30秒に1回)撮影し、撮影の結果得た撮影画像を逐次制御装置1に入力するようになっている。カメラ2の光軸は、車両の後方斜め下(例えば俯角45°)を向いている。
ディスプレイ3は、制御装置1の制御に従って、車両内の乗員(ドライバー等)が見える様に画像を表示する装置である。音声出力装置4は、制御装置1の制御にしたがって、車両内の乗員が聞こえる様に音声を出力する装置である。
以下、上記のような構成の車両周辺監視装置システムの作動について説明する。制御装置1は、車両の主電源(例えばIG)がオンされると起動し、図2に示す処理の実行を開始する。そしてまずステップ105で、ギア位置がRレンジ(後退位置)になるまで待ち、Rレンジになると、ステップ110に進む。ステップ110では、カメラ2から最新の撮影画像を取得する。撮影画像は、図4に示すように、歪んだ画像となっている。
続いてステップ115では、道路方向検出処理を実行する。具体的には、図3のフローチャートに示すように、まずステップ210で、直前のステップ110で取得した最新の撮影画像のエッジ抽出を行う。エッジ抽出の方法としては、周知のものを用いるが、エッジ抽出の対象としては、図5に示すように、撮影画像中の一部範囲11(左右方向中央、上下方向中央より下部)に限定する。このようにすることで、地面でない部分(例えばビル)のエッジを抽出してしまう可能性を低減する。
続いてステップ220では、エッジ抽出された後の撮影画像(ただし上記一部範囲11のみ)に対して歪み補正を行う。歪み補正の方法としては、周知のものを用いる。
続いてステップ230では、歪み補正された後の撮影画像に対して周知のハフ変換による直線検出を行う。このハフ変換による直線検出では、周知の通り、撮影画像中で検出したエッジの位置座標毎に、当該位置座標(x、y)に対応するハフ空間上の複数個の領域(ρ、θ)に投票し、すべてのエッジの位置座標について投票した後、投票数が所定基準数以上となった領域(ρ、θ)を抽出し、抽出した領域(ρ、θ)が表す直線を、検出した直線とする。したがって、検出した各直線には、その直線に対応する投票数(エッジ位置座標の投票数)が決まっている。
続いてステップ240では、直線が検出された(ただし上記一部範囲11のみ)撮影画像に対して周知の鳥瞰変換を施す。この鳥瞰変換は、車両から所定の仰角で斜め下方向を向いた光軸で撮影された撮影画像に対する視点変換であり、その視点変換によって地面の上方から地面を垂直に(すなわち仰角90°で)見た場合の画像に撮影画像を変換する変換である。なお、この鳥瞰変換の際、直前のステップ230で検出された直線は、地面と同じ高さの位置に存在するとみなす。
この鳥瞰変換により、撮影画像中に検出された直線の鳥瞰変換が行われ、図6に示すように、検出された直線の地面上における配置を表す画像を得ることができる。なお、図6における点線10は、車両の後端部の輪郭を仮想的に表したものであり、括弧内の数字は、その括弧の近くの直線に対する投票数を例示したものである。
続いてステップ250では、検出した複数の直線のハフ変換時の投票数に基づき、ハフ変換後の直線の傾き毎に投票数を集計する。具体的には、鳥瞰変換後の直線の傾きを複数の傾き領域に分割する。そして、鳥瞰変換した結果の画像中で、検出した各直線の傾きを算出する。そして、検出した直線のそれぞれについて、その直線の傾きが属する傾き領域に、その直線の投票数を投票する。この投票結果により、ハフ変換によってどの傾き範囲に最も多く投票されたのかがわかる。
続いてステップ260では、投票数が最大となった傾き範囲を特定し、特定した傾き範囲内の所定の傾き(例えば、最大投票数の傾き範囲の中央値)を特定し、特定した傾きの直線が延びる方向を、道路の延びる方向であるとして検出する。
このように、ハフ変換時の投票数を傾き範囲毎に集計して道路方向を検出することもできるが、他の例として、ハフ変換時の投票数ではなく直線の数を傾き範囲毎に集計して道路方向を検出することも可能である。しかし、前者の方法の方が、より正確に等路方向を検出することができる。
このようなステップ210〜260の処理により、図2のステップ115における道路方向(すなわち、道路の延びる方向)の検出が実現する。
続くステップ120では、直前のステップ115で検出した道路方向に基づいて、3次元空間中に検知ラインを設定する。この設定処理について、図7を用いて説明する。図7では、3次元空間中で互いに直交するx軸、y軸、z軸を表している。x軸およびy軸を含むx―y平面が地面に相当し、z軸方向が地面に垂直な上方向に相当する。なお、このx軸、y軸、z軸は、自車両に対して固定された車両固定座標系(車両を基準とする座標系)の座標軸である。したがって、自車両が地面に対して移動すれば、x軸、y軸、z軸もその移動同様に移動する。
x−y平面上の矢印線14が、直前のステップ115で検出された道路方向である。この場合、検知ライン15は、この道路方向14に平行なであり、かつ、地面よりも所定高さ(例えば1メートル)だけ高い位置に設定される。図7の一点鎖線16は、この検知ライン16をx−y平面に投影したラインである。また、検知ライン15の位置は、車両の後方の所定位置(例えば、車両の後端からの最短距離が所定距離となる位置)に配置される。このように、検知ライン15を地面よりも高い位置に配置することで、車両、人等、重心位置が地面よりも高い位置にある物体をより正確に検知できる。
なお、検知ラインは、1本だけ設定しもよいし複数本を設定してもよい。例えば、3本設定する場合は、車両の後端からの最短距離が3m、6m、12mとなる位置に配置してもよい。
ステップ120に続いては、ステップ123〜160のループ処理を繰り返し実行する。ループ処理の各回において、まずステップ123では、カメラ2から最新の撮影画像を取得する。続いてステップ125では、ステップ120で3次元空間中に設定した検知ラインの撮影画像中における位置を算出する。ここでいう撮影画像とは、直前のステップ123で取得した撮影画像である。検知ラインの撮影画像中における位置は、所定の幅を有した線状(撮影画像が歪んでいるので曲線状)の領域となる。
検知ラインの撮影画像中における位置の算出方法は、3次元空間中の各位置(車両を基準とする相対位置)と当該撮影画像中の各位置との間の対応関係のデータがあらかじめ記憶媒体(例えばROM)に記憶されていれば、それを使用して算出してもよい。
続いてステップ130では、各検知ラインの撮影画像内における位置(以下、撮影画像内の検知ラインという)を複数個の検知領域に領域分けし、分けられた検知領域毎にしきい値を設定する。このしきい値は、後述するように、各検知領域における画素間の輝度値の変化量と比較するためのしきい値である。
具体的には、図8の撮影画像中の仮想的な分割線31〜35に示すように、各検知ライン21〜23毎に、車両の後方正面から右側に3領域、左に3領域の計6領域に分ける。分割線31、32の間の検知領域および分割線31、34の間の検知領域は、車両後端から6m以下の近距離領域であり、分割線32、33の間の検知領域および分割線34、35の間の検知領域は、車両後端から6m以上15m以下の中距離領域であり、分割線33から右側の検知領域および分割線35から左側の検知領域は、車両後端から15m以上の遠距離領域である。つまり、図8中では、6×3本=18個の検知領域が存在する。そして、各検出領域内に対して設定されるしきい値は、当該検出領域内の平均輝度の20%とする。
続いてステップ135では、これら撮影画像中の検知ライン31上の画素の輝度値を読み出し、基づいて、車両に接近する物体があるか否かを判定する。具体的には、各検知ライン21〜23の各検知領域(例えば、検知ライン21上の右側近距離領域)に対して、輝度値に基づくエッジ検出を行う。
エッジ検出の具体的方法は、以下の通りである。まず、当該検知領域内においてエッジ検出を行う。具体的には当該検知領域内の画素の平均輝度を算出する。続いて、当該検知領域内の各画素に対して、当該画素の両隣の画素の輝度差を算出する。続いて、算出した輝度差の絶対値が、ステップ130で当該検知領域に設定されたしきい値(当該領域内の上記平均輝度の20%というしきい値)より大きいか否かを算出し、大きければ、当該画素の位置に物体の端部(すなわちエッジ)があると判定し、大きくなければ、当該画素の位置にエッジがないと判定する。
このようなエッジ検出を各検知領域に対して行うことで、撮影画像中の検出ライン21〜23におけるエッジの有無および有る場合は1個または複数のエッジの所在位置を特定することができる。なお、検知領域毎にエッジ検出のためのしきい値を設定し、そのしきい値として、対象の検出領域に限定した範囲内での平均輝度を使用するので、撮影範囲内の一部は日向で一部は日陰となっているような場合においても、エッジ検出を誤ってしまう可能性が低くなる。
各検知ライン21〜23の各検知領域に対して、エッジ検出を行った結果、1つもエッジを検出できなかった場合は、接近物体がないと判定してステップ140に進む。また、エッジを1つ以上検出した場合は、検出した各エッジについて、自車両に近づいているか否かを判定する。そして、自車両に近づいているエッジが1つもなければ、接近物体がないと判定してステップ140に進み、自車両に近づいているエッジが1つでもあれば、接近物体があると判定してステップ145に進む。
検出した各エッジが、自車両に近づいているか否かは、今回のステップ135の1回前に実行したステップ135における検出ライン上の輝度値に基づいて判定する。例えば、今回のステップ135で、自車両の後端から6m離れた検知ライン23上のある位置にエッジAを検出した場合、そのエッジの輝度に最も値が近い輝度の画素を、1回前のステップ135で取得した自車両の後端から6m離れた検知ライン23上の画素から抽出し、当該抽出した画素の位置座標が、エッジAの位置座標よりも撮影画像中央に近くなっている(すなわち、自車両に近くなっている)場合に、検出したエッジAが、自車両に近づいていると判定し、撮影画像中央に近くなっていない場合は、検出したエッジAが、自車両に近づいていないと判定する。なお、図2の処理を開始してから今回が1回目のステップ135の実行機会である場合は、エッジを検出した場合も接近物体なしと判定してステップ140に進む。
接近物体がないと判定した後のステップ140では、通常画像表示制御を行う。接近物体があると判定した後のステップ145では、検知時用画像表示制御を行う。通常画像表示制御と検知時用画像表示制御では、直前のステップ123で取得した撮影画像をディスプレイ3に表示させる点は同じである。両者が異なるのは、検知時用画像表示制御では、自車両への接近物体があることを知らせるための警告マークと共に撮影画像をディスプレイ3に同時表示させるのに対し、通常画像表示制御ではそのような警告マークを表示させない点である。また、検知時用画像表示制御では、音声出力装置4に警告音声を出力させ、通常画像表示制御では、音声出力装置4に警告音声を出力させないようにしてもよい。
ステップ140、145の後は、ステップ150に進み、車両移動信号を取得する。車両移動信号は、車両の移動を表す信号であり、具体的には、ステアリングセンサから出力されたステアリング角を示す信号、および、車速センサから出力された車速を示す信号を含む。
続いてステップ155では、直前のステップ150で取得した車両移動信号に基づいて、自車両が移動しても検知ラインが地面に対して静止するよう、3次元空間中の検知ラインを移動させる。すなわち、3次元空間中の検知ラインの車両固定座標値(x、y、z)を、検知ラインが地面に対して静止するよう、車両の移動に応じて、変化させる。
具体的には、直前のステップ150で取得した車両移動信号に基づいて現在のステアリング角および車速を特定し、特定したステアリング角および車速を維持しながら所定時間Δtだけ車両が移動した場合の、検知ラインの車両固定座標値(x、y、z)の変化後の値(x1、y1、z1)を算出する。ここで、所定時間Δtは、今回のループ処理におけるステップ123の撮影画像取得タイミングから、次回のループ処理におけるステップ123の撮影画像取得タイミングまでの時間に相当する。本実施形態では、ステップ123における撮影画像取得は、定期的に(例えば1/30秒周期で)実行されるようになっている。
より具体的には、変化前の(すなわち現在の)検知ラインの車両固定座標値(x、y、z)を(x0、y0、z0)とし、特定した車速をv、特定したステアリング角に応じた車両の旋回半径をrとし、d=v×Δt、θ=d/rとすると、
x1=x0×cosθ+(y0−r)×sinθ+CM×(1−cosθ)
y1=y0×cosθ−(x0×CM)×sinθ+r×(1−cosθ)
z1=z0
という式により、変化後の検知ラインの車両固定座標値を算出することができる。なお、CMは、車両固定座標値の原点と自車両の後輪車軸中心(自車両の回転中心)とのオフセットに相当する値であり、あらかじめ記憶媒体(例えばROM)に記録された値を用いる。
続いてステップ160では、シフト位置がRレンジにあるか否か判定し、Rレンジになければステップ105に戻り、Rレンジにあれば、今回のループ処理を終了して次回のループ処理を開始するため、ステップ123に戻る。その後のステップ123を経た125では、直前のステップ155において3次元空間中で移動した検知ライン(位置座標x1、y1、z1)に基づいて、当該検知ラインの撮影画像(直前のステップ123で取得した最新の撮影画像)中における位置を算出する。そしてステップ135では、新たに算出された撮影画像中の検知ライン上の画素の輝度値に基づいて、接近物体の有無を検知する。
制御装置1は、このように、ステップ105〜120までの処理を実行し、ステップ125〜160までのループ処理を繰り返し実行することで、車両が移動しても、最初に検知した道路方向に沿った検知ラインを対象に接近物体の検知を行うことができる。
以上説明した通り、本実施形態の制御装置1は、検出した道路方向に平行な検知ラインを設定し(ステップ120)、設定した検知ラインの撮影画像中における位置を算出し(ステップ125)、撮影画像中の検知ラインの位置における画素の値の変化(異なる画素間の変化)に応じて情報表示を行う(ステップ135、140、145)。このように、道路の延びる方向である道路方向を検出し、検出した道路方向に沿ったラインを、検出用のラインとして撮影画像中に設定することで、道路上の移動体を従来よりもドライバーに認識させ易くすることができる。
また、制御装置1は、は、車両の移動を表す車両移動信号に基づいて、検知ラインが地面に対して静止するよう、検知ラインの撮影画像中における位置を変化させる。このようにすることで、車両が移動しても、検知ラインの撮影画像中の向きが道路方向に対してずれてしまうことがなくなる。
また、制御装置1は、ステップ135において、撮影画像中の検知ラインの位置を複数個の検知領域に領域分けし(図8参照)、分けられた検知領域毎にしきい値を設定し、各検知領域で、当該各検知領域における画素間の輝度値の変化量が、当該検知領域に対して設定されたしきい値よりも大きい場合に、物体の端部を検出し、物体の端部が検出されたことに基づいて警告を行い、物体の端部が検出されなかったことに基づいて警告を行わない。
このように、検知ラインの位置を複数個の検知領域に領域分けし、分けられた検知領域毎にしきい値を設定することで、検知ラインの位置によって被写体の環境(日照の有無等)が大きく変化する場合にも、しきい値を検知領域毎に変えることで対応可能である。
また、制御装置1は、カメラ2によって撮影された撮影画像のエッジ抽出を行い、抽出されたエッジに基づいて直線検出を行い、その直線検出によって検出された直線の方向に基づいて、道路方向を検出する。
このように、接近物体を検知するためのカメラを流用して、当該撮影画像中のエッジに基づいて検出された直線を用いて撮影画像を抽出することで、新たなハードウェアを導入することなく道路方向の検出を行うことができる。
また、制御装置1は抽出されたエッジに基づいてハフ変換による直線検出を行い、その直線検出によって検出された複数の直線の鳥瞰変換を行い、それら複数の直線のハフ変換時の投票数に基づき、当該鳥瞰変換後の当該複数の直線の傾き範囲毎に当該投票数を集計し、最も投票数が多い傾き範囲内の傾きを特定し、特定した傾きの直線が延びる方向を道路方向として検出することを特徴とする。
このように、ハフ変換時の投票数を傾き範囲毎に集計して道路方向を検出することもできるが、他の例として、ハフ変換時の投票数ではなく直線の数を傾き範囲毎に集計して道路方向を検出することも可能である。しかし、前者の方法の方が、より正確に等路方向を検出することができる。
なお、上記実施形態において、制御装置1が、図2のステップ115を実行することで検出手段の一例として機能し、ステップ110、123を実行することで取得手段の一例として機能し、ステップ120、125、155を実行することで設定手段の一例として機能し、ステップ135、140、145を実行することで表示手段の一例として機能する。
(他の実施形態)
以上、本発明の実施形態について説明したが、本発明の範囲は、上記実施形態のみに限定されるものではなく、本発明の各発明特定事項の機能を実現し得る種々の形態を包含するものである。例えば、以下のような形態も許容される。
(1)上記実施形態では、図3に示すような処理で道路方向を検知しているが、必ずしもこのような方法を用いなくても良い。例えば、制御装置1が道路データを記憶媒体から読み出すことができるようになっており、また、制御装置1がGPS受信機等からの信号に基づいて自車両の位置を特定することができるようになっているとする。そのような場合には、自車両の位置に最も近い道路の延びる方向を、地図データ中のノードおよび形状補間点の位置情報に基づいて検出するようになっていてもよい。
あるいは、制御装置1が路側に設置された通信機と通信する機能を有している場合は、当該通信機から送信される道路方向の情報に基づいて道路方向を検出するようになっていてもよい。
あるいは、制御装置1は、自車両の走行中にカメラ2からの撮影画像を用いて道路の白線検出を行い、その白線の延びる方向を逐次更新し、自車両が停止したときに、最後に更新された白線の延びる方向の情報と、その最後の更新時点以降の自車両の位置および姿勢の変化の情報とに基づいて、道路方向を検知するようになっていてもよい。
(2)また、上記実施形態のステップ115において、何らかの原因で道路方向の検出に失敗した場合は、あらかじめ定められた所定の方向(例えば、車両の左右方向に平行な方向)を道路方向として特定するようになっていてもよい。
(3)また、上記実施形態では、道路方向の検出はステップ115の1回のみであるが、必ずしもこのようになっておらずともよく、例えば、撮影画像を取得する度に道路方向を検出するようになっていてもよい。後者の場合、図2のステップ123、160を削除して、ステップ155の後にステップ105に戻るようにすればよい。その場合、制御装置1が、ステップ110を実行することで、取得手段の一例として機能する。
(4)また、上記実施形態では、カメラ2は、車両外の車両後方の路面を撮影するようになっているが、必ずしもこのようになっておらずともよく、例えば、カメラ2は、車両外の車両前方の路面を撮影するようになっていてもよい。この場合、図2の処理におけるシフト位置がRレンジか否かの判定は、シフト位置が前進位置であるか否かの判定に置き換えればよい。また、カメラ2は、車両外の車両側方の路面を撮影するようになっていてもよい。
(5)また、上記の実施形態において、制御装置1がプログラムを実行することで実現している各機能は、それらの機能を有するハードウェア(例えば回路構成をプログラムすることが可能なFPGA)を用いて実現するようになっていてもよい。
1 制御装置
2 カメラ
3 ディスプレイ
4 音声出力装置
11 撮影画像の一部範囲
15 3次元空間中の検知ライン
21〜23 撮影画像中の検知ライン

Claims (8)

  1. 道路の延びる方向である道路方向を、車両を基準として検出する検出手段(115)と、
    前記車両の外部の周囲を撮影するカメラ(2)によって撮影された撮影画像を取得する取得手段(110、123)と、
    前記検出手段(115)が検出した前記道路方向に沿って平行な検知ラインを設定し、設定した前記検知ラインの前記撮影画像中における位置を算出する設定手段(120、125、155)と、
    前記撮影画像中の前記検知ラインの位置における画素の値の変化に応じて情報表示を行う表示手段(135、140、145)と、を備えたことを特徴とする車両周辺監視装置。
  2. 前記設定手段(120、125、155)は、前記検出手段(115)が検出した前記道路方向に平行な検知ラインを、3次元空間中の地面よりも高い位置に設定し、設定した前記検知ラインの前記撮影画像中における位置を算出することを特徴とする請求項1に記載の車両周辺監視装置。
  3. 前記設定手段(120、125、155)は、前記車両の移動を表す車両移動信号に基づいて、前記車両が移動しても前記検知ラインが地面に対して静止するよう、前記検知ラインの前記撮影画像中における位置を変化させることを特徴とする請求項1または2に記載の車両周辺監視装置。
  4. 前記表示手段は、前記撮影画像中の前記検知ラインの位置を複数個の検知領域に領域分けし、分けられた検知領域毎にしきい値を設定し、各検知領域で、当該各検知領域における画素間の輝度値の変化量が、当該検知領域に対して設定されたしきい値よりも大きい場合に、物体の端部を検出し、物体の端部が検出されたことに基づいて警告を行い、物体の端部が検出されなかったことに基づいて警告を行わないことを特徴とする請求項1ないし3のいずれか1つに記載の車両周辺監視装置。
  5. 前記検出手段は、前記カメラ(2)によって撮影された撮影画像のエッジ抽出を行い、抽出されたエッジに基づいて直線検出を行い、その直線検出によって検出された直線の方向に基づいて、前記道路方向を検出することを特徴とする請求項1ないし4のいずれか1つに記載の車両周辺監視装置。
  6. 前記検出手段は、抽出された前記エッジに基づいてハフ変換による直線検出を行い、その直線検出によって検出された複数の直線の鳥瞰変換を行い、前記複数の直線のハフ変換時の投票数に基づき、当該鳥瞰変換後の前記複数の直線の傾き範囲毎に当該投票数を集計し、最も投票数が多い傾き範囲内の傾きを特定し、特定した傾きの直線が延びる方向を道路方向として検出することを特徴とする請求項5に記載の車両周辺監視装置。
  7. 前記検知ラインは、前記撮影画像中において曲線状になっていることを特徴とする請求項1ないし6のいずれか1つに記載の車両周辺監視装置。
  8. 前記設定手段は、前記検出手段(115)が検出した前記道路方向に沿って平行な複数本の検知ラインを設定し、設定した前記複数本の検知ラインの前記撮影画像中における位置を算出し、
    前記表示手段は、前記撮影画像中の前記複数本の検知ラインの位置における画素の値の変化に応じて情報表示を行い、
    前記複数本の検知ラインは、前記撮影画像中で、左右方向中央部よりも左右方向端部において、互いの間隔が狭くなっていることを特徴とする請求項1ないし7のいずれか1つに記載の車両周辺監視装置。
JP2012014245A 2012-01-26 2012-01-26 車両周辺監視装置 Expired - Fee Related JP5874411B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012014245A JP5874411B2 (ja) 2012-01-26 2012-01-26 車両周辺監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014245A JP5874411B2 (ja) 2012-01-26 2012-01-26 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2013156672A JP2013156672A (ja) 2013-08-15
JP5874411B2 true JP5874411B2 (ja) 2016-03-02

Family

ID=49051826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014245A Expired - Fee Related JP5874411B2 (ja) 2012-01-26 2012-01-26 車両周辺監視装置

Country Status (1)

Country Link
JP (1) JP5874411B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101584907B1 (ko) * 2014-07-29 2016-01-22 울산대학교 산학협력단 관심 영역을 이용한 차선 인식 방법 및 그 장치
KR101592171B1 (ko) * 2014-09-22 2016-02-05 에스엘 주식회사 차량의 주변 감시 장치 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0410172A (ja) * 1990-04-27 1992-01-14 Seikosha Co Ltd 画像監視装置
JP3125836B2 (ja) * 1994-10-27 2001-01-22 矢崎総業株式会社 車両周辺監視装置
JP2005217482A (ja) * 2004-01-27 2005-08-11 Nissan Motor Co Ltd 車両周辺監視方法および装置
JP2005335437A (ja) * 2004-05-24 2005-12-08 Nissan Motor Co Ltd 車両周辺監視方法および装置
JP2011230615A (ja) * 2010-04-27 2011-11-17 Suzuki Motor Corp 駐車支援装置

Also Published As

Publication number Publication date
JP2013156672A (ja) 2013-08-15

Similar Documents

Publication Publication Date Title
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
CN106470877B (zh) 车辆用显示装置以及车辆用显示方法
US10318823B2 (en) Forward-facing multi-imaging system for navigating a vehicle
JP5958366B2 (ja) 車載画像処理装置
JP5804185B2 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
US20120327236A1 (en) Vehicle Periphery Monitoring System
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP2012159469A (ja) 車両用画像認識装置
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP2014106739A (ja) 車載画像処理装置
JP6044084B2 (ja) 移動物体位置姿勢推定装置及び方法
JP5849942B2 (ja) 車載画像処理装置
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
JP5874411B2 (ja) 車両周辺監視装置
JP2012159470A (ja) 車両用画像認識装置
JP2022154082A (ja) 表示補正システム、表示システム、表示補正方法、及びプログラム
JP2013148355A (ja) 車両位置算出装置
JP2012158227A (ja) 画像処理装置、駐車制御システム、及び、画像処理方法
JP5330341B2 (ja) 車載カメラを用いた測距装置
CN108431866B (zh) 显示控制装置以及显示控制方法
JP6718295B2 (ja) 周辺監視装置及び周辺監視方法
JP2014104840A (ja) 車載画像処理装置
JP7344776B2 (ja) 信号機認識方法及び信号機認識装置
JP2011131740A (ja) 車両の運転支援装置
JP5182589B2 (ja) 障害物検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R150 Certificate of patent or registration of utility model

Ref document number: 5874411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees