JP3683258B2 - Vehicle periphery monitoring device, image generation method, and image generation program - Google Patents
Vehicle periphery monitoring device, image generation method, and image generation program Download PDFInfo
- Publication number
- JP3683258B2 JP3683258B2 JP2003153002A JP2003153002A JP3683258B2 JP 3683258 B2 JP3683258 B2 JP 3683258B2 JP 2003153002 A JP2003153002 A JP 2003153002A JP 2003153002 A JP2003153002 A JP 2003153002A JP 3683258 B2 JP3683258 B2 JP 3683258B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- position information
- reliability
- camera
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、車両の周辺を映すカメラの画像を変形加工して、車両の周辺状況を示す合成画像を提示する車両周辺監視装置に関する技術に属する。
【0002】
【従来の技術】
近年、運転者が安全に運転できるように、カメラによって車両周辺を監視する車両周辺監視装置が実用化されつつある。
【0003】
従来の車両周辺監視装置の一例として、車両の後方など運転者の死角となる部分を映すようにカメラを設置しておき、カメラで撮影した画像を予め決められた固定の方法によって変形加工してディスプレイに表示するものがある。例えば特許文献1に開示された技術では、図20(a)のように車両の周囲に複数個のカメラを設置し、カメラで撮影した車両周辺の画像を変形加工して、図20(b)のような自車を中心として上方から見た画像を生成し、車内の表示装置に提示する。
【0004】
また、他の例として、車両に設置されたカメラで撮影した画像から、画像中の障害物の位置を算出し、障害物の位置に応じて画像を変形加工してディスプレイに表示するというものがある。例えば特許文献2に開示された技術では、車両が動いている場合に撮影時間がわずかに異なる2つの画像を用いて画像中の障害物位置を算出し、この位置を用いて画像を変形加工することによって、図21(a)のような側方視点からの合成画像を表示する。
【0005】
このような装置を用いると、運転席からは直接見ることができない死角をディスプレイで確認することができたり、上方や側方から見た画像によって障害物までの距離感がつかみやすくなったりするので、より安全な運転が可能になる。
【0006】
【特許文献1】
特開平03−99952号公報
【特許文献2】
特開平06−333200号公報
【0007】
【発明が解決しようとする課題】
ところが、上述の従来技術では、次のような問題があった。
【0008】
まず、カメラ画像を予め決められた固定の方法によって変形加工する場合、画像中の障害物の形状が考慮されないため、合成画像上で障害物の形状が歪み、この結果、合成画像が不自然になる、という問題があった。例えば特許文献1では、カメラ画像の変形加工を、画像中の物体が同一平面例えば路面平面に存在するものと仮定して行うので、図20(b)のように、路面平面は正しく表示されても、路面平面上にはない物体例えば障害物については、歪んだ不自然な画像になる。
【0009】
また、画像から算出した障害物の位置に応じて画像を変形加工する場合は、障害物の位置が正しく算出されたときは画像に歪みが生じず、自然な合成画像が生成される反面、算出した位置に誤差が多く含まれている場合、障害物が誤った位置に表示されたり、あるいは合成画像に障害物が表示されなかったりするおそれがある。例えば特許文献2では、撮影時間がわずかに異なる2枚の画像から輝度エッジの動きを抽出することによって障害物の位置を算出しているが、実際の走行環境では、算出した位置に誤差を多く含む場合や障害物の位置を全く検出できない場合が頻繁に起こる。位置に誤差を多く含む場合には、図21(b)のように、障害物が実際よりも遠くに表示されたり、あるいは合成画像上に表示されなかったりするため、運転者の誤解をまねきやすく、安全な運転の妨げになるおそれあった。
【0010】
前記の問題に鑑み、本発明は、車両周辺の状況を示す画像を、従来よりも、自然に、かつ、運転者の誤解をまねかないように、提示可能な車両周辺監視装置を提供することを課題とする。
【0011】
【課題を解決するための手段】
前記の課題を解決するために、本発明は、カメラ画像中の複数の点について、位置情報と、その位置情報がどの程度正確に算出されたかを表す信頼度とを算出し、この信頼度に応じて、位置情報を用いてカメラ画像を変形加工する画像合成方式と、位置情報を用いないで所定の方法によってカメラ画像を変形加工する画像合成方式とを、画像全体で、あるいは部分的に、適宜選択する。これにより例えば、信頼度が高く、位置情報が正しく算出されている場合は、位置情報を用いて歪みの少ない合成画像が表示される一方、信頼度が低く、位置情報に大きな誤差が含まれている場合は、位置情報は用いないが、障害物が誤った位置に表示されたり消えたりはしない合成画像が表示される。したがって、従来よりも、自然で、かつ、運転者の誤解をまねかないような車両周辺の状況を示す画像を、提示することができる。
【0012】
【発明の実施の形態】
本発明の第1態様によれば、車両の周辺を映すカメラの画像から前記車両の周辺状況を示す合成画像を生成して提示する車両周辺監視装置として、前記カメラ画像中の複数の点について、位置情報と当該位置情報の信頼度とを算出する位置算出部と、前記カメラ画像から前記位置情報を用いて第1の合成画像を生成する可変画像合成部と、前記カメラ画像から前記位置情報を用いないで所定の方法によって第2の合成画像を生成する固定画像合成部と、前記信頼度に応じて、前記第1および第2の合成画像のうちいずれか一方を提示対象の合成画像として選択する合成方式選択部とを備えたものを提供する。
【0013】
本発明の第2態様によれば、前記合成方式選択部は、前記位置情報を加味して合成画像の選択を行う第1態様の車両周辺監視装置を提供する。
【0014】
本発明の第3態様によれば、前記合成方式選択部は、前記位置情報を参照して、前記複数の点のうち画像合成に用いられる領域に属する点を抽出し、抽出した点に係る信頼度を合成画像の選択に用いる第2態様の車両周辺監視装置を提供する。
【0015】
本発明の第4態様によれば、前記可変画像合成部および固定画像合成部は、前記第1および第2の合成画像において、路面の位置が互いに一致するように、画像合成を行う第1態様の車両周辺監視装置を提供する。
【0016】
本発明の第5態様によれば、前記合成方式選択部は、前記第1および第2の合成画像のうちいずれか一方を選択する代わりに、前記第1および第2の合成画像から前記信頼度に応じて画像を部分的に選択し、選択した画像から提示対象の合成画像を生成する第1態様の車両周辺監視装置を提供する。
【0017】
本発明の第6態様によれば、前記合成方式選択部は、選択した合成画像に当該合成画像の特徴に応じた所定の表示を重畳する第1態様の車両周辺監視装置を提供する。
【0018】
本発明の第7態様によれば、前記車両は障害物センサが設けられており、前記合成方式選択部は、前記障害物センサから得られた障害物までの距離値を示す距離情報を加味して合成画像の選択を行う第1態様の車両周辺監視装置を提供する。
【0019】
本発明の第8態様によれば、前記合成方式選択部は、前記距離情報および位置情報を参照して、前記障害物に係る前記位置情報の精度を評価し、精度が十分でないと判断したとき、信頼度に応じた合成画像の選択を行わないで、前記第2の合成画像を選択する第7態様の車両周辺監視装置を提供する。
【0020】
本発明の第9態様によれば、前記車両は当該車両の移動方向を検出する移動方向検出手段を有し、前記合成方式選択部は、前記移動方向検出手段から得られた移動方向を加味して、合成画像の選択を行う第1態様の車両周辺監視装置を提供する。
【0021】
本発明の第10態様によれば、前記合成方式選択部は、前記複数の点のうち前記移動方向の画像領域に属する点を特定し、特定した点に係る前記信頼度を合成画像の選択に用いる第9態様の車両周辺監視装置を提供する。
【0022】
本発明の第11態様によれば、車両の周辺を映すカメラの画像から、前記車両の周辺状況を示す合成画像を生成する画像生成方法として、前記カメラ画像中の複数の点について、位置情報と、当該位置情報の信頼度とを求める第1のステップと、前記信頼度を、所定の基準と比較する第2のステップと、前記第2のステップにおいて前記信頼度が前記所定の基準よりも高いと判断したとき、前記カメラ画像から、前記第1のステップで求めた位置情報を用いて、合成画像を生成する第3のステップと、前記第2のステップにおいて前記信頼度が前記所定の基準よりも低いと判断したとき、前記カメラ画像から、前記位置情報を用いないで、所定の方法によって合成画像を生成する第4のステップとを備えたものを提供する。
【0023】
本発明の第12態様によれば、前記第1のステップにおいて、第1および第2のカメラ画像について、対応点を探索し、特定した対応点について、前記第1および第2のカメラ画像における原画像座標値から3次元位置座標値を求め、前記原画像座標値および3次元位置座標値を、当該対応点の位置情報として定め、前記3次元位置座標値から、前記第1および第2のカメラ画像における画像座標値を逆算し、逆算した画像座標値と、前記原画像座標値とを用いて、前記位置情報の信頼度を求める第11態様の画像生成方法を提供する。
【0024】
本発明の第13態様によれば、車両の周辺を映すカメラの画像から、前記車両の周辺状況を示す合成画像を生成する方法を、コンピュータに実行させるプログラムとして、コンピュータに、前記カメラ画像中の複数の点について、位置情報と、当該位置情報の信頼度とを求める第1のステップと、前記第1のステップで求めた信頼度を、所定の基準と比較する第2のステップと、前記第2のステップにおいて前記信頼度が前記所定の基準よりも高いと判断したとき、前記カメラ画像から、前記1のステップで求めた位置情報を用いて、合成画像を生成する第3のステップと、前記第2のステップにおいて前記信頼度が前記所定の基準よりも低いと判断したとき、前記カメラ画像から、前記位置情報を用いないで、所定の方法によって合成画像を生成する第4のステップとを実行させるものを提供する。
【0025】
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0026】
(第1の実施形態)
図1は本発明の第1の実施形態に係る車両周辺監視装置の構成を示すブロック図である。図1の車両周辺監視装置は、車両の周辺を映すカメラの画像から、車両の周辺状況を示す合成画像を生成し、これをディスプレイに提示する。
【0027】
図1において、11a,11bは車両の周辺を映すカメラ、12a,12bはカメラ11a,11bによって得られたアナログ映像信号をデジタル化するA/D変換器、13a,13bはデジタル化されたカメラ画像を一時的に保持するフレームメモリである。また、14はカメラ画像を入力とし、カメラ画像中の複数の点について位置情報PIとその信頼度RLを算出する位置算出部、15は位置情報PIを用いて、カメラ画像を変形加工して、別視点からの第1の合成画像SI1を生成する可変画像合成部、16は位置情報PIを用いないで、カメラ画像を所定の方法によって変形加工して別視点からの第2の合成画像SI2を生成する固定画像合成部、17は信頼度RLに応じて、第1および第2の合成画像SI1,SI2のうちいずれか一方を、提示対象の合成画像として選択する合成方式選択部である。また,18は提示対象の合成画像を一時的に保存するフレームメモリ、19はフレームメモリ18に保存されたデジタル画像データをアナログ映像信号に変換するD/A変換器、20はアナログ映像信号を表示するディスプレイである。
【0028】
図2は本実施形態におけるカメラの設置態様とカメラ画像の例である。図2(a)に示すように、本実施形態では、車両1の後部に、2個のカメラ(カメラ1,カメラ2:図1のカメラ11a,11bに対応)が車両後方を撮影するように設置されている。OBは障害物、WLは白線である。図2(b)(c)はそれぞれ、カメラ1,カメラ2で撮影されたカメラ画像の例である。図2(b)(c)から分かるように、カメラ1,カメラ2の撮影範囲は互いにオーバーラップしている。ただし、本発明において、カメラは、車両以外の所、例えば駐車場や道路周辺の設備等に設置されていてもかまわない。また、ディスプレイ20は、車両1内の、運転者から見えやすい位置に設置されているものとする。もちろん、車両以外の場所に設置してもかまわない。
【0029】
位置算出部14は、いわゆる2眼ステレオ視による3次元位置検出を利用して、カメラ画像における複数の点の位置情報とその信頼度とを算出する。図3は位置算出部14の動作を示すフローチャートである。
【0030】
位置算出部14はまず、フレームメモリ13a,13bからカメラ画像データをそれぞれ読み出し、この2つのカメラ画像(第1および第2のカメラ画像)から対応点を特定し、その座標を算出する(S11)。
【0031】
具体的には次のように行う。まず最初に、フレームメモリ13aから第1のカメラ画像の画像データを順次読み出し、各画素を中心とした小領域における輝度変化量を、それぞれ算出する。
【0032】
次に、全画素の中から、算出した輝度変化量が大きい順に所定数の画素(u1i,v1i)(i=1…n)を選択する。輝度変化量が大きい順に選択することによって、物体の境界部上の画素などが選択されやすくなる。例えば図2(b)に示した、障害物OBのエッジに対応している画素(u1,v1)が選択されたものとする。
【0033】
次に、選択した各画素(u1i,v1i)(i=1…n)を中心とした小領域を比較基準として、第2のカメラ画像において、最も輝度差が少ない小領域をそれぞれ探索する。そして、探索された小領域の中心の画像座標値(u2i,v2i)(i=1…n)をそれぞれ算出する。図2(c)に示した点(u2,v2)は選択された点の例であり、図2(b)の点(u1,v1)と同様に障害物OBのエッジに対応している。
【0034】
このような、画像からの対応点候補の選択方法や、2画像間の対応点を検出する対応点探索方法については、例えば、"Good Features to Track", Jianbo Shi, Carlo Tomasi, IEEE Conference on Computer Vision and Pattern Recognition, 1994や、"An Iterative Image Registration Technique with an application to Stereo Vision", Bruce D. Lucas, Takeo Kanade, Proceedings of Imaging Understandig Workshop, pp121-130,1981など多くの文献に記載されているので、ここでは詳細な説明を省略する。
【0035】
次に位置算出部14は、ステップS11で特定した各対応点について、画像座標(u1i,v1i)(u2i,v2i)(i=1…n)から、3次元位置座標を算出する(S12)。ここでは、予め計測しておいた、カメラ1,2の位置関係(座標変換行列)M12,およびそれぞれのカメラパラメタf1,f2を用いる。
【0036】
いま、カメラ1,カメラ2の座標系が図4のように配置されているものとする。ある1つの点について、カメラ1の視点座標系の座標値(x1,y1,z1)とカメラ2の視点座標の座標値(x2,y2,z2)との間には、カメラ間の位置関係M12を用いて次の関係式が成り立つ。
【数1】
【0037】
また、対応点の画像座標値(u1,v1),(u2,v2)と、そのカメラ1の視点座標系の座標値(x1,y1,z1)、カメラ間の位置関係M12およびカメラパラメタf1,f2との間には、次の関係式が成り立つ。カメラパラメタf1,f2は、カメラの焦点距離に画素サイズと画像座標値の変換係数を掛けたものである。
【数2】
【0038】
予め計測されたパラメタM12,f1,f2と、算出した対応点の画像座標値(u1,v1)、(u2,v2)を(数2)に代入することによって、対応点の3次元座標(x1,y1,z1)を算出することができる。ここで、(数2)には未知数3に対して独立した一次式が4つあることと、画像から算出した対応点の画像座標値(u1,v1)、(u2,v2)は誤差を含むと考えられることから、最小二乗法を用いて3次元座標値(x1,y1,z1)を算出するものとする。これにより、誤差の影響を低減することができる。
【0039】
このようにして求めた、ある点に対応する、第1のカメラ画像における画像座標値(u1,v1)、第2のカメラ画像における画像座標値(u2,v2)、および3次元位置座標値(x1,y1,z1)をまとめた(u1,v1,u2,v2,x1,y1,z1)を、当該点の位置情報と呼ぶ。
【0040】
さらに、位置算出部14は、最小二乗法で求めた3次元座標値(x1,y1,z1)から、第1および第2のカメラ画像における画像座標値(u1’,v1’)、(u2’,v2’)を逆算する(S13)。すなわち、3次元座標値(x1,y1,z1)およびパラメタM12,f1,f2を(数2)に代入して、第1および第2のカメラ画像における画像座標値を新たに求める。
【0041】
ここで、逆算により求めた画像座標値(u1’,v1’),(u2’,v2’)は、計測誤差がない場合は、元の原画像座標値(u1,v1),(u2,v2)と一致するはずである。しかしながら、一般には、計測誤差があるため両者は一致しない。そこで、原画像座標値(u1,v1),(u2,v2)と逆算により求めた画像座標値(u1’,v1’),(u2’,v2’)との距離誤差平均eを用いて、次式によって、信頼度rを求める(S14)。
【0042】
【数3】
【0043】
この信頼度rは、対応点の座標値に計測誤差が含まれていない場合は1になり、計測誤差が大きくなるにつれて0に近づく。すなわち、算出した対応点の位置情報(u1,v1,u2,v2,x1,y1,z1)が誤差を含む度合を表しており、位置情報が信頼できるか否かの指標となる。
【0044】
このような手順によって、位置算出部14は、フレームメモリ13a,13bに格納された第1および第2のカメラ画像から、所定数の対応点の位置情報PI((u1i,v1i,u2i,v2i,x1i,y1i,z1i):i=1〜n)とその信頼度RL(ri:i=1〜n)を算出して出力する。
【0045】
可変画像合成部15はフレームメモリ13a,13bから第1および第2のカメラ画像のデータを読み出し、位置算出部14によって算出された対応点の位置情報PIを用いて、第1の合成画像SI1を生成する。ここでは、図4に示すように配置された合成カメラを仮定し、予め与えられた合成カメラの位置M10とパラメタf0とを用いて、テクスチャマッピングの手法によって画像合成を行うものとする。画像データと画像中の点の3次元座標値とを用いて、任意の視点からみた画像を合成する、いわゆるテクスチャマッピングは、コンピュータグラフィックスの分野の広く知られた技術であり、ここでは詳細な説明を省略する。なお、可変画像合成部17での画像合成はテクスチャマッピングに限定されるものではなく、例えば、合成画像において、位置情報が示す位置に、障害物を表す所定の色や図形を重畳表示する方法など、位置情報を反映させた画像合成であればよい。
【0046】
一方、固定画像合成部16はフレームメモリ13a,13bから第1および第2のカメラ画像のデータを読み出し、位置算出部14によって算出された対応点の位置情報PIを用いないで、予め定められた方法によって、第2の合成画像SI2を生成する。ここでは、図5のように、路面平面を基準にして画像合成を行うものとする。すなわち、カメラ1、カメラ2は全て路面平面を撮影していると仮定すると、カメラ1,カメラ2および合成カメラについてそれぞれ、路面に対する位置およびカメラパラメタを与えることによって、合成カメラの画像座標に対応するカメラ1またはカメラ2の画像座標を計算することができる。固定画像合成部16は合成カメラの全ての画像座標(uoi,voi)について、対応するカメラを示す値ci、およびその画像座標(ui,vi)を予め計算して参照テーブルとして記録している。そしてこの参照テーブルに従って、合成画像の各座標(uoi,voi)に対応する画素データ(ci,ui,vi)をフレームメモリ13a,13bから順次読み出し、合成画像を生成する。このような路面平面を基準にした画像合成については、例えば国際公開第00/07373号パンフレットに開示されており、ここでは詳細な説明は省略する。
【0047】
図6は図2の状況において、可変画像合成部15が生成した第1の合成画像SI1の例であり、(a)は位置算出部14によって対応点の位置情報PIが正しく算出された場合、(b)は位置情報PIに誤差が多く含まれた場合である。1Aは車両1を表す画像である。図6(a)のように、第1の合成画像SI1は、元のカメラ画像中の物体の3次元位置が維持されたまま視点が変換されているため、図2(b)(c)のようなカメラ画像と比べて、障害物OBまでの距離が分かりやすいという特徴がある。一方、図6(b)のように、位置情報PIが誤差を多く含む場合は、障害物OBの位置や形状が正確でなくなる、という特徴もある。
【0048】
これに対して図7は図2の状況において、固定画像合成部16が生成した第2の合成画像SI2の例である。図7のように、第2の合成画像SI2は、障害物OBが路面と接する領域と車両との位置関係は正確に示されるものの、路面平面に対して高さのある領域は歪んで表示され、不自然になる、という特徴がある。
【0049】
そこで合成方式選択部17は、位置算出部14によって算出された信頼度RLに応じて、第1および第2の合成画像SI1,SI2のうちいずれか一方を、提示対象の合成画像として選択し、出力する。すなわち、信頼度RLが所定の基準よりも高いと判断した場合、言い換えると、位置情報PIが誤差をあまり含まない場合は、可変画像合成部15が生成した第1の合成画像SI1を選択し、一方、信頼度RLが所定の基準よりも低いと判断した場合、言い換えると、位置情報PIが誤差を多く含む場合は、固定画像合成部16が生成した第2の合成画像SI2を選択する。
【0050】
信頼度RLと所定の基準との比較は、具体的には例えば次のように行う。まず、位置算出部14によって算出されたn個の対応点の信頼度riと、所定の閾値rthとをそれぞれ比較し、閾値rth以上である対応点の個数mを算出する。そして、閾値rth以上の対応点の割合m/nと所定の閾値mthとを比較し、割合m/nが閾値mthよりも大きいときは、信頼度RLが所定の基準よりも高いと判断して、可変画像合成部15が生成した第1の合成画像SI1を選択する。一方、割合m/nが閾値mthよりも小さいときは、信頼度RLが所定の基準よりも低いと判断して、固定画像合成部15が生成した第2の合成画像SI2を選択する。もちろん、信頼度と所定の基準との比較は、このような方法に限定されるものではなく、例えば、信頼度riが閾値rth以上である対応点の個数を、閾値と大小比較してもよい。
【0051】
カメラ11a,11bはそれぞれ,一定周期で画像を撮影する。そして、位置算出部14、可変画像合成部15、固定画像合成部16および合成方式選択部17は、カメラ画像が得られる毎に、上述した動作を繰り返し実行する。これにより、時間的に変化する車両の周辺状況に応じた合成画像がディスプレイ20に表示される。
【0052】
運転者はディスプレイ20に表示された合成画像を見て、これを参考にして運転を行う。例えば図2(a)の状況において、可変画像合成部15は、位置算出部14で位置情報PIが正しく算出されたときは図6(a)の合成画像を、位置情報PIが正しく算出されなかったときは図6(b)の合成画像を生成し、固定画像合成部16は、図7の合成画像を生成する。ここで、図6(a)の画像は図7と比べて、障害物OBの歪みが無く自然である。ところが図6(b)の画像は、運転者に障害物OBの位置について誤解を与える可能性が高いため、図7の画像の方が好ましい、といえる。
【0053】
そこで本実施形態では、合成方式選択部17が、信頼度RLを用いて位置情報PIが正しく算出されたか否かを判断し、位置情報PIが正しく算出されたときは可変画像合成部15が生成した図6(a)の合成画像を選択し、位置情報PIが誤差を多く含む場合は固定画像合成部16が生成した図7の合成画像を選択して出力する。この結果、運転者にとってより安全で、かつ自然な画像の提示が実現される。
【0054】
以上のように本実施形態によると、画像中の物体の位置情報とその信頼度を算出する位置算出部と、位置情報を用いてカメラ画像を変形加工して第1の合成画像を生成する可変画像合成部と、位置情報を用いないで、予め定められた手順でカメラ画像を変形加工して第2の合成画像を生成する固定画像合成部とを設けて、位置情報の信頼度を参照して、位置情報が正しく算出されたと判断したときは第1の合成画像を選択し、位置情報が誤差を多く含む可能性があると判断したときは第2の合成画像を選択する。これにより、合成画像において、障害物が誤った位置に表示されたり、障害物が表示されないということがなく、かつ状況に応じて歪みの少ない合成画像を表示することができるので、運転者にとってより安全で、より自然な画像の提示が可能になる。
【0055】
なお、本実施形態では、可変画像合成部15および固定画像合成部16が生成する第1および第2の合成画像は、その構図について特に限定はないものとしたが、可変画像合成部15および固定画像合成部16は、第1および第2の合成画像において、路面の位置が互いに一致するように、画像合成を行うのが好ましい。これにより、画像合成方式が頻繁に切り替わったときでも、合成画像が見にくくなることがなく、運転者が車両周辺の状況を把握しやすくなる。
【0056】
例えば、撮影状況によっては、処理を繰り返す毎に位置情報の信頼度RLが大きく変動し、第1の合成画像と第2の合成画像とが頻繁に切り替えられる場合がある。このような場合、第1および第2の合成画像の構図が大きく異なっていると、運転者が車両周辺の状況を把握しづらくなる。そこで、可変画像合成部15と固定画像合成部16とで、画像合成における合成カメラの位置と内部パラメタを予め一致させておくことによって、図6および図7のように、路面がほぼ同じ位置に示された合成画像を生成することができる。この結果、合成画像が頻繁に切り替わっても、見にくくなることはない。
【0057】
また本実施形態では、位置情報の信頼度に応じて画像合成方式を選択するものとしたが、選択のためのしきい値にヒステリシスを持たせることによって、信頼度が早い周期で微小変動した場合などに、画像合成方式の頻繁な切替を抑制することができる。同様に、所定時間が経過するまでは画像合成方式の切替が生じないよう制約を加えることによっても、画像合成方式の頻繁な切替を抑制することができる。これにより、合成画像が見やすくなり、運転者が車両周辺の状況を把握しやすくなる。
【0058】
また本実施形態では、位置情報の信頼度に応じて画像合成方式を選択するものとしたが、さらに位置情報自体も参照して、画像合成方式を選択するようにしてもよい。例えば、合成方式選択部17は、位置情報に含まれる各対応点の3次元位置および画像座標値を参照して、可変画像合成部15および固定画像合成部16における画像合成に用いられる領域に属する点を抽出する。そして、抽出した点に係る信頼度を、合成画像の選択に用いる。具体的には例えば、抽出した点の個数が所定値以上のときは、抽出した点の信頼度を用いて、上述した手順によって画像合成方式を選択する。一方、抽出した点の個数が所定値未満のときは、固定画像合成部16によって生成された第2の合成画像SI2を選択する。これにより、画像合成に用いられない領域に属する対応点の信頼度が、画像合成方式の選択に考慮されなくなるので、より適切な合成画像の提示が可能になる。
【0059】
また本実施形態では、カメラは、図2のように車両1後方を撮影するように、かつ、水平位置が異なるように設置されているものとしたが、撮影範囲やカメラ設置位置を限定するものではなく、カメラの撮影範囲が重複するように配置されていれば、その重複領域に対して本実施形態と同様な処理を行うことができる。
【0060】
また本実施形態では、対応点の位置情報の信頼度は、画像座標を基にして(数3)により求めるものとしたが、信頼度の算出はこれに限定されるものではなく、対応点の位置情報に含まれる誤差の大きさや誤りの可能性を示す尺度であればどのような基準値を用いてもよい。
【0061】
また本実施形態では、可変画像合成部15は、位置算出部14によって算出されたn個の対応点の位置情報を用いて画像合成を行うものとしたが、n個の対応点のうち信頼度が所定の閾値以上である点の位置情報のみを選択して用いてもよい。これにより、信頼度の低い位置情報が排除されるので、合成画像における合成誤りを低減できる。
【0062】
また本実施形態では、可変画像合成部15と固定画像合成部16はそれぞれ1個ずつとしたが、画像合成部の個数はこれに限定されるものではない。例えば、可変画像合成部および固定画像合成部のうち少なくとも一方を複数個設けて、合成方式選択部17が位置情報の信頼度に応じて、各画像合成部がそれぞれ生成した合成画像のうち1つを選択するようにしてもよい。
【0063】
また本実施形態では、位置算出部14は、2個のカメラで同時に撮影された画像を用いて位置を算出する、いわゆる2眼ステレオ方式を利用するものとしたが、この代わりに、時間的に連続した2個のカメラ画像を用いて位置を算出する、いわゆる動きステレオ方式を利用してもよく、本実施形態と同様の効果を得ることができる。
【0064】
(第2の実施形態)
本発明の第2の実施形態に係る車両周辺監視装置の構成は第1の実施形態とほぼ同様であり、図1に示すとおりである。第1の実施形態と異なるのは、合成方式選択部17Aが、選択した合成画像に、当該合成画像の特徴に応じた所定の表示を重畳する点である。また、合成画像の選択に際し、位置情報の信頼度RLと併せて、位置情報PI自体も組み合わせて用いる。
【0065】
具体的には次のように動作する。合成方式選択部17Aは、位置算出部14によって特定されたn個の対応点から、合成画像に現れる可能性がある障害物に属する点を抽出する。すなわち、位置情報PIに含まれる3次元位置座標値および画像座標値を基準にして、路面平面から所定距離だけ離れ、かつ画像合成に用いられる領域に属する点を抽出する。
【0066】
そして、抽出した点の個数が所定値以上である場合は、抽出した点の信頼度を用いて第1の実施形態で示した処理を行い、信頼度が所定の基準よりも高いときは可変画像合成部15が生成した第1の合成画像SI1を選択する。このとき、障害物OBの位置は正確に検出されたと判断されるので、図8(a)に示すように、例えば「障害物位置検出中」というメッセージを重畳する。一方、信頼度が所定の基準よりも低いときは固定画像合成部16が生成した第2の合成画像SI2を選択し、このときは、障害物OBの位置が正確には検出されなかったと判断されるので、図8(b)に示すように、例えば「位置算出不可:画像に歪みがあります!」というメッセージを重畳する。
【0067】
一方、抽出した点の個数が所定値未満である場合は、固定画像合成部16が生成した第2の合成画像SI2を選択し、このときは車両近傍に障害物が検出されなかったと判断されるので、図8(c)に示すように、例えば「障害物を検出していません」というメッセージを重畳する。
【0068】
ここで、可変画像合成部15が生成する第1の合成画像SI1では、図6(a)のように障害物の形状が正しく表示されるのに対して、固定画像合成部16が生成する第2の合成画像SI2では、図7のように障害物の形状が歪む場合がある。このため、利用者が図7のような合成画像を見た場合、障害物は直方体状で合成画像が歪んでいるのか、障害物がつぶれた直方体状であって合成画像は歪んでいないのかが、利用者には判断できないため、障害物の形状を誤解してしまう可能性がある。例えば運転者が、図7に示された障害物は低いので車で乗り越えることができる、と誤解した場合、安全性の面で問題がある。
【0069】
これに対して本実施形態では、図8のように、選択した合成画像に当該合成画像の特徴に応じた表示が重畳されるので、利用者は、例えば合成画像が歪みを含むことを容易に知ることができ、したがって、合成画像の性質に起因した車両周辺状況に対する誤解を避けることができる。この結果、より安全な運転が実現される。
【0070】
(第3の実施形態)
図9は本発明の第3の実施形態に係る車両周辺監視装置の構成を示すブロック図である。図1と共通の構成要素については図1と同一の符号を付しており、ここではその詳細な説明を省略する。図1と異なるのは、車両周辺の障害物を検出してその距離情報DIを出力する障害物センサ31が車両に設けられており、合成方式選択部17Bは、障害物センサ31から得られた距離情報DIを加味して、合成画像の選択を行う点である。障害物センサ31は近くにある障害物までの距離を一定周期で計測し、所定距離以内に障害物があるとき、距離情報DIを出力する。ここでは障害物センサ31は、超音波を発信してそれが反射して戻って来るまでの時間から物体までの距離を計測する、いわゆる超音波センサであるものとする。
【0071】
図10は本実施形態におけるカメラおよび障害物センサの設置態様である。図10のように、障害物センサ31はカメラ1とカメラ2の間に設置されている。なお、障害物センサ31とカメラ1,カメラ2との位置関係は予め計測されているものとする。
【0072】
本実施形態における合成方式選択部17Bの動作について説明する。合成方式選択部17Bは、障害物センサ31で障害物が検出されなかった場合、第1の実施形態と同様に、位置情報の信頼度RLを所定の基準と比較し、その比較結果に応じて合成画像の選択を行う。一方、障害物センサ31で障害物が検出された場合、まず、位置算出部14によって特定されたn個の対応点について、障害物センサ31からの距離di(i=1,…,n)をそれぞれ算出する。ここでの算出は、各対応点の位置情報と、障害物センサ31とカメラ1,カメラ2との位置関係を用いて行うことができる。次に合成方式選択部17Bは、算出した距離di(i=1,…,n)と、障害物センサ31によって検出された距離情報DIとを比較する。そして、その差が所定の誤差閾値dth以下の対応点が存在するか否か、すなわち、距離情報DIとほぼ等しい距離diを有する対応点が存在するか否かを判断する。この処理は、距離情報DIと位置情報PIとを参照して、障害物OBに関する位置情報PIの精度を評価している、といえる。
【0073】
そして合成方式選択部17Bは、距離情報DIとほぼ等しい距離diを有する対応点が存在する場合は、第1の実施形態と同様に、位置情報の信頼度RLを所定の基準と比較し、その比較結果に応じて、合成画像の選択を行う。一方、距離情報DIとほぼ等しい距離diを有する対応点が存在しない場合は、言い換えると、障害物OBに関する位置情報PIの精度が十分でないと判断されるときは、信頼度RLに応じた合成画像の選択を行わないで、固定画像合成部16が生成した第2の合成画像SI2を選択する。
【0074】
ここで、障害物センサ31は、近距離にある物体については比較的確実にその距離を検出できる。言い換えると、障害物センサ31が距離情報DIを出力したとき、距離情報DIが示す距離の位置に障害物が実際に存在する可能性は高い。これに対して、位置算出部14で実行される画像上での対応点探索や位置検出では、特に障害物の輝度や色合いが均一である場合や、障害物が背景と似ている場合などに、位置情報に誤差が多く含まれたり、障害物上の対応点自体が算出されなかったりする可能性がある。
【0075】
位置情報に誤差が含まれるという問題は、第1の実施形態で説明したように、位置情報の信頼度を基準にして画像合成方式を選択することによって、ある程度回避することができる。ところが、障害物上の対応点自体が算出されなかった場合、このことは信頼度を用いた評価からは認識できない。
【0076】
これに対して本実施形態では、合成方式選択部17Bが、距離情報DIとほぼ等しい距離diを有する対応点が存在するか否かを判断する。存在しないときは、位置情報が多くの誤差を含んでいるか、障害物上の対応点が算出されていない可能性が高い。言い換えると、障害物センサ31によって検出された障害物OBに関して、位置算出部14によって得られた位置情報PIの精度が十分でない、といえる。このとき、固定画像合成部16で生成された第2の合成画像SI2を選択することによって、障害物の位置に誤りの無い合成画像を表示できる。
【0077】
逆に、距離情報DIとほぼ等しい距離を有する対応点が存在する場合は、第1の実施の形態と同様に、信頼度を用いて画像合成方式を選択する。これにより、障害物が誤った位置に表示されたり、表示されなかったりするということがなく、かつ状況に応じて歪みの少ない合成画像を表示することができる。したがって、運転者にとってより安全で、より自然な画像の提示が可能になる。
【0078】
(第4の実施形態)
本発明の第4の実施形態に係るる車両周辺監視装置の構成は第3の実施形態とほぼ同様であり、図9に示すとおりである。第3の実施形態と異なるのは、合成方式選択部17Cが、可変画像合成部15および固定画像合成部16によって生成された第1および第2の合成画像SI1,SI2のうちいずれか一方を選択する代わりに、第1および第2の合成画像SI1,SI2から、信頼度RLに応じて、画像を部分的に選択し、提示対象の合成画像を生成する点である。
【0079】
図11は本実施形態におけるカメラの設置態様とカメラ画像の例である。ここでは、車両1の後方にある2個の障害物OBa,OBbがカメラに映されているものとする。
【0080】
位置算出部14は、図11(b)(c)のカメラ画像から複数の点の位置情報とその信頼度を算出する。一般に、複数の物体がある場合、位置算出部14によって算出される位置情報は、誤差を含む可能性や誤差の大きさが画像の領域によって異なっている。ここでは、障害物OBaの領域に属する点の位置情報は誤差が小さく、障害物OBbの領域に属する点の位置情報は誤差が大きいと仮定する。このとき、障害物OBaの領域に属する点の位置情報は信頼度が高くなり、障害物OBbの領域に属する点の位置情報は信頼度が低くなる。
【0081】
図12(a)は可変画像合成部15によって生成された第1の合成画像SI1の例であり、図12(b)は固定画像合成部16によって生成された第2の合成画像SI2の例である。ここで図12(a)を見ると、障害物OBaの領域の位置情報は信頼度が高いため、障害物OBaは正しい位置に表示されているのに対して、障害物OBbの領域の位置情報は信頼度が低く誤差を多く含むため、障害物OBbは誤った位置に合成されている。
【0082】
合成方式選択部17Cは、図13に示すように分割された複数の領域(図13では12個の領域)において、それぞれ、合成画像の部分的な選択を行う。すなわち、位置算出部14によって算出された各点の位置情報と、可変画像合成部15および固定画像合成部16の合成パラメタとを用いて、各点が対応する合成画像上での位置を算出する。そして図13に示す部分領域毎に、信頼度が所定の閾値以上のときは可変画像合成部15が生成した第1の合成画像SI1を選択し、信頼度が閾値以下のときは固定画像合成部16が生成した第2の合成画像SI2を選択する。
【0083】
図14は合成方式選択部17Cの出力画像の例である。図14において、障害物OBaの領域(図13における第9の部分領域)については、位置情報の信頼度が高いので、第1の合成画像SI1が選択されている。それ以外の領域では、第2の合成画像SI2が選択されている。ここで図14と図12(a)(b)とを比較すると、図12(a)では、障害物OBaは正しい位置に歪みが少なく表示されているものの、障害物OBbの位置がずれており、また図12(b)では、障害物OBa,OBbはともに、路面と接する領域の位置は正しく合成されているものの、路面平面に対して高さのある領域は歪んでいる。これに対して図14では、障害物OBa,OBbともに位置は正しく、障害物OBaは歪みも少ない画像として、良好に表示されており、したがってより適切な合成画像が表示されているといえる。
【0084】
以上のように本実施形態によると、第1および第2の合成画像SI1,SI2を、位置情報の信頼度に応じて部分的に選択して、合成画像を生成しているので、障害物の位置がより正しく、歪みがより少ない合成画像を表示することができる。
【0085】
なお、本実施形態では、図13に示すような所定の部分領域毎に、合成画像の選択を行うものとしたが、部分領域の個数や分割位置、大きさなどはこれに限定されるものではない。
【0086】
また、合成画像を選択する部分領域は、予め定めておく代わりに、動的に定めてもかまわない。例えば、各点の位置情報と画像合成のパラメタとから、各点が対応する合成画像上での位置を算出した後、所定サイズの単位矩形領域においてそれぞれ、点の密度と、信頼度の平均値とを算出する。そして、これらの値が所定のしきい値よりも大きいときは第1の合成画像SI1を選択し、しきい値以下のときは第2の合成画像SI2を選択するようにしてもよい。点の密度と信頼度が高い領域は、障害物の位置が正しく計測された領域なので、このような部分領域を動的に選択することによって、歪みがより少ない合成画像を生成することができる。
【0087】
なおもちろん、画像の選択に際し、上述の実施形態で示したように、位置情報PIや距離情報DIを加味してもかまわない。
【0088】
(第5の実施形態)
図15は本発明の第5の実施形態に係る車両周辺監視装置の構成を示すブロック図である。図9の構成と異なるのは、車両が、当該車両の移動方向を検出する移動方向検出手段32を有しており、合成方式選択部17Dが、移動方向検出手段32から得た移動方向を加味して、合成画像の選択を行う点である。移動方向検出手段32は例えば、車速センサと、舵角センサと、車速センサおよび舵角センサの出力から車両の移動方向を算出する手段とによって構成されるが、このような構成はすでに広く知られており、ここでは詳細な説明は省略する。
【0089】
いま図11の状況において、位置算出部14で算出された位置情報PIの信頼度RLが、障害物OBaの領域では高く、障害物OBbの領域では障害物OBaの領域に比べて低いものと仮定する。このとき、可変画像合成部15によって、図16のような第1の合成画像SI1が生成される。図16では、障害物OBaは、位置情報の誤差が小さいため正しい位置に表示されているのに対して、障害物OBbは、位置情報が誤差を多く含むため少しずれた位置に合成されている。
【0090】
合成方式選択部17Dは、移動方向検出手段32によって検出された車両の移動方向を用いて、位置算出部14によって特定された複数の点のうち、車両の移動方向の画像に対応する点を特定する。そして、特定した点に係る信頼度に応じて、合成画像の選択を行う。
【0091】
例えば合成方式選択部17Dは、車両が左後方へ移動した場合、すなわち障害物OBaの方向に進んだ場合は、障害物OBaの領域に属する点の信頼度を基準にして合成画像の選択を行い、一方、車両が右後方へ移動した場合、すなわち障害物OBbの方向に進んだ場合は、障害物OBbの領域に属する点の信頼度を基準にして合成画像の選択を行う。
【0092】
図17(a)は車両が左後方へ移動した場合に合成方式選択部17Dが出力した合成画像の例である。この場合、移動方向にあたる障害物OBaの領域の点の信頼度は高いため、可変画像合成部15が生成した第1の合成画像SI1が選択されている。一方、図17(b)は車両が右後方へ移動した場合に合成方式選択部17Dが出力した合成画像の例である。この場合、移動方向にあたる障害物OBbの領域の点の信頼度が低いため、固定画像合成部16が生成した第2の合成画像SI2が選択されている。
【0093】
ここで、車両を運転する場合、車両の移動方向の画像は非常に重要であり、移動方向にある障害物はより正しい位置に表示される方が望ましいのに対して、移動方向以外にある障害物は多少位置がずれて表示されてもさほど問題にならないと考えられる。また、わずかな位置ずれよりも歪みによる違和感の方が、影響が大きい場合があり得るので、このような場合には、本実施形態によってより適切な合成画像が出力される。
【0094】
以上のように本実施形態によると、合成画像の選択に、車両の移動方向が加味され、移動方向の画像に対応する点の信頼度が用いられるので、車両の移動方向において障害物が誤った位置に表示されず、また、移動方向以外については歪みの少ない合成画像を表示することができる。
【0095】
なお、本実施形態において、合成画像の選択基準のしきい値にヒステリシスを持たせて、さらに、そのヒステリシスの幅を車両の移動速度に応じて変化させるようにしてもよい。具体的には、車両の移動速度が大きいほど、しきい値のヒステリシスの幅を大きくする。一般に、車両の移動速度が大きいほど画像の時間的な変動が大きくなり、これに伴って信頼度の時間的な変動も大きくなる。このため、移動速度に応じてヒステリシスの幅を大きくすることによって、合成画像の頻繁な切り替わりが抑制され、したがって、運転者が車両周辺の状況を把握しづらくなるという問題を回避することができる。
【0096】
なお、本発明に係る車両周辺監視装置としては、カメラやディスプレイ、A/D変換器、D/A変換器、フレームメモリ、障害物センサおよび移動方向検出手段は、必須の構成要素では必ずしもない。
【0097】
また、上述の各実施形態では、本発明に係る個別の処理手段、すなわち位置算出部、可変画像合成部、固定画像合成部および合成方式選択部は、個別のハードウェアによって実現されるものとしたが、ソフトウェアによって実現することも可能である。この場合、本発明に係る車両周辺監視装置は、例えば図18のようなCPU41、ROM42、RAM43を備えたコンピュータによって構成され、位置算出部、可変画像合成部、固定画像合成部、合成方法選択部などの処理手段は、ROM42またはRAM43に格納されたプログラムをCPU41によって実行することによって、実現される。
【0098】
図19は図18の構成における処理の流れの一例を示すフローチャートであり、本発明に係る画像生成方法、および画像生成プログラムに対応している。まず、フレームメモリ13a,13bからカメラ画像を入力し(S21)、入力したカメラ画像から、上述の位置算出部14の動作と同様に、複数の点について、位置情報と、その位置情報の信頼度とを求める(S22)。そして、第1の実施形態で述べたように、信頼度と所定の基準とを比較して(S23)、信頼度が所定の基準よりも高いときは(S24でYes)、可変画像合成部15の動作と同様にして、位置情報を用いて、カメラ画像から合成画像を生成する(S25)。一方、信頼度が所定の基準よりも低いときは(S24でNo)、固定画像合成部16の動作と同様にして、位置情報を用いないで所定の方法によって、カメラ画像から合成画像を生成する(S26)。そして、生成した合成画像を、フレームメモリ18へ出力する(S27)。
【0099】
なお、図19の方法では、信頼度に応じて、いずれかの合成画像を選択的に生成するものとしたが、もちろん上述した各実施形態と同様に、2種類の合成画像を生成してから、信頼度に応じて選択するようにしてもかまわない。また逆に、例えば図1のようなハード構成において、合成方式選択部17が、信頼度に応じて、可変画像合成部15および固定画像合成部16のいずれか一方を、選択的に動作させるようにしてもかまわない。
【0100】
なお、本発明の用途は、車両の周辺監視に限定されるものではなく、例えば、ロボットにも適用することも可能である。例えば、遠隔操作が可能な移動ロボットにカメラと本発明に係る監視装置とを設置し、ロボット周囲の状況を示す合成画像は、ロボットのユーザが監視できるように、遠隔地に置かれたディスプレイに表示させる。本発明の各実施形態と同様の効果を得ることができる。
【0101】
【発明の効果】
以上のように本発明によると、車両の周辺状況を示す画像として、位置情報が正しく算出された場合は歪みの少ない合成画像が表示され、位置情報が大きな誤差を含む場合には、障害物が誤った位置に表示されたり消えたりしない合成画像が表示される。したがって、より自然で、かつ、より安全な画像を提示することができる。
【図面の簡単な説明】
【図1】本発明の第1および第2の実施形態に係る車両周辺監視装置の構成を示すブロック図である。
【図2】(a)は第1の実施形態におけるカメラの設置態様の例、(b)(c)は(a)におけるカメラ画像の例である。
【図3】位置算出部の動作を示すフローチャートである。
【図4】カメラ座標系の関係を示す概念図である。
【図5】路面平面を基準にした画像合成を示す概念図である。
【図6】本発明の第1の実施形態において、可変画像合成部が生成した第1の合成画像の例である。
【図7】本発明の第1の実施の形態において、固定画像合成部が生成した第2の合成画像の例である。
【図8】本発明の第2の実施形態において、提示される合成画像の例である。
【図9】本発明の第3および第4の実施形態に係る車両周辺監視装置の構成を示すブロック図である。
【図10】第3の実施形態におけるカメラおよび障害物センサの設置態様の例である。
【図11】(a)は第4の実施形態におけるカメラの設置態様の例、(b)(c)は(a)におけるカメラ画像の例である。
【図12】(a)は第4の実施形態において、可変画像合成部が生成した第1の合成画像の例、(b)は固定画像合成部が生成した第2の合成画像の例である。
【図13】合成画像の部分的な選択を行うための領域分割の例である。
【図14】第4の実施形態において、合成方式選択部が生成した合成画像の例である。
【図15】本発明の第5の実施形態に係る車両周辺監視装置の構成を示すブロック図である。
【図16】第5の実施形態において、可変画像合成部が生成した第1の合成画像の例である。
【図17】第5の実施形態において、合成方式選択部が出力した合成画像の例である。
【図18】本発明に係る車両周辺監視装置をコンピュータを用いて構成した場合の構成を示すブロック図である。
【図19】図18の構成における処理の流れを示すフローチャートである。
【図20】従来技術を示す図である。
【図21】従来技術と、その問題点を示す図である。
【符号の説明】
1 車両
11a,11b カメラ
14 位置算出部
15 可変画像合成部
16 固定画像合成部
17,17A,17B,17C,17D 合成方式選択部
20 ディスプレイ
31 障害物センサ
32 移動方向検出手段
PI 位置情報
RL 信頼度
SI1 第1の合成画像
SI2 第2の合成画像
DI 距離情報[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique related to a vehicle periphery monitoring apparatus that deforms and processes a camera image that reflects the periphery of a vehicle and presents a composite image that indicates the surrounding state of the vehicle.
[0002]
[Prior art]
In recent years, vehicle periphery monitoring devices that monitor the periphery of a vehicle with a camera have been put into practical use so that the driver can drive safely.
[0003]
As an example of a conventional vehicle periphery monitoring device, a camera is installed so as to reflect a driver's blind spot such as the rear of the vehicle, and an image photographed by the camera is deformed by a predetermined fixing method. Some are shown on the display. For example, in the technique disclosed in
[0004]
As another example, the position of the obstacle in the image is calculated from the image taken by the camera installed in the vehicle, and the image is deformed according to the position of the obstacle and displayed on the display. is there. For example, in the technique disclosed in
[0005]
Using such a device, you can check the blind spot that cannot be seen directly from the driver's seat on the display, or it will be easier to grasp the distance to the obstacle by the image seen from the top or side. , Safer driving becomes possible.
[0006]
[Patent Document 1]
Japanese Patent Laid-Open No. 03-99952
[Patent Document 2]
Japanese Patent Laid-Open No. 06-333200
[0007]
[Problems to be solved by the invention]
However, the above-described prior art has the following problems.
[0008]
First, when the camera image is deformed by a predetermined fixed method, the shape of the obstacle in the image is not taken into consideration, so the shape of the obstacle is distorted on the composite image, and as a result, the composite image becomes unnatural. There was a problem of becoming. For example, in
[0009]
In addition, when the image is deformed according to the position of the obstacle calculated from the image, when the position of the obstacle is correctly calculated, the image is not distorted and a natural composite image is generated, but the calculation is performed. If there are many errors in the position, the obstacle may be displayed at an incorrect position, or the obstacle may not be displayed in the composite image. For example, in
[0010]
In view of the above problems, the present invention provides a vehicle periphery monitoring device capable of presenting an image showing a situation around the vehicle more naturally and without causing a driver's misunderstanding. Let it be an issue.
[0011]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention calculates position information and reliability indicating how accurately the position information is calculated for a plurality of points in a camera image, and this reliability is calculated. Accordingly, an image composition method for deforming a camera image using position information, and an image composition method for deforming a camera image by a predetermined method without using position information, in whole or in part, Select as appropriate. Thus, for example, when the reliability is high and the position information is calculated correctly, a composite image with less distortion is displayed using the position information, while the reliability is low and the position information includes a large error. If there is, the position information is not used, but a composite image is displayed in which the obstacle is not displayed at the wrong position or disappears. Therefore, it is possible to present an image that shows a situation around the vehicle that is more natural and does not cause misunderstanding of the driver.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
According to the first aspect of the present invention, as a vehicle periphery monitoring device that generates and presents a composite image indicating a surrounding situation of the vehicle from an image of a camera that reflects the periphery of the vehicle, a plurality of points in the camera image are A position calculating unit that calculates position information and reliability of the position information; a variable image combining unit that generates a first composite image from the camera image using the position information; and the position information from the camera image. A fixed image composition unit that generates a second composite image by a predetermined method without using it, and selects one of the first and second composite images as a composite image to be presented according to the reliability And a synthesis method selection unit.
[0013]
According to a second aspect of the present invention, there is provided the vehicle periphery monitoring device according to the first aspect, wherein the composition method selection unit selects a composite image in consideration of the position information.
[0014]
According to the third aspect of the present invention, the composition method selection unit refers to the position information, extracts points belonging to the region used for image composition among the plurality of points, and relates to the extracted points. A vehicle periphery monitoring device according to a second aspect in which the degree is used for selecting a composite image is provided.
[0015]
According to the fourth aspect of the present invention, the variable image composition unit and the fixed image composition unit perform image composition so that the positions of the road surfaces coincide with each other in the first and second composite images. A vehicle periphery monitoring device is provided.
[0016]
According to the fifth aspect of the present invention, instead of selecting any one of the first and second synthesized images, the synthesis method selection unit selects the reliability from the first and second synthesized images. According to the present invention, there is provided a vehicle periphery monitoring apparatus according to a first aspect that partially selects an image and generates a composite image to be presented from the selected image.
[0017]
According to a sixth aspect of the present invention, there is provided the vehicle periphery monitoring device according to the first aspect, wherein the composition method selection unit superimposes a predetermined display corresponding to the characteristics of the composite image on the selected composite image.
[0018]
According to a seventh aspect of the present invention, the vehicle is provided with an obstacle sensor, and the synthesis method selection unit takes into account distance information indicating a distance value to the obstacle obtained from the obstacle sensor. A vehicle periphery monitoring apparatus according to a first aspect for selecting a composite image is provided.
[0019]
According to the eighth aspect of the present invention, when the combining method selection unit evaluates the accuracy of the position information related to the obstacle with reference to the distance information and the position information, and determines that the accuracy is not sufficient. There is provided a vehicle periphery monitoring apparatus according to a seventh aspect, wherein the second composite image is selected without selecting a composite image according to the reliability.
[0020]
According to a ninth aspect of the present invention, the vehicle has a movement direction detection unit that detects a movement direction of the vehicle, and the combining method selection unit takes into account the movement direction obtained from the movement direction detection unit. Thus, a vehicle periphery monitoring device according to a first aspect for selecting a composite image is provided.
[0021]
According to the tenth aspect of the present invention, the composition method selection unit identifies a point belonging to the image region in the moving direction among the plurality of points, and uses the reliability related to the identified point for selecting a composite image. A vehicle periphery monitoring device according to a ninth aspect to be used is provided.
[0022]
According to the eleventh aspect of the present invention, as an image generation method for generating a composite image indicating a surrounding situation of the vehicle from an image of a camera that reflects the periphery of the vehicle, position information and a plurality of points in the camera image are obtained. A first step for determining the reliability of the position information, a second step for comparing the reliability with a predetermined reference, and the reliability in the second step is higher than the predetermined reference. When the determination is made, using the position information obtained in the first step from the camera image, a third step of generating a composite image, and the reliability in the second step is based on the predetermined reference When it is determined that the camera image is lower than the camera image, the camera image is provided with a fourth step of generating a composite image by a predetermined method without using the position information.
[0023]
According to the twelfth aspect of the present invention, in the first step, the corresponding points are searched for the first and second camera images, and the identified corresponding points are the original in the first and second camera images. A three-dimensional position coordinate value is obtained from the image coordinate value, the original image coordinate value and the three-dimensional position coordinate value are determined as position information of the corresponding point, and the first and second cameras are determined from the three-dimensional position coordinate value. An image generation method according to an eleventh aspect is provided, in which image coordinate values in an image are calculated backward, and the reliability of the position information is obtained using the calculated image coordinate values and the original image coordinate values.
[0024]
According to the thirteenth aspect of the present invention, as a program for causing a computer to execute a method of generating a composite image indicating a surrounding situation of the vehicle from an image of a camera that reflects the periphery of the vehicle, For a plurality of points, a first step for obtaining position information and reliability of the position information, a second step for comparing the reliability obtained in the first step with a predetermined reference, A third step of generating a composite image from the camera image using the position information obtained in the
[0025]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0026]
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to the first embodiment of the present invention. The vehicle periphery monitoring apparatus in FIG. 1 generates a composite image indicating the surrounding situation of the vehicle from an image of a camera that reflects the periphery of the vehicle, and presents this on a display.
[0027]
In FIG. 1, 11a and 11b are cameras that reflect the periphery of the vehicle, 12a and 12b are A / D converters that digitize analog video signals obtained by the
[0028]
FIG. 2 shows an example of camera installation and camera images in this embodiment. As shown in FIG. 2 (a), in this embodiment, two cameras (
[0029]
The
[0030]
First, the
[0031]
Specifically, this is performed as follows. First, the image data of the first camera image is sequentially read from the
[0032]
Next, a predetermined number of pixels (u1i, v1i) (i = 1... N) are selected from all the pixels in descending order of the calculated luminance change amount. By selecting the luminance change amount in descending order, the pixels on the boundary portion of the object are easily selected. For example, it is assumed that the pixel (u1, v1) corresponding to the edge of the obstacle OB shown in FIG.
[0033]
Next, using the small region centered on each selected pixel (u1i, v1i) (i = 1... N) as a comparison reference, the small region having the smallest luminance difference is searched for in the second camera image. Then, the image coordinate value (u2i, v2i) (i = 1... N) of the center of the searched small area is calculated. The point (u2, v2) shown in FIG. 2C is an example of the selected point, and corresponds to the edge of the obstacle OB like the point (u1, v1) in FIG.
[0034]
For such a method for selecting corresponding points from an image and a corresponding point search method for detecting corresponding points between two images, for example, “Good Features to Track”, Jianbo Shi, Carlo Tomasi, IEEE Conference on Computer Vision and Pattern Recognition, 1994, "An Iterative Image Registration Technique with an application to Stereo Vision", Bruce D. Lucas, Takeo Kanade, Proceedings of Imaging Understandig Workshop, pp121-130, 1981 Therefore, detailed description is omitted here.
[0035]
Next, the
[0036]
Assume that the coordinate systems of
[Expression 1]
[0037]
Also, the image coordinate values (u1, v1), (u2, v2) of the corresponding points, the coordinate values (x1, y1, z1) of the viewpoint coordinate system of the
[Expression 2]
[0038]
By substituting the previously measured parameters M12, f1, f2 and the calculated image coordinate values (u1, v1), (u2, v2) of the corresponding points into (Equation 2), the three-dimensional coordinates (x1) of the corresponding points , Y1, z1) can be calculated. Here, (Equation 2) has four linear expressions independent of the unknown 3 and the image coordinate values (u1, v1) and (u2, v2) of corresponding points calculated from the image include errors. Therefore, the three-dimensional coordinate values (x1, y1, z1) are calculated using the least square method. Thereby, the influence of an error can be reduced.
[0039]
The image coordinate value (u1, v1) in the first camera image, the image coordinate value (u2, v2) in the second camera image, and the three-dimensional position coordinate value ( (u1, v1, u2, v2, x1, y1, z1) that summarizes (x1, y1, z1) is called position information of the point.
[0040]
Further, the
[0041]
Here, the image coordinate values (u1 ′, v1 ′) and (u2 ′, v2 ′) obtained by back calculation are the original original image coordinate values (u1, v1), (u2, v2) when there is no measurement error. ) Should match. However, in general, there is a measurement error and the two do not match. Therefore, using the distance error average e between the original image coordinate values (u1, v1), (u2, v2) and the image coordinate values (u1 ′, v1 ′), (u2 ′, v2 ′) obtained by back calculation, The reliability r is obtained by the following equation (S14).
[0042]
[Equation 3]
[0043]
The reliability r is 1 when the coordinate value of the corresponding point does not include a measurement error, and approaches 0 as the measurement error increases. That is, the calculated position information (u1, v1, u2, v2, x1, y1, z1) of the corresponding points represents the degree of error, and serves as an index of whether the position information is reliable.
[0044]
By such a procedure, the
[0045]
The variable
[0046]
On the other hand, the fixed
[0047]
FIG. 6 is an example of the first composite image SI1 generated by the variable
[0048]
On the other hand, FIG. 7 shows an example of the second composite image SI2 generated by the fixed
[0049]
Therefore, the composition method selection unit 17 selects one of the first and second composite images SI1 and SI2 as a composite image to be presented according to the reliability RL calculated by the
[0050]
Specifically, the comparison between the reliability RL and a predetermined standard is performed as follows, for example. First, the reliability ri of the n corresponding points calculated by the
[0051]
Each of the
[0052]
The driver looks at the composite image displayed on the
[0053]
Therefore, in this embodiment, the composition method selection unit 17 determines whether or not the position information PI is correctly calculated using the reliability RL, and the variable
[0054]
As described above, according to the present embodiment, the position calculation unit that calculates the position information of the object in the image and its reliability, and the variable that deforms the camera image using the position information to generate the first composite image. An image synthesizing unit and a fixed image synthesizing unit that generates a second synthesized image by deforming the camera image in a predetermined procedure without using position information, and referencing the reliability of the position information. When it is determined that the position information is correctly calculated, the first composite image is selected, and when it is determined that the position information may contain many errors, the second composite image is selected. As a result, in the composite image, an obstacle is not displayed at an incorrect position or an obstacle is not displayed, and a composite image with less distortion can be displayed depending on the situation, so it is more for the driver. It is possible to present safe and more natural images.
[0055]
In the present embodiment, the composition of the first and second composite images generated by the variable
[0056]
For example, depending on the shooting situation, the reliability RL of the position information varies greatly every time the process is repeated, and the first composite image and the second composite image may be frequently switched. In such a case, if the composition of the first and second composite images is greatly different, it becomes difficult for the driver to grasp the situation around the vehicle. Therefore, the variable
[0057]
In this embodiment, the image composition method is selected according to the reliability of the position information. However, when the threshold for selection has a hysteresis, the reliability is slightly changed in a fast cycle. For example, frequent switching of the image composition method can be suppressed. Similarly, frequent switching of the image composition method can also be suppressed by adding a restriction so that the image composition method is not switched until a predetermined time elapses. This makes it easy to see the composite image and makes it easier for the driver to grasp the situation around the vehicle.
[0058]
In this embodiment, the image composition method is selected according to the reliability of the position information. However, the image composition method may be selected with reference to the position information itself. For example, the composition method selection unit 17 refers to the three-dimensional position and the image coordinate value of each corresponding point included in the position information, and belongs to the region used for image composition in the variable
[0059]
Further, in this embodiment, the camera is installed so as to photograph the rear of the
[0060]
In the present embodiment, the reliability of the position information of the corresponding point is obtained by (Equation 3) based on the image coordinates, but the calculation of the reliability is not limited to this, and the reliability of the corresponding point is not limited to this. Any reference value may be used as long as it is a scale indicating the magnitude of error contained in the position information and the possibility of error.
[0061]
In the present embodiment, the variable
[0062]
In the present embodiment, one variable
[0063]
In the present embodiment, the
[0064]
(Second Embodiment)
The configuration of the vehicle periphery monitoring apparatus according to the second embodiment of the present invention is substantially the same as that of the first embodiment, as shown in FIG. The difference from the first embodiment is that the composition method selection unit 17A superimposes a predetermined display corresponding to the characteristics of the composite image on the selected composite image. Further, when selecting a composite image, the position information PI itself is used in combination with the reliability RL of the position information.
[0065]
Specifically, it operates as follows. The composition method selection unit 17A extracts points belonging to obstacles that may appear in the composite image from the n corresponding points specified by the
[0066]
If the number of extracted points is equal to or greater than a predetermined value, the process described in the first embodiment is performed using the reliability of the extracted points. If the reliability is higher than a predetermined reference, the variable image The first combined image SI1 generated by the combining
[0067]
On the other hand, when the number of extracted points is less than the predetermined value, the second composite image SI2 generated by the fixed
[0068]
Here, in the first composite image SI1 generated by the variable
[0069]
On the other hand, in the present embodiment, as shown in FIG. 8, since the display corresponding to the characteristics of the composite image is superimposed on the selected composite image, the user can easily include, for example, the composite image including distortion. Therefore, it is possible to avoid misunderstanding of the situation around the vehicle due to the properties of the composite image. As a result, safer driving is realized.
[0070]
(Third embodiment)
FIG. 9 is a block diagram showing a configuration of a vehicle periphery monitoring apparatus according to the third embodiment of the present invention. Constituent elements common to those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted here. The difference from FIG. 1 is that an
[0071]
FIG. 10 shows an installation mode of the camera and the obstacle sensor in the present embodiment. As shown in FIG. 10, the
[0072]
The operation of the composition
[0073]
Then, when there is a corresponding point having a distance di that is substantially equal to the distance information DI, the composition
[0074]
Here, the
[0075]
As described in the first embodiment, the problem that the position information includes an error can be avoided to some extent by selecting an image composition method based on the reliability of the position information. However, if the corresponding point on the obstacle itself is not calculated, this cannot be recognized from the evaluation using the reliability.
[0076]
On the other hand, in this embodiment, the composition
[0077]
On the other hand, if there is a corresponding point having a distance substantially equal to the distance information DI, the image composition method is selected using the reliability as in the first embodiment. Thereby, an obstacle is not displayed at an incorrect position or not displayed, and a composite image with little distortion can be displayed depending on the situation. Therefore, it is possible to present images that are safer and more natural for the driver.
[0078]
(Fourth embodiment)
The configuration of the vehicle periphery monitoring apparatus according to the fourth embodiment of the present invention is substantially the same as that of the third embodiment, as shown in FIG. The difference from the third embodiment is that the composition
[0079]
FIG. 11 shows an example of camera installation and camera images in the present embodiment. Here, it is assumed that two obstacles OBa and OBb in the rear of the
[0080]
The
[0081]
FIG. 12A shows an example of the first composite image SI1 generated by the variable
[0082]
The composition
[0083]
FIG. 14 is an example of an output image of the composition
[0084]
As described above, according to the present embodiment, the first and second composite images SI1 and SI2 are partially selected according to the reliability of the position information to generate the composite image. It is possible to display a composite image with a more accurate position and less distortion.
[0085]
In the present embodiment, the composite image is selected for each predetermined partial area as shown in FIG. 13, but the number, division position, size, etc. of the partial areas are not limited to this. Absent.
[0086]
Further, the partial region for selecting the composite image may be dynamically determined instead of being determined in advance. For example, after calculating the position on the composite image corresponding to each point from the position information of each point and the image composition parameters, the density of the points and the average value of the reliability in the unit rectangular area of a predetermined size, respectively And calculate. The first composite image SI1 may be selected when these values are greater than a predetermined threshold value, and the second composite image SI2 may be selected when these values are less than or equal to the threshold value. An area with high dot density and high reliability is an area where the position of an obstacle is correctly measured. Therefore, by dynamically selecting such a partial area, a composite image with less distortion can be generated.
[0087]
Of course, when selecting an image, as shown in the above-described embodiment, the position information PI and the distance information DI may be taken into consideration.
[0088]
(Fifth embodiment)
FIG. 15 is a block diagram showing a configuration of a vehicle periphery monitoring apparatus according to the fifth embodiment of the present invention. 9 is different from the configuration of FIG. 9 in that the vehicle has a movement
[0089]
In the situation of FIG. 11, it is assumed that the reliability RL of the position information PI calculated by the
[0090]
The combining
[0091]
For example, when the vehicle moves left rearward, that is, in the direction of the obstacle OBa, the composition
[0092]
FIG. 17A is an example of a composite image output by the composite
[0093]
Here, when driving a vehicle, the image of the moving direction of the vehicle is very important, and it is desirable that obstacles in the moving direction are displayed in the correct position, whereas obstacles other than the moving direction are displayed. Even if the object is displayed with a slight shift, it is not considered to be a problem. In addition, since a sense of discomfort due to distortion may have a greater influence than a slight misalignment, in this case, a more appropriate composite image is output according to the present embodiment.
[0094]
As described above, according to this embodiment, since the moving direction of the vehicle is added to the selection of the composite image and the reliability of the point corresponding to the image in the moving direction is used, the obstacle is erroneous in the moving direction of the vehicle. It is possible to display a composite image that is not displayed at a position and has little distortion in directions other than the moving direction.
[0095]
In the present embodiment, hysteresis may be given to the threshold value for selecting the composite image, and the width of the hysteresis may be changed in accordance with the moving speed of the vehicle. Specifically, the threshold hysteresis width is increased as the moving speed of the vehicle increases. Generally, as the moving speed of the vehicle increases, the temporal variation of the image increases, and accordingly, the temporal variation of the reliability also increases. For this reason, by increasing the width of the hysteresis in accordance with the moving speed, frequent switching of the composite image is suppressed, and thus it is possible to avoid the problem that it becomes difficult for the driver to grasp the situation around the vehicle.
[0096]
In addition, as a vehicle periphery monitoring apparatus according to the present invention, a camera, a display, an A / D converter, a D / A converter, a frame memory, an obstacle sensor, and a moving direction detection unit are not necessarily essential components.
[0097]
Further, in each of the above-described embodiments, the individual processing means according to the present invention, that is, the position calculation unit, the variable image synthesis unit, the fixed image synthesis unit, and the synthesis method selection unit are realized by individual hardware. However, it can also be realized by software. In this case, the vehicle periphery monitoring device according to the present invention is configured by a computer including a
[0098]
FIG. 19 is a flowchart showing an example of the processing flow in the configuration of FIG. 18, and corresponds to the image generation method and the image generation program according to the present invention. First, camera images are input from the
[0099]
In the method of FIG. 19, one of the composite images is selectively generated according to the reliability. Of course, like the above-described embodiments, two types of composite images are generated. The selection may be made according to the reliability. On the other hand, in the hardware configuration as shown in FIG. 1, for example, the composition method selection unit 17 selectively operates either the variable
[0100]
The application of the present invention is not limited to vehicle periphery monitoring, and can be applied to, for example, a robot. For example, a camera and a monitoring device according to the present invention are installed in a mobile robot capable of remote operation, and a composite image showing the situation around the robot is displayed on a display placed in a remote place so that the robot user can monitor it. Display. The same effects as those of the embodiments of the present invention can be obtained.
[0101]
【The invention's effect】
As described above, according to the present invention, as the image indicating the surrounding situation of the vehicle, a composite image with less distortion is displayed when the position information is correctly calculated, and when the position information includes a large error, an obstacle is displayed. A composite image that does not appear or disappear in the wrong position is displayed. Therefore, a more natural and safer image can be presented.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to first and second embodiments of the present invention.
FIGS. 2A and 2B are examples of camera installation modes in the first embodiment, and FIGS. 2B and 2C are examples of camera images in FIG.
FIG. 3 is a flowchart showing an operation of a position calculation unit.
FIG. 4 is a conceptual diagram showing the relationship of camera coordinate systems.
FIG. 5 is a conceptual diagram showing image composition based on a road surface plane.
FIG. 6 is an example of a first composite image generated by a variable image composition unit in the first embodiment of the present invention.
FIG. 7 is an example of a second composite image generated by the fixed image composition unit in the first embodiment of the present invention.
FIG. 8 is an example of a composite image presented in the second embodiment of the present invention.
FIG. 9 is a block diagram showing a configuration of a vehicle periphery monitoring device according to third and fourth embodiments of the present invention.
FIG. 10 is an example of an installation mode of a camera and an obstacle sensor in the third embodiment.
FIGS. 11A and 11B are examples of camera installation modes in the fourth embodiment, and FIGS. 11B and 11C are examples of camera images in FIG.
12A is an example of a first composite image generated by a variable image composition unit in the fourth embodiment, and FIG. 12B is an example of a second composite image generated by a fixed image composition unit. .
FIG. 13 is an example of region division for performing partial selection of a composite image.
FIG. 14 is an example of a synthesized image generated by a synthesis method selection unit in the fourth embodiment.
FIG. 15 is a block diagram showing a configuration of a vehicle periphery monitoring device according to a fifth embodiment of the present invention.
FIG. 16 is an example of a first composite image generated by a variable image composition unit in the fifth embodiment.
FIG. 17 is an example of a synthesized image output by a synthesis method selection unit in the fifth embodiment.
FIG. 18 is a block diagram showing a configuration when a vehicle periphery monitoring apparatus according to the present invention is configured using a computer.
FIG. 19 is a flowchart showing a process flow in the configuration of FIG. 18;
FIG. 20 is a diagram showing a conventional technique.
FIG. 21 is a diagram showing a conventional technique and its problems.
[Explanation of symbols]
1 vehicle
11a, 11b camera
14 Position calculator
15 Variable image composition unit
16 Fixed image composition part
17, 17A, 17B, 17C, 17D Compositing method selection unit
20 display
31 Obstacle sensor
32 Moving direction detection means
PI location information
RL reliability
SI1 First composite image
SI2 Second composite image
DI distance information
Claims (13)
前記カメラ画像中の複数の点について、位置情報と、当該位置情報の信頼度とを算出する位置算出部と、
前記カメラ画像から、前記位置情報を用いて、第1の合成画像を生成する可変画像合成部と、
前記カメラ画像から、前記位置情報を用いないで、所定の方法によって第2の合成画像を生成する固定画像合成部と、
前記信頼度に応じて、前記第1および第2の合成画像のうちいずれか一方を、提示対象の合成画像として、選択する合成方式選択部とを備えた
ことを特徴とする車両周辺監視装置。A vehicle periphery monitoring device that generates and presents a composite image indicating a surrounding situation of the vehicle from an image of a camera that reflects the periphery of the vehicle,
A position calculation unit that calculates position information and reliability of the position information for a plurality of points in the camera image;
A variable image composition unit that generates a first composite image from the camera image using the position information;
A fixed image composition unit that generates a second composite image by a predetermined method without using the position information from the camera image;
A vehicle periphery monitoring apparatus, comprising: a synthesis method selection unit that selects one of the first and second synthesized images as a synthesized image to be presented according to the reliability.
前記合成方式選択部は、
前記位置情報を加味して、合成画像の選択を行う
ことを特徴とする車両周辺監視装置。In claim 1,
The synthesis method selection unit
A vehicle periphery monitoring device, wherein a composite image is selected in consideration of the position information.
前記合成方式選択部は、
前記位置情報を参照して、前記複数の点のうち、画像合成に用いられる領域に属する点を抽出し、
抽出した点に係る信頼度を、合成画像の選択に用いる
ことを特徴とする車両周辺監視装置。In claim 2,
The synthesis method selection unit
With reference to the position information, out of the plurality of points, a point belonging to a region used for image composition is extracted,
A vehicle periphery monitoring device, wherein reliability relating to an extracted point is used for selecting a composite image.
前記可変画像合成部および固定画像合成部は、
前記第1および第2の合成画像において、路面の位置が互いに一致するように、画像合成を行う
ことを特徴とする車両周辺監視装置。In claim 1,
The variable image combining unit and the fixed image combining unit are
A vehicle periphery monitoring device that performs image composition so that road positions coincide with each other in the first and second composite images.
前記合成方式選択部は、
前記第1および第2の合成画像のうちいずれか一方を選択する代わりに、前記第1および第2の合成画像から、前記信頼度に応じて、画像を部分的に選択し、選択した画像から提示対象の合成画像を生成する
ことを特徴とする車両周辺監視装置。In claim 1,
The synthesis method selection unit
Instead of selecting either one of the first and second composite images, an image is partially selected from the first and second composite images according to the reliability, and from the selected image A vehicle periphery monitoring device that generates a composite image to be presented.
前記合成方式選択部は、
選択した合成画像に、当該合成画像の特徴に応じた所定の表示を、重畳する
ことを特徴とする車両周辺監視装置。In claim 1,
The synthesis method selection unit
A vehicle periphery monitoring device, wherein a predetermined display corresponding to the characteristics of the composite image is superimposed on the selected composite image.
前記車両は、障害物センサが設けられており、
前記合成方式選択部は、
前記障害物センサから得られた,障害物までの距離値を示す距離情報を加味して、合成画像の選択を行う
ことを特徴とする車両周辺監視装置。In claim 1,
The vehicle is provided with an obstacle sensor,
The synthesis method selection unit
A vehicle periphery monitoring device, wherein a composite image is selected in consideration of distance information obtained from the obstacle sensor and indicating a distance value to the obstacle.
前記合成方式選択部は、
前記距離情報および位置情報を参照して、前記障害物に係る前記位置情報の精度を評価し、精度が十分でないと判断したとき、信頼度に応じた合成画像の選択を行わないで、前記第2の合成画像を選択する
ことを特徴とする車両周辺監視装置。In claim 7,
The synthesis method selection unit
With reference to the distance information and position information, the accuracy of the position information related to the obstacle is evaluated, and when it is determined that the accuracy is not sufficient, the composite image is not selected according to the reliability, and the first A vehicle periphery monitoring device, wherein two composite images are selected.
前記車両は、当該車両の移動方向を検出する移動方向検出手段を有し、
前記合成方式選択部は、
前記移動方向検出手段から得られた移動方向を加味して、合成画像の選択を行う
ことを特徴とする車両周辺監視装置。In claim 1,
The vehicle has a moving direction detecting means for detecting a moving direction of the vehicle,
The synthesis method selection unit
A vehicle periphery monitoring apparatus, wherein a composite image is selected in consideration of a moving direction obtained from the moving direction detecting means.
前記合成方式選択部は、
前記複数の点のうち、前記移動方向の画像領域に属する点を特定し、
特定した点に係る前記信頼度を、合成画像の選択に用いる
ことを特徴とする車両周辺監視装置。In claim 9,
The synthesis method selection unit
Among the plurality of points, specify a point belonging to the image area in the moving direction,
The vehicle periphery monitoring device, wherein the reliability related to the identified point is used for selecting a composite image.
前記カメラ画像中の複数の点について、位置情報と、当該位置情報の信頼度とを求める第1のステップと、
前記信頼度を、所定の基準と比較する第2のステップと、
前記第2のステップにおいて前記信頼度が前記所定の基準よりも高いと判断したとき、前記カメラ画像から、前記第1のステップで求めた位置情報を用いて、合成画像を生成する第3のステップと、
前記第2のステップにおいて前記信頼度が前記所定の基準よりも低いと判断したとき、前記カメラ画像から、前記位置情報を用いないで、所定の方法によって合成画像を生成する第4のステップとを備えた
ことを特徴とする画像生成方法。An image generation method for generating a composite image indicating a surrounding situation of the vehicle from an image of a camera that reflects the periphery of the vehicle,
A first step of obtaining position information and reliability of the position information for a plurality of points in the camera image;
A second step of comparing the reliability with a predetermined criterion;
A third step of generating a composite image from the camera image using the position information obtained in the first step when the reliability is determined to be higher than the predetermined reference in the second step; When,
A fourth step of generating a composite image by a predetermined method without using the position information from the camera image when the reliability is determined to be lower than the predetermined reference in the second step; An image generation method comprising:
前記第1のステップにおいて、
第1および第2のカメラ画像について、対応点を探索し、
特定した対応点について、前記第1および第2のカメラ画像における原画像座標値から3次元位置座標値を求め、前記原画像座標値および3次元位置座標値を、当該対応点の位置情報として定め、
前記3次元位置座標値から、前記第1および第2のカメラ画像における画像座標値を逆算し、
逆算した画像座標値と、前記原画像座標値とを用いて、前記位置情報の信頼度を求める
ことを特徴とする画像生成方法。In claim 11,
In the first step,
Search for corresponding points for the first and second camera images;
For the identified corresponding point, a three-dimensional position coordinate value is obtained from the original image coordinate values in the first and second camera images, and the original image coordinate value and the three-dimensional position coordinate value are determined as position information of the corresponding point. ,
Back-calculating image coordinate values in the first and second camera images from the three-dimensional position coordinate values;
A method of generating an image, comprising: calculating a reliability of the position information by using a back-calculated image coordinate value and the original image coordinate value.
前記カメラ画像中の複数の点について、位置情報と、当該位置情報の信頼度とを求める第1のステップと、
前記第1のステップで求めた信頼度を、所定の基準と比較する第2のステップと、
前記第2のステップにおいて前記信頼度が前記所定の基準よりも高いと判断したとき、前記カメラ画像から、前記1のステップで求めた位置情報を用いて、合成画像を生成する第3のステップと、
前記第2のステップにおいて前記信頼度が前記所定の基準よりも低いと判断したとき、前記カメラ画像から、前記位置情報を用いないで、所定の方法によって合成画像を生成する第4のステップとを実行させる
ことを特徴とする画像生成プログラム。A program for causing a computer to execute a method for generating a composite image indicating a surrounding situation of the vehicle from an image of a camera that reflects the periphery of the vehicle,
A first step of obtaining position information and reliability of the position information for a plurality of points in the camera image;
A second step of comparing the reliability obtained in the first step with a predetermined standard;
A third step of generating a composite image from the camera image using the position information obtained in the first step when the reliability is determined to be higher than the predetermined reference in the second step; ,
A fourth step of generating a composite image by a predetermined method without using the position information from the camera image when the reliability is determined to be lower than the predetermined reference in the second step; An image generation program that is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003153002A JP3683258B2 (en) | 2002-05-31 | 2003-05-29 | Vehicle periphery monitoring device, image generation method, and image generation program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002159085 | 2002-05-31 | ||
JP2003153002A JP3683258B2 (en) | 2002-05-31 | 2003-05-29 | Vehicle periphery monitoring device, image generation method, and image generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004056778A JP2004056778A (en) | 2004-02-19 |
JP3683258B2 true JP3683258B2 (en) | 2005-08-17 |
Family
ID=31949151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003153002A Expired - Lifetime JP3683258B2 (en) | 2002-05-31 | 2003-05-29 | Vehicle periphery monitoring device, image generation method, and image generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3683258B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4315117B2 (en) * | 2004-04-02 | 2009-08-19 | 株式会社デンソー | Vehicle perimeter monitoring system |
EP1748654A4 (en) * | 2004-04-27 | 2013-01-02 | Panasonic Corp | Circumference display of vehicle |
JP2007172501A (en) * | 2005-12-26 | 2007-07-05 | Alpine Electronics Inc | Vehicle driving support apparatus |
WO2007145257A1 (en) * | 2006-06-13 | 2007-12-21 | Pioneer Corporation | Display device, display method, display program and computer readable recording medium |
JP5501727B2 (en) * | 2009-10-16 | 2014-05-28 | 三菱重工業株式会社 | Moving body tracking apparatus and method |
JP2014112888A (en) * | 2014-01-08 | 2014-06-19 | Mitsubishi Heavy Ind Ltd | Moving object tracking apparatus and method thereof |
DE102014107235A1 (en) * | 2014-05-22 | 2015-11-26 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | A method of displaying a vehicle environment on a display device; a display device; a system of a plurality of image capture units and a display device; a computer program |
KR101672923B1 (en) * | 2015-12-23 | 2016-11-04 | 에스엘 주식회사 | The Apparatus And Method For Around View Monitoring |
CN111902737B (en) | 2018-03-12 | 2022-02-22 | 三菱电机株式会社 | Fog determining device, fog determining method and computer readable storage medium |
US11867870B2 (en) | 2018-03-12 | 2024-01-09 | Mitsubishi Electric Corporation | Fog determination apparatus, fog determination method, and computer readable medium |
-
2003
- 2003-05-29 JP JP2003153002A patent/JP3683258B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004056778A (en) | 2004-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7110021B2 (en) | Vehicle surroundings monitoring device, and image production method/program | |
JP4861574B2 (en) | Driving assistance device | |
US9633266B2 (en) | Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings | |
EP3160138B1 (en) | Image synthesis system, image synthesis device therefor, and image synthesis method | |
US9142129B2 (en) | Vehicle surroundings monitoring device | |
JP4919036B2 (en) | Moving object recognition device | |
US8446268B2 (en) | System for displaying views of vehicle and its surroundings | |
JP5049300B2 (en) | Obstacle detection display | |
WO2009119110A1 (en) | Blind spot display device | |
JP6392693B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring method, and program | |
KR101272257B1 (en) | Apparatus and method for compensating around image of vehicle | |
JP6171593B2 (en) | Object tracking method and system from parallax map | |
JP5299296B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP2013001366A (en) | Parking support device and parking support method | |
JP5799631B2 (en) | VEHICLE IMAGE GENERATION DEVICE AND VEHICLE IMAGE GENERATION METHOD | |
JP3683258B2 (en) | Vehicle periphery monitoring device, image generation method, and image generation program | |
JP5083443B2 (en) | Driving support device and method, and arithmetic device | |
JP2007318460A (en) | Vehicle upper viewpoint image displaying apparatus | |
JP2015186085A (en) | Travel derivation apparatus and travel derivation method | |
CN111918020A (en) | Image processing apparatus, image processing method, and computer readable medium | |
JP2019204393A (en) | Image processing device and image processing method | |
JP4814752B2 (en) | Display control device | |
JP2006157728A (en) | System, method, and program for processing image information, and automobile | |
JP6999239B2 (en) | Image processing device and image processing method | |
JP5580062B2 (en) | Obstacle detection alarm device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3683258 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090603 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100603 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100603 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110603 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120603 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120603 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130603 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |