JP4238429B2 - Travel support device for moving body - Google Patents

Travel support device for moving body Download PDF

Info

Publication number
JP4238429B2
JP4238429B2 JP26108599A JP26108599A JP4238429B2 JP 4238429 B2 JP4238429 B2 JP 4238429B2 JP 26108599 A JP26108599 A JP 26108599A JP 26108599 A JP26108599 A JP 26108599A JP 4238429 B2 JP4238429 B2 JP 4238429B2
Authority
JP
Japan
Prior art keywords
image
unit
vehicle
moving object
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26108599A
Other languages
Japanese (ja)
Other versions
JP2001084500A (en
Inventor
雅幸 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP26108599A priority Critical patent/JP4238429B2/en
Publication of JP2001084500A publication Critical patent/JP2001084500A/en
Application granted granted Critical
Publication of JP4238429B2 publication Critical patent/JP4238429B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は移動体の走行支援装置に関し、特に、異なる方向の複数の画像を1つの画面に一度に表示する移動体の走行支援装置に関する。
【0002】
【従来の技術】
近年、自動車等における移動体において、運転者に対して走行上有意義な情報を提供する走行支援装置が提案されている。たとえば、車両の前方に装着されたカメラで、左方向と右方向とを撮影した画像を車内に装着されたディスプレイに表示するものがある。この走行支援装置は、特に見通しの悪い交差点において有用である。
【0003】
【発明が解決しようとする課題】
車内に装着されるディスプレイは、運転者が車両を走行させる際に見る視界からはずれた位置に装着されていることが多い。このため、運転者が走行中にディスプレイに気をとられると、その間運転者の視界が走行させるのに必要な範囲から外れてしまい危険である。したがって、運転者に視覚情報を提供する場合には、一見して表示内容が把握できる見やすい表示が行なわれるのが望ましい。また、運転者に提供する情報は、必要なときにのみ提供されればよく、不必要なときに提供されたのでは、かえって運転操作に支障をきたすことになる。
【0004】
さらに、見通しの悪い交差点などでは、歩行者や通過車両等、走行させる上で注意を必要とする情報は、運転者に積極的に提供することが望ましい。
【0005】
この発明は上述の問題点を解決するためになされたものでその目的の1つは、異なる方向を撮影した複数の画像を1画面に表示する場合、複数の画像それぞれの撮影方向が一見してわかる見やすい画面を表示することができ、安全性を向上させた移動体の走行支援装置を提供することである。
【0006】
この発明の他の目的は、所望のタイミングで異なる方向を撮影した複数の画像を表示することが可能な移動体の走行支援装置を提供することである。
【0007】
この発明のさらに他の目的は、移動体を走行させる上で注意を必要とする情報を提供することができる移動体の走行支援装置を提供することである。
【0008】
【課題を解決するための手段】
上述の目的を達成するためにこの発明のある局面に従うと、移動体の走行支援装置は、移動体に取付けられ、前記移動体の進行方向に対して右方向と左方向を撮像して右画像と左画像を出力する撮像手段と、移動体の現在位置を道路地図上にマークしたナビゲーション画像を出力するナビゲーション画像出力手段と、ナビゲーション画像出力手段が出力するナビゲーション画像上に撮像手段が出力する右画像と前記左画像を重ねた重畳画像を作成する合成手段と、合成手段が出力する重畳画像を表示するための表示手段とを備え、右画像と左画像のそれぞれは、高さ方向の長さが移動体の進行方向からの角度に比例して短くなる。
【0010】
好ましくは移動体の走行支援装置は、撮像手段と表示手段との間に設けられ、表示手段の表示を右画像と左画像を含む画像に切換えるための切換手段をさらに備える。
【0011】
さらに好ましくは移動体の走行支援装置は、移動体の道路地図上の位置に基づき移動体と交差点との間の距離を算出し、算出した距離に基づき移動体が交差点に接近していることを示す接近情報を出力する接近検知手段をさらに備え、切換手段は、接近検知手段から出力される接近情報に基づき、表示手段で表示する画像を切換えることを特徴とする。
【0012】
さらに好ましくは移動体の走行支援装置は、移動体の移動方向を示す指示信号を出力する指示部と、移動体の単位時間当りの移動距離を検出するための速度検出部とをさらに含み、切換手段は、指示部と速度検出部との出力に基づき、表示手段の表示を切換えることを特徴とする。
【0013】
さらに好ましくは移動体の走行支援装置は、右画像と左画像中から移動物体を検出するための移動物体検出手段をさらに含み、切換手段は、移動物体検出手段で移動物体が検出されたときに表示手段の表示を切換えることを特徴とする。
【0014】
さらに好ましくは移動体の走行支援装置は、移動物体検出手段で移動物体が検出されたことを報知するための報知手段をさらに備える。
【0015】
さらに好ましくは移動体の走行支援装置の報知手段は、右画像と左画像中から移動物体を検出するための移動物体検出手段と、移動物体検出手段で移動物体が検出されたことを報知するための報知手段とをさらに備える。
【0016】
さらに好ましくは移動体の走行支援装置の報知手段は、右画像と左画像中に含まれる移動物体に所定のマークを付して表示手段に表示することを特徴とする。
【0017】
これらの発明によれば、異なる方向を撮影した複数の画像それぞれの撮影方向が一見してわかる見やすい画面を表示することができ、安全性を向上させた移動体の走行支援装置を提供することができる。
【0018】
また、所望のタイミングで異なる方向を撮影した複数の画像を表示することが可能な移動体の走行支援装置を提供することができる。
【0019】
さらに、移動体を走行する上で注意を必要とする情報を提供することが可能な移動体の走行支援装置を提供することができる。
【0020】
【発明の実施の形態】
以下、本発明の実施の形態における走行支援装置について説明する。なお、図中同一符号は同一または相当する部材を示す。
【0021】
[第1の実施の形態]
図1は、本発明の第1の実施の形態における走行支援装置の概略構成を示すブロック図である。図1を参照して、移動体の走行支援装置は、異なる方向の複数の画像を撮像するための撮像部15と、ナビゲーションユニット50と、画像表示部17と、画像表示部17で表示する画像を切換えるための画像切換部10と、画像切換部10に切換信号を出力する切換スイッチ16とを含む。
【0022】
撮像部15は、車両の前方、たとえば前方バンパー上に設けられ、車両の進行方向に対して右方向と左方向との画像を1つのカメラで撮影することができる。ここで撮像部15の撮影範囲について説明する。図2は、撮像部15の撮影範囲を説明するための図である。図2を参照して、道幅が狭い道路と道幅の広い道路とが交差している交差点において、車両60が道幅の狭い道路から道幅の広い道路に進行する様子を示している。道幅の狭い道路の両側の障害物61,62により、運転者の視界63が制限される。このとき、車両60の前方のバンパー部分を道幅の広い道路に少しだけ進入させることにより、撮像部15で道幅の広い道路の右方向と左方向とを撮像することができる。この結果、運転者の視界から外れた領域であって、撮像部15で撮像できる領域64,65(図中ハッチングで示す)が生じる。本実施の形態における走行支援装置は、撮像部15で撮像した車両の進行方向に対して右方向と左方向の画像を画像表示部17に表示するものである。
【0023】
なお、撮像部15は、車両の進行方向に対して右方向と左方向の画像を撮像することができれば、右方向のみ撮像するカメラと左方向のみ撮像するカメラとの2つのカメラを用いるようにしてもよい。
【0024】
図1に戻って、画像表示部17は、車両内部に設けられるディスプレイであり、たとえば、液晶表示装置やCRT、さらに、プラズマディスプレイパネル等を用いることができる。
【0025】
ナビゲーションユニット50は、ナビゲーションユニット50全体を制御するための制御部51と、道路地図情報を記憶するための記憶部56と、車両の単位時間当りの移動距離を検出するための車速センサ52と、車両の進行する方位を検出するための方位センサ53と、車両の現在位置を検出するためのグローバルポジショニングシステム(GPS)54と、テレビジョン信号を受信するためのTVチューナ55とを含む。
【0026】
ナビゲーションユニット50は、GPS54から得られる情報に基づき、記憶部56に記憶されている道路地図上の位置を把握する。また、車速センサ52と角度センサ53との出力に基づき、車両の走行軌跡を検出することにより、車両の走行に伴い変化する道路地図上の位置を検出する。
【0027】
制御部51は、画像切換部10に対して、車両の現在位置を示すナビゲーション画像(図ではナビ画像と略して表す)を出力する。ナビゲーション画像とは、車両の現在位置を示すための画像であって、道路地図上の車両の現在位置に車両を示すマークを付した画像である。
【0028】
また、ナビゲーションユニット50は、GPS54と、車速センサ52と、方位センサ53との出力に基づき検出される道路地図上の現在位置に基づき、車両が交差点に接近しているか否かを検出する。車両が、記憶部56に記憶されている道路地図中の交差点に接近していると判断する条件は、▲1▼車両が記憶部56に記憶されている道路地図中の交差点に向かって進行していること、▲2▼車両の現在位置と交差点との距離が所定の距離より短くなったことである。この2つの条件が成立した場合に、接近情報を画像切換部10に出力する。所定の距離とは、たとえば、20[m]程度であり、車両が交差点に向かって進行しつつ減速を開始する程度の距離であればよい。
【0029】
また、ナビゲーションユニット50は、車両が交差点を通過したか否かを検出し、画像切換部10に出力していた接近情報をOFFにする。車両が交差点を通過したとの判断は、車両の現在位置と交差点との距離が、予め定められた所定の距離より大きくなったか否かである。
【0030】
車速センサ52は、制御部51に車速信号を出力するとともに、画像切換部10にも車速信号を出力する。切換部10は、撮像部15が出力する異なる方向の複数の画像からなる撮像画像と、ナビゲーションユニット50が出力するナビゲーション画像と、TV画像と合成画像とのいずれかを選択して画像表示部17に出力する。合成画像については後で詳しく説明する。
【0031】
また、画像切換部10は、ナビゲーションユニット50から受信する接近情報と車速信号とに基づき、ナビゲーション画像またはTV画像の出力を、撮像画像または合成画像の出力に切換える。画像切換部10で画像を切換える処理については後で詳しく説明する。
【0032】
切換SW16は、画像切換部10で出力する画像をマニュアル操作により切換えるためのスイッチである。画像切換部10における画像の切換は、切換SW16の切換信号が最も優先される。
【0033】
図3は、画像切換部の詳細な構成を示すブロック図である。図3を参照して、画像切換部10は、画像切換部全体を制御するための制御部11と、画像表示部17に出力する画像を切換える切換部12とを含む。切換部12は、撮像画像とナビゲーション画像とを合成するための合成部13を含む。
【0034】
制御部11には、ナビゲーションユニット50から出力される車速信号と接近情報とが入力される。制御部11は、受信した車速信号と接近情報とに基づき、切換部12に対して、画像表示部17に出力する画像を切換えるための切換信号を出力する。
【0035】
合成部13は、ナビゲーションユニット50が出力するナビゲーション画像と、撮像部15が出力する撮像画像とを合成した合成画像を作成する。合成画像は、ナビゲーション画像上に撮像画像を重ねた画像である。したがって、合成画像にはナビゲーション画像の一部と撮像画像とが含まれる。合成部13における撮像画像の合成は、ナビゲーション画像と撮像画像とを同期信号に基づき同期させ、所定のタイミングで撮像画像とナビゲーション画像との出力を切換えることにより、合成画像が作成される。
【0036】
切換部12は、入力されるナビゲーション画像、TV画像、撮像画像、および合成部13で合成された合成画像のいずれかの画像を、制御部11から受信する切換信号に基づき選択し、画像表示部17に出力する。切換部12で、画像表示部17に出力する画像を撮像画像とするか合成画像とするかは、図示しないディップスイッチ等により切換えることができる。
【0037】
なお、本実施の形態においては、画像切換部10をナビゲーションユニット50と別体として設けたが、画像切換部10をナビゲーションユニット50の内部に含む構成にしてもよい。この場合には、画像切換部10の制御部11と、ナビゲーションユニット50の制御部51とを1つにまとめることができる。
【0038】
次に、画像表示部17で表示される撮像画像について説明する。図4は、撮像部15が出力する撮像画像の一例を示す第1の図である。図4を参照して、撮像画像70は、車両の進行方向に対して右方向を撮像した右画像71aと、左方向を撮像した左画像71bとを含む。右画像71aと左画像71bとは、それぞれの画像の高さ方向の長さが、車両の進行方向からの角度に比例して長くなる形状となっている。右画像71aは、より右側の画像の高さ方向の長さが長くなり、左画像71bではより左側の画像の高さ方向の長さが長くなる形状となっている。
【0039】
また、右画像71aと左画像71bとは、分割部72により分割されている。さらに、右画像71aが右画像であることを示す矢印と「右」の文字からなる記号73aが右画像71aの上部に付され、左画像71bが左画像であることを示す矢印と「左」の文字からなる記号73bが左画像71bの上部に付されている。
【0040】
したがって、撮像画像70は、右画像71aと左画像71bの形状を、車両の進行方向からの角度に比例して画像の高さ方向の長さを長くするようにしたので、右画像71aと左画像71bとを撮像画像70から一見して判別することができる見やすい画像となっている。
【0041】
図5は、撮像部15が出力する撮像画像の一例を示す第2の図である。図5に示す撮像画像75は、図4に示した撮像画像70に代えて用いることができる。図5を参照して、図4に示した撮像画像70の右画像71aと左画像71bとが車両の進行方向からの角度に比例して画像の高さ方向の長さを長くしたのに対し、撮像画像75は、右画像と左画像とを車両の進行方向からの角度に比例して高さ方向の長さが短くなる形状としたものである。図を参照して右画像76aは、より右側の画像の高さ方向の長さが短くなる形状となっており、左画像の76bはより左側の画像の高さ方向の長さが短くなる形状となっている。その他の構成については図5に示した撮像画像70と同じであるのでここでの説明は繰返さない。
【0042】
このように撮像画像75は、右画像76aと左画像76bとを、車両の進行方向からの角度に比例して画像の高さ方向の長さを短くする形状としたので、撮像画像75から右画像76aまたは左画像76bとを一目で判別することが可能となる。
【0043】
撮像画像70,75は、分割部72と記号73a,73bとが撮像部15に設けられる画像処理部によりスーパーインポーズされる。また、このスーパーインポーズを行なう画像処理部を画像切換部10に設けてもよい。また、撮像部15の光学系を構成するレンズから撮像素子までの間に、分割部72と記号73a,73bとを撮像画像に重ねて表示するためのマスクを挿入するようにしてもよい。
【0044】
なお、図4に示した撮像画像70と図5に示した撮像画像75とは、右画像と左画像とを車両の進行方向からの角度に比例して画像の高さ方向の長さを変化させた形状としたが、車両の進行方向からの角度と画像の高さ方向の長さとは正比例の関係にある必要はなく、反比例等車両の進行方向と画像の高さ方向の長さとが何らかの関係を有する形状とすることができる。
【0045】
図6は、撮像部15が出力する撮像画像の一例を示す第3の図である。図6を参照して、撮像画像85は、車両の進行方向(前方)を撮像した前画像88と、右方向を撮像した右画像86aと、左方向を撮像した左画像86bとを含む。前画像88、右画像86a、および左画像86bとは、分割部72によりそれぞれ分割されている。さらに、右画像86aが車両の右方向を撮像した画像であることを示す矢印と「右」の文字からなる記号73aが右画像86aの上部に表示され、左画像86bが左方向を撮像した画像であることを示す矢印と「右」の文字からなる記号73bが左画像86bの上部に表示され、前画像88が前方向を撮像した画像であることを示す「前方」の文字からなる記号73cが左画像88の上部に表示されている。
【0046】
前画像88は、たとえば、車両のルームミラー等に設置されたカメラで撮像して得られる画像であり、右画像86aと左画像86bとは、車両のバンパー等に設けられた右方向を撮像するカメラと左方向を撮像するカメラでそれぞれ撮像して得られる画像である。また、右画像86aと左画像86bとは、車両の前方のバンパーに設けられ、1つの撮像素子で車両の右方向と左方向とを同時に撮像可能なカメラで撮像して得られる画像である。
【0047】
右画像86aと左画像86bとは、車両の進行方向からの角度に比例して画像高さ方向の長さが長くなる形状となっている。したがって、撮像画像85は、一目で右画像86と左画像87と前画像88とを判別することができる形状で表示される。
【0048】
なお、右画像86a、左画像86b、および前画像88は、撮像部15または、画像切換部10に設けられる画像処理部により合成され、分割部72と矢印73a、73bとがスーパーインポーズされる。
【0049】
次に、合成部13で撮像画像とナビゲーション画像とを合成して作成される合成画像について説明する。図7は、合成部13で作成される合成画像の一例を示す図である。合成画像80は、ナビゲーション画像の一部の領域83と、車両の進行方向に対して右側を撮像した右画像81aと、左側を撮像した左画像81bとを含む。ナビゲーション画像の一部の領域83には、道路84と車両の地図上の位置を示すマーク82とを含む。領域83には、車両が進入しようとする交差点の名称が表示されている。
【0050】
右画像81aは、領域83における道路84の交差点部分を示す位置から始まり、右側に進むに従って高さ方向の長さが長くなり、途中から長くなる比率を大きくして高さ方向の長さがさらに長くなる形状を含む。これは、車両の進行方向からの角度に応じて画像の高さ方向の長さが長くなる部分を含むことになる。
【0051】
左画像81bは、道路84の交差点部分を示す位置から始まり左側に進に従って高さ方向の長さが長くなり、途中から長くなる比率を大きくして高さ方向の長さがさらに長くなる形状を含む。これは、左画像81bが車両の進行方向からの角度に応じて画像の高さ方向の長さが長くなる形状を含むことになる。
【0052】
このように合成画像80は、ナビゲーション画像83上に右画像81aと左画像81bとを、重ねた画像である。そして、右画像81aと左画像81bとは画像の高さ方向の長さが車両の進行方向からの角度に応じて変化する形状を含んでいる。したがって、合成画像80は、ナビゲーション画像83と右画像81aおよび左画像81bとを同時に表示することができ、さらに、右画像81aと左画像81bとを合成画像80から一目で判別できる形状で表示するようになっている。
【0053】
次に、本実施の形態における走行支援装置において、画像切換部10で行なわれる画像切換処理について説明する。図8は、画像切換部10で行なわれる画像切換処理の流れを示すフローチャートである。図8を参照して、画像切換処理では、まず、ナビゲーションユニット50から出力される接近情報をもとに、車両が交差点に接近しているか否かが判断される(ステップS01)。ナビゲーションユニット50から送信される接近情報は、車両の位置と交差点との間の距離が所定の距離を下回ったときに出力される。ステップS01では、ナビゲーションユニット50から接近情報が出力されたことを検知すると、交差点に接近しているものと判断する。ここで、所定の距離とは、たとえば20[m]である。なお、所定の距離は20[m]に限定されるわけではなく、車両が交差点に接近した場合に、減速を開始する程度の距離であれば足りる。
【0054】
また、接近情報は、車両の現在位置と交差点との間の距離とすることもできる。この場合には、画像切換部10で車両の現在位置と交差点との間の距離が所定の距離となったことを判断することになる。
【0055】
ステップS01で交差点に接近していると判断した場合にはステップS02に進み、接近していないと判断した場合には処理を終了する。
【0056】
次のステップS02では、車速センサ52から出力される車速信号をもとに、車両の車速が所定の値(設定値)になったか否かが判断される。車速が設定値以下の場合にはステップS03に進み、そうでない場合には処理を終了する。設定値は、好ましくは5[km/h]であり、車両が停止する直前の速度を示す。設定値とされる速度は、5[km/h]に限定されるわけではなく、運転者が画像表示部17を見てもなお、車両を安全に走行することができる速度をいい、0[km/h]であってもよい。
【0057】
ステップS03では、撮像部15で撮像された撮像画像を含む画像が画像表示部17に出力される。撮像画像を含む画像とは、撮像画像そのものまたは合成画像である。撮像画像だけを画像表示部17に出力するようにしてもよいし、合成部13でナビゲーション画像と撮像画像とを合成した合成画像を画像表示部17に出力するようにしてもよい。たとえば、画像表示部17にナビゲーション画像を表示していた場合には、合成画像を画像表示部17に出力するようにし、画像表示部17でTV画像を表示していた場合または何も表示していなかった場合には、撮像画像を画像表示部17に出力するようにしてもよい。
【0058】
次のステップS04では、車両が交差点を通過したか否かが判断され、交差点を通過するまで待ち状態となる。交差点を通過したか否かは、ナビゲーションユニット50から出力される接近情報をもとに判断される。たとえば、ナビゲーションユニット50から出力される接近情報がOFFとなったときに交差点を通過したものと判断することができる。また、接近情報が車両と交差点との間の距離を示す場合には、接近情報が車両が交差点から遠ざかった情報、たとえばマイナスの情報として供給され、それにより車両が交差点を通過したことが判断できる。
【0059】
ステップS04で交差点を通過したと判断した場合には、ステップS05に進み、撮像画像または合成画像の画像表示部17への出力が中止されることにより、画像表示部17で表示される画像が切換えられる。
【0060】
以上説明した画像切換処理により、画像表示部17に表示される画像は次のように切換えられることになる。車両が交差点に接近する前にナビゲーション画像またはTV画像が表示されていた場合には、車両が交差点に接近し車速が所定の値よりも小さくなったときに撮像画像または合成画像が表示され、車両が交差点を通過したときにナビゲーション画像またはTV画像が表示される。また、車両が交差点に接近する前に何も表示されていなかった場合には、車両が交差点に接近し車速が所定の値以下となったときに撮像画像または合成画像が画像表示部17に表示され、その後車両が交差点を通過したときに撮像画像または合成画像の表示が中止されて画像表示部17には何も表示されなくなる。
【0061】
以上説明したように、第1の実施の形態における走行支援装置においては、撮像部15で撮像した撮像画像を車両の進行方向からの角度に応じて画像の縦方向の長さを変化させた形状で表示するようにしたので、撮像画像から右画像と左画像とを一目で判別することができる画像を表示することができる。その結果、運転者が画像表示部17に表示された画像を見る時間が短くなり、安全に車両を走行させることができる。
【0062】
また、撮像部15で撮像された撮像画像を必要なときに画像表示部17に表示させるようにしたので、運転者が画像表示部17への表示する画像を切換える操作を行なう必要がなく、安全に車両を走行させることができる。
【0063】
[第2の実施の形態]
第2の実施の形態における走行支援装置は、第1の実施の形態における走行支援装置の画像切換部10に改良を加えたものである。図9は、第2の実施の形態における走行支援装置の概略構成を示すブロック図である。図9を参照して、第2の実施の形態における走行支援装置は、画像切換部20と、撮像部15と、切換スイッチ16と、画像表示部17と、ナビゲーションユニット50と、車速センサ25と、指示器26とを含む。なお、ナビゲーションユニット50は、第1の実施の形態において説明したナビゲーションユニット50と同じであるので、ここでは簡略化して示している。ナビゲーションユニット50から画像切換部20には、ナビゲーション画像とTV画像とが出力される。画像切換部20には、車速センサ25から車両の単位時間当りの移動距離を示す車速信号が出力され、指示器26から、運転者が車両の進行方向を指示するための方向指示器が操作されたことを示すウインカ信号が画像切換部20に出力される。撮像部15と切換スイッチ16と画像表示部17とナビゲーションユニット50は、第1の実施の形態において説明したものと同様であるのでここでの説明は繰返さない。
【0064】
なお、車速センサ25は、ナビゲーションユニット50内に内蔵された車速センサ52を兼用することができる。さらに、画像切換部20は、ナビゲーションユニット50と別体に設けてあるが、ナビゲーションユニット50に含まれる構成としてもよい。
【0065】
図10は、画像切換部20の詳細な構成を示すブロック図である。図10を参照して、画像切換部20は、制御部21と切換部12とを含む。切換部12は、合成部13を含む。切換部12と合成部13とは第1の実施の形態において説明したのと同様であるのでここでの説明は繰返さない。制御部21には、車速センサ25から出力される車速信号と指示器26から出力されるウインカ信号とが入力される。制御部21は車速信号とウインカ信号とに基づき、切換部12で画像表示部17に出力する画像を切換えることを指示するための切換信号を切換部12に出力する。
【0066】
次に、第2の実施の形態における走行支援装置の画像切換部20で行なわれる画像切換処理について説明する。図11は、画像切換部20で行なわれる画像切換処理の流れを示すフローチャートである。図11を参照して、指示器26からウインカ信号が出力されたか否かが判断される(ステップS11)。ウインカ信号が検出された場合にはステップS13に進み、検出されない場合にはステップS12に進む。ウインカ信号が検出された場合とは、その後車両が右折または左折するであろうことを示し、車両が交差点に接近しているものと判断することができる。
【0067】
ステップS12では、負の加速度の絶対値が所定の値(設定値1)以上か否かが判断される。負の加速度の絶対値が設定値1以上の場合にはステップS13に進み、そうでない場合にはステップS11に戻る。ステップS12では、車両の加速度が車速信号に基づき計算され、計算された加速度が負の加速度であるか否かの判断と、負の加速度の絶対値が設定値以上か否かの2つの判断がなされることになる。加速度が負の場合とは、車両が減速していることを示す。負の加速度の絶対値が設定値以上か否かの判断は、車両が停止しようとしているか否かを判断するものである。したがって、設定値1は、車両が停止するときの加速度を統計的に処理した経験値により設定することができる。
【0068】
ステップS13では、車速センサ25が出力する車速信号をもとに、車速が所定の値(設定値2)以下となったか否かが判断される。車速が設定値2以下の場合にはステップS14に進み、そうでない場合にはステップS11に戻る。ここで設定値2により示される速度は、たとえば5[km/h]であり、車両がほとんど停止した状態であって、運転者が画像表示部を見つつ安全に車両を走行することができる速度である。したがって、設定値は0[km/h]であってもよい。
【0069】
ステップS14では、撮像部15で撮像した撮像画像を含む画像を画像表示部17に出力し、画像表示部17で表示する画像を切換える。ここでの切換は、図8のステップS03で説明した画像の切換と同様である。
【0070】
次のステップS15では、車速が予め定められた所定の値(設定値3)以上か否かが判断される。車速が設定値3以上である場合はステップS17に進み、そうでない場合にはステップS16に進む。ここで設定値3は、たとえば、10〜20[km/h]程度の値でよく、車両が停止した状態から走行を開始したと判断できる速度とすればよい。
【0071】
ステップS16では、画像表示部17で表示する画像を撮像画像または合成画像に切換えてからの経過時間が、所定の値(設定時間)を超えたか否かが判断される。設定時間を超えた場合にはステップS17に進み、そうでない場合にはステップS15に進む。
【0072】
たとえば、車両が渋滞等によりのろのろ走行をする場合には、車速は設定値3を超えることがない。この場合には、画像表示部17に撮像画像または合成画像が表示されたままとなってしまう。ステップS16で画像表示部17に撮像画像または合成画像を表示する時間を制限するようにすることで、いつまでも画像表示部17に撮像画像または合成画像が表示された状態が続くのを防止することができる。
【0073】
ステップS17では、撮像画像または合成画像を画像表示部17に出力するのを中止し、ナビゲーション画像またはTV画像の表示または何も表示しない状態に切換える。
【0074】
以上説明したとおり、第2の実施の形態における走行支援装置においては、画像切換部20は、車速信号とウインカ信号とに基づき、画像表示部17に撮像部15で撮像した撮像画像を含む画像を表示するか否かを決定する。したがって、第2の実施の形態における走行支援装置は、第1の実施の形態における走行支援装置が有する効果に加えて、ナビゲーションユニット50から画像切換部20に出力する信号を少なくすることができるので、画像切換部10とナビゲーションユニット50との接続を容易にすることができる。
【0075】
[第3の実施の形態]
次に第3の実施の形態における走行支援装置について説明する。第3の実施の形態における走行支援装置は、第1の実施の形態における走行支援装置に画像処理部とスピーカとを付加したものである。
【0076】
図12は、第3の実施の形態における走行支援装置の概略構成を示すブロック図である。図12を参照して、走行支援装置は、第1の実施の形態における走行支援装置に、撮像部15が出力する撮像画像中から移動物体を検出するための画像処理部40と、画像処理部40が出力する検出信号に基づき警告音を発生するためのスピーカ41とを加えた構成である。
【0077】
画像処理部40は、撮像部15が出力する撮像画像から移動物体を検出する。移動物体を検出する処理については後で詳しく説明する。画像処理部40で撮像画像中に移動物体が検出された場合には、撮像画像中に移動物体が存在することを示す検出信号を画像切換部30とスピーカ41とに出力する。ここで出力する検出信号には、撮像画像中に移動物体が存在する旨と、移動物体の撮像画像における座標値とが含まれる。
【0078】
スピーカ41は、画像処理部40から検出信号を受信すると、警告音を発生する。また、警告音の代りに「移動物体が接近しています。注意して下さい」等の音声を発生するようにしてもよい。
【0079】
画像切換部30は、画像処理部40が出力する検出信号に基づき、撮像部15が出力する撮像画像に、その撮像画像中に含まれる移動物体にマークを付与する処理を行なう。その他の構成については第1の実施の形態において説明したのと同様であるのでここでの説明は繰返さない。
【0080】
なお、画像切換部と画像処理部とをナビゲーションユニット50と別体に設けたが、画像切換部30と画像処理部40とをナビゲーションユニット50に含む構成とすることもできる。また、第3の実施の形態においては、第1の実施の形態における走行支援装置に画像処理部40とスピーカ41とを加えた構成としたが、第2の実施の形態における走行支援装置に画像処理部40とスピーカ41とを加えた構成とすることもできる。
【0081】
図13は、画像切換部30の詳細な構成を示すブロック図である。図13を参照して、画像切換部30は、画像切換部30の全体を制御するための制御部31と、撮像画像、ナビゲーション画像、TV画像を入力し、画像表示部17に表示するための画像を切換えるための切換部32とを含む。
【0082】
制御部31は、ナビゲーションユニット50が出力する接近情報と車速信号とに基づき、画像表示部17で表示する画像を決定し、切換信号を切換部32に出力する。また、制御部31は、画像処理部40が出力する検出信号に基づき、切換部32のマーク付与部33にマーカー付与信号を出力する。マーカー付与信号には、撮像画像中の移動物体の座標値が含まれる。
【0083】
切換部32は、制御部31が出力する切換信号に従って、画像表示部17に出力する画像を、撮像画像、ナビゲーション画像、TV画像、合成画像のいずれかに切換える。また、切換部32は、ナビゲーション画像の上に撮像画像を重ねた合成画像を作成するための合成部13と、撮像画像または合成画像に含まれる移動物体にマークを付与するマーク付与部33とを含む。
【0084】
マーク付与部33は、制御部31が出力するマーカー付与信号に基づき、撮像画像中の移動物体に所定のマークを付与する。
【0085】
図14は、マーク付与部33で移動物体にマークが付された撮像画像を示す図である。図14を参照して、撮像画像70中の右画像71aは、人物90とその人物を囲むマーク91とを含む。
【0086】
マーク91は、画像表示部17がカラー画像を表示可能であれば、マーク91の色をたとえば赤色等の運転者が認識しやすい色とすればよい。このようにすることで、運転者が右方向から人物90が近づいて来るのを即座に認識することができる。
【0087】
マーク91は、四角形で示したが、形状はこれに限られず丸形や三角形あるいは多角形等の印にすることができる。さらに、マーク91に代えて、人物90の輝度を高めて表示するようにしてもよい。撮像画像中に含まれる移動物体の輝度を上げることにより、撮像画像から輝度の高い部分を即座に判別することができるので、撮像画像中に含まれる移動物体を即座に認識することができる。
【0088】
次に、第3の実施の形態における走行支援装置で行なわれる画像切換処理について説明する。図15は、画像切換部30で行なわれる画像切換処理の流れを示すフローチャートである。図15を参照して、画像切換処理では、まず、ナビゲーションユニット50が出力する接近情報に基づき車両が交差点に接近したか否かが判断される(ステップS21)。車両が交差点に接近していると判断された場合にはステップS22に進み、そうでない場合には処理を終了する。
【0089】
ステップS22では、ナビゲーションユニット50が出力する車速信号に基づき車速が予め定められた所定の値(設定値)以下か否かが判断される。設定値は、好ましくは0〜5[km/h]であり、運転者が画像表示部17を見つつ、安全に車両を走行することができる速度である。
【0090】
ステップS23では、画像処理部40が出力する検出信号に基づき、撮像部15が出力する撮像画像に移動物体が含まれるか否かを判断する。移動物体が含まれる場合にはステップS24に進み、そうでない場合には処理を終了する。
【0091】
ステップS24では、画像表示部17に表示する画像を、撮像部15が出力する撮像画像を含む画像に切換える。撮像画像を含む画像とは、撮像部15が出力する撮像画像または、合成部13でナビゲーション画像に撮像画像を重ねた合成画像のいずれかである。ここでの撮像画像は、マーク付与部33により撮像画像中に含まれる移動物体にマークが付された画像である。画像表示部17に出力する画像を、撮像画像とするか合成画像とするかは、画像切換部に設けられたディップスイッチ等により切換えられる。また、画像表示部17でナビゲーション画像を表示している場合に合成画像を、TV画像を表示している場合または何も表示していない場合には撮像画像を表示するようにしてもよい。
【0092】
次のステップS25では、ドライバへの警告が行なわれる。ドライバへの警告としては、画像表示部17に表示される撮像画像中の移動物体にマークを付すことにより行なわれる。また、そのマークを点滅させたりしてもよい。これにより、運転者が移動物体が右方向または左方向にあることを画像表示部17を見てすぐに判断することができる。
【0093】
また、ここでは、移動物体にマークを付すようにしたが、マークを付すことなく、移動物体の輝度を高めてハイライト表示にしてもよい。
【0094】
さらに、画像表示部17に表示される移動物体にマークを付したり、そのマークを点滅させたり、または、移動物体自体をハイライト表示にしたりするとともに、スピーカ41から警告音を発生させる。また、警告音の代りに、「移動物体が接近しています。注意して下さい」等の音声を出力するしてもよい。
【0095】
次のステップS26では、車両が交差点を通過したか否かが判断される。車両が交差点を通過したか否かの判断は、ナビゲーションユニット50が出力する接近情報に基づき判断される。これについては上述したのでここでは説明を繰返さない。ステップS25の処理は、車両が交差点を通過するまで行なわれることになる。
【0096】
次のステップS27では、画像表示部17に表示する画像を、撮像画像を含まない画像に切換える。画像の切換は、画像切換部30から撮像画像または合成画像を画像表示部17に出力するのを中止することにより行なわれる。車両が交差点に接近する前に画像表示部17にナビゲーション画像またはTV画像が表示されていた場合には、車両が交差点に接近する前に表示されていた元のナビゲーション画像またはTV画像に切換える。また、車両が交差点に接近する前に画像表示部に何も表示されていなかった場合には、撮像画像または合成画像を画像表示部17で表示するのを中止する。
【0097】
次に、画像処理部40で行なわれる移動物体の検出処理について説明する。図16は、画像処理部40で行なわれる移動物体の検出処理の流れを示すフローチャートである。図16を参照して、画像処理部40では、撮像部15が出力する撮像画像から直近の1フレーム分の画像データ1を取込む(ステップS31)。そして、T秒前の1フレーム分の画像データ0を取込み、画像データ1と画像データ0とを比較する(ステップS32)。
【0098】
ここで、時間Tは、画像データ1と画像データ0とを比較することにより、移動物体を検出することができる時間が設定される。たとえば、車と人とでは移動する速度が異なるので、車を検出する場合と、人を検出する場合とで時間Tを異ならせるようにしてもよい。
【0099】
次のステップS33では、車両が移動中か否かが判断される。車両が移動中であれば、ステップS34に進み、移動中でなければステップS35に進む。これは、車両自体が移動している場合の移動物体の検出と、車両が移動していない場合の移動物体の検出とで、処理を異ならせることにより、処理速度を速めるためである。すなわち、車両が移動していないときの移動物体の検出の方が、処理が簡単であるため処理速度が速くなる。
【0100】
ステップS34では、車両が移動中における移動物体の検出のための前処理が行なわれる。画像データ1と画像データ0とを比較した結果得られる比較データから車両の移動に伴う画像データ中の静止物体の移動が削除される。すなわち、車両のまわりの環境中におかれる物体であって、環境に対して静止している物体が削除される。これは、車両が移動することにより、画像データ1と画像データ0との間で、静止物体が映る位置が異なってくる。しかし、静止物体であれば、移動ベクトルは同じであるため、これをもとに画像データ1と画像データ0とを比較した比較データから静止物体を削除することができる。
【0101】
次のステップS35では、画像データ1と画像データ0との比較データから抽出された移動物体のうち、自車方向へ向かうベクトル成分を持つ移動物体があるか否かが判断される。自車方向へ向かうベクトル成分を持つ移動物体がある場合にはステップS36に進み、そうでない場合には処理を終了する。
【0102】
次のステップS36では、自車方向へ向かうベクトル成分を持つ移動物体を検出し、移動物体が撮像画像中に含まれる旨と、その移動物体の座標データとを含む検出信号を画像切換部30およびスピーカ41に出力する。
【0103】
この移動物体の検出処理は、撮像部15が出力する撮像画像の右画像と左画像との両画像について行なわれる。そして、ステップS35で自車方向へ向かうべく成分については、右画像と左画像とではベクトルの方向が異なるのみで、他の処理については同様の処理を行なうことができる。
【0104】
なお、本実施の形態においては、撮像画像中に移動物体が存在するときに、移動物体にマークを付した撮像画像の表示に切換えるようにした。しかしながら、画像表示部17で撮像画像を表示している場合に、その撮像画像中に移動物体が現れたときに、その移動物体にマークを付して表示するようにしてもよい。
【0105】
以上説明したとおり第3の実施の形態における走行支援装置においては、第1の実施の形態における走行支援装置が有する効果に加えて、撮像部15が出力する撮像画像に移動物体が含まれるときにのみ画像表示部17で表示する画像を撮像画像または合成画像に切換えるようにしたので、より適切なタイミングで画像表示部17で表示する画像を切換えることができる。
【0106】
また、画像表示部17で表示する撮像画像に移動物体が存在する場合には、移動物体にマーキングして表示するようにしたので、運転者は、画像表示部17を見てすぐに移動物体が近くに存在することを認識することができる。
【0107】
また、移動物体の中でも、車両に近付いてくる移動物体があるときのみ、画像表示部17に表示するようにしたので、車両を進行させる危険性がより高いときにのみ運転者に必要な画像を提供することができる。なお、撮像部15はフロントグリル102またはボンネット上部に取付けてもよい。
<撮像部の説明>
次に、撮像部15について詳細に説明する。図17は、撮像部15が搭載された車両の一部を示す斜視図である。図17を参照して、車両にはグリル102と、ナンバープレート104と、バンパー106とが設けられており、撮像部15はバンパー106に取付けられている。また、図17において矢印に示される方向は車両の進行方向である。
【0108】
図18は、図17の撮像部15の原理を説明するための図である。図を参照して、撮像部には2つのミラーM1,M2が設けられており、カメラ113の一部分にはミラーM1,M2の2つの反射面により反射された、車両の左方向からの光が入射され、カメラ113の一部分には反射面により反射させない車両の右方向からの光が入射される。
【0109】
このような構成により、1台のカメラ113で車両の右方向からの画像と左方向からの画像とを撮像することが可能である。
【0110】
図19は、撮像部15の構成をその上部から見た平面図である。図を参照して、マウント部材115にミラーM1,M2とカメラ113とが取付けられている。また、カメラ113は撮像素子SEと撮像用レンズ(結像レンズ)Lとから構成されている。ミラーM1の端部はレンズLの光軸OP上に位置するように配置されている。これにより、図面の光軸OPを境としてレンズLの一部には車両の進行方向に対して右方向からの画像が入射される。これに対してレンズLの一部にはミラーM1,M2により反射された車両の進行方向に対して左方向からの画像が入射される。
【0111】
図19において、右方向の画像の撮像範囲をARで示し、左方向の画像の撮像範囲をALで示している。また、図19においては2つのミラーM1,M2で装置を構成することとしたが、2つのプリズムで2つの反射面を構成することとしてもよい。
【0112】
以上説明した撮像部15は、図19に示されるように車両の進行方向に対して右側の画像はミラーにより反射させずに直接撮像することができ、左方向の画像はミラーにより2回反射させることで、ユーザにとって違和感のない画像として撮像することができる。
【0113】
また、車両の運転手にとって右方向からの画像がよく見えた方が好ましいため、右方向からの画像に対してはミラーを用いず直接撮影を行ない、左方向からの画像に対してのみミラーを用いた撮影を行なうことが望ましい。すなわち、右方向からの画像はミラーを用いず直接撮像することができるため、良好な画質の画像を得ることができる。
【0114】
さらに、反射部材が少なくてすむため、低コストで装置を構成することができる。また、マウント部材115にミラーM1,M2やカメラ113を取付けるだけで装置を構成することができるため、低コストであり、また光学系の調整が容易である。
<撮像部の変形例の説明>
図20は、撮像部15の変形例の構成を示す斜視図である。この変形例においては、車両の進行方向に対して左右の画像を、ミラーM4,M5でそれぞれ反射させ、さらにミラーM3で反射させた後カメラ113に入射させることで、ユーザにとって違和感のない画像を得るものである。
【0115】
図21は、撮像部15の変形例の分解斜視図である。図に示されるように、撮像部はカバー部材201と前述のミラーM3,M4,M5と、カメラ113とベース部材203とから構成される。車両の右方向からの光はミラーM4およびミラーM3を介してカメラ113に入射する。一方、車両の左方向からの光はミラーM5およびミラーM3を介してカメラ113に入射する。
【0116】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【図面の簡単な説明】
【図1】 第1の実施の形態における走行支援装置の概略構成を示すブロック図である。
【図2】 撮像部15の撮像範囲を説明するための図である。
【図3】 画像切換部10の詳細な構成を示すブロック図である。
【図4】 撮像部15が出力する撮像画像の一例を示す第1の図である。
【図5】 撮像部15が出力する撮像画像の一例を示す第2の図である。
【図6】 撮像部15が出力する撮像画像の一例を示す第3の図である。
【図7】 合成部13で構成される合成画像の一例を示す図である。
【図8】 画像切換部10で行なわれる画像切換処理の流れを示すフローチャートである。
【図9】 第2の実施の形態における走行支援装置の概略構成を示すブロック図である。
【図10】 第2の実施の形態における画像切換部20の詳細な構成を示すブロック図である。
【図11】 第2の実施の形態における画像切換部20で行なわれる画像切換処理の流れを示すフローチャートである。
【図12】 第3の実施の形態における走行支援装置の概略構成を示すブロック図である。
【図13】 第3の実施の形態における画像切換部30の詳細な構成を示すブロック図である。
【図14】 マーク付与部33で移動物体にマークが付された撮像画像を示す図である。
【図15】 第3の実施の形態における画像切換部30で行なわれる画像切換処理の流れを示すフローチャートである。
【図16】 第3の実施の形態における画像処理部40で行なわれる移動体の検出処理の流れを示すフローチャートである。
【図17】 撮像部15が取付けられた車両の斜視図である。
【図18】 撮像部の原理を説明するための図である。
【図19】 撮像部の構成を示す平面図である。
【図20】 撮像部の変形例の構成を示す斜視図である。
【図21】 撮像部の変形例の分解斜視図である。
【符号の説明】
10 画像切換部、11 制御部、12 切換部、13 合成部、15 撮像部、16 切換スイッチ、17 画像表示部、50 ナビゲーションユニット、20,30 画像切換部、33 マーク付与部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a travel support apparatus for a mobile body, and more particularly to a travel support apparatus for a mobile body that displays a plurality of images in different directions on one screen at a time.
[0002]
[Prior art]
2. Description of the Related Art In recent years, there has been proposed a driving support device that provides meaningful information for driving to a driver in a moving body such as an automobile. For example, there is a camera mounted on the front of a vehicle that displays images taken in the left direction and the right direction on a display mounted in the vehicle. This driving support device is particularly useful at intersections with poor visibility.
[0003]
[Problems to be solved by the invention]
The display mounted in the vehicle is often mounted at a position deviated from the field of view seen when the driver drives the vehicle. For this reason, if the driver pays attention to the display while traveling, there is a danger that the driver's field of view will deviate from the range necessary for traveling during that time. Therefore, when providing visual information to the driver, it is desirable that an easy-to-see display that allows the display contents to be grasped at a glance is performed. In addition, the information provided to the driver only needs to be provided when necessary. If the information is provided when not necessary, the driving operation is hindered.
[0004]
Furthermore, at intersections with poor visibility, it is desirable to actively provide the driver with information that needs attention when traveling, such as pedestrians and passing vehicles.
[0005]
The present invention has been made to solve the above-described problems, and one of its purposes is to display a plurality of images taken in different directions on a single screen when the shooting directions of the plurality of images are viewed at a glance. It is an object of the present invention to provide a traveling support device for a mobile object that can display an easily-readable screen and can improve safety.
[0006]
Another object of the present invention is to provide a traveling support device for a moving body capable of displaying a plurality of images taken in different directions at a desired timing.
[0007]
Still another object of the present invention is to provide a travel support device for a mobile body that can provide information that requires attention when the mobile body is traveled.
[0008]
[Means for Solving the Problems]
According to one aspect of the present invention to achieve the above-described object, a travel support device for a mobile object is attached to the mobile object, The right image and the left direction are imaged with respect to the moving direction of the moving body. Imaging means for outputting an image; Navigation image output means for outputting a navigation image in which the current position of the moving body is marked on the road map, and a superimposed image in which the left image is superimposed on the right image output by the imaging means on the navigation image output by the navigation image output means Creating means and superimposition output by the synthesizing means Display means for displaying an image, Right image and left Each image has a length in the height direction at an angle from the moving direction of the moving object. Proportionally shorter The
[0010]
Preferably, the mobile travel support device is provided between the imaging unit and the display unit, and displays the display unit. Right image and left Switching means for switching to an image including an image is further provided.
[0011]
More preferably, the travel support device of the mobile object calculates a distance between the mobile object and the intersection based on the position of the mobile object on the road map, and the mobile object is approaching the intersection based on the calculated distance. It further comprises an approach detection means for outputting the approach information shown, and the switching means switches the image displayed on the display means based on the approach information output from the approach detection means.
[0012]
More preferably, the travel support device for a mobile object further includes an instruction unit that outputs an instruction signal indicating the movement direction of the mobile object, and a speed detection unit for detecting a travel distance per unit time of the mobile object, The means is characterized in that the display of the display means is switched based on outputs from the instruction section and the speed detection section.
[0013]
More preferably, the travel support device for a mobile object is Right image and left It further includes moving object detection means for detecting a moving object from the image, and the switching means switches the display of the display means when the moving object is detected by the moving object detection means.
[0014]
More preferably, the traveling support apparatus for a moving body further includes notification means for notifying that the moving object is detected by the moving object detection means.
[0015]
More preferably, the notifying means of the traveling support device for a moving body is: Right image and left A moving object detecting means for detecting a moving object from the image and a notifying means for notifying that the moving object has been detected by the moving object detecting means are further provided.
[0016]
More preferably, the notifying means of the traveling support device for a moving body is: Right image and left The moving object included in the image is displayed with a predetermined mark on the display means.
[0017]
According to these inventions, it is possible to provide an easy-to-see screen in which the shooting direction of each of a plurality of images taken in different directions can be seen at a glance, and to provide a traveling support device for a mobile object with improved safety. it can.
[0018]
In addition, it is possible to provide a travel support device for a moving body capable of displaying a plurality of images taken in different directions at a desired timing.
[0019]
Furthermore, it is possible to provide a travel support device for a mobile object that can provide information that requires attention in traveling the mobile object.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the driving assistance apparatus in embodiment of this invention is demonstrated. In the drawings, the same reference numerals denote the same or corresponding members.
[0021]
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a driving support apparatus according to the first embodiment of the present invention. Referring to FIG. 1, the traveling support apparatus for a moving body displays an image displayed on imaging unit 15, navigation unit 50, image display unit 17, and image display unit 17 for capturing a plurality of images in different directions. An image switching unit 10 for switching between and a switch 16 for outputting a switching signal to the image switching unit 10.
[0022]
The imaging unit 15 is provided in front of the vehicle, for example, on the front bumper, and can capture images of the right direction and the left direction with respect to the traveling direction of the vehicle with one camera. Here, the imaging range of the imaging unit 15 will be described. FIG. 2 is a diagram for explaining the imaging range of the imaging unit 15. Referring to FIG. 2, a state in which a vehicle 60 travels from a narrow road to a wide road at an intersection where a narrow road and a wide road intersect is shown. The driver's field of view 63 is limited by the obstacles 61 and 62 on both sides of the narrow road. At this time, the image capturing unit 15 can capture the right direction and the left direction of the wide road by causing the bumper portion in front of the vehicle 60 to slightly enter the wide road. As a result, areas 64 and 65 (indicated by hatching in the figure) that are out of the driver's field of view and can be imaged by the imaging unit 15 are generated. The driving support apparatus in the present embodiment displays right and left images on the image display unit 17 with respect to the traveling direction of the vehicle imaged by the imaging unit 15.
[0023]
The imaging unit 15 uses two cameras, a camera that captures only the right direction and a camera that captures only the left direction, as long as it can capture images in the right and left directions with respect to the traveling direction of the vehicle. May be.
[0024]
Returning to FIG. 1, the image display unit 17 is a display provided inside the vehicle. For example, a liquid crystal display device, a CRT, a plasma display panel, or the like can be used.
[0025]
The navigation unit 50 includes a control unit 51 for controlling the entire navigation unit 50, a storage unit 56 for storing road map information, a vehicle speed sensor 52 for detecting a moving distance of the vehicle per unit time, A direction sensor 53 for detecting the direction in which the vehicle travels, a global positioning system (GPS) 54 for detecting the current position of the vehicle, and a TV tuner 55 for receiving a television signal are included.
[0026]
The navigation unit 50 grasps the position on the road map stored in the storage unit 56 based on information obtained from the GPS 54. Further, by detecting the travel locus of the vehicle based on the outputs of the vehicle speed sensor 52 and the angle sensor 53, the position on the road map that changes as the vehicle travels is detected.
[0027]
The control unit 51 outputs a navigation image (abbreviated as a navigation image in the figure) indicating the current position of the vehicle to the image switching unit 10. The navigation image is an image for indicating the current position of the vehicle, and is an image in which a mark indicating the vehicle is attached to the current position of the vehicle on the road map.
[0028]
Further, the navigation unit 50 detects whether or not the vehicle is approaching the intersection based on the current position on the road map detected based on the outputs of the GPS 54, the vehicle speed sensor 52, and the direction sensor 53. The condition for judging that the vehicle is approaching the intersection in the road map stored in the storage unit 56 is as follows. (1) The vehicle proceeds toward the intersection in the road map stored in the storage unit 56. (2) The distance between the current position of the vehicle and the intersection is shorter than a predetermined distance. When these two conditions are satisfied, the approach information is output to the image switching unit 10. The predetermined distance is, for example, about 20 [m], and may be a distance that allows the vehicle to start decelerating while traveling toward the intersection.
[0029]
Further, the navigation unit 50 detects whether or not the vehicle has passed the intersection, and turns off the approach information output to the image switching unit 10. The determination that the vehicle has passed the intersection is whether or not the distance between the current position of the vehicle and the intersection is greater than a predetermined distance.
[0030]
The vehicle speed sensor 52 outputs a vehicle speed signal to the control unit 51 and also outputs a vehicle speed signal to the image switching unit 10. The switching unit 10 selects one of a captured image composed of a plurality of images in different directions output from the imaging unit 15, a navigation image output from the navigation unit 50, a TV image, and a composite image, and displays the image display unit 17. Output to. The composite image will be described in detail later.
[0031]
The image switching unit 10 switches the output of the navigation image or the TV image to the output of the captured image or the composite image based on the approach information received from the navigation unit 50 and the vehicle speed signal. Processing for switching images by the image switching unit 10 will be described in detail later.
[0032]
The switch SW16 is a switch for switching an image output from the image switching unit 10 by a manual operation. The switching signal of the switching SW 16 is given the highest priority when switching images in the image switching unit 10.
[0033]
FIG. 3 is a block diagram illustrating a detailed configuration of the image switching unit. Referring to FIG. 3, image switching unit 10 includes a control unit 11 for controlling the entire image switching unit and a switching unit 12 for switching an image to be output to image display unit 17. The switching unit 12 includes a combining unit 13 for combining the captured image and the navigation image.
[0034]
A vehicle speed signal and approach information output from the navigation unit 50 are input to the control unit 11. The control unit 11 outputs a switching signal for switching an image to be output to the image display unit 17 to the switching unit 12 based on the received vehicle speed signal and the approach information.
[0035]
The synthesizing unit 13 creates a synthesized image obtained by synthesizing the navigation image output from the navigation unit 50 and the captured image output from the imaging unit 15. A composite image is an image in which a captured image is superimposed on a navigation image. Therefore, the synthesized image includes a part of the navigation image and the captured image. In the synthesis of the captured image in the synthesis unit 13, the navigation image and the captured image are synchronized based on the synchronization signal, and the composite image is created by switching the output of the captured image and the navigation image at a predetermined timing.
[0036]
The switching unit 12 selects any one of the input navigation image, TV image, captured image, and synthesized image synthesized by the synthesizing unit 13 based on the switching signal received from the control unit 11, and the image display unit 17 to output. The switching unit 12 can switch whether an image output to the image display unit 17 is a captured image or a composite image by a dip switch (not shown) or the like.
[0037]
In the present embodiment, the image switching unit 10 is provided separately from the navigation unit 50, but the image switching unit 10 may be included in the navigation unit 50. In this case, the control unit 11 of the image switching unit 10 and the control unit 51 of the navigation unit 50 can be combined into one.
[0038]
Next, the captured image displayed on the image display unit 17 will be described. FIG. 4 is a first diagram illustrating an example of a captured image output by the imaging unit 15. Referring to FIG. 4, captured image 70 includes a right image 71a captured in the right direction with respect to the traveling direction of the vehicle, and a left image 71b captured in the left direction. The right image 71a and the left image 71b have a shape in which the length in the height direction of each image becomes longer in proportion to the angle from the traveling direction of the vehicle. The right image 71a has a shape in which the length in the height direction of the right image is longer, and the left image 71b has a shape in which the length in the height direction of the left image is longer.
[0039]
Further, the right image 71 a and the left image 71 b are divided by the dividing unit 72. Further, an arrow indicating that the right image 71a is the right image and a symbol 73a composed of the characters “right” are attached to the upper portion of the right image 71a, and an arrow indicating that the left image 71b is the left image and “left”. A symbol 73b consisting of the above characters is attached to the upper part of the left image 71b.
[0040]
Therefore, in the captured image 70, the right image 71a and the left image 71b are shaped so that the length in the height direction of the image is increased in proportion to the angle from the traveling direction of the vehicle. The image 71b is an easy-to-see image that can be distinguished from the captured image 70 at a glance.
[0041]
FIG. 5 is a second diagram illustrating an example of a captured image output by the imaging unit 15. The captured image 75 shown in FIG. 5 can be used in place of the captured image 70 shown in FIG. Referring to FIG. 5, the right image 71 a and the left image 71 b of the captured image 70 shown in FIG. 4 increase the length in the height direction of the image in proportion to the angle from the traveling direction of the vehicle. The captured image 75 is a shape in which the right image and the left image are reduced in length in the height direction in proportion to the angle from the traveling direction of the vehicle. Figure 5 The right image 76a has a shape in which the length in the height direction of the right image is shorter, and the left image 76b has a shape in which the length in the height direction of the left image is shorter. It has become. Since other configurations are the same as those of captured image 70 shown in FIG. 5, description thereof will not be repeated here.
[0042]
Thus, the captured image 75 has the right image 76a and the left image 76b in a shape that shortens the length in the height direction of the image in proportion to the angle from the traveling direction of the vehicle. The image 76a or the left image 76b can be discriminated at a glance.
[0043]
The captured images 70 and 75 are superimposed by the image processing unit provided in the imaging unit 15 with the dividing unit 72 and the symbols 73a and 73b. Further, an image processing unit that performs this superimposition may be provided in the image switching unit 10. In addition, a mask for displaying the division unit 72 and the symbols 73a and 73b on the captured image may be inserted between the lens constituting the optical system of the imaging unit 15 and the imaging element.
[0044]
Note that the captured image 70 shown in FIG. 4 and the captured image 75 shown in FIG. 5 change the length in the height direction of the right image and the left image in proportion to the angle from the traveling direction of the vehicle. However, the angle from the direction of travel of the vehicle and the length in the height direction of the image need not be in direct proportion, and the direction of travel of the vehicle and the length in the height direction of the image, such as inverse proportion, are It can be a shape having a relationship.
[0045]
FIG. 6 is a third diagram illustrating an example of a captured image output by the imaging unit 15. Referring to FIG. 6, captured image 85 includes a front image 88 captured in the traveling direction (front) of the vehicle, a right image 86 a captured in the right direction, and a left image 86 b captured in the left direction. The previous image 88, the right image 86a, and the left image 86b are divided by the dividing unit 72, respectively. Further, an arrow indicating that the right image 86a is an image obtained by capturing the right direction of the vehicle and a symbol 73a composed of the characters “right” are displayed at the top of the right image 86a, and the left image 86b is an image obtained by capturing the left direction. A symbol 73b composed of an arrow indicating that the character is “right” and the character “right” is displayed on the upper portion of the left image 86b, and a symbol 73c composed of a character “front” indicating that the previous image 88 is an image obtained by capturing the forward direction. Is displayed at the top of the left image 88.
[0046]
For example, the front image 88 is an image obtained by imaging with a camera installed in a vehicle rearview mirror or the like, and the right image 86a and the left image 86b image the right direction provided in a vehicle bumper or the like. It is the image obtained by image-capturing with the camera and the camera which images the left direction, respectively. Further, the right image 86a and the left image 86b are images obtained by imaging with a camera that is provided in a bumper in front of the vehicle and can simultaneously capture the right direction and the left direction of the vehicle with one image sensor.
[0047]
The right image 86a and the left image 86b have a shape in which the length in the image height direction is increased in proportion to the angle from the traveling direction of the vehicle. Therefore, the captured image 85 is displayed in a shape that can distinguish the right image 86, the left image 87, and the previous image 88 at a glance.
[0048]
The right image 86a, the left image 86b, and the previous image 88 are synthesized by the image processing unit provided in the imaging unit 15 or the image switching unit 10, and the dividing unit 72 and the arrows 73a and 73b are superimposed. .
[0049]
Next, a synthesized image created by synthesizing the captured image and the navigation image in the synthesizing unit 13 will be described. FIG. 7 is a diagram illustrating an example of a composite image created by the composition unit 13. The composite image 80 includes a partial region 83 of the navigation image, a right image 81a obtained by imaging the right side with respect to the traveling direction of the vehicle, and a left image 81b obtained by imaging the left side. A partial area 83 of the navigation image includes a road 84 and a mark 82 indicating the position of the vehicle on the map. In the area 83, the name of the intersection where the vehicle is about to enter is displayed.
[0050]
The right image 81a starts from a position indicating the intersection portion of the road 84 in the region 83, and the length in the height direction becomes longer as it goes to the right, and the length in the middle is increased to further increase the length in the height direction. Includes long shapes. This includes a portion where the length in the height direction of the image becomes longer according to the angle from the traveling direction of the vehicle.
[0051]
The left image 81b has a shape in which the length in the height direction becomes longer as it starts from the position indicating the intersection portion of the road 84 and proceeds to the left, and the length in the height direction is further increased by increasing the length from the middle. Including. This includes the shape in which the length in the height direction of the image becomes longer in accordance with the angle from the traveling direction of the vehicle in the left image 81b.
[0052]
Thus, the composite image 80 is an image in which the right image 81 a and the left image 81 b are superimposed on the navigation image 83. The right image 81a and the left image 81b include shapes in which the length in the height direction of the images changes according to the angle from the traveling direction of the vehicle. Therefore, the composite image 80 can display the navigation image 83, the right image 81a, and the left image 81b simultaneously, and further displays the right image 81a and the left image 81b in a shape that can be distinguished from the composite image 80 at a glance. It is like that.
[0053]
Next, an image switching process performed by the image switching unit 10 in the travel support device according to the present embodiment will be described. FIG. 8 is a flowchart showing the flow of image switching processing performed by the image switching unit 10. Referring to FIG. 8, in the image switching process, it is first determined whether or not the vehicle is approaching an intersection based on the approach information output from navigation unit 50 (step S01). The approach information transmitted from the navigation unit 50 is output when the distance between the vehicle position and the intersection is less than a predetermined distance. In step S01, when it is detected that the approach information is output from the navigation unit 50, it is determined that the vehicle is approaching the intersection. Here, the predetermined distance is, for example, 20 [m]. Note that the predetermined distance is not limited to 20 [m], and may be a distance that can start deceleration when the vehicle approaches the intersection.
[0054]
Further, the approach information may be a distance between the current position of the vehicle and the intersection. In this case, the image switching unit 10 determines that the distance between the current position of the vehicle and the intersection has become a predetermined distance.
[0055]
If it is determined in step S01 that the vehicle is approaching the intersection, the process proceeds to step S02. If it is determined that the vehicle is not approaching, the process is terminated.
[0056]
In the next step S02, based on the vehicle speed signal output from the vehicle speed sensor 52, it is determined whether or not the vehicle speed has reached a predetermined value (set value). If the vehicle speed is less than or equal to the set value, the process proceeds to step S03, and if not, the process ends. The set value is preferably 5 [km / h] and indicates the speed immediately before the vehicle stops. The speed set as the set value is not limited to 5 [km / h], and refers to a speed at which the vehicle can safely travel even when the driver looks at the image display unit 17. km / h].
[0057]
In step S <b> 03, an image including the captured image captured by the imaging unit 15 is output to the image display unit 17. An image including a captured image is the captured image itself or a composite image. Only the captured image may be output to the image display unit 17, or the combined image obtained by combining the navigation image and the captured image by the combining unit 13 may be output to the image display unit 17. For example, when a navigation image is displayed on the image display unit 17, a composite image is output to the image display unit 17, and when a TV image is displayed on the image display unit 17 or nothing is displayed. If not, the captured image may be output to the image display unit 17.
[0058]
In the next step S04, it is determined whether or not the vehicle has passed the intersection, and the vehicle waits until it passes the intersection. Whether the vehicle has passed the intersection is determined based on the approach information output from the navigation unit 50. For example, it can be determined that the vehicle has passed an intersection when the approach information output from the navigation unit 50 is OFF. Further, when the approach information indicates the distance between the vehicle and the intersection, the approach information is supplied as information that the vehicle has moved away from the intersection, for example, negative information, so that it can be determined that the vehicle has passed the intersection. .
[0059]
If it is determined in step S04 that the vehicle has passed the intersection, the process proceeds to step S05, and the output of the captured image or composite image to the image display unit 17 is stopped, whereby the image displayed on the image display unit 17 is switched. It is done.
[0060]
By the image switching process described above, the image displayed on the image display unit 17 is switched as follows. When the navigation image or the TV image is displayed before the vehicle approaches the intersection, the captured image or the composite image is displayed when the vehicle approaches the intersection and the vehicle speed becomes lower than a predetermined value. A navigation image or TV image is displayed when the vehicle passes the intersection. If nothing is displayed before the vehicle approaches the intersection, a captured image or a composite image is displayed on the image display unit 17 when the vehicle approaches the intersection and the vehicle speed becomes a predetermined value or less. Thereafter, when the vehicle passes the intersection, the display of the captured image or the composite image is stopped and nothing is displayed on the image display unit 17.
[0061]
As described above, in the travel support device according to the first embodiment, a shape in which the length of the image in the vertical direction of the captured image captured by the imaging unit 15 is changed according to the angle from the traveling direction of the vehicle. Therefore, it is possible to display an image that allows the right image and the left image to be discriminated at a glance from the captured image. As a result, the time for the driver to view the image displayed on the image display unit 17 is shortened, and the vehicle can be driven safely.
[0062]
In addition, since the captured image captured by the imaging unit 15 is displayed on the image display unit 17 when necessary, the driver does not need to perform an operation of switching the image displayed on the image display unit 17, and is safe. It is possible to drive the vehicle.
[0063]
[Second Embodiment]
The travel support apparatus according to the second embodiment is an improvement of the image switching unit 10 of the travel support apparatus according to the first embodiment. FIG. 9 is a block diagram illustrating a schematic configuration of the travel support apparatus according to the second embodiment. Referring to FIG. 9, the travel support apparatus in the second embodiment includes an image switching unit 20, an imaging unit 15, a changeover switch 16, an image display unit 17, a navigation unit 50, and a vehicle speed sensor 25. And an indicator 26. Since the navigation unit 50 is the same as the navigation unit 50 described in the first embodiment, it is shown here in a simplified manner. A navigation image and a TV image are output from the navigation unit 50 to the image switching unit 20. A vehicle speed signal indicating the travel distance of the vehicle per unit time is output from the vehicle speed sensor 25 to the image switching unit 20, and a direction indicator for the driver to indicate the traveling direction of the vehicle is operated from the indicator 26. A blinker signal indicating this is output to the image switching unit 20. Imaging unit 15, changeover switch 16, image display unit 17, and navigation unit 50 are the same as those described in the first embodiment, and therefore description thereof will not be repeated.
[0064]
The vehicle speed sensor 25 can also be used as a vehicle speed sensor 52 built in the navigation unit 50. Furthermore, although the image switching unit 20 is provided separately from the navigation unit 50, the image switching unit 20 may be included in the navigation unit 50.
[0065]
FIG. 10 is a block diagram illustrating a detailed configuration of the image switching unit 20. Referring to FIG. 10, image switching unit 20 includes a control unit 21 and a switching unit 12. The switching unit 12 includes a combining unit 13. Since switching unit 12 and combining unit 13 are the same as those described in the first embodiment, description thereof will not be repeated here. The control unit 21 receives a vehicle speed signal output from the vehicle speed sensor 25 and a winker signal output from the indicator 26. Based on the vehicle speed signal and the blinker signal, the control unit 21 outputs to the switching unit 12 a switching signal for instructing the switching unit 12 to switch the image to be output to the image display unit 17.
[0066]
Next, an image switching process performed by the image switching unit 20 of the travel support apparatus in the second embodiment will be described. FIG. 11 is a flowchart showing the flow of image switching processing performed by the image switching unit 20. Referring to FIG. 11, it is determined whether or not a blinker signal is output from indicator 26 (step S11). If a turn signal is detected, the process proceeds to step S13, and if not detected, the process proceeds to step S12. The case where the turn signal is detected indicates that the vehicle will turn right or left after that, and it can be determined that the vehicle is approaching the intersection.
[0067]
In step S12, it is determined whether or not the absolute value of the negative acceleration is equal to or greater than a predetermined value (set value 1). If the absolute value of the negative acceleration is greater than or equal to the set value 1, the process proceeds to step S13, and if not, the process returns to step S11. In step S12, the acceleration of the vehicle is calculated based on the vehicle speed signal, and two determinations are made as to whether or not the calculated acceleration is a negative acceleration and whether or not the absolute value of the negative acceleration is greater than or equal to a set value. Will be made. A negative acceleration indicates that the vehicle is decelerating. The determination as to whether or not the absolute value of the negative acceleration is greater than or equal to the set value is to determine whether or not the vehicle is about to stop. Therefore, the set value 1 can be set by an experience value obtained by statistically processing the acceleration when the vehicle stops.
[0068]
In step S13, based on the vehicle speed signal output from the vehicle speed sensor 25, it is determined whether or not the vehicle speed has become a predetermined value (set value 2) or less. If the vehicle speed is less than or equal to the set value 2, the process proceeds to step S14, and if not, the process returns to step S11. Here, the speed indicated by the set value 2 is, for example, 5 [km / h], and the speed at which the driver can safely drive the vehicle while looking at the image display unit in a state where the vehicle is almost stopped. It is. Therefore, the set value may be 0 [km / h].
[0069]
In step S <b> 14, an image including the captured image captured by the imaging unit 15 is output to the image display unit 17, and the image displayed on the image display unit 17 is switched. The switching here is the same as the image switching described in step S03 in FIG.
[0070]
In the next step S15, it is determined whether or not the vehicle speed is equal to or higher than a predetermined value (set value 3). If the vehicle speed is greater than or equal to the set value 3, the process proceeds to step S17, and if not, the process proceeds to step S16. Here, the set value 3 may be a value of about 10 to 20 [km / h], for example, and may be a speed at which it can be determined that the vehicle has started running from a state where the vehicle has stopped.
[0071]
In step S16, it is determined whether or not the elapsed time since the image displayed on the image display unit 17 has been switched to the captured image or the composite image has exceeded a predetermined value (set time). If the set time is exceeded, the process proceeds to step S17, and if not, the process proceeds to step S15.
[0072]
For example, when the vehicle travels slowly due to traffic congestion or the like, the vehicle speed does not exceed the set value 3. In this case, the captured image or the synthesized image remains displayed on the image display unit 17. By limiting the time for displaying the captured image or the composite image on the image display unit 17 in step S16, it is possible to prevent the state where the captured image or the composite image is displayed on the image display unit 17 indefinitely. it can.
[0073]
In step S17, the output of the captured image or the composite image is stopped to the image display unit 17, and the navigation image or TV image is displayed or nothing is displayed.
[0074]
As described above, in the driving support device in the second embodiment, the image switching unit 20 displays an image including the captured image captured by the imaging unit 15 on the image display unit 17 based on the vehicle speed signal and the blinker signal. Decide whether to display. Therefore, the driving support device in the second embodiment can reduce the signal output from the navigation unit 50 to the image switching unit 20 in addition to the effects of the driving support device in the first embodiment. The connection between the image switching unit 10 and the navigation unit 50 can be facilitated.
[0075]
[Third Embodiment]
Next, a driving support apparatus according to a third embodiment will be described. The travel support apparatus according to the third embodiment is obtained by adding an image processing unit and a speaker to the travel support apparatus according to the first embodiment.
[0076]
FIG. 12 is a block diagram illustrating a schematic configuration of the travel support apparatus according to the third embodiment. Referring to FIG. 12, the driving support device includes an image processing unit 40 for detecting a moving object from the captured image output by the imaging unit 15 and an image processing unit in the driving support device according to the first embodiment. This is a configuration in which a speaker 41 for generating a warning sound based on a detection signal output from the computer 40 is added.
[0077]
The image processing unit 40 detects a moving object from the captured image output by the imaging unit 15. Processing for detecting a moving object will be described in detail later. When a moving object is detected in the captured image by the image processing unit 40, a detection signal indicating that a moving object is present in the captured image is output to the image switching unit 30 and the speaker 41. The detection signal output here includes the fact that there is a moving object in the captured image and the coordinate value of the moving object in the captured image.
[0078]
When the speaker 41 receives the detection signal from the image processing unit 40, the speaker 41 generates a warning sound. Further, instead of the warning sound, a sound such as “A moving object is approaching. Be careful” may be generated.
[0079]
Based on the detection signal output from the image processing unit 40, the image switching unit 30 performs processing for adding a mark to the moving object included in the captured image output to the captured image output from the imaging unit 15. Since other configurations are the same as those described in the first embodiment, description thereof will not be repeated here.
[0080]
Although the image switching unit and the image processing unit are provided separately from the navigation unit 50, the navigation unit 50 may include the image switching unit 30 and the image processing unit 40. In the third embodiment, the image processing unit 40 and the speaker 41 are added to the driving support device in the first embodiment. However, the driving support device in the second embodiment has an image. It can also be set as the structure which added the process part 40 and the speaker 41. FIG.
[0081]
FIG. 13 is a block diagram illustrating a detailed configuration of the image switching unit 30. Referring to FIG. 13, image switching unit 30 inputs a captured image, a navigation image, and a TV image, and displays them on image display unit 17, with control unit 31 for controlling the entire image switching unit 30. And a switching unit 32 for switching images.
[0082]
The control unit 31 determines an image to be displayed on the image display unit 17 based on the approach information output from the navigation unit 50 and the vehicle speed signal, and outputs a switching signal to the switching unit 32. Further, the control unit 31 outputs a marker application signal to the mark application unit 33 of the switching unit 32 based on the detection signal output from the image processing unit 40. The marker provision signal includes the coordinate value of the moving object in the captured image.
[0083]
The switching unit 32 switches an image output to the image display unit 17 to any one of a captured image, a navigation image, a TV image, and a composite image in accordance with a switching signal output from the control unit 31. In addition, the switching unit 32 includes a combining unit 13 for creating a composite image in which the captured image is superimposed on the navigation image, and a mark applying unit 33 for applying a mark to the moving object included in the captured image or the composite image. Including.
[0084]
The mark imparting unit 33 imparts a predetermined mark to the moving object in the captured image based on the marker imparting signal output from the control unit 31.
[0085]
FIG. 14 is a diagram illustrating a captured image in which a mark is attached to a moving object by the mark assigning unit 33. Referring to FIG. 14, right image 71a in captured image 70 includes a person 90 and a mark 91 surrounding the person.
[0086]
If the image display unit 17 can display a color image, the mark 91 may be a color that is easy for the driver to recognize, for example, the color of the mark 91. In this way, the driver can immediately recognize that the person 90 is approaching from the right direction.
[0087]
Although the mark 91 is shown as a quadrangle, the shape is not limited to this, and a mark such as a round shape, a triangle shape, or a polygon shape can be used. Furthermore, instead of the mark 91, the luminance of the person 90 may be increased and displayed. By increasing the luminance of the moving object included in the captured image, it is possible to immediately determine a portion with high luminance from the captured image, and thus it is possible to immediately recognize the moving object included in the captured image.
[0088]
Next, an image switching process performed by the travel support apparatus according to the third embodiment will be described. FIG. 15 is a flowchart showing the flow of image switching processing performed by the image switching unit 30. Referring to FIG. 15, in the image switching process, it is first determined whether or not the vehicle has approached the intersection based on the approach information output from navigation unit 50 (step S21). If it is determined that the vehicle is approaching the intersection, the process proceeds to step S22, and if not, the process ends.
[0089]
In step S22, it is determined whether or not the vehicle speed is equal to or less than a predetermined value (set value) determined in advance based on the vehicle speed signal output from the navigation unit 50. The set value is preferably 0 to 5 [km / h], and is a speed at which the driver can safely drive the vehicle while looking at the image display unit 17.
[0090]
In step S <b> 23, based on the detection signal output from the image processing unit 40, it is determined whether or not the captured image output from the imaging unit 15 includes a moving object. If a moving object is included, the process proceeds to step S24, and if not, the process ends.
[0091]
In step S24, the image displayed on the image display unit 17 is switched to an image including the captured image output by the imaging unit 15. The image including the captured image is either a captured image output by the imaging unit 15 or a composite image obtained by superimposing the captured image on the navigation image by the combining unit 13. The captured image here is an image in which the mark is added to the moving object included in the captured image by the mark assigning unit 33. Whether the image output to the image display unit 17 is a captured image or a composite image is switched by a dip switch or the like provided in the image switching unit. Further, a composite image may be displayed when a navigation image is displayed on the image display unit 17, and a captured image may be displayed when a TV image is displayed or when nothing is displayed.
[0092]
In the next step S25, a warning is given to the driver. The warning to the driver is performed by marking a moving object in the captured image displayed on the image display unit 17. The mark may be blinked. Thus, the driver can immediately determine that the moving object is in the right direction or the left direction by looking at the image display unit 17.
[0093]
Further, here, a mark is attached to the moving object. However, the brightness of the moving object may be increased and highlighted without attaching the mark.
[0094]
Further, the moving object displayed on the image display unit 17 is marked, the mark is blinked, or the moving object itself is highlighted, and a warning sound is generated from the speaker 41. Further, instead of the warning sound, a sound such as “A moving object is approaching. Be careful” may be output.
[0095]
In the next step S26, it is determined whether or not the vehicle has passed the intersection. Whether or not the vehicle has passed the intersection is determined based on the approach information output from the navigation unit 50. Since this has been described above, description thereof will not be repeated here. The process of step S25 is performed until the vehicle passes the intersection.
[0096]
In the next step S27, the image displayed on the image display unit 17 is switched to an image not including the captured image. The image switching is performed by stopping outputting the captured image or the synthesized image from the image switching unit 30 to the image display unit 17. When the navigation image or TV image is displayed on the image display unit 17 before the vehicle approaches the intersection, the original navigation image or TV image displayed before the vehicle approaches the intersection is switched. Further, when nothing is displayed on the image display unit before the vehicle approaches the intersection, the display of the captured image or the synthesized image on the image display unit 17 is stopped.
[0097]
Next, a moving object detection process performed by the image processing unit 40 will be described. FIG. 16 is a flowchart showing the flow of the moving object detection process performed by the image processing unit 40. Referring to FIG. 16, the image processing unit 40 takes in the image data 1 for the latest one frame from the captured image output by the imaging unit 15 (step S <b> 31). Then, the image data 0 for one frame before T seconds is taken in, and the image data 1 and the image data 0 are compared (step S32).
[0098]
Here, the time T is set so that the moving object can be detected by comparing the image data 1 and the image data 0. For example, since the moving speed differs between a car and a person, the time T may be different depending on whether the car is detected or a person is detected.
[0099]
In the next step S33, it is determined whether or not the vehicle is moving. If the vehicle is moving, the process proceeds to step S34, and if not, the process proceeds to step S35. This is to increase the processing speed by making the processing different between detection of a moving object when the vehicle itself is moving and detection of a moving object when the vehicle is not moving. That is, since the process is simpler when the moving object is detected when the vehicle is not moving, the processing speed is increased.
[0100]
In step S34, preprocessing for detecting a moving object while the vehicle is moving is performed. The movement of the stationary object in the image data accompanying the movement of the vehicle is deleted from the comparison data obtained as a result of comparing the image data 1 and the image data 0. That is, an object that is placed in the environment around the vehicle and is stationary with respect to the environment is deleted. This is because the position where the stationary object is reflected differs between the image data 1 and the image data 0 as the vehicle moves. However, since the movement vector is the same for a stationary object, the stationary object can be deleted from the comparison data obtained by comparing the image data 1 and the image data 0 based on this.
[0101]
In the next step S35, it is determined whether or not there is a moving object having a vector component toward the host vehicle direction among the moving objects extracted from the comparison data of the image data 1 and the image data 0. If there is a moving object having a vector component toward the host vehicle, the process proceeds to step S36, and if not, the process ends.
[0102]
In the next step S36, a moving object having a vector component heading toward the host vehicle is detected, and a detection signal including the fact that the moving object is included in the captured image and the coordinate data of the moving object is sent to the image switching unit 30 and Output to the speaker 41.
[0103]
This moving object detection process is performed for both the right image and the left image of the captured image output by the imaging unit 15. And about the component which goes to the own vehicle direction at step S35, only the direction of a vector differs in a right image and a left image, and the same process can be performed about another process.
[0104]
In the present embodiment, when there is a moving object in the captured image, the display is switched to the display of the captured image in which the moving object is marked. However, when a captured image is displayed on the image display unit 17, when a moving object appears in the captured image, the moving object may be displayed with a mark.
[0105]
As described above, in the travel support device according to the third embodiment, in addition to the effects of the travel support device according to the first embodiment, when a moving object is included in the captured image output by the imaging unit 15. Since only the image displayed on the image display unit 17 is switched to the captured image or the composite image, the image displayed on the image display unit 17 can be switched at a more appropriate timing.
[0106]
In addition, when a moving object is present in the captured image displayed on the image display unit 17, the moving object is marked and displayed, so that the driver can see the moving object immediately after looking at the image display unit 17. Recognize that it exists nearby.
[0107]
In addition, since the moving image is displayed on the image display unit 17 only when there is a moving object approaching the vehicle among moving objects, an image necessary for the driver is displayed only when the risk of traveling the vehicle is higher. Can be provided. Note that the imaging unit 15 may be attached to the front grill 102 or the upper part of the hood.
<Description of imaging unit>
Next, the imaging unit 15 will be described in detail. FIG. 17 is a perspective view illustrating a part of a vehicle on which the imaging unit 15 is mounted. With reference to FIG. 17, the vehicle is provided with a grill 102, a license plate 104, and a bumper 106, and the imaging unit 15 is attached to the bumper 106. In addition, the direction indicated by the arrow in FIG. 17 is the traveling direction of the vehicle.
[0108]
FIG. 18 is a diagram for explaining the principle of the imaging unit 15 of FIG. Referring to the figure, the imaging unit is provided with two mirrors M1 and M2, and the light from the left direction of the vehicle reflected by the two reflecting surfaces of mirrors M1 and M2 is part of the camera 113. Incident light is incident on a part of the camera 113 from the right side of the vehicle that is not reflected by the reflecting surface.
[0109]
With such a configuration, it is possible to take an image from the right direction and an image from the left direction of the vehicle with one camera 113.
[0110]
FIG. 19 is a plan view of the configuration of the imaging unit 15 as viewed from above. Referring to the figure, mirrors M1 and M2 and camera 113 are attached to mount member 115. The camera 113 is composed of an image sensor SE and an imaging lens (imaging lens) L. The end of the mirror M1 is disposed so as to be positioned on the optical axis OP of the lens L. Thereby, an image from the right direction with respect to the traveling direction of the vehicle is incident on a part of the lens L with the optical axis OP in the drawing as a boundary. On the other hand, an image from the left direction with respect to the traveling direction of the vehicle reflected by the mirrors M1 and M2 is incident on a part of the lens L.
[0111]
In FIG. 19, the imaging range of the rightward image is indicated by AR, and the imaging range of the leftward image is indicated by AL. In FIG. 19, the two mirrors M1 and M2 constitute the apparatus, but two prisms may constitute two reflecting surfaces.
[0112]
As shown in FIG. 19, the imaging unit 15 described above can directly capture an image on the right side of the traveling direction of the vehicle without being reflected by the mirror, and reflect the image in the left direction twice by the mirror. As a result, the image can be taken as a user-friendly image.
[0113]
In addition, it is preferable for the driver of the vehicle to see the image from the right direction well, so the image from the right direction is taken directly without using the mirror, and the mirror is only applied to the image from the left direction It is desirable to perform the shooting using. That is, since an image from the right direction can be directly captured without using a mirror, an image with good image quality can be obtained.
[0114]
Further, since the number of reflecting members is small, the apparatus can be configured at low cost. Further, since the apparatus can be configured only by attaching the mirrors M1 and M2 and the camera 113 to the mount member 115, the cost is low and the adjustment of the optical system is easy.
<Description of Modification of Imaging Unit>
FIG. 20 is a perspective view illustrating a configuration of a modified example of the imaging unit 15. In this modified example, the left and right images with respect to the traveling direction of the vehicle are reflected by the mirrors M4 and M5, respectively, and further reflected by the mirror M3 and then incident on the camera 113, whereby an image that does not feel uncomfortable for the user. To get.
[0115]
FIG. 21 is an exploded perspective view of a modified example of the imaging unit 15. As shown in the figure, the imaging unit includes a cover member 201, the above-described mirrors M3, M4, and M5, a camera 113, and a base member 203. The light from the right side of the vehicle enters the camera 113 via the mirror M4 and the mirror M3. On the other hand, the light from the left direction of the vehicle enters the camera 113 through the mirror M5 and the mirror M3.
[0116]
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a travel support apparatus according to a first embodiment.
FIG. 2 is a diagram for explaining an imaging range of an imaging unit 15;
3 is a block diagram illustrating a detailed configuration of an image switching unit 10. FIG.
FIG. 4 is a first diagram illustrating an example of a captured image output by an imaging unit 15;
FIG. 5 is a second diagram illustrating an example of a captured image output by the imaging unit 15;
6 is a third diagram illustrating an example of a captured image output by the imaging unit 15. FIG.
FIG. 7 is a diagram illustrating an example of a composite image configured by a composition unit 13;
FIG. 8 is a flowchart showing a flow of image switching processing performed in the image switching unit 10;
FIG. 9 is a block diagram showing a schematic configuration of a travel support apparatus in a second embodiment.
FIG. 10 is a block diagram illustrating a detailed configuration of an image switching unit 20 according to the second embodiment.
FIG. 11 is a flowchart showing a flow of an image switching process performed by an image switching unit 20 in the second embodiment.
FIG. 12 is a block diagram illustrating a schematic configuration of a travel support apparatus according to a third embodiment.
FIG. 13 is a block diagram showing a detailed configuration of an image switching unit 30 according to the third embodiment.
FIG. 14 is a diagram illustrating a captured image in which a mark is attached to a moving object by a mark assigning unit 33;
FIG. 15 is a flowchart illustrating a flow of image switching processing performed by an image switching unit 30 according to the third embodiment.
FIG. 16 is a flowchart illustrating a flow of a moving object detection process performed by the image processing unit according to the third embodiment.
FIG. 17 is a perspective view of a vehicle to which an imaging unit 15 is attached.
FIG. 18 is a diagram for explaining the principle of an imaging unit.
FIG. 19 is a plan view illustrating a configuration of an imaging unit.
FIG. 20 is a perspective view illustrating a configuration of a modified example of the imaging unit.
FIG. 21 is an exploded perspective view of a modified example of the imaging unit.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Image switching part, 11 Control part, 12 Switching part, 13 Composition part, 15 Imaging part, 16 Changeover switch, 17 Image display part, 50 Navigation unit, 20, 30 Image switching part, 33 Mark provision part

Claims (8)

移動体に取付けられ、前記移動体の進行方向に対して右方向と左方向を撮像して右画像と左画像を出力する撮像手段と、
前記移動体の現在位置を道路地図上にマークしたナビゲーション画像を出力するナビゲーション画像出力手段と、
前記ナビゲーション画像出力手段が出力する前記ナビゲーション画像上に前記撮像手段が出力する前記右画像と前記左画像を重ねた重畳画像を作成する合成手段と、
前記合成手段が出力する前記重畳画像を表示するための表示手段とを備え、
前記右画像と前記左画像のそれぞれは、高さ方向の長さが移動体の進行方向からの角度に比例して短くなる、移動体の走行支援装置。
An imaging means attached to the moving body, imaging right and left directions with respect to the traveling direction of the moving body, and outputting a right image and a left image;
Navigation image output means for outputting a navigation image in which the current position of the mobile object is marked on a road map;
Combining means for creating a superimposed image in which the right image output from the imaging means and the left image are superimposed on the navigation image output by the navigation image output means;
Display means for displaying the superimposed image output by the synthesizing means ,
Wherein each of the right image and the left image, the length in the height direction in proportion to the angle from the moving direction of the moving body become shorter accordingly, the traveling support device of the movable body.
前記撮像手段と前記表示手段との間に設けられ、前記表示手段の表示を前記右画像と前記左画像を含む画像に切換えるための切換手段をさらに備えた、請求項1に記載の移動体の走行支援装置。The moving body according to claim 1, further comprising switching means provided between the imaging means and the display means for switching the display on the display means to an image including the right image and the left image. Driving support device. 前記移動体の前記道路地図上の位置に基づき前記移動体と交差点との間の距離を算出し、算出した距離に基づき前記移動体が前記交差点に接近していることを示す接近情報を出力する接近検知手段をさらに備え、
前記切換手段は、前記接近検知手段から出力される前記接近情報に基づき、前記表示手段で表示する画像を切換えることを特徴とする、請求項に記載の移動体の走行支援装置。
Calculating a distance between the moving object and the intersection based on the position on the road map of the movable body, the movable body based on the calculated distance is outputted to approach information indicating that it is approaching the intersection Further comprising an approach detection means,
3. The travel support apparatus for a moving body according to claim 2 , wherein the switching unit switches an image to be displayed on the display unit based on the approach information output from the approach detection unit.
前記移動体の移動方向を示す指示信号を出力する指示部と、
前記移動体の単位時間当りの移動距離を検出するための速度検出部とをさらに含み、
前記切換手段は、前記指示部と前記速度検出部との出力に基づき、前記表示手段の表示を切換えることを特徴とする、請求項に記載の移動体の走行支援装置。
An instruction unit that outputs an instruction signal indicating a moving direction of the moving body;
A speed detector for detecting a moving distance per unit time of the moving body,
The travel support device for a moving body according to claim 2 , wherein the switching means switches the display of the display means based on outputs from the instruction section and the speed detection section.
前記右画像と前記左画像中から移動物体を検出するための移動物体検出手段をさらに含み、
前記切換手段は、前記移動物体検出手段で移動物体が検出されたときに前記表示手段の表示を切換えることを特徴とする、請求項に記載の移動体の走行支援装置。
A moving object detecting means for detecting a moving object from the right image and the left image;
The traveling support apparatus for a moving body according to claim 2 , wherein the switching means switches the display of the display means when a moving object is detected by the moving object detection means.
前記移動物体検出手段で移動物体が検出されたことを報知するための報知手段をさらに備えた、請求項に記載の移動体の走行支援装置。The traveling support apparatus for a moving body according to claim 5 , further comprising notification means for notifying that a moving object is detected by the moving object detection means. 前記右画像と前記左画像中から移動物体を検出するための移動物体検出手段と、
前記移動物体検出手段で移動物体が検出されたことを報知するための報知手段とをさらに備えた、請求項に記載の移動体の走行支援装置。
Moving object detection means for detecting a moving object from the right image and the left image;
The moving object in the moving object detecting means further comprising an informing means for informing that it has been detected, the traveling support device of the mobile body according to claim 1.
前記報知手段は、前記右画像と前記左画像中に含まれる前記移動物体に所定のマークを付して前記表示手段に表示することを特徴とする、請求項またはに記載の移動体の走行支援装置。The notification means, and displaying on said display means are designated by the predetermined mark to the moving object included in said left image and the right image, the moving body according to claim 6 or 7 Driving support device.
JP26108599A 1999-09-14 1999-09-14 Travel support device for moving body Expired - Fee Related JP4238429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26108599A JP4238429B2 (en) 1999-09-14 1999-09-14 Travel support device for moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26108599A JP4238429B2 (en) 1999-09-14 1999-09-14 Travel support device for moving body

Publications (2)

Publication Number Publication Date
JP2001084500A JP2001084500A (en) 2001-03-30
JP4238429B2 true JP4238429B2 (en) 2009-03-18

Family

ID=17356884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26108599A Expired - Fee Related JP4238429B2 (en) 1999-09-14 1999-09-14 Travel support device for moving body

Country Status (1)

Country Link
JP (1) JP4238429B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4786076B2 (en) * 2001-08-09 2011-10-05 パナソニック株式会社 Driving support display device
JP2004056486A (en) * 2002-07-19 2004-02-19 Auto Network Gijutsu Kenkyusho:Kk Monitor around vehicle
JP3898104B2 (en) * 2002-08-30 2007-03-28 株式会社オートネットワーク技術研究所 Vehicle periphery monitoring device
JP2004173071A (en) * 2002-11-21 2004-06-17 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery monitoring device
JP2004212658A (en) * 2002-12-27 2004-07-29 Sumitomo Electric Ind Ltd System and method for image display and image processor
JP4244684B2 (en) * 2003-04-10 2009-03-25 三菱自動車工業株式会社 Vehicle monitoring device
JP2005205950A (en) * 2004-01-20 2005-08-04 Nissan Motor Co Ltd Night pedestrian notifying device
JP5045974B2 (en) * 2005-11-10 2012-10-10 アイシン精機株式会社 Vehicle driving support device
JP4797603B2 (en) * 2005-11-29 2011-10-19 トヨタ自動車株式会社 Driving assistance device
JP4823753B2 (en) * 2006-04-24 2011-11-24 本田技研工業株式会社 Vehicle periphery monitoring device
JP2008082780A (en) * 2006-09-26 2008-04-10 Clarion Co Ltd Navigation device, its control method, and control program
JP2008280026A (en) * 2007-04-11 2008-11-20 Denso Corp Driving assistance device
JP2010185783A (en) * 2009-02-12 2010-08-26 Nissan Motor Co Ltd Vehicle-use information display and vehicle-use information displaying method
JP2010208590A (en) * 2009-03-12 2010-09-24 Autonetworks Technologies Ltd Display device and car-mounted display system
JP5709460B2 (en) * 2010-10-26 2015-04-30 アルパイン株式会社 Driving support system, driving support method, and driving support program
US9691283B2 (en) 2011-11-01 2017-06-27 Aisin Seiki Kabushiki Kaisha Obstacle alert device
JP5660395B2 (en) * 2011-12-26 2015-01-28 アイシン精機株式会社 Obstacle alarm device
JP5787168B2 (en) * 2012-01-13 2015-09-30 アイシン精機株式会社 Obstacle alarm device
JP5845909B2 (en) * 2012-01-13 2016-01-20 アイシン精機株式会社 Obstacle alarm device
WO2013094496A1 (en) * 2011-12-22 2013-06-27 アイシン精機株式会社 Obstacle alarm device
EP3067857A1 (en) * 2015-03-13 2016-09-14 Thomson Licensing Method and device for processing a peripheral image
EP3489087B1 (en) * 2017-11-24 2021-05-05 Ficomirrors, S.A.U. Vehicle imaging system

Also Published As

Publication number Publication date
JP2001084500A (en) 2001-03-30

Similar Documents

Publication Publication Date Title
JP4238429B2 (en) Travel support device for moving body
JP4134939B2 (en) Vehicle periphery display control device
EP1916846B1 (en) Device and method for monitoring vehicle surroundings
JP6516642B2 (en) Electronic device, image display method and image display program
JP5209578B2 (en) Image display device for vehicle
JP5669791B2 (en) Moving object peripheral image display device
JP6027498B2 (en) Head-up display device
JP2007099261A (en) Parking assistance method and parking assistance device
JP2003081014A (en) Vehicle periphery monitoring device
JP2005223524A (en) Supervisory apparatus for surrounding of vehicle
KR20020033816A (en) Monitoring system
JP2009057010A (en) In-vehicle display device
JP2007223338A (en) Display system, moving body, display method, display program and storage medium thereof
CN116323320A (en) Virtual image display device and display system
US11601621B2 (en) Vehicular display system
JP2018144554A (en) Head-up display device for vehicle
JP2018151903A (en) Virtual image display device and computer program
JP2002117496A (en) On-vehicle rear confirmation support device and on- vehicle navigation device
WO2022209439A1 (en) Virtual image display device
JP4703896B2 (en) Driving support device
CN110816409A (en) Display device, display control method, and storage medium
JP2001116567A (en) On-vehicle driving supporting information displaying device
JP4682664B2 (en) Perimeter monitoring system
JP2005057536A (en) Video presentation apparatus
JP4774603B2 (en) Vehicle display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees