JP2009140305A - 車両用情報提示装置 - Google Patents
車両用情報提示装置 Download PDFInfo
- Publication number
- JP2009140305A JP2009140305A JP2007316953A JP2007316953A JP2009140305A JP 2009140305 A JP2009140305 A JP 2009140305A JP 2007316953 A JP2007316953 A JP 2007316953A JP 2007316953 A JP2007316953 A JP 2007316953A JP 2009140305 A JP2009140305 A JP 2009140305A
- Authority
- JP
- Japan
- Prior art keywords
- image
- approaching object
- vehicle
- mascot
- approaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】運転者の死角に存在する接近物体を素早く確実に運転者に提示する。
【解決手段】自車両の正面、右側方、左側方を撮像する正面カメラ2、右カメラ3、左カメラ4と、カメラ2〜4で撮像した撮像画像を車内に表示するディスプレイ5と、右カメラ3と左カメラ4で撮像した撮像画像に基づいて自車両に接近する接近物体を検出する接近物体検出部12と、接近物体検出部12により検出した接近物体に関する情報を運転者へ報知する報知用画像を前記撮像画像に重畳表示する画像制御部11と、を備えた車両用情報提示装置1において、ディスプレイ5は自車両前方領域および左右側方領域の撮像画像を表示可能であり、画像制御部11は、自車両前方領域の撮像画像の中央に報知用画像を重畳表示するとともに、接近物体が検出された場合には報知用画像を接近物体が存在する方向を示す画像に変更する。
【選択図】図1
【解決手段】自車両の正面、右側方、左側方を撮像する正面カメラ2、右カメラ3、左カメラ4と、カメラ2〜4で撮像した撮像画像を車内に表示するディスプレイ5と、右カメラ3と左カメラ4で撮像した撮像画像に基づいて自車両に接近する接近物体を検出する接近物体検出部12と、接近物体検出部12により検出した接近物体に関する情報を運転者へ報知する報知用画像を前記撮像画像に重畳表示する画像制御部11と、を備えた車両用情報提示装置1において、ディスプレイ5は自車両前方領域および左右側方領域の撮像画像を表示可能であり、画像制御部11は、自車両前方領域の撮像画像の中央に報知用画像を重畳表示するとともに、接近物体が検出された場合には報知用画像を接近物体が存在する方向を示す画像に変更する。
【選択図】図1
Description
この発明は、車両の運転者に自車両周辺の情報を提供する車両用情報提示装置に関するものである。
特許文献1には、自車両の運転者の死角となる車両前方の左右側方領域をカメラで撮像し、左右側方領域の撮像画像を表示画面に左右に並べて表示し、各領域の撮像画像中に車両を検出した場合に、車両が検出された画像に報知用マークを重ねて表示することによって運転者に注意を喚起する車両周辺監視装置が開示されている。
特開2004−56486号公報
しかしながら、前記車両周辺監視装置では、左右両方向から同時に車両が接近してくる場合には、表示画面の左右の画像にそれぞれ報知用マークが表示されるが、一方の画像の報知用マークを注視することによって、他の方向から接近してくる車両の認識が遅れる場合がある。
また、左右いずれの方向からも接近してくる他車両が存在しないときにも、運転者はその情報を得るためには表示画面に表示された左右側方領域の画像を目視する必要があるが、左側の画像と右側の画像に順番に視線を移さなければならないため、左右の画像の目視に時間差が生じ、安全確認が不十分になる虞がある。
そこで、この発明は、自車両前方の左右側方から接近する物体の存在を素早く確実に運転者に提示することができる車両用情報提示装置を提供するものである。
この発明に係る車両用情報提示装置では、上記課題を解決するために以下の手段を採用した。
請求項1に係る発明は、自車両周辺を撮像する撮像手段(例えば、後述する実施例における正面カメラ2、右カメラ3、左カメラ4)と、前記撮像手段で撮像した撮像画像を車内に表示する表示手段(例えば、後述する実施例におけるディスプレイ5)と、前記撮像手段で撮像した撮像画像に基づいて自車両に接近する接近物体を検出する接近物体検出手段(例えば、後述する実施例における接近物体検出部12)と、前記接近物体検出手段により検出した接近物体に関する情報を運転者へ報知する報知用画像(例えば、後述する実施例におけるマスコット画像M)を前記撮像画像に重畳表示する画像制御手段(例えば、後述する実施例における画像制御部11)と、を備えた車両用情報提示装置(例えば、後述する実施例における車両用情報提示装置1)において、前記表示手段は、自車両前方領域および左右側方領域の撮像画像を表示可能であり、前記画像制御手段は、自車両前方領域の撮像画像の中央に報知用画像を重畳表示するとともに、接近物体が検出された場合には前記報知用画像を該接近物体が存在する方向を示す画像に変更することを特徴とする。
請求項1に係る発明は、自車両周辺を撮像する撮像手段(例えば、後述する実施例における正面カメラ2、右カメラ3、左カメラ4)と、前記撮像手段で撮像した撮像画像を車内に表示する表示手段(例えば、後述する実施例におけるディスプレイ5)と、前記撮像手段で撮像した撮像画像に基づいて自車両に接近する接近物体を検出する接近物体検出手段(例えば、後述する実施例における接近物体検出部12)と、前記接近物体検出手段により検出した接近物体に関する情報を運転者へ報知する報知用画像(例えば、後述する実施例におけるマスコット画像M)を前記撮像画像に重畳表示する画像制御手段(例えば、後述する実施例における画像制御部11)と、を備えた車両用情報提示装置(例えば、後述する実施例における車両用情報提示装置1)において、前記表示手段は、自車両前方領域および左右側方領域の撮像画像を表示可能であり、前記画像制御手段は、自車両前方領域の撮像画像の中央に報知用画像を重畳表示するとともに、接近物体が検出された場合には前記報知用画像を該接近物体が存在する方向を示す画像に変更することを特徴とする。
請求項2に係る発明は、請求項1に記載の発明において、前記画像制御手段は、前記接近物体検出手段によって接近物体が検出されていない場合に、前記報知用画像を所定周期で左右に向ける画像に変更することを特徴とする。
請求項3に係る発明は、請求項1または請求項2に記載の発明において、前記画像制御手段は、前記接近物体検出手段によって前記接近物体が左右側方領域の両方で検出されている場合に、前記報知用画像の色を、左右側方領域の両方で検出されている場合以外の色と異なる色に変更することを特徴とする。
請求項4に係る発明は、請求項1から請求項3のいずれか1項に記載の発明において、前記報知用画像は、実在する動物の形態、あるいは想像上の動物の形態、あるいはキャラクターの形態をなすことを特徴とする。
請求項1に係る発明によれば、報知用画像を接近物体が存在する方向に向けるので、視線誘導効果により接近物体の存在を確実に運転者へ提示することができる。また、報知用画像は自車両前方領域の撮像画像の中央に重畳表示されるので、運転者が左右側方領域の撮像画像のいずれかを注視中であっても報知用画像が運転者の周辺視野内に入り易くなり、視線誘導を効果的に行うことができる。
請求項2に係る発明によれば、接近物体が検出されていない場合には報知用画像が左右に振り向く動作をし続けるので、運転者による左右の安全確認を促すことができる。
請求項3に係る発明によれば、接近物体が左右両側に存在する危険度の高い状況を的確に運転者に提示することができる。
請求項4に係る発明によれば、運転者に威圧感を与えることなく情報提示ができる。また、視線誘導効果も高い。
以下、この発明に係る車両用情報提示装置の実施例を図1から図18の図面を参照して説明する。なお、この実施例の車両用情報提示装置1は、交差点等を安全走行するための情報提示装置としての態様である。
図1に示すように、この実施例における車両用情報提示装置1は、正面カメラ2と、右カメラ3と、左カメラ4と、ディスプレイ5と、画像処理ユニット10とを備えている。この実施例において、正面カメラ2と右カメラ3と左カメラ4は撮像手段を構成し、ディスプレイ5は表示手段を構成する。
図1に示すように、この実施例における車両用情報提示装置1は、正面カメラ2と、右カメラ3と、左カメラ4と、ディスプレイ5と、画像処理ユニット10とを備えている。この実施例において、正面カメラ2と右カメラ3と左カメラ4は撮像手段を構成し、ディスプレイ5は表示手段を構成する。
正面カメラ2、右カメラ3、左カメラ4は、例えば可視光領域にて撮像可能なCCDカメラやCMOSカメラ等からなる。
図2に示すように、正面カメラ2は例えば自車両Vにおける車体前部のグリル6付近に設置され、自車両の前方領域を撮像する。右カメラ3は例えばフロントバンパー7の右端部に設置され、自車両前方の右側方領域を撮像する。左カメラ4は例えばフロントバンパー7の左端部に設置され、自車両前方の左側方領域を撮像する。各カメラ2〜4はそれぞれ撮像した画像情報を画像処理ユニット10に出力する。
図2に示すように、正面カメラ2は例えば自車両Vにおける車体前部のグリル6付近に設置され、自車両の前方領域を撮像する。右カメラ3は例えばフロントバンパー7の右端部に設置され、自車両前方の右側方領域を撮像する。左カメラ4は例えばフロントバンパー7の左端部に設置され、自車両前方の左側方領域を撮像する。各カメラ2〜4はそれぞれ撮像した画像情報を画像処理ユニット10に出力する。
図3は各カメラ2,3,4の撮像範囲を示しており、左右カメラ3,4は自車両の車幅方向を含む視野角約47度の範囲を撮像可能で、正面カメラ2は自車両の正面を中心に視野角約190度の範囲を撮像可能で、左右カメラ3,4の撮像範囲の空き領域を正面カメラ2の撮像画像で補間することにより、図4に示すように自車両の正面を含む180度の範囲の画像を得ることができるように構成されている。なお、各カメラ2〜4の前記視野角はあくまで一例であって、この角度に限るものではない。
画像処理ユニット10は、画像制御部(画像制御手段)11と接近物体検出部(接近物体検出手段)12とを備えて構成されており、例えば、図2に示すように、自車両Vの後部座席の後方等に搭載されている。
画像制御部11は、前記3つのカメラ2〜4から入力した三方向の画像情報に対して、例えばフィルタリング等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成するとともに、これら三方向の画像データが図6に示すようにスムーズに連続した一つの合成画像Gとしてディスプレイ5に表示されるように、所定の画像処理を行う。なお、図6において、符号G1は正面カメラ2の撮像に基づいて生成された画像、符号G2は右カメラ3の撮像に基づいて生成された画像、符号G3は左カメラ4の撮像に基づいて生成された画像を示している。
画像制御部11は、前記3つのカメラ2〜4から入力した三方向の画像情報に対して、例えばフィルタリング等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成するとともに、これら三方向の画像データが図6に示すようにスムーズに連続した一つの合成画像Gとしてディスプレイ5に表示されるように、所定の画像処理を行う。なお、図6において、符号G1は正面カメラ2の撮像に基づいて生成された画像、符号G2は右カメラ3の撮像に基づいて生成された画像、符号G3は左カメラ4の撮像に基づいて生成された画像を示している。
また、画像制御部11は、接近物体に関する情報を運転者に報知するための報知用画像としてのマスコット画像(この実施例では、熊のぬいぐるみの形態をしたマスコット画像)を作成し、図6に示すように、作成したマスコット画像Mを正面カメラ2の画像G1の中央に重畳表示するとともに、接近物体検出部12から入力した接近物体検出結果に基づいてマスコット画像Mの動き等を所定に制御する。マスコット画像Mの制御については後で説明する。
マスコット画像Mは、頭、胴、手足を備え、特にその顔面には左右の目Miを備えている。この実施例の車両用情報提示装置1では、マスコット画像Mの目Miの存在が重要な役割を果たす。これについては後で詳述する。
マスコット画像Mは、頭、胴、手足を備え、特にその顔面には左右の目Miを備えている。この実施例の車両用情報提示装置1では、マスコット画像Mの目Miの存在が重要な役割を果たす。これについては後で詳述する。
接近物体検出部12は、画像制御部11から入力した右カメラ3と左カメラ4の画像データに基づいて、自車両の前方左右側方から自車両に接近する物体(以下、接近物体という)を検出する。すなわち、右カメラ3の画像データに基づいて自車両の前方右側方から自車両に接近してくる接近物体を検出するとともに、左カメラ4の画像データに基づいて自車両の前方左側方から自車両に接近してくる接近物体を検出する。そして接近物体検出部12は検出結果を画像制御部11に出力する。接近物体の検出方法については後で説明する。
なお、左右カメラ3,4の撮像範囲に限って言えば、左右カメラ3,4の解像度の方が正面カメラ2の解像度よりも高く、この高解像度の左右カメラ3,4で撮像された撮像画像に基づいて自車両の左右方向から接近する接近物体を検出するので、高精度の検出が可能となる。
ディスプレイ5は、図2に示すように、自車両Vの車内の運転席前方に設置されており、画像処理ユニット10から出力される合成画像Gおよびマスコット画像Mを、自車両の乗員に視認可能に表示する。なお、この実施例では、ディスプレイ5に合成画像Gおよびマスコット画像Mが表示されるのは、自車両VがT字路や交差点に進入する直前から該T字路や交差点を通過完了するまでの期間に限定されており、それ以外のときはディスプレイ5に合成画像Gおよびマスコット画像Mは表示されないものとする。なお、自車両がT字路や交差点に接近中か否かの情報は、車両に搭載の図示しないナビゲーションシステムから取得することが可能である。
ディスプレイ5の設置位置について詳述すると、図5に示すように、ハンドル21の前方にはスピードメータやタコメータ等が配置されたメータディスプレイ22が設置されており、このメータディスプレイ22の直ぐ上方に、接近物体情報提供用のディスプレイ5が設置されている。したがって、運転者は自車両の前方を見るときには、ディスプレイ5越しにその上方のフロントガラス23を通して目視することとなる。したがって、視線を外界からディスプレイ5、あるいはその逆に移動する場合も、運転者の視線移動量を少なくすることができる。
なお、ディスプレイ5は、フロントガラス23の下部において運転者の前方視界を妨げないように表示するHUD(Head Up Display)で構成してもよい。
なお、ディスプレイ5は、フロントガラス23の下部において運転者の前方視界を妨げないように表示するHUD(Head Up Display)で構成してもよい。
次に、接近物体検出部12で実行される接近物体の検出処理について説明する。
一般に、動画から物体の動きを抽出する手法の一つとしてオプティカルフローが知られている。オプティカルフローは物体の移動ベクトルであり、時間的に連続する2つの画像間において、同一物体の輝度変化は小さいという仮定の下で、同程度の輝度を持つ点の移動量から算出する。オプティカルフローの算出には、Lucas-Knanade法(略してLK法)を例示することができる。
一般に、動画から物体の動きを抽出する手法の一つとしてオプティカルフローが知られている。オプティカルフローは物体の移動ベクトルであり、時間的に連続する2つの画像間において、同一物体の輝度変化は小さいという仮定の下で、同程度の輝度を持つ点の移動量から算出する。オプティカルフローの算出には、Lucas-Knanade法(略してLK法)を例示することができる。
接近物体の検出には、このオプティカルフローを利用する。例えば、図7に示すように、交差点に接近してくる車両(以下、接近車両という)VTを、交差点の手前で停止している自車両のカメラで撮像し、画像上のエッジの交点を特徴点として抽出すると、特徴点の分布が極めて少ない領域と、特徴点の分布が多い領域とが存在する。特徴点の分布が極めて少ない領域は路面と推定できるので、前記二つの領域の境を平面境界と推定する。建物や接近車両VT等の立体物は平面境界より上に存在する。
そして、図7(A)に示される画像を撮像してから所定時間Δt後に、図7(B)に示される画像を撮像した場合に、接近車両VTの画像から抽出した前記特徴点からは自車両に接近する方向にオプティカルフローが抽出されるが、不動の建物など静止物の画像から抽出した前記特徴点からは、オプティカルフローは抽出されない。つまり、静止物からはオプティカルフローは抽出されず、自車両に対して相対移動する物体だけからオプティカルフローが抽出され、しかも、接近物体からは自車両に接近する方向のオプティカルフローが抽出される。
次に、オプティカルフローに基づいて接近物体を検出する接近物体検出処理を図8のフローチャートに従って説明する。なお、前述したように、前方右側方から自車両Vに接近してくる接近物体を検出する場合には右カメラ3の画像データに基づいて検出し、前方左側方から自車両Vに接近してくる接近物体を検出する場合には左カメラ4の画像データに基づいて検出するので、以下に記載する接近物体検出処理は左右カメラ3,4の画像データに対してそれぞれ別々に実行する。
まず、ステップS01において、カメラにより撮像された画像上の特徴点(エッジの交点)の分布に基づいて、平面境界を設定する。
次に、ステップS02において、所定時間間隔で撮像された画像上の特徴点の軌跡に基づいて、自車両に接近する方向のオプティカルフローを算出する。
次に、ステップS02において、所定時間間隔で撮像された画像上の特徴点の軌跡に基づいて、自車両に接近する方向のオプティカルフローを算出する。
次に、ステップS03において、ステップS02で算出された自車両方向のオプティカルフローのヒストグラムを算出する。オプティカルフローのヒストグラムは、図9に示すように、画像をその幅方向に微少幅を有する区間に細分し、前記各区間毎にオプティカルフローの出現頻度を算出することによって求める。
次に、ステップS04において、オプティカルフローのヒストグラムに基づいて、オプティカルフローがノイズか否かを判別する。すなわち、出現頻度が所定の閾値よりも少ない区間のオプティカルフローはノイズにより生じたものであると判断し、以後の処理対象から除外し、出現頻度が前記閾値以上の区間のオプティカルフローを以後の処理対象とする。
次に、ステップS05において、オプティカルフローのヒストグラムに基づいて、オプティカルフローのグループ化を行う。すなわち、出現頻度が前記閾値以上の区間のオプティカルフローにおいて、略同一方向で略同一長さのオプティカルフロー毎にグループ化して、1つのグループ毎に1つの接近物体と判断し、各グループにおける区間幅を接近物体の幅および高さに設定する。
次に、ステップS06に進み、ステップS05において実行したグループ化処理の結果に基づいて、接近物体を抽出し、本ルーチンの実行を一旦終了する。
次に、画像制御部11において実行されるマスコット画像Mの動作制御を図10から図18の図面を参照して説明する。
マスコット画像Mの動作制御のメインフローを図10のフローチャートに従って説明する。
マスコット画像Mの動作制御のメインフローを図10のフローチャートに従って説明する。
まず、ステップS101において、前述したオプティカルフローに基づく接近物体検出処理を実行する。
次に、ステップS102に進み、接近物体が存在するか否かを判定する。
ステップS102における判定結果が「NO」である場合には、自車両Vの前方左側方および前方右側方のいずれにも接近物体が存在しないので、ステップS103に進み、マスコット動作1にしたがってマスコット画像Mを動作させる。マスコット動作1については後で詳述する。
次に、ステップS102に進み、接近物体が存在するか否かを判定する。
ステップS102における判定結果が「NO」である場合には、自車両Vの前方左側方および前方右側方のいずれにも接近物体が存在しないので、ステップS103に進み、マスコット動作1にしたがってマスコット画像Mを動作させる。マスコット動作1については後で詳述する。
ステップS102における判定結果が「YES」である場合には、ステップS104に進み、接近物体は自車両Vの前方左側方および前方右側方の両方に存在するか否かを判定する。
ステップS104における判定結果が「YES」である場合には、自車両Vの前方左側方および前方右側方の両方に接近物体が存在するので、ステップS105に進み、マスコット動作4にしたがってマスコット画像Mを動作させる。マスコット動作4については後で詳述する。
ステップS104における判定結果が「YES」である場合には、自車両Vの前方左側方および前方右側方の両方に接近物体が存在するので、ステップS105に進み、マスコット動作4にしたがってマスコット画像Mを動作させる。マスコット動作4については後で詳述する。
ステップS104における判定結果が「NO」である場合には、ステップS106に進み、接近物体は自車両Vの前方左側方に存在するか否かを判定する。
ステップS106における判定結果が「NO」である場合には、接近物体は自車両Vの前方右側方に存在するので、ステップS107に進み、マスコット動作3にしたがってマスコット画像Mを動作させる。マスコット動作3については後で詳述する。
ステップS106における判定結果が「YES」である場合には、接近物体は自車両Vの前方左側方に存在するので、ステップS108に進み、マスコット動作2にしたがってマスコット画像Mを動作させる。マスコット動作2については後で詳述する。
ステップS106における判定結果が「NO」である場合には、接近物体は自車両Vの前方右側方に存在するので、ステップS107に進み、マスコット動作3にしたがってマスコット画像Mを動作させる。マスコット動作3については後で詳述する。
ステップS106における判定結果が「YES」である場合には、接近物体は自車両Vの前方左側方に存在するので、ステップS108に進み、マスコット動作2にしたがってマスコット画像Mを動作させる。マスコット動作2については後で詳述する。
次に、ステップS103において実行されるマスコット動作1、すなわち、自車両Vの前方左側方および前方右側方のいずれにも接近物体が存在しない場合のマスコット画像Mの動作について、図11および図12の図面を参照して説明する。
図11に示すように、マスコット動作1では、マスコット画像Mの色を黄色とし、マスコット画像M全体を運転者と対面する方向(Z軸方向)を中心にして左右各40度の角度範囲で、周期3秒で回動させる。つまり、マスコット画像Mを、マスコット画像Mの上下方向中心軸(以下、Y軸)回りに、Z軸を0゜として−40゜〜+40゜の角度範囲で、周期3秒で回動させる。図12にマスコット動作1のフローチャートを示す。
図11に示すように、マスコット動作1では、マスコット画像Mの色を黄色とし、マスコット画像M全体を運転者と対面する方向(Z軸方向)を中心にして左右各40度の角度範囲で、周期3秒で回動させる。つまり、マスコット画像Mを、マスコット画像Mの上下方向中心軸(以下、Y軸)回りに、Z軸を0゜として−40゜〜+40゜の角度範囲で、周期3秒で回動させる。図12にマスコット動作1のフローチャートを示す。
人間は、相手の視線を追って相手の見ている対象を見るというコミュニケーション能力を持っており、換言すると、相手の視線には強い視線誘導機能がある。この車両用情報提示装置1では、この相手視線の視線誘導機能に着目し、運転者と対面するマスコット画像M全体を回動することによって、マスコット画像Mが視線を左右に振っているように見せかけて、これにより運転者はマスコット画像Mに視線誘導される。
ただし、マスコット動作1では、マスコット画像Mの回動周期が3秒と比較的に長く、また回動角度も80度と大きく設定されているので、この長い周期と大きな回動角度により、また必要に応じてディスプレイ5の合成画像Gを確認することにより、運転者は自身の死角となる自車両Vの左右側方から接近物体が存在しないことを確認できるので、運転者はマスコット画像Mのゆったりとした回動動作に合わせるようにして、運転者自身の目視による左右の安全確認をしながら交差点内に進入していくこととなる。
次に、ステップS108において実行されるマスコット動作2、すなわち、自車両Vの前方左側方だけに接近物体が存在する場合のマスコット画像Mの動作について、図13および図14の図面を参照して説明する。
図13に示すように、マスコット動作2では、マスコット画像Mの色を黄色とし、マスコット画像M全体を、運転者との対面位置から左方へ40度回転した位置を中心にして左右各10度の角度範囲で、周期1.5秒で回動させる。つまり、マスコット画像MをY軸回りに、Z軸を0゜として−50゜〜−30゜の角度範囲で、周期1.5秒で回動させる。
図13に示すように、マスコット動作2では、マスコット画像Mの色を黄色とし、マスコット画像M全体を、運転者との対面位置から左方へ40度回転した位置を中心にして左右各10度の角度範囲で、周期1.5秒で回動させる。つまり、マスコット画像MをY軸回りに、Z軸を0゜として−50゜〜−30゜の角度範囲で、周期1.5秒で回動させる。
このマスコット動作2では、マスコット画像Mの回動周期が1.5秒とマスコット動作1の場合に比べて短く、また回動角度も20度とマスコット動作1の場合に比べて小さく設定されているので、この短い周期と小さな回動角度により、また必要に応じてディスプレイ5の合成画像Gの内の左側画像G3を確認することにより、運転者は自身の死角となる自車両Vの左側方から接近車両VTが存在することを確認できるので、運転者はマスコット画像Mの小刻みな左向き回動動作(振り向き動作)に視線誘導されて、運転者自身の目視による左方安全確認を促されることとなる。
マスコット動作2におけるマスコット画像Mの動作制御を図14のフローチャートに従って説明する。
まず、ステップS121において、マスコット画像M全体をY軸回りに−40゜の角度になるように回転する。
次に、ステップS122に進み、マスコット画像Mの現在の角度が、−30゜以下且つ−50゜以上の範囲に入っているか否かを判定する。
まず、ステップS121において、マスコット画像M全体をY軸回りに−40゜の角度になるように回転する。
次に、ステップS122に進み、マスコット画像Mの現在の角度が、−30゜以下且つ−50゜以上の範囲に入っているか否かを判定する。
ステップS122における判定結果が「YES」(範囲内)である場合には、ステップS123に進み、フラグ(flag)に1を立て、ステップS124に進む。
一方、ステップS122における判定結果が「NO」(範囲外)である場合には、ステップS125に進み、フラグ(flag)に0を立て、ステップS124に進む。
一方、ステップS122における判定結果が「NO」(範囲外)である場合には、ステップS125に進み、フラグ(flag)に0を立て、ステップS124に進む。
ステップS124においては、フラグ(flag)が1か否かを判定する。
ステップS124における判定結果が「YES」(flag=1)である場合には、ステップS126に進み、マスコット画像M全体をY軸回りに、−50゜〜−30゜の角度範囲で、周期1.5秒で回動(振り向き動作)させる。
ステップS124における判定結果が「NO」(flag=0)である場合には、本ルーチンの実行を一旦終了する。
ステップS124における判定結果が「YES」(flag=1)である場合には、ステップS126に進み、マスコット画像M全体をY軸回りに、−50゜〜−30゜の角度範囲で、周期1.5秒で回動(振り向き動作)させる。
ステップS124における判定結果が「NO」(flag=0)である場合には、本ルーチンの実行を一旦終了する。
このように制御することにより、マスコット動作2以外の動作を行っている状態からマスコット動作2に移行する場合に、マスコット動作2以外の動作から連続的に且つ自然な感じでスムーズにマスコット動作2に移行させることができる。つまり、マスコット動作の不自然な切り替わりを防止することができる。
次に、ステップS107において実行されるマスコット動作3、すなわち、自車両Vの前方右側方だけに接近物体が存在する場合のマスコット画像Mの動作について、図15および図16の図面を参照して説明する。
図15に示すように、マスコット動作3では、マスコット画像Mの色を黄色とし、マスコット画像M全体を、運転者との対面位置から右方へ40度回転した位置を中心にして左右各10度の角度範囲で、周期1.5秒で回動させる。つまり、マスコット画像MをY軸回りに、Z軸を0゜として30゜〜50゜の角度範囲で、周期1.5秒で回動させる。
図15に示すように、マスコット動作3では、マスコット画像Mの色を黄色とし、マスコット画像M全体を、運転者との対面位置から右方へ40度回転した位置を中心にして左右各10度の角度範囲で、周期1.5秒で回動させる。つまり、マスコット画像MをY軸回りに、Z軸を0゜として30゜〜50゜の角度範囲で、周期1.5秒で回動させる。
このマスコット動作3では、マスコット画像Mの回動周期が1.5秒とマスコット動作1の場合に比べて短く、また回動角度も20度とマスコット動作1の場合に比べて小さく設定されているので、この短い周期と小さな回動角度により、また必要に応じてディスプレイ5の合成画像Gの内の右側画像G2を確認することにより、運転者は自身の死角となる自車両Vの右側方に接近車両VTが存在することを確認できるので、運転者はマスコット画像Mの小刻みな右向き回動動作(振り向き動作)に視線誘導されて、運転者自身の目視による右方安全確認を促されることとなる。
マスコット動作3におけるマスコット画像Mの動作制御を図16のフローチャートに従って説明する。
まず、ステップS131において、マスコット画像M全体をY軸回りに40゜の角度になるように回転する。
次に、ステップS132に進み、マスコット画像Mの現在の角度が、30゜以上且つ50゜以下の範囲に入っているか否かを判定する。
まず、ステップS131において、マスコット画像M全体をY軸回りに40゜の角度になるように回転する。
次に、ステップS132に進み、マスコット画像Mの現在の角度が、30゜以上且つ50゜以下の範囲に入っているか否かを判定する。
ステップS132における判定結果が「YES」(範囲内)である場合には、ステップS133に進み、フラグ(flag)に1を立て、ステップS134に進む。
一方、ステップS132における判定結果が「NO」(範囲外)である場合には、ステップS135に進み、フラグ(flag)に0を立て、ステップS134に進む。
一方、ステップS132における判定結果が「NO」(範囲外)である場合には、ステップS135に進み、フラグ(flag)に0を立て、ステップS134に進む。
ステップS134においては、フラグ(flag)が1か否かを判定する。
ステップS134における判定結果が「YES」(flag=1)である場合には、ステップS136に進み、マスコット画像M全体をY軸回りに、30゜〜50゜の角度範囲で、周期1.5秒で回動(振り向き動作)させる。
ステップS134における判定結果が「NO」(flag=0)である場合には、本ルーチンの実行を一旦終了する。
ステップS134における判定結果が「YES」(flag=1)である場合には、ステップS136に進み、マスコット画像M全体をY軸回りに、30゜〜50゜の角度範囲で、周期1.5秒で回動(振り向き動作)させる。
ステップS134における判定結果が「NO」(flag=0)である場合には、本ルーチンの実行を一旦終了する。
このように制御することにより、マスコット動作3以外の動作を行っている状態からマスコット動作3に移行する場合に、マスコット動作3以外の動作から連続的に且つ自然な感じでスムーズにマスコット動作3に移行させることができる。つまり、マスコット動作の不自然な切り替わりを防止することができる。
次に、ステップS105において実行されるマスコット動作4、すなわち、自車両Vの前方左側方および前方右側方の両方に接近物体が存在する場合のマスコット画像Mの動作について、図17および図18の図面を参照して説明する。
図17に示すように、マスコット動作4では、マスコット画像Mの色を赤色に変更し、マスコット画像M全体を運転者と対面する方向(Z軸方向)を中心にして左右各30度の角度範囲で、周期1.5秒で回動させる。つまり、マスコット画像MをY軸回りに、Z軸を0゜として−30゜〜+30゜の角度範囲で、周期1.5秒で回動させる。
図17に示すように、マスコット動作4では、マスコット画像Mの色を赤色に変更し、マスコット画像M全体を運転者と対面する方向(Z軸方向)を中心にして左右各30度の角度範囲で、周期1.5秒で回動させる。つまり、マスコット画像MをY軸回りに、Z軸を0゜として−30゜〜+30゜の角度範囲で、周期1.5秒で回動させる。
このマスコット動作4では、マスコット画像Mの色がマスコット動作1〜3のときの黄色から赤色に変更するので、特に危険度の高い状況であると運転者に注意を喚起することができる。また、マスコット画像Mの回動周期が1.5秒とマスコット動作1の場合に比べて短く、回動角度も60度とマスコット動作1の場合に比べて小さく設定されているので、これら色の変更と短い周期と小さな回動角度により、ディスプレイ5の合成画像Gの内の右側画像G2と左側画像G3を確認しなくても、運転者は自身の死角となる自車両Vの左側方および右側方に接近車両VT1,VT2が存在することを瞬時に認識することができる。そして、運転者はマスコット画像Mの小刻みな左右回動動作(振向き動作)に視線誘導されて、運転者自身の目視による左右両方向の安全確認を促されることとなる。
マスコット動作4におけるマスコット画像Mの動作制御を図18のフローチャートに従って説明する。
まず、ステップS141において、マスコット画像M全体をY軸回りに、−30゜〜+30゜の角度範囲で、周期1.5秒で回動(振り向き動作)させる。
次に、ステップS142に進み、マスコット画像Mの色を赤色に変更する。
まず、ステップS141において、マスコット画像M全体をY軸回りに、−30゜〜+30゜の角度範囲で、周期1.5秒で回動(振り向き動作)させる。
次に、ステップS142に進み、マスコット画像Mの色を赤色に変更する。
以上説明するように、この実施例の車両用情報提示装置1によれば、マスコット画像Mを接近物体が存在する方向に向けるので、視線誘導効果により接近物体の存在を確実に運転者へ提示することができる。また、マスコット画像Mは自車両前方領域の画像G1の中央に重畳表示されるので、運転者が左右側方領域の画像G2あるいはG3のいずれかを注視中であっても、マスコット画像Mが運転者の周辺視野内に入り易くなり、視線誘導を効果的に行うことができる。
また、接近物体が検出されていない場合にも、マスコット画像Mが正面を中心に左右に振り向き動作を行うので、運転者の目視による左右の安全確認を促すことができる。
さらに、接近物体が左右側方領域の両方で検出されている場合には、マスコット画像Mの色を赤色に変更し、左右側方領域の一方の領域で接近物体が検出されている場合や左右側方領域のいずれにも接近物体が検出されない場合におけるマスコット画像Mの色である黄色と異なるので、接近物体が左右両側に存在する危険度の高い状況を的確に運転者に提示することができる。
また、マスコット画像Mは熊のぬいぐるみの形態をしているので、運転者に威圧感を与えることなく情報提示ができる。また、視線誘導効果も高い。
〔他の実施例〕
なお、この発明は前述した実施例に限られるものではない。
例えば、前述した実施例では、報知用画像として熊のぬいぐるみの形態をしたマスコット画像としたが、これに限られるものではなく、例えば、実在する動物(例えば、犬、猫、パンダなど)の形態や、想像上の動物の形態や、漫画の主人公などのキャラクターの形態などでもよいし、あるいは単なる矢印であってもよく、要は方向性を提示することができるものであれば、いかなる形態であってもよい。
なお、この発明は前述した実施例に限られるものではない。
例えば、前述した実施例では、報知用画像として熊のぬいぐるみの形態をしたマスコット画像としたが、これに限られるものではなく、例えば、実在する動物(例えば、犬、猫、パンダなど)の形態や、想像上の動物の形態や、漫画の主人公などのキャラクターの形態などでもよいし、あるいは単なる矢印であってもよく、要は方向性を提示することができるものであれば、いかなる形態であってもよい。
また、前述した実施例では報知用画像としてのマスコット画像の全体を回動することで接近物体の存在する方向を提示したが、これに限るものではなく、マスコット画像の向きは正面に固定したまま、接近物体が存在する側の腕を上げる等の動作で接近物体の存在する方向を提示することも可能である。あるいは、実施例のようにマスコット画像全体の回動動作に、前記腕の動作を加えることも可能である。
さらに、接近物体の存在する方向を提示する方法は、報知用画像の形態に応じて種々の動作が採用可能である。
さらに、接近物体の存在する方向を提示する方法は、報知用画像の形態に応じて種々の動作が採用可能である。
また、前述した実施例では、3つのカメラ2〜4から取得した三方向の画像データをスムーズに連続した一つの画像となるように画像処理を行っているが、必ずしもディスプレイ5にスムーズに連続した画像で表示しなければならないものではなく、ディスプレイ5に不連続な三方向の画像データを並べて表示するようにしても構わない。
1 車両用情報提示装置
2 正面カメラ(撮像手段)
3 右カメラ(撮像手段)
4 左カメラ(撮像手段)
5 ディスプレイ(表示手段)
11 画像制御部(画像制御手段)
12 接近物体検出部(接近物体検出手段)
M マスコット画像(報知用画像)
V 自車両
VT 接近車両(接近物体)
2 正面カメラ(撮像手段)
3 右カメラ(撮像手段)
4 左カメラ(撮像手段)
5 ディスプレイ(表示手段)
11 画像制御部(画像制御手段)
12 接近物体検出部(接近物体検出手段)
M マスコット画像(報知用画像)
V 自車両
VT 接近車両(接近物体)
Claims (4)
- 自車両周辺を撮像する撮像手段と、
前記撮像手段で撮像した撮像画像を車内に表示する表示手段と、
前記撮像手段で撮像した撮像画像に基づいて自車両に接近する接近物体を検出する接近物体検出手段と、
前記接近物体検出手段により検出した接近物体に関する情報を運転者へ報知する報知用画像を前記撮像画像に重畳表示する画像制御手段と、
を備えた車両用情報提示装置において、
前記表示手段は、自車両前方領域および左右側方領域の撮像画像を表示可能であり、
前記画像制御手段は、自車両前方領域の撮像画像の中央に報知用画像を重畳表示するとともに、接近物体が検出された場合には前記報知用画像を該接近物体が存在する方向を示す画像に変更することを特徴とする車両用情報提示装置。 - 前記画像制御手段は、前記接近物体検出手段によって接近物体が検出されていない場合に、前記報知用画像を所定周期で左右に向ける画像に変更することを特徴とする請求項1に記載の車両用情報提示装置。
- 前記画像制御手段は、前記接近物体検出手段によって前記接近物体が左右側方領域の両方で検出されている場合に、前記報知用画像の色を、左右側方領域の両方で検出されている場合以外の色と異なる色に変更することを特徴とする請求項1または請求項2に記載の車両用情報提示装置。
- 前記報知用画像は、実在する動物の形態、あるいは想像上の動物の形態、あるいはキャラクターの形態をなすことを特徴とする請求項1から請求項3のいずれか1項に記載の車両用情報提示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007316953A JP2009140305A (ja) | 2007-12-07 | 2007-12-07 | 車両用情報提示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007316953A JP2009140305A (ja) | 2007-12-07 | 2007-12-07 | 車両用情報提示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009140305A true JP2009140305A (ja) | 2009-06-25 |
Family
ID=40870835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007316953A Pending JP2009140305A (ja) | 2007-12-07 | 2007-12-07 | 車両用情報提示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009140305A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013092509A (ja) * | 2011-10-27 | 2013-05-16 | Mazda Motor Corp | 車両用視線誘導装置 |
WO2014196171A1 (en) * | 2013-06-07 | 2014-12-11 | Sony Corporation | Information processing device, approaching object notification method, and program |
JP2015016705A (ja) * | 2013-07-09 | 2015-01-29 | 三菱電機株式会社 | 車両情報表示制御装置 |
JP2017037077A (ja) * | 2016-08-30 | 2017-02-16 | 株式会社ユピテル | システム及びプログラム |
JP2018163158A (ja) * | 2018-05-02 | 2018-10-18 | 株式会社ユピテル | システム及びプログラム |
CN111247575A (zh) * | 2017-11-17 | 2020-06-05 | 爱信艾达株式会社 | 车辆驾驶辅助系统、车辆驾驶辅助方法及车辆驾驶辅助程序 |
US11539871B2 (en) | 2020-05-28 | 2022-12-27 | Samsung Electronics Co., Ltd. | Electronic device for performing object detection and operation method thereof |
-
2007
- 2007-12-07 JP JP2007316953A patent/JP2009140305A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013092509A (ja) * | 2011-10-27 | 2013-05-16 | Mazda Motor Corp | 車両用視線誘導装置 |
WO2014196171A1 (en) * | 2013-06-07 | 2014-12-11 | Sony Corporation | Information processing device, approaching object notification method, and program |
CN105308620A (zh) * | 2013-06-07 | 2016-02-03 | 索尼公司 | 信息处理设备、接近对象通知方法和程序 |
EP3579143A1 (en) * | 2013-06-07 | 2019-12-11 | SONY Corporation | Information processing device, approaching object notification method, and program |
US10528825B2 (en) | 2013-06-07 | 2020-01-07 | Sony Corporation | Information processing device, approaching object notification method, and program |
CN105308620B (zh) * | 2013-06-07 | 2020-03-17 | 索尼公司 | 信息处理设备、接近对象通知方法和程序 |
JP2015016705A (ja) * | 2013-07-09 | 2015-01-29 | 三菱電機株式会社 | 車両情報表示制御装置 |
JP2017037077A (ja) * | 2016-08-30 | 2017-02-16 | 株式会社ユピテル | システム及びプログラム |
CN111247575A (zh) * | 2017-11-17 | 2020-06-05 | 爱信艾达株式会社 | 车辆驾驶辅助系统、车辆驾驶辅助方法及车辆驾驶辅助程序 |
CN111247575B (zh) * | 2017-11-17 | 2022-11-22 | 株式会社爱信 | 车辆驾驶辅助系统、方法及计算机可读取的存储介质 |
JP2018163158A (ja) * | 2018-05-02 | 2018-10-18 | 株式会社ユピテル | システム及びプログラム |
US11539871B2 (en) | 2020-05-28 | 2022-12-27 | Samsung Electronics Co., Ltd. | Electronic device for performing object detection and operation method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7010221B2 (ja) | 画像生成装置、画像生成方法、及び、プログラム | |
KR101670847B1 (ko) | 차량 주변 이미지 생성 장치 및 방법 | |
JP5099451B2 (ja) | 車両周辺確認装置 | |
EP2819858B1 (en) | Hitch alignment assistance | |
JP5421072B2 (ja) | 接近物体検知システム | |
KR101611194B1 (ko) | 차량 주변 이미지 생성 장치 및 방법 | |
JP6272375B2 (ja) | 車両用表示制御装置 | |
JP4412380B2 (ja) | 運転支援装置、運転支援方法及びコンピュータプログラム | |
JP3894322B2 (ja) | 車両用視界モニタシステム | |
JP6307895B2 (ja) | 車両用周辺監視装置 | |
US11321911B2 (en) | Method for representing the surroundings of a vehicle | |
JP6459205B2 (ja) | 車両用表示システム | |
US20080198226A1 (en) | Image Processing Device | |
KR20200016958A (ko) | 주차 지원 방법 및 주차 지원 장치 | |
JP2009140305A (ja) | 車両用情報提示装置 | |
JP2007295043A (ja) | 車両周囲監視装置 | |
JP6375816B2 (ja) | 車両用周辺情報表示システム及び表示装置 | |
JP2009231938A (ja) | 車両用周囲監視装置 | |
US20160088260A1 (en) | Image processing apparatus | |
JP4401890B2 (ja) | 車両の認知支援装置 | |
WO2015129280A1 (ja) | 画像処理装置および画像処理方法 | |
KR20190018708A (ko) | 디지털 백미러 제어 유닛 및 방법 | |
CN110782678A (zh) | 用于在被驾驶车辆的显示设备上图示地通知交叉交通的方法和设备 | |
JP2008059178A (ja) | 運転支援装置およびプログラム | |
JP2005202787A (ja) | 車両用表示装置 |