JP2011065520A - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP2011065520A
JP2011065520A JP2009216878A JP2009216878A JP2011065520A JP 2011065520 A JP2011065520 A JP 2011065520A JP 2009216878 A JP2009216878 A JP 2009216878A JP 2009216878 A JP2009216878 A JP 2009216878A JP 2011065520 A JP2011065520 A JP 2011065520A
Authority
JP
Japan
Prior art keywords
image
vehicle
display
driver
displays
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009216878A
Other languages
English (en)
Other versions
JP5251804B2 (ja
Inventor
Takashi Shimizu
貴士 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2009216878A priority Critical patent/JP5251804B2/ja
Publication of JP2011065520A publication Critical patent/JP2011065520A/ja
Application granted granted Critical
Publication of JP5251804B2 publication Critical patent/JP5251804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運転者の違和感を抑制しつつ的確な安全確認支援を行うことができる運転支援装置を提供する。
【解決手段】運転支援装置は、車両の周囲を撮像する撮像部と、前記撮像部により撮影された画像を、車室内に設定された仮想視点から見た車両の周囲の画像に変換すると共に、前記仮想視点を中心として視覚方向を連続的に変化させた連続画像を生成する画像生成部と、前記画像生成部により生成された前記連続画像を表示する表示部と、シフトポジションが、前進走行のレンジ又は後退走行のレンジに切り替えられた場合に、前記表示部に前記連続画像を表示させる制御部と、を備える。
【選択図】図6

Description

本発明は、運転支援装置に関する。
車両の前後左右に設けられたカメラにより車両の周囲を撮像し、これらのカメラにより撮影された画像を、画像処理ユニットにより車両上方を仮想視点として見た俯瞰画像に変換して、車室内に設けられたディスプレイに表示させる運転支援装置が知られている(例えば、特許文献1参照)。当該運転支援装置によれば、運転者の視野を広げることができ、運転者の利便性を向上させることができる。
特開2006−341641号公報
ところで、上記運転支援装置では、異なるカメラにより撮影された画像を合成して俯瞰画像を生成するが、合成された画像の境界部分に死角ができ、運転者が、着目したい障害物を認識できない場合がある。また、運転者は、自車両を駐車場に駐車させる際に、運転席から自車両の周囲を見回す。このため、ディスプレイに表示される俯瞰画像は、実際に運転席から見える映像と視点が異なるので、運転者に違和感を生じさせることが考えられる。
本発明は上記事情に鑑み、運転者の違和感を抑制しつつ的確な安全確認支援を行うことができる運転支援装置を提供することを課題とする。
上記課題を達成するため、運転支援装置は、車両の周囲を撮像する撮像部と、前記撮像部により撮影された画像を、車室内に設定された仮想視点から見た車両の周囲の画像に変換すると共に、前記仮想視点を中心として視覚方向を連続的に変化させた連続画像を生成する画像生成部と、前記画像生成部により生成された前記連続画像を表示する表示部と、シフトポジションが、前進走行のレンジ又は後退走行のレンジに切り替えられた場合に、前記表示部に前記連続画像を表示させる制御部と、を備える。
上記運転支援装置において、前記画像生成部は、助手席側、車両後方及び車両前方の何れか一方、運転席側の順序で前記視覚方向が変化する前記連続画像を生成してもよい。
上記運転支援装置は、前記撮像部により撮像された画像に基づいて立体物を検出する立体物検出部を備えてもよく、前記制御部は、前記立体物検出部により前記立体物が検出された場合に、前記撮像部により撮像された前記立体物の画像を前記表示部に表示させてもよい。
上記運転支援装置において、前記画像生成部は、シフトポジションが、前進走行のレンジに切り替えられた場合に、車両前方、助手席側、車両後方、運転席側の順序で前記視覚方向が変化する前記連続画像を生成し、シフトポジションが、後退走行のレンジに切り替えられた場合に、車両後方、助手席側、車両前方、運転席側の順序で前記視覚方向が変化する前記連続画像を生成してもよい。
上記運転支援装置において、前記画像生成部は、運転席を仮想視点として見た前記連続画像を生成してもよい。
上記運転支援装置によれば、運転者の違和感を抑制しつつ的確な安全確認支援を行うことができる。
本発明の一実施形態に係る運転支援装置の概略構成を示すブロック図である。 本実施形態に係る運転支援装置を備える自車両を示す平面図である。 自車両を、駐車場に駐車させるシーンを示す平面図である。 運転支援装置の動作を説明するためのフローチャートである。 ディスプレイに表示される映像を示す画像図である。 ディスプレイに表示される映像を示す画像図である。 ディスプレイに表示される映像を示す画像図である。 ディスプレイに表示される映像を示す画像図である。 ディスプレイに表示される映像を示す画像図である。 ディスプレイに表示される映像を示す画像図である。 ディスプレイに表示される映像を示す画像図である。 ディスプレイに表示される映像を示す画像図である。 運転支援装置の動作を説明するためのフローチャートである。 ディスプレイに表示される映像を示す画像図である。 運転支援装置の動作を説明するためのフローチャートである。
以下、本発明の実施の形態について説明する。
図1は、本発明の一実施形態に係る運転支援装置10の概略構成を示すブロック図である。また、図2は、本実施形態に係る運転支援装置10を備える自車両100を示す平面図である。これらの図に示すように、本実施形態に係る運転支援装置10は、運転支援装置10全体の制御を司るECU(Electronic Control Unit)80と、自車両100の周囲を撮像する複数(本実施形態では4個)のカメラ(撮像部)41、42、43、44と、カメラ41〜44により撮影された画像を処理する画像処理ユニット(画像生成部)30と、画像処理ユニット30により処理された画像を表示するディスプレイ(表示部)20とを備えている。
図2に示すように、カメラ41は、車両前面における車幅方向中央部に配設され、カメラ42は、車両左側面(助手席側側面)のサイドミラー110に配設されている。また、カメラ43は、車両後面における車幅方向中央部に配設され、カメラ44は、車両右側面(運転席側側面)のサイドミラー110に配設されている。
カメラ41〜44は、画角が180°の広角撮影用のカメラである。カメラ41は、車両前方を180°の画角で撮像する。また、カメラ42は、車両左方を180°の画角で撮像する。また、カメラ43は、車両後方を180°の画角で撮像する。さらに、カメラ44は、車両右方を180°の画角で撮像する。
画像処理ユニット30は、カメラ41〜44により撮影された画像を座標変換(視点変換)して、運転席を仮想視点として見た車両の周囲の画像を生成する。画像処理ユニット30は、撮影画像と座標変換後の画像との画素配置対応関係を記憶した変換テーブルを、各カメラ41〜44毎に有しており、各カメラ41〜44により撮影された画像を、それぞれの変換テーブルに基づいて座標変換する。また、画像処理ユニット30は、運転席に設定された仮想視点を中心として視覚方向が連続的に変化する連続画像を生成する。当該連続画像は、例えば、車両左前方(即ち助手席の左前方)から始まり、車両左方、車両後方、車両右方、車両右前方(即ち運転席の右前方)を経由して車両前方で終わる。
そして、画像処理ユニット30は、生成した画像データを、順次、ディスプレイ20に送信する。ディスプレイ20は、画像処理ユニット30から順次送信される画像データに基づいて、順次、画像処理ユニット30により生成された画像を表示する。
ECU80は、自車両100の周辺映像のディスプレイ20への表示をON/OFFするスイッチ82と、画像処理ユニット30により生成された画像を解析して自車両100に対して相対移動する立体物を検出する立体物検出部84とを備えている。
スイッチ82は、ディスプレイ20への周辺映像の表示をON/OFFするスイッチである。このスイッチ82は、運転者によるシフトレバー120の操作によって、シフトポジションが、駐停車状態となるレンジ(本実施形態では、P(パーキング)レンジ及びN(ニュートラル)レンジ)から前進走行状態となるレンジ(本実施形態では、D(ドライブ)レンジ、L(ロー)レンジ及び2(セカンド)レンジ)、又は、後退走行状態となるレンジ(本実施形態では、R(リバース)レンジ)とに切替えられた場合に、OFFからONに切り替わる。また、スイッチ82は、シフトポジションが、前進走行状態となるレンジと後退走行状態となるレンジとの間で相互に切り替えられた場合にも、OFFからONに切り替わる。一方で、スイッチ82は、ディスプレイ20への周辺映像の表示がONの状態で、シフトポジションの切り替えが行われた場合、及び、所定速度(例えば、10km/h等の徐行速度)を超えた場合に、OFFに切り替わる。
また、立体物検出部84は、画像処理ユニット30が生成した画像中のコントラスト比や色相等が変化する箇所(例えば、画像中の立体物のエッジやコーナー等)を特徴点として抽出し、時刻変化に伴う当該特徴点の位置変化を追跡する。立体物検出部84は、画像中の当該特徴点の位置変化と、予め記憶した算出式とに基づいて、特徴点を三次元空間座標に変換すると共に特徴点の自車両100に対する相対速度を算出する。そして、立体物検出部84は、自車両100に対する相対速度を有する特徴点の有無により、画像中の立体物の有無を検出すると共に、当該特徴点の三次元空間座標と相対速度とから、立体物の位置、立体物と自車両100との距離を算出する。
ECU80は、立体物検出部84により画像中の立体物が検出された場合、ディスプレイ20に、立体物検出部84により検出された立体物が映り込んでいる静止画像を表示させる。
なお、運転支援装置10では、シフトポジションの切り替えに連動して自動でスイッチ82のON/OFFが切り替えられる自動切り替えモードと、ユーザの操作によりスイッチ82のON/OFFが切り替えられる手動切り替えモードとを、ディスプレイ20のタッチパネル又はディスプレイ20の周囲の操作キーにより選択できるようになっている。
次に、運転支援装置10の動作について説明する。図3は、自車両100を、駐車場に駐車させるシーンを示す平面図である。この図に示すように、自車両100の後方に位置する駐車エリアP1は、自車両100を駐車させるエリアである。この駐車エリアP1の左右両側の駐車エリアP2、P3にはそれぞれ車両103、104が駐車されている。また、駐車エリアP1の左前方に前後に並列された駐車エリアP4、P5にはそれぞれ車両101、102が駐車されている。また、駐車エリアP1の右前方に前後に並列された駐車エリアP6、P7にはそれぞれ車両105、106が駐車されている。
図4は、運転支援装置10の動作を説明するためのフローチャートである。このフローチャートに示すように、スイッチ82が自動切り替えモードに設定されている場合に、処理ルーチンが開始されてステップ100へ移行する。ステップ100では、ECU80が、シフトポジションがPレンジ、Dレンジ、又はNレンジからRレンジへ切り替わったか否か、または、シフトポジションがPレンジ又はNレンジからDレンジへ切り替わったか否かを判定する。判定が肯定された場合には、ステップ102へ移行する。
ステップ102では、ECU80が、スイッチ82をONにしてステップ104へ移行する。ステップ104では、ECU80が、立体物検出部84により立体物が検出されたか否かを判定する。ここで、立体物検出部84により検出される立体物は、自車両100に対して相対速度を有するもの、例えば、自車両100に接近する人等である。判定が肯定された場合には、ステップ106へ移行する一方、判定が否定された場合には、ステップ300へ移行する。
ステップ106では、画像処理ユニット30が、立体物検出部84により検出された立体物が移り込んだ画像を座標変換したうえで合成し、運転席を仮想視点として見た画像と、自車両100の上方を仮想視点として見た俯瞰画像とを生成する。ここで、画像処理ユニット30は、異なるカメラで撮影した画像の繋ぎ目部分において、繋ぎ合わされる画像の画素を交互に配置することにより、当該繋ぎ目部分における画像の不連続性を緩和させた画像(所謂シームレスの画像)を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図5は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20には、運転席を仮想視点として見た車外映像I1のみならず、運転席に設定された仮想視点から見た車内映像I2をも表示する表示部21と、俯瞰映像I4を表示する表示部22と、撮影位置を示す位置情報を表示する表示部23とが設けられている。
表示部21は、車内映像I2を表示部21の全面に表示し、車外映像I1を車内映像I2と重ねて表示する。ここで、表示部21は、車内映像I2における車外映像I1と重なる領域I3を、透過映像として表示する。
また、表示部22は、俯瞰映像I4を表示する。さらに、表示部23は、撮影位置に相当する部分を赤色等、その他の部分とは異なる色で表示する。
次に、ステップ108では、ECU80が、立体物検出部84により検出された立体物と自車両100との距離が増加したか否かを判定する。即ち、ECU80は、立体物検出部84により検出された立体物が自車両100から離れて行っているか否かを判定する。判定が肯定された場合には、ステップ110へ移行する。
ステップ110では、ECU80が、立体物検出部84により検出された立体物を撮影したカメラ41〜44が、前後のカメラ41、43であるか、左右のカメラ42、44であるかを判定する。前後のカメラ41、43である場合にはステップ112へ移行する一方、左右のカメラ42、44である場合にはステップ300へ移行する。
ステップ112では、立体物検出部84により検出された立体物を撮影したカメラ41〜44が、車両前方のカメラ41であるか、車両後方のカメラ43であるかを判定する。車両前方のカメラ41と判定された場合には、ステップ114へ移行する一方、車両後方のカメラ43と判定された場合には、ステップ200へ移行する。
ステップ114では、画像処理ユニット30が、車両前方のカメラ41が撮影した画像と車両左方のカメラ42が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両左前方の画像と、車両上方を仮想視点として見た車両左前方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ41が撮影した画像と、カメラ42が撮影した画像との繋ぎ目部分において、前者と後者との画素を交互に配置することにより、上述のシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図6は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20の表示部21は、運転席を仮想視点として見た車両左前方の車外映像I1と、運転席に設定された仮想視点の左前方の車内映像I2とを表示する。また、表示部21は、車内映像I2を表示部21の全面に表示し、車外映像I1を車内映像I2の左側に重ねて表示する。ここでは、表示部21において、自車両100の左前方に位置する車両101、102が、車外映像I1に映り込む。
また、ディスプレイ20の表示部22は、車両左前方の俯瞰映像I4を表示する。さらに、ディスプレイ20の表示部23は、撮影位置である車両左前方に相当する部分を赤色等、その他の部分とは異なる色で表示する。
次に、ステップ116では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像を座標変換し、運転席を仮想視点として見た車両左方の画像と、自車両100の上方を仮想視点として見た車両左方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図7は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20の表示部21は、運転席を仮想視点として見た車両左方の車外映像I1と、運転席に設定された仮想視点の左方の車内映像I2とを重ねて表示する。表示部21は、車内映像I2をディスプレイ20の全面に表示し、車外映像I1を車内映像I2の左側に重ねて表示する。また、表示部21は、車内映像I2における車外映像I1と重なる領域I3を、透過映像として表示する。ここでは、表示部21において、自車両100の左前方に位置する車両102が、車外映像I1の右端に映り込む。
ここで、ステップ114からステップ116へ移行する際に、画像処理ユニット30は、運転席に設定された仮想視点を中心として視覚方向を車両左前方から車両左方に連続的に変化させた連続画像を生成する。そして、ディスプレイ20の表示部21は、図6に示す車両左方の映像から図7に示す車両左前方の映像に連続的に遷移する連続映像を表示する。
また、表示部22は、車両左方の俯瞰映像I4を表示する。さらに、表示部23は、撮影位置である車両左方に相当する部分を赤色等、その他の部分とは異なる色で表示する。
次に、ステップ118では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像と車両後方のカメラ43が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両左後方の画像と、車両上方を仮想視点として見た車両左後方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ42が撮影した画像と、カメラ43が撮影した画像との繋ぎ目部分において、前者と後者との画素を交互に配置することにより、シームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図8は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20の表示部21は、運転席を仮想視点として見た車両左後方の車外映像I1と、運転席に設定された仮想視点の左後方の車内映像I2とを表示する。また、表示部21は、車内映像I2を表示部21の全面に表示し、車外映像I1を車内映像I2の左側に重ねて表示する。ここでは、表示部21において、自車両100の左後方に位置する車両103が車外映像I1に映り込む。
ここで、ステップ116からステップ118へ移行する際に、画像処理ユニット30は、運転席に設定された仮想視点を中心として視覚方向を車両左方から車両左後方に連続的に変化させた連続画像を生成する。そして、ディスプレイ20の表示部21は、図7に示す車両左方の映像から図8に示す車両左後方の映像に連続的に遷移する連続映像を表示する。
また、表示部22は、車両左後方の俯瞰映像I4を表示する。さらに、表示部23は、撮影位置である車両左後方に相当する部分を赤色等、その他の部分とは異なる色で表示する。
次に、ステップ120では、画像処理ユニット30が、車両後方のカメラ43により撮影された画像を座標変換し、運転席を仮想視点として見た車両後方の画像と、自車両100の上方を仮想視点として見た車両後方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図9は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20の表示部21は、運転席を仮想視点として見た車両後方の車外映像I1と、運転席に設定された仮想視点の後方の車内映像I2とを重ねて表示する。表示部21は、車内映像I2をディスプレイ20の全面に表示し、車外映像I1を車内映像I2の上側に重ねて表示する。また、車内映像I2における車外映像I1と重なる領域I3は、透過映像として表示する。ここでは、表示部21において、自車両100の後方に位置する車両103、104が、車外映像I1の両端に映り込む。
ここで、ステップ118からステップ120へ移行する際に、画像処理ユニット30は、運転席に設定された仮想視点を中心として視覚方向を車両左後方から車両後方に連続的に変化させた連続画像を生成する。そして、ディスプレイ20の表示部21は、図8に示す車両左後方の映像から図9に示す車両後方の映像に連続的に遷移する連続映像を表示する。
また、表示部22は、車両後方の俯瞰映像I4を表示する。さらに、表示部23は、撮影位置である車両後方に相当する部分を赤色等、その他の部分とは異なる色で表示する。
次に、ステップ122では、画像処理ユニット30が、車両後方のカメラ43が撮像した画像と車両左方のカメラ44が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右後方の画像と、自車両100の上方を仮想視点として見た車両右後方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ43が撮影した画像と、カメラ44が撮影した画像との繋ぎ目部分において、前者と後者との画素を交互に配置することにより、シームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図10は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20の表示部21は、運転席を仮想視点として見た車両右後方の車外映像I1と、運転席に設定された仮想視点の右後方の車内映像I2とを重ねて表示する。表示部21は、車内映像I2をディスプレイ20の全面に表示し、車外映像I1を車内映像I2の右側に重ねて表示する。また、表示部21は、車内映像I2における車外映像I1と重なる領域I3を、透過映像として表示する。ここでは、表示部21は、自車両100の右後方に位置する車両104を、車外映像I1として表示する。
ここで、ステップ120からステップ122へ移行する際に、画像処理ユニット30は、運転席に設定された仮想視点を中心として視覚方向を車両後方から車両右後方に連続的に変化させた連続画像を生成する。そして、ディスプレイ20の表示部21は、図9に示す車両後方の映像から図10に示す車両右後方の映像に連続的に遷移する連続映像を表示する。
また、表示部22は、車両右後方の俯瞰映像I4を表示する。さらに、表示部23は、撮影位置である車両右後方に相当する部分を赤色等、その他の部分とは異なる色で表示する。
次に、ステップ124では、画像処理ユニット30が、車両右方のカメラ44が撮像した画像を座標変換し、運転席を仮想視点として見た車両右方の画像と、自車両100の上方を仮想視点として見た車両右方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図11は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20の表示部21は、運転席を仮想視点として見た車両右方の車外映像I1と、運転席に設定された仮想視点の右方の車内映像I2とを重ねて表示する。表示部21は、車内映像I2をディスプレイ20の全面に表示し、車外映像I1を車内映像I2の右側に重ねて表示する。また、表示部21は、車内映像I2における車外映像I1と重なる領域I3を、透過映像として表示する。ここでは、表示部21において、自車両100の右前方に位置する車両102の一部が車外映像I1の左端に映り込む。
ここで、ステップ122からステップ124へ移行する際に、画像処理ユニット30は、運転席に設定された仮想視点を中心として視覚方向を車両右後方から車両右方に連続的に変化させた連続画像を生成する。そして、ディスプレイ20の表示部21は、図10に示す車両右後方の映像から図11に示す車両右方の映像に連続的に遷移する連続映像を表示する。
また、表示部22は、車両右方の俯瞰映像I4を表示する。さらに、表示部23は、撮影位置である車両右方に相当する部分を赤色等、その他の部分とは異なる色で表示する。
次に、ステップ126では、画像処理ユニット30が、車両右方のカメラ44が撮像した画像と車両前方のカメラ41が撮像した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右前方の画像と、自車両100の上方を仮想視点として見た車両右前方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する。
図12は、本ステップにおいてディスプレイ20に表示される映像を示す画像図である。この図に示すように、ディスプレイ20の表示部21は、運転席を仮想視点として見た車両右前方の車外映像I1と、運転席に設定された仮想視点の右前方の車内映像I2とを重ねて表示する。表示部21は、車内映像I2をディスプレイ20の全面に表示し、車外映像I1を車内映像I2の右側に重ねて表示する。また、表示部21は、車内映像I2における車外映像I1と重なる領域I3を、透過映像として表示する。ここでは、表示部21は、自車両100の右前方に位置する車両102を車外映像I1として表示する。
ここで、ステップ124からステップ126へ移行する際に、画像処理ユニット30は、運転席に設定された仮想視点を中心として視覚方向を車両右方から車両右前方に連続的に変化させた連続画像を生成する。そして、ディスプレイ20の表示部21は、図11に示す車両右方の映像から図12に示す車両右前方の映像に連続的に遷移する連続映像を表示する。
また、表示部22は、車両右前方の俯瞰映像I4を表示する。さらに、表示部23は、撮影位置である車両右前方に相当する部分を赤色等、その他の部分とは異なる色で表示する。そして、処理ルーチンを終了する。
即ち、立体物が車両前方のカメラ41により撮影された場合には、画像処理ユニット30が、車両左方(助手席側)、車両後方、車両右方(運転席側)の順序で、運転席に設定された仮想視点を中心として視覚方向が連続的に遷移する連続画像を生成し、ディスプレイ20が、当該連続画像を表示する。
図13は、ステップ200以降の運転支援装置10の動作を説明するためのフローチャートである。ステップ112において、ECU80が、立体物を撮影したカメラが車両後方のカメラ43であると判定した場合、ステップ200以降の処理ルーチンが開始される。ステップ200では、画像処理ユニット30が、車両後方のカメラ43が撮影した画像と車両左方のカメラ42が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両左後方の画像と、車両上方を仮想視点として見た車両左後方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ43が撮影した画像とカメラ42が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図8参照)。
次に、ステップ202では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像を座標変換し、運転席を仮想視点として見た車両左方の画像と、車両上方を仮想視点として見た車両左方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図7参照)。
次に、ステップ204では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像と車両前方のカメラ41が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両左前方の画像と、車両上方を仮想視点として見た車両左前方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ42が撮影した画像とカメラ41が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図6参照)。
次に、ステップ206では、画像処理ユニット30が、車両前方のカメラ41が撮影した画像を座標変換し、運転席を仮想視点として見た車両前方の画像と、車両上方を仮想視点として見た車両前方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図14参照)。
次に、ステップ208では、画像処理ユニット30が、車両前方のカメラ41が撮影した画像と車両右方のカメラ44が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右前方の画像と、車両上方を仮想視点として見た車両右前方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ41が撮影した画像とカメラ44が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図12参照)。
次に、ステップ210では、画像処理ユニット30が、車両右方のカメラ44が撮影した画像を座標変換し、運転席を仮想視点として見た車両右方の画像と、車両上方を仮想視点として見た車両右方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図11参照)。
次に、ステップ212では、画像処理ユニット30が、車両右方のカメラ44が撮影した画像と車両後方のカメラ43が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右後方の画像と、車両上方を仮想視点として見た車両右後方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ44が撮影した画像とカメラ43が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図10参照)。
即ち、自車両100に接近する立体物が車両後方のカメラ43により撮影された場合には、画像処理ユニット30が、車両左方(助手席側)、車両前方、車両右方(運転席側)の順序で、運転席に設定された仮想視点を中心として視覚方向が連続的に遷移する連続画像を生成し、ディスプレイ20が、当該連続画像を表示する。
図15は、ステップ300以降の運転支援装置10の動作を説明するためのフローチャートである。ECU80は、立体物検出部84により立体物が検出されなかった場合(ステップ104)、及び、立体物を撮影したカメラが車両左右のカメラ42、44であると判定した場合(ステップ110)、ステップ300へ移行し、シフトポジションがDレンジであるかRレンジであるかを判定する。Dレンジである場合には、ステップ302へ移行する一方、Rレンジである場合には、ステップ320へ移行する。
ステップ302では、画像処理ユニット30が、車両前方のカメラ41が撮影した画像を座標変換し、運転席を仮想視点として見た車両前方の画像と、車両上方を仮想視点として見た車両前方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図14参照)。
次に、ステップ304では、画像処理ユニット30が、車両前方のカメラ41が撮影した画像と車両左方のカメラ42が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点して見た車両左前方の画像と、車両上方を仮想視点として見た車両左前方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ41が撮影した画像とカメラ42が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図6参照)。
次に、ステップ306では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像を座標変換し、運転席を仮想視点として見た車両左方の画像と、車両上方を仮想視点として見た車両左方の画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図7参照)。
次に、ステップ308では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像と車両後方のカメラ43が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両左後方の画像と、車両上方を仮想視点として見た車両左後方の画像を生成する。ここで、画像処理ユニット30は、カメラ42が撮影した画像とカメラ43が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図8参照)。
次に、ステップ310では、画像処理ユニット30が、車両後方のカメラ43が撮影した画像を座標変換し、運転席を仮想視点として見た車両後方の画像と、車両上方を仮想視点として見た車両後方の画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図9参照)。
次に、ステップ312では、画像処理ユニット30が、車両後方のカメラ43が撮影した画像と車両右方のカメラ44が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右後方の画像と、車両上方を仮想視点として見た車両右後方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ43が撮影した画像とカメラ44が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図10参照)。
次に、ステップ314では、画像処理ユニット30が、車両右方のカメラ44が撮影した画像を座標変換し、運転席を仮想視点として見た車両右方の画像と、車両上方を仮想視点として見た車両右方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図11参照)。
次に、ステップ316では、画像処理ユニット30が、車両右方のカメラ44が撮影した画像と車両前方のカメラ41が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右前方の画像と、車両上方を仮想視点として見た車両右前方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ44が撮影した画像とカメラ41が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図12参照)。そして、処理ルーチンを終了する。
即ち、自車両100に接近する立体物がカメラ41〜44により撮影されない状態でシフトポジションがDレンジである場合、または、立体物が車両左右のカメラ42、44により撮影されると共にシフトポジションがDレンジである場合には、画像処理ユニット30が、車両前方、車両左方(助手席側)、車両後方、車両右方(運転席側)の順序で、運転席に設定された仮想視点を中心として視覚方向が連続的に遷移する連続画像を生成し、ディスプレイ20が、当該連続画像を表示する。
一方、ステップ300において、ECU80が、シフトポジションがRレンジであると判定した場合には、ステップ320において、画像処理ユニット30が、車両後方のカメラが撮影した画像を座標変換し、運転席を仮想視点として見た車両後方の画像と、車両上方を仮想視点として見た車両後方の俯瞰画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図9参照)。
次に、ステップ322では、画像処理ユニット30が、車両後方のカメラ43が撮影した画像と車両左方のカメラ42が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点して見た車両左後方の画像と、車両上方を仮想視点として見た車両左後方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ43が撮影した画像とカメラ42が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図8参照)。
次に、ステップ324では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像を座標変換し、運転席を仮想視点として見た車両左方の画像と、車両上方を仮想視点として見た車両左方の画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図7参照)。
次に、ステップ326では、画像処理ユニット30が、車両左方のカメラ42が撮影した画像と車両前方のカメラ41が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両左前方の画像と、車両上方を仮想視点として見た車両左前方の画像とを生成する。ここで、画像処理ユニット30は、カメラ42が撮影した画像とカメラ41が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図6参照)。
次に、ステップ328では、画像処理ユニット30が、車両前方のカメラ41が撮影した画像を座標変換し、運転席を仮想視点として見た車両前方の画像と、車両上方を仮想視点として見た車両前方の画像とを生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図14参照)。
次に、ステップ330では、画像処理ユニット30が、車両前方のカメラ41が撮影した画像と車両右方のカメラ44が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右前方の画像と、車両上方を仮想視点して見た車両右前方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ41が撮影した画像とカメラ44が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図12参照)。
次に、ステップ332では、画像処理ユニット30が、車両右方のカメラ44が撮影した画像を座標変換し、運転席を仮想視点として見た車両右方の画像と、車両上方を仮想視点として見た車両右方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、シームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図11参照)。
次に、ステップ334では、画像処理ユニット30が、車両右方のカメラ44が撮影した画像と車両後方のカメラ43が撮影した画像とを座標変換したうえで合成し、運転席を仮想視点として見た車両右後方の画像と、車両上方を仮想視点として見た車両右後方の俯瞰画像とを生成する。ここで、画像処理ユニット30は、カメラ44が撮影した画像とカメラ43が撮影した画像との繋ぎ目部分が連続的であるシームレスの画像を生成する。そして、ディスプレイ20は、画像処理ユニット30が生成した画像を表示する(図10参照)。そして、処理ルーチンを終了する。
即ち、自車両100に接近する立体物がカメラ41〜44により撮影されない状態でシフトポジションがRレンジである場合、または、立体物が車両左右のカメラ42、44により撮影されると共にシフトポジションがRレンジである場合には、画像処理ユニット30が、車両後方、車両左方(助手席側)、車両前方、車両右方(運転席側)の順序で、運転席に設定された仮想視点を中心として視覚方向が連続的に遷移する連続画像を生成し、ディスプレイ20が、当該連続画像を表示する。
以上、説明したように、本実施形態に係る運転支援装置10では、シフトポジションがDレンジ(前進走行レンジ)又はRレンジ(後退走行レンジ)に切替えられた場合、即ち、運転者が自車両100を駐停車状態から前進又は後退させる場合、自車両100の乗員が車両の周囲を1周見回した際に、自車両100を透過して自車両100の乗員の視覚で捉えられるような映像が、ディスプレイ20に連続的に表示される。これにより、車両上方を仮想視点として見る俯瞰画像と比して、ディスプレイ20に表示される映像と、実際に自車両100の乗員の視覚で捉えられる車両の周囲の映像との差異を低減できる。また、運転者は、側方や後方等、撮影位置の切り替えを行うことなく、車両の周囲の全方位の死角を、ディスプレイ20に表示される映像で確認することができる。従って、本実施形態に係る運転支援装置10によれば、運転者の違和感を抑制しつつ的確な安全確認支援を行うことができる。
また、本実施形態に係る運転支援装置10では、運転席を仮想視点として車両の周囲を見回したような映像が、ディスプレイ20に表示される。これにより、運転者の違和感を抑制でき、運転者の臨場感を増大させることができる。
また、本実施形態に係る運転支援装置10では、シフトポジションがDレンジの場合には、前方から始まって助手席側を経由して後方、運転席側へと遷移する連続画像をディスプレイ20に表示させる。また、シフトポジションがRレンジの場合には、後方から始まって助手席側を経由して前方、運転席側へと遷移する連続画像をディスプレイ20に表示させる。即ち、運転者が自車両100を駐停車状態から前進させる場合には、始めに移動方向である車両前方をディスプレイ20に表示させ、次に、死角がより多い助手席側をディスプレイ20に表示させる。また、運転者が自車両100を駐停車状態から後退させる場合には、始めに移動方向である車両後方をディスプレイ20に表示させ、次に、死角がより多い助手席側をディスプレイ20に表示させる。これにより、運転者は、移動方向及び死角が多い方向の状況を、速やかに確認することができる。
また、本実施形態に係る運転支援装置10では、立体物検出部84によって自車両100に接近する立体物が検出された場合に、当該立体物をディスプレイ20に表示させる。これにより、運転者が、自車両100に接近する人等を見落とすことを抑制できる。そして、その後、自車両100の周囲がディスプレイ20に表示されるので、運転者は、実際に周囲の安全確認を行うこともできる。
また、本実施形態に係る運転支援装置10では、運転席を仮想視点として見た車外映像I1と、当該仮想視点から見た車内映像I2とを重ねてディスプレイ20に表示させ、車外映像I1と車内映像I2との重なり合う領域I3を透過映像としてディスプレイ20に表示させている。即ち、運転者が自車両100の周囲を見回した際に運転者の視覚で捉えられる映像全体を、ディスプレイ20に表示させている。従って、本実施形態に係る運転支援装置10によれば、運転者に臨場感を感じさせることができる。
以上、本発明の実施形態について説明したが、本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変形して実施することができる。例えば、本実施形態に係る運転支援装置10では、自車両100の周囲の全周の車外映像I1を、連続的にディスプレイ20に表示させた。しかし、車両前方の車外映像I1のディスプレイ20への表示は行わない、あるいは、助手席側の車外映像I1のディスプレイ20への表示のみ行う等、ディスプレイ20に表示させる車外映像I1の範囲については適宜設定できる。
また、本実施形態に係る運転支援装置10では、運転席を仮想視点として見た連続画像をディスプレイ20に表示させたが、仮想視点の設定位置は運転席には限られない。例えば、助手席側の車外映像をディスプレイ20に表示させる場合には助手席に仮想視点を設定する等、表示させる画像に近い座席に設定してもよい。
また、本実施形態では、4個のカメラ41〜44を車両前後左右に設けたが、カメラの設置数、設置位置は、それに限定されるものではなく、適宜変更できる。また、本実施形態では、カメラ41〜44を180°の画角を有する広角カメラとしたが、カメラはそれに限定されるものではなく、画角が180°よりも狭いカメラ等、他のカメラに変更してもよい。
また、本実施形態では、ECU80が、シフトポジションがPレンジ、Dレンジ、又はNレンジからRレンジへ切り替えられた場合、または、シフトポジションがPレンジ、Nレンジ、又はRレンジからDレンジへ切り替えられた場合に、スイッチ82をONにしている。しかしながら、例えば、マニュアルトランスミッションを搭載している車両において、NレンジからRレンジに切替えられた場合、NレンジからLOWレンジに切替えられた場合に、運転支援装置10の作動スイッチをONにする等することもできる。
10 運転支援装置
20 ディスプレイ(表示部)
21〜23 表示部
30 画像処理ユニット(画像生成部)
41〜44 カメラ(撮像部)
80 ECU(制御部)
82 スイッチ
84 立体物検出部
100 自車両
101〜106 車両
110 サイドミラー

Claims (5)

  1. 車両の周囲を撮像する撮像部と、
    前記撮像部により撮影された画像を、車室内に設定された仮想視点から見た車両の周囲の画像に変換すると共に、前記仮想視点を中心として視覚方向を連続的に変化させた連続画像を生成する画像生成部と、
    前記画像生成部により生成された前記連続画像を表示する表示部と、
    シフトポジションが、前進走行のレンジ又は後退走行のレンジに切り替えられた場合に、前記表示部に前記連続画像を表示させる制御部と、
    を備える運転支援装置。
  2. 前記画像生成部は、助手席側、車両後方及び車両前方の何れか一方、運転席側の順序で前記視覚方向が変化する前記連続画像を生成する請求項1に記載の運転支援装置。
  3. 前記撮像部により撮像された画像に基づいて立体物を検出する立体物検出部を備え、
    前記制御部は、前記立体物検出部により前記立体物が検出された場合に、前記撮像部により撮像された前記立体物の画像を前記表示部に表示させる請求項1又は請求項2に記載の運転支援装置。
  4. 前記画像生成部は、シフトポジションが、前進走行のレンジに切り替えられた場合に、車両前方、助手席側、車両後方、運転席側の順序で前記視覚方向が変化する前記連続画像を生成し、シフトポジションが、後退走行のレンジに切り替えられた場合に、車両後方、助手席側、車両前方、運転席側の順序で前記視覚方向が変化する前記連続画像を生成する請求項1から請求項3までの何れか1項に記載の運転支援装置。
  5. 前記画像生成部は、運転席に設定された仮想視点から見た前記連続画像を生成する請求項1から請求項4までの何れか1項に記載の運転支援装置。
JP2009216878A 2009-09-18 2009-09-18 運転支援装置 Active JP5251804B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009216878A JP5251804B2 (ja) 2009-09-18 2009-09-18 運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009216878A JP5251804B2 (ja) 2009-09-18 2009-09-18 運転支援装置

Publications (2)

Publication Number Publication Date
JP2011065520A true JP2011065520A (ja) 2011-03-31
JP5251804B2 JP5251804B2 (ja) 2013-07-31

Family

ID=43951675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009216878A Active JP5251804B2 (ja) 2009-09-18 2009-09-18 運転支援装置

Country Status (1)

Country Link
JP (1) JP5251804B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144076A1 (ja) * 2011-04-22 2012-10-26 トヨタ自動車株式会社 車両周辺監視装置及び車両周辺監視情報の表示方法
WO2013183536A1 (ja) * 2012-06-08 2013-12-12 日立建機株式会社 自走式産業機械の表示装置
JP2014197817A (ja) * 2013-03-29 2014-10-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
WO2015041005A1 (ja) * 2013-09-19 2015-03-26 富士通テン株式会社 画像生成装置、画像表示システム、画像生成方法、および画像表示方法
JP2015061212A (ja) * 2013-09-19 2015-03-30 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP2015088942A (ja) * 2013-10-31 2015-05-07 富士通テン株式会社 画像表示システム、画像表示方法及びプログラム
JP2016134001A (ja) * 2015-01-20 2016-07-25 富士通テン株式会社 画像生成装置、画像生成方法及びプログラム
JP2016213841A (ja) * 2016-05-16 2016-12-15 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP2017208690A (ja) * 2016-05-18 2017-11-24 富士通テン株式会社 画像生成装置、画像表示システムおよび画像表示方法
KR20190075034A (ko) * 2019-06-20 2019-06-28 주식회사 아이닉스 차량용 영상 생성 장치 및 방법

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312523A (ja) * 2003-04-09 2004-11-04 Equos Research Co Ltd 車載画像処理装置
JP2005286938A (ja) * 2004-03-31 2005-10-13 Equos Research Co Ltd 車外情報表示装置
JP2006074105A (ja) * 2004-08-31 2006-03-16 Equos Research Co Ltd 車両周辺画像表示装置
JP2006279511A (ja) * 2005-03-29 2006-10-12 Aisin Seiki Co Ltd 周辺監視システム
JP2007104373A (ja) * 2005-10-05 2007-04-19 Alpine Electronics Inc 車両用画像表示装置
JP2007302238A (ja) * 2007-05-29 2007-11-22 Equos Research Co Ltd 車両の画像処理装置
JP2008148059A (ja) * 2006-12-11 2008-06-26 Denso Corp 車両周辺監視装置
JP2008219559A (ja) * 2007-03-06 2008-09-18 Xanavi Informatics Corp 車載カメラシステム
JP2009020647A (ja) * 2007-07-11 2009-01-29 Alpine Electronics Inc 立体物検出方法および立体物検出装置
JP2009093485A (ja) * 2007-10-10 2009-04-30 Nippon Soken Inc 画像生成装置及び画像生成プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312523A (ja) * 2003-04-09 2004-11-04 Equos Research Co Ltd 車載画像処理装置
JP2005286938A (ja) * 2004-03-31 2005-10-13 Equos Research Co Ltd 車外情報表示装置
JP2006074105A (ja) * 2004-08-31 2006-03-16 Equos Research Co Ltd 車両周辺画像表示装置
JP2006279511A (ja) * 2005-03-29 2006-10-12 Aisin Seiki Co Ltd 周辺監視システム
JP2007104373A (ja) * 2005-10-05 2007-04-19 Alpine Electronics Inc 車両用画像表示装置
JP2008148059A (ja) * 2006-12-11 2008-06-26 Denso Corp 車両周辺監視装置
JP2008219559A (ja) * 2007-03-06 2008-09-18 Xanavi Informatics Corp 車載カメラシステム
JP2007302238A (ja) * 2007-05-29 2007-11-22 Equos Research Co Ltd 車両の画像処理装置
JP2009020647A (ja) * 2007-07-11 2009-01-29 Alpine Electronics Inc 立体物検出方法および立体物検出装置
JP2009093485A (ja) * 2007-10-10 2009-04-30 Nippon Soken Inc 画像生成装置及び画像生成プログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144076A1 (ja) * 2011-04-22 2012-10-26 トヨタ自動車株式会社 車両周辺監視装置及び車両周辺監視情報の表示方法
WO2013183536A1 (ja) * 2012-06-08 2013-12-12 日立建機株式会社 自走式産業機械の表示装置
JPWO2013183536A1 (ja) * 2012-06-08 2016-01-28 日立建機株式会社 自走式産業機械の表示装置
JP2014197817A (ja) * 2013-03-29 2014-10-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
US9961259B2 (en) 2013-09-19 2018-05-01 Fujitsu Ten Limited Image generation device, image display system, image generation method and image display method
WO2015041005A1 (ja) * 2013-09-19 2015-03-26 富士通テン株式会社 画像生成装置、画像表示システム、画像生成方法、および画像表示方法
JP2015061212A (ja) * 2013-09-19 2015-03-30 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
DE112014004305B4 (de) * 2013-09-19 2020-09-10 Fujitsu Ten Limited Bildgenerierungsvorrichtung; Bildanzeigesystem; Bildgenerierungsverfahren und Bildanzeigeverfahren
JP2015088942A (ja) * 2013-10-31 2015-05-07 富士通テン株式会社 画像表示システム、画像表示方法及びプログラム
US10499014B2 (en) 2015-01-20 2019-12-03 Denso Ten Limited Image generation apparatus
JP2016134001A (ja) * 2015-01-20 2016-07-25 富士通テン株式会社 画像生成装置、画像生成方法及びプログラム
JP2016213841A (ja) * 2016-05-16 2016-12-15 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP2017208690A (ja) * 2016-05-18 2017-11-24 富士通テン株式会社 画像生成装置、画像表示システムおよび画像表示方法
US10703275B2 (en) 2016-05-18 2020-07-07 Denso Ten Limited Image generation apparatus
KR20190075034A (ko) * 2019-06-20 2019-06-28 주식회사 아이닉스 차량용 영상 생성 장치 및 방법
KR102235951B1 (ko) 2019-06-20 2021-04-05 주식회사 아이닉스 차량용 영상 생성 장치 및 방법

Also Published As

Publication number Publication date
JP5251804B2 (ja) 2013-07-31

Similar Documents

Publication Publication Date Title
JP5251804B2 (ja) 運転支援装置
US10479275B2 (en) Vehicle peripheral observation device
JP5158051B2 (ja) 運転支援装置
US9862319B2 (en) Vehicle peripheral observation device using cameras and an emphasized frame
KR101354068B1 (ko) 차량주변화상생성장치
JP3916958B2 (ja) 車両後方モニタシステムおよびモニタ装置
JP5454934B2 (ja) 運転支援装置
JP5344227B2 (ja) 車両用周辺監視装置
JP5003946B2 (ja) 駐車支援装置
KR101266734B1 (ko) 표시장치
WO2010137684A1 (ja) 画像生成装置及び画像表示システム
JP5724446B2 (ja) 車両の運転支援装置
JP2005223524A (ja) 車両周辺監視装置
JP2006321419A (ja) 映像表示装置及び映像表示方法
JP2010202010A (ja) 駐車支援装置
JP5776995B2 (ja) 車両用周辺監視装置
US11601621B2 (en) Vehicular display system
JP2017208690A (ja) 画像生成装置、画像表示システムおよび画像表示方法
JP2012001126A (ja) 車両用周辺監視装置
JP4092479B2 (ja) 車両用運転支援装置
KR20100021046A (ko) 자동차용 표시장치 및 그 제어 방법
JP2014199677A (ja) 運転支援装置
JP2011188275A (ja) 車両周辺監視装置
US20220086368A1 (en) Vehicular display system
JP2010016571A (ja) 運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R151 Written notification of patent or utility model registration

Ref document number: 5251804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350