JP2012158225A - 画像表示システム、画像表示装置、及び、画像表示方法 - Google Patents

画像表示システム、画像表示装置、及び、画像表示方法 Download PDF

Info

Publication number
JP2012158225A
JP2012158225A JP2011018192A JP2011018192A JP2012158225A JP 2012158225 A JP2012158225 A JP 2012158225A JP 2011018192 A JP2011018192 A JP 2011018192A JP 2011018192 A JP2011018192 A JP 2011018192A JP 2012158225 A JP2012158225 A JP 2012158225A
Authority
JP
Japan
Prior art keywords
vehicle
image
predicted course
error
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011018192A
Other languages
English (en)
Other versions
JP5651491B2 (ja
Inventor
Yoshikazu Hashimoto
欣和 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2011018192A priority Critical patent/JP5651491B2/ja
Publication of JP2012158225A publication Critical patent/JP2012158225A/ja
Application granted granted Critical
Publication of JP5651491B2 publication Critical patent/JP5651491B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両が移動する可能性のある位置を示す予測進路をユーザへ提供することを目的とする技術に関する。
【解決手段】
ステアリングホイールの操舵角に基づいて導出された車両の予測進路と、ステアリングホイールの操舵角および予測進路に誤差を生じさせる要因の程度に基づいて導出された車両の予測進路との間隔である予測進路の範囲を導出する。これにより、車両の進行に伴って車両の通過する可能性のある位置をユーザが認識できる。
【選択図】図1

Description

本発明は、車両の予測進路を表示する技術に関する。
近年、車両に搭載された表示装置において、車両に備えられたカメラにより車両周辺を撮影した車外画像に車両の予測進路を示す指標を重畳して表示する技術が開発されている。車両のユーザは表示装置に表示された指標を車両の進行方向の目安として、車両のステアリングホイールの操作、および、アクセル開度の調整などを行って、ユーザの目標とするスペースに車両を移動させる。なお、本発明と関連する技術を説明する資料としては特許文献1がある。
特開2008−83990号公報
しかしながら、表示装置に表示される車両の予測進路は、車両のステアリングホイールの操舵角に応じて、車外画像上の表示位置の変更がなされるものの、車両の進行に伴い予測進路に誤差を生じさせる要因については考慮されていなかった。そのため、表示装置に表示された予測進路に基づいてユーザが車両を移動させた場合にユーザの意図した位置とは異なる位置に車両が移動する可能性があった。
本発明は、上記課題に鑑みてなされたものであり、車両が移動する可能性のある位置を示す予測進路をユーザへ提供することを目的とする。
上記課題を解決するために、請求項1の発明は、車両に搭載される画像表示システムであって、前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、前記車両の操舵角を取得する取得手段と、前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する第2導出手段と、前記予測進路の前記誤差が生じる範囲を示す指標を前記車外画像に重畳して表示する表示手段と、を備える。
また、請求項2の発明は、請求項1に記載の画像表示システムにおいて、前記検知手段は、前記車両が走行する路面の滑りやすさと、前記車両の速度とを前記要因の程度として検知する。
また、請求項3の発明は、請求項1または2に記載の画像表示システムにおいて、前記検知手段は、前記車両の設計公差を前記要因の程度として検知する。
また。請求項4の発明は、請求項2に記載の画像表示システムにおいて、
前記表示手段は、前記車両の速度に応じて前記予測進路の範囲が変化した場合に、変化前と変化後との双方の前記予測進路の範囲を示す指標を表示する。
また、請求項5の発明は、車両に搭載される画像処理装置であって、前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、前記車両の操舵角を取得する取得手段と、前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する第2導出手段と、前記予測進路の前記誤差が生じる範囲を示す指標を表示装置に送信する送信手段と、を備える。
さらに、請求項6の発明は、車両に搭載される画像表示方法であって、(a)前記車両の周辺を撮影する撮像部が取得した車外画像を受信する工程と、(b)前記車両の操舵角を取得する工程と、(c)前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する工程と、(d)前記予測進路に誤差を生じさせる要因の程度を検知する工程と、(e)前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する工程と、(f)前記予測進路の前記誤差が生じる範囲を示す指標を前記車外画像に重畳して表示する工程と、を備える。
請求項1ないし6の発明によれば、予測進路の誤差が生じる範囲を示す指標を車外画像に重畳して表示することで、車両の進行に伴って車両の通過する可能性のある位置をユーザが認識できる。
また、特に請求項2の発明によれば、検知手段は、車両が走行する路面の滑りやすさと、車両の速度とを要因の程度として検知することで、車両の外部要因に基づいて導出された車両の進行に伴って車両の通過する可能性のある位置をユーザが認識できる。
また、特に請求項3の発明によれば、検知手段は、車両の設計公差を要因の程度として検知することで、車両内部の要因に基づいて導出された車両の進行に伴って車両の通過する可能性のある位置をユーザに認識させることができる。
さらに、特に請求項4の発明によれば、表示手段は、車両の速度に応じて予測進路の誤差が生じる範囲が変化した場合に、変化前と変化後との双方の予測進路の誤差が生じる範囲を示す指標を表示することで、車両の速度に応じて変化した予測進路の誤差が生じる範囲をユーザが認識できる。
図1は、画像表示システムのブロック図である。 図2は、車載カメラが車両に配置される位置を示す図である。 図3は、合成画像を生成する手法を説明するための図である。 図4は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。 図5は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。 図6は、車両像の後方に表示された予測進路を含む指標を示す図である。 図7は、車両像の後方に表示された指標の予測進路の範囲を示す図である。 図8は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。 図9は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。 図10は、バックカメラにより撮影された画像を画像生成部で処理を行い、ディスプレイに表示した図である。 図11は、第1の実施の形態の画像処理装置の処理フローチャートである。 図12は、車両像の後方に表示された予測進路の範囲を含む指標を示す図である。 図13は、第2の実施の形態の画像処理装置の処理フローチャートである。 図14は、車両像の後方に表示された予測進路の範囲を含む指標を示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.システム構成>
図1は、画像表示システム120のブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成し、その生成した画像を車室内のナビゲーション装置20などの表示装置に出力する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
図1に示すように、画像表示システム120は、車両の周辺を示す周辺画像を生成してナビゲーション装置20などの表示装置に画像情報を出力する画像処理装置100と、車両の周囲を撮影するカメラを備えている撮影部5とを主に備えている。
ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。
ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、所定の条件下で画像処理装置100により生成された車両の周辺の様子を示す周辺画像や、車両9及び車両9の周辺領域を俯瞰した俯瞰画像が表示される。また、ディスプレイ21に表示される俯瞰画像は周辺領域をほぼリアルタイムに示すことになる。これにより、ナビゲーション装置20は、画像処理装置100で生成された周辺画像を受信して表示する表示装置としても機能する。
画像処理装置100は、その本体部10が周辺画像を生成する機能を有するECU(Electronic Control Unit)であり、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。これらの撮影部5が備える複数の車載カメラ51,52,53は、本体部10とは別の車両の適位置に配置されるが詳細は後述する。
画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。
ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。
画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、画像受信部31、画像重畳部33、及び、画像送信部34を主な機能として備えている。
画像受信部31は、車両9の周辺を撮影する撮影部5の複数の車載カメラ51、52、53で取得された複数の撮影画像を受信する、
画像合成部32は、撮影部5の複数の車載カメラ51、52、53で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部32が仮想視点からみた合成画像を生成する手法については後述する。
画像重畳部は33は、車両9が進行すると予測される予測進路を撮影部5が撮影した画像に重畳する処理を行う。予測進路は車両9が進行することにより通過する位置を示し、後述する制御部1の予測進路導出部13により導出される。また、予測進路が重畳される画像は、撮影部5の一のカメラ(例えばバックカメラ52)により撮影された画像、および、画像合成部32により合成された画像などである。なお、以下、このような車両9の周辺を一のカメラにより撮影した画像、および、車両9の周辺を複数のカメラで撮影した画像を合成した合成画像を車外画像ともいう。
画像送信部34は、画像生成部3で生成された車外画像をナビゲーション装置20へ出力する。
制御部1は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す画像制御部11、操舵角取得部12、予測進路導出部13、および、要因検知部14は、このようにして実現される制御部1の機能のうちの一部を示している。
画像制御部11は、画像生成部3によって実行される画像処理を制御するものである。例えば、画像制御部11は、画像合成部32が生成する合成画像の生成に必要な各種パラメータなどを指示する。
操舵角取得部12は、ユーザが操作した車両9のステアリングホイールの操舵角の情報を操舵角センサ83から取得する。
予測進路導出部13は、操舵角取得部12が取得したステアリングホイールの操舵角に基づいて車両9が進行すると予想される予測進路を導出する。詳細には、ステアリングホイールの操舵角の情報から車両9の回転半径を導出し、回転半径に基づいて車両9の後輪が進行すると予測される軌跡を演算する。
また、予測進路導出部13は、後述する要因検知部14が検知する予測進路の誤差を生じさせる要因の程度に基づいて、予測進路の誤差が生じる範囲を導出する。つまり、ステアリングホイールの操舵角に基づいて導出した車両9の予測進路が車両9の走行環境の影響で誤差を生じる場合に、誤差分を予測進路の導出の演算に含めた車両9の予測進路を予測進路導出部13が導出する。
ここで、車両9の走行環境とは、例えば車両9の走行する路面の滑りやすさを示す路面摩擦係数、および、車両9の速度である。そして、ステアリングホイールの操舵角のみに基づいて予測進路導出部13が導出した誤差を考慮しない理想的な予測進路と、ステアリングホイールの操舵角および誤差を生じる要因の程度に基づいて予測進路導出部13が導出した最大の誤差を考慮した予測進路との間隔が、予測進路の誤差が生じる範囲として導出される。そして、この予測進路の誤差が生じる範囲を示す指標がディスプレイ21に表示される。なお、この予測進路の誤差が生じる範囲を導出について、予測進路導出部13は路面摩擦係数および車両9の速度をパラメータとした演算処理を行う。また、予測進路の誤差が生じる範囲を導出するための対応関係を示すテーブルデータである範囲データ4bを不揮発性メモリ40に記録しておき、路面摩擦係数と車両9の速度に応じて予測進路の誤差が生じる範囲を予測進路導出部13が導出するようにしてもよい。
要因検知部14は、車両9の予測進路に誤差を生じさせる要因の程度を検知する。ここで、予測進路に誤差を生じさせる要因は上述のように車両9の走行環境である。走行環境の一つは、車両9が走行する路面の滑りやすさを示す路面摩擦係数である。この路面摩擦係数は、ブレーキECU84に検知される。また、走行環境の他の一つは、車両9の速度である。この速度は、車速センサ86に検知される。これら路面摩擦係数及び速度は、予測進路に誤差を生じさせる要因の程度として要因検知部14に検知される。
また、画像処理装置100の本体部10は、不揮発性メモリ40、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。
不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、車種別データ4aが記憶されている。車種別データ4aは、画像合成部32が合成画像を生成する際に必要となる車両の種別に応じたデータなどである。
また、不揮発性メモリ40には範囲データ4bが記録されている。範囲データ4bは、予測進路導出部13が予測進路の誤差が生じる範囲を導出する際に読出されるデータである。つまり、予測進路の誤差が生じる範囲を導出するための対応関係を示すテーブルデータが範囲データ4bとして不揮発性メモリに記録されている。
また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、ジャイロセンサ82、操舵角センサ83、ブレーキECU84、サスペンションECU85、および、車速センサ86などから、各種情報を示す信号が制御部1に入力される。
シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。なお、車速センサ86からは、その時点の車両9の走行速度(km/h)が入力される。
ジャイロセンサ82からは、車両9の傾き変化の速度(角速度)の信号が入力される。制御部1はジャイロセンサ82からの入力信号により車両9の傾き変化を導出する。
操舵角センサ83は、ユーザが操作したステアリングホイールの操作方向を制御部1に入力する。詳細には、操舵角センサ83は、ユーザが操作したステアリングホイールの回転方向、回転角度、及び、回転速度を信号入力部41を介して制御部1に入力する。なお、操舵角センサ83の信号は車両本体を制御する制御部へも入力される。そして、操舵角センサ83の入力信号と車速センサ86から車両本体を制御する制御部へ入力された信号に基づいて、車両9を操舵する前輪の操舵角と操舵速度が算出され、この算出された値に基づいて車両9の制御が行われる。
ブレーキECU84は、車両9の車輪の円周の値に車輪の回転数を乗算して導出される制動距離と車両9の速度に対応する車輪速度とに基づいて、車両9の走行する路面の摩擦係数を導出する。
サスペンションECU85は、車両9の走行する路面の凹凸の程度を検知する。この路面の凹凸の程度の情報は予測進路に誤差を生じさせる要因の程度の一つとして要因検知部14が検知する。
車速センサ86は、車両9が移動した際に車輪が回転する速度を車速信号として制御部1に出力する。
<1−2.撮影部>
次に、画像処理装置100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54を備えている。これらの車載カメラ51、52、53、54はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。
図2は、車載カメラ51、52、53、54が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を上側とする。
フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に略沿って向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、左サイドカメラ53は、左のドアミラー93にそれぞれ設けられており、その光軸53aは車両9の左方向(平面視で+X軸方向)に沿って外部に向けられている。さらに、右サイドカメラ54は、右のドアミラー94にそれぞれ設けられており、その光軸54aは車両9の右方向(平面視で−X軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
これらの車載カメラ51、52、53、54のレンズとしては魚眼レンズなどが採用されており、車載カメラ51、52、53、54は180度以上の画角αを有している。このため、4つの車載カメラ51、52、53、54を利用することで、車両9の全周囲の撮影が可能となっている。
<1−3.画像変換処理>
次に、画像生成部3の画像合成部32が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ40に予め記憶された車種別データ4aが利用される。図3は、合成画像を生成する手法を説明するための図である。
撮影部5のフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。
次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。
撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ40に記憶された車種別データ4aに含まれている。
また、車種別データ4aに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両9の三次元形状を示すポリゴンモデルである車両像を仮想的に備えている。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。
さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。
そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。
例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VP1を設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP1が生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VP2を設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP2が生成される。
なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。
<1−4表示画像>
以下では、予測進路導出部13により導出された予測進路が車外画像に重畳して表示される例を示す。図4は、車両像90を俯瞰した合成画像CQ1,CQ2がディスプレイ21に表示された例を示す図である。合成画像CQ1では、車両像90が合成画像中の略中央に位置しており、他車両の像である車両像19と車両像29との間にスペースSA41の領域が存在している。なお、車両像90は、画像表示システム120を備える車両9の像である。また、以下では、ユーザが車両9を操作してスペースSA41に対応する領域に移動させるまでの状態をディスプレイ21に表示される各合成画像を用いて説明する。
図4に示す合成画像CQ2は、車両9が合成画像CQ1の車両像90に対応する位置から前進した(−Y方向に移動した)状態を示している。また、車両9のユーザがシフトレバーの位置を”R(後退)”としたことによりシフトセンサ81から制御部1にシフトポジションの信号が入力される。そして、操舵角取得部12が、操舵角センサ83からの信号によりステアリングホイールの操舵角を取得し、車両像90の後方に車両9の予測進路である指標MA3を合成画像CQ2に重畳して表示する。なお、ステアリングホイールの操舵角が略中立位置にあるため、指標MA3が示す予測進路は車両9が後方に直進する方向(+Y方向)に延びる状態となる。
図5は、車両像90を俯瞰した合成画像CQ3,CQ4がディスプレイ21に表示された例を示す図である。合成画像CQ3では、図4の合成画像CQ2に示す車両像90の位置に対応する位置から車両9が後退した状態を示している。このような車両9の後退に伴い、ブレーキECU84が車両9の走行する路面の路面摩擦係数を導出する。また、車速センサ86が車両9の速度を検知する。このようにして検出された路面摩擦係数と車両9の速度とが信号入力部41を介して制御部1に入力される。
図5に示す合成画像CQ4では、車両9のユーザがステアリングホイールを中立状態から左方向(−X方向)に操作したことに伴い、車両9が左方向(−X方向)に向けて曲線的に後退する車両9の予測進路を示す指標MA4aを重畳して表示している。指標MA4aについて、図6および図7を用いて詳細に説明する。
図6は、車両9の予測進路を示す指標MA4aを示す図である。なお、以下の説明において車両像90の方向及び向きについては図2を用いて説明した車両9と方向および向きと同様である。以下の説明の中では図6に示す3次元のXYZ直交座標を用いる。なお、XYZ軸は車両像90に対して相対的に固定されている。
ユーザが操作する車両9のステアリングホイールの操舵角に基づいて予測進路導出部13が予測進路を導出し、その予測進路を示す指標MA4aがディスプレイ21に表示される。指標MA4aが示す予測進路は、車両像90の左側(−X方向)の後輪の予測進路ML31a、および、車両像90の右側(+X方向)の後輪の予測進路ML32aを含む。なお、指標M4aが示す予測進路は、ユーザのステアリングホイールを左方向に操作したことに基づいて、左方向(−X方向)に曲がるように変化している。
また、左右方向(±X方向)に延び、両端の各々が2つの予測進路ML31a,ML32aと接する2つの距離線D3a,D4が指標MA4aに含まれる。なお、これら距離線D3a,D4の長さは車両像90の車幅W1と略同じ長さである。図中に示す、点p5aは距離線D3aの左端(−X方向)と予測進路ML31との交点であり、点p6aは距離線D3aの右端(+X方向)と予測進路ML32との交点である。さらに、点p7aは距離線D4の左端(−X方向)と予測進路ML31との交点であり、点p8aは距離線D4aの右端(+X方向)と予測進路ML32との交点である。
なお、車両像90の後方バンパーBPの位置を基準とした場合、距離線D3aまでの車両9からの実際の距離は例えば約1.5mであり、距離線D4aまでの車両9からの実際の距離は例えば約3.0mである。
図7は、車両9の予測進路の誤差が生じる範囲を示す指標MA4を示す図である。指標MA4が示す予測進路は、車両9が後退の際の車両像90の左側(−X方向)の後輪の予測進路の範囲を示す進路範囲ML31、および、車両像90の右側(+X方向)の後輪の予測進路の範囲を示す進路範囲ML32を含む。
予測進路の誤差が生じる範囲は、誤差を考慮しない理想的な予測進路(以下、「理想予測進路」という。)と、最大の誤差を考慮した予測進路(以下、「最大誤差進路」という。)との間隔に相当する。理想予測進路は、ステアリングホイールの操舵角のみに基づいて導出される。一方、最大誤差進路は、ステアリングホイールの操舵角と、予測進路に誤差を生じさせる要因の程度とに基づいて導出される。詳細には、最初に図6に示す理想予測進路ML31a,ML32aが予測進路導出部13に導出される。そして、路面摩擦係数と車両9の速度とが要因検知部14に検知され、これら路面摩擦係数と車両9の速度とに基づいて予測進路導出部13が最大誤差進路ML31b,ML32bを導出する。このようにして導出された理想予測進路ML31aと、最大誤差進路ML31bとの間隔が、左側の後輪の予測進路の誤差が生じる範囲に相当する。また、理想予測進路ML32aと、最大誤差進路ML32bとの間隔が、左側の後輪の予測進路の誤差が生じる範囲に相当する。
予測進路の誤差が生じる範囲を、予測進路と距離線との交点の位置関係で検討する。車両9からの距離が約1.5mの位置を示す距離線については、理想予測進路ML31a,ML32aとの交点の位置はそれぞれ、点p5a,点p6aである。一方、この距離線の、最大誤差進路ML31b,ML32bとの交点の位置はそれぞれ、点p5b,p6bとなる。
これら点p5aおよび点p5bの間隔(W2a)と、点p6aおよび点p6bとの間隔(W2a)が、車両9から約1.5mの距離において予測進路の誤差が生じる範囲を示す。つまり、予測進路に誤差を生じる要因により車両9の予測進路には、理想予測進路ML31a,ML32aから、右斜め後方の最大誤差進路ML31b,ML32bまでの範囲の誤差が生じる可能性があることとなる。なお、予測進路導出部13により予測進路の誤差が生じる範囲が導出された場合、車両9からの距離が約1.5mの位置を示す距離線は、最大誤差進路ML31b,ML32bとの交点p5b,p6bを両端に有する距離線D3bによって示される。
また、車両9からの距離が約3.0mの位置を示す距離線については、理想予測進路ML31a,ML32aとの交点の位置はそれぞれ、点p7a,点p8aである。一方、最大誤差進路ML31b,ML32bとの交点の位置はそれぞれ、点p7b,点p8bとなる。
これら点p7aと点p7bとの間隔(W2b)、及び、点p8aと点p8bとの間隔(W2b)が、車両9から約3.0mの距離において予測進路の誤差が生じる範囲を示す。なお、予測進路導出部13により予測進路の範囲が導出された場合、車両9からの距離が約3.0mの位置を示す距離線は、最大誤差進路ML31b,ML32bとの交点p7b,p8bを両端に有する距離線D4によって示される。
車両9から約1.5mの距離での予測進路の誤差が生じる範囲である間隔W2aと、車両9から約3.0mの距離での予測進路の誤差が生じる範囲である間隔W2bとを比較すると、間隔2bが間隔2aよりも大きい値となる。このように予測進路の誤差が生じる範囲は、車両9からの距離が離れるほど大きい値となる。このような予測進路の誤差が生じる範囲を示す指標M4を車外画像に重畳してディスプレイ21に表示することで、車両9の進行に伴って車両9の通過する可能性のある位置をユーザが認識できる。
なお、予測進路の誤差が生じる範囲は、車両の走行速度に応じて変化する。例えば、図7に示す進路範囲ML31,ML32の大きさは、車両9の速度に応じて変化する。詳細には、点p5aと点p5bとの間隔(W2a)、および、点p6aと点p6bとの間隔(W2a)が車両9の速度の変化に応じて変化する。また、点p7aと点p7bとの間隔(W2b)、および、点p8aと点p8bとの間隔(W2b)が車両9の速度の変化に応じて変化する。
次に、車両9をスペースSA41に対応する領域に移動させる状態を示す合成画像の表示に戻り説明を行う。図8は、ディスプレイ21に表示される合成画像CQ5,CQ6を示す図である。図5に示す合成画像CQ4のように予測進路の誤差が生じる範囲を示す指標MA4を表示した後、車両9の後退に伴いユーザがステアリングホイールの位置を中立位置に戻したとする。この場合、操舵角センサ83の信号を操舵角取得部12が取得し、図8に示すように車両9が後方に直進する予測進路を示す指標MA3が合成画像CQ5に重畳して表示される。
そして、合成画像CQ6では、合成画像CQ5と比べて車両9が他の車両像19および29との間のスペースSA41の近くまで直進して後退した状態が示されている。
図9は、ディスプレイ21に表示される合成画像CQ7,CQ8を示す図である。合成画像CQ7には、図5の合成画像CQ4と同様に予測進路の誤差が生じる範囲を示す指標MA4bが重畳されている。ここで、図9の合成画像CQ7と図5の合成画像CQ4とが異なる主な点は、ユーザの操作するステアリングホイールの方向である。図9の合成画像CQ7では、車両9のユーザがステアリングホイールを中立状態から右方向(+X方向)に操作したことに伴い、右方向に向けて曲線的に後退する予測進路を示す指標MA4bが重畳されている。なお、指標MA4bが示す予測進路の誤差が生じる範囲は、図5の合成画像CQ4と同様に、路面摩擦係数および車両9の速度に基づいて予測進路導出部13によって導出される。
図9に示す合成画像CQ8では、車両9がスペース41に対応する領域内に位置することに伴い、車両像90がスペース41の範囲内に含まれている。このように、ユーザは車両9を目的の位置にスムーズに移動させることができる。
なお、上記のように俯瞰画像中に示された予測進路がディスプレイ21に表示される画像をユーザの操作部22による操作により切替えて、後方の一のカメラで撮影した車外画像に重畳して表示する例を次に示す。
図10は、バックカメラ52により撮影された画像を画像生成部3で処理を行い、ディスプレイ21に表示した図である。図10には、車両9の左側の後輪の予測進路の誤差が生じる範囲を示す進路範囲ML31と、車両9の右側の後輪の予測進路の誤差が生じる範囲を示す進路範囲ML32と、2つの距離線D3b,D4とを示す指標MA4が表示されている。このような画像をユーザが視認することで、車両9の進行に伴って車両9の通過する可能性のある位置をユーザが認識できる。
<1−5.処理フローチャート>
図11は、第1の実施の形態の画像処理装置100の処理フローチャートである。画像処理装置100は、車両9の撮影部5のカメラ画像を取得して(ステップS101)、操舵角センサ83からの操舵角情報を信号入力部41を介して受信して(ステップS102)、ステップS103の処理に進む。
ステップS103では、操舵角センサ83からの受信した情報に基づいて車両9の予測進路を予測進路導出部13が導出して(ステップS103)、ステップS104の処理へ進む。
ステップS104では、ブレーキECU84が車両9の進行に伴い路面情報(例えば、路面摩擦係数)を導出し(ステップS104)、ステップS105の処理へ進む。
ステップS105では、車速センサ86からの車両9の速度情報の信号を画像処理装置100が受信し、ステップS106の処理へ進む。
ステップS106では、ブレーキECU84により導出された路面情報と車速センサ86により導出された車両9の速度情報を予測進路に誤差を生じさせる要因の程度として要因検知部14が検知して、ステップS107の処理に進む。
ステップS107では、要因検知部14が検知した予測進路に誤差を生じさせる要因の程度に基づいて、予測進路導出部13が予測進路の誤差が生じる範囲を導出して(ステップS107)、ステップS108の処理に進む。
ステップS108では、この予測進路の誤差が生じる範囲を示す指標が車外画像に重畳され、誤差が生じる範囲を示す指標が重畳された車外画像がナビ通信部42を介してナビゲーション装置20に出力される(ステップS108)。これにより、誤差が生じる範囲を示す指標がディスプレイ21に表示され、車両9の進行に伴って車両9の通過する可能性のある位置をユーザが認識できることとなる。
<第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態における画像表示システムの構成・処理は、第1の実施の形態とほぼ同様であるが一部が相違しているため、以下、第1の実施の形態との相違点を中心に説明する。第2の実施の形態では、要因検知部14は予測進路に誤差を生じさせる要因の程度として、車両9の設計上許容される寸法差などの設計公差の程度を検知する。
設計公差の程度は、車両9の製品出荷前に不揮発性メモリ40の車種別データ4aに予め記録されており、車両9の予測進路に誤差を生じさせる要因を検知する際に不揮発性メモリ40から要因検知部14が読み出す。そして、設計公差の程度に基づいて予測進路導出部13が、予測進路の誤差が生じる範囲を導出する。
<2−1.表示画像>
図12は、予測進路の誤差が生じる範囲を示す指標MA14を示す図である。図12の指標MA14は進路範囲ML311,ML312を含む。これらの進路範囲ML311,ML312は、予測進路に誤差を生じさせる要因の程度として、路面摩擦係数と車両9の速度とともに設計公差を考慮して、予測進路導出部13が予測進路の誤差が生じる範囲を導出したものである。
そのため、図12に示す点p5aと点p15bとの間隔(W12a)、および、点p6aと点p16bとの間隔(W12a)は、図7に示した間隔W2aよりも大きい。図中に示す点p15bは、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両像9の左側の後輪の最大誤差進路ML301bと、車両9からの距離が約1.5mの位置を示す距離線D3aとの交点である。また、点p16bは、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両9の右側の後輪の最大誤差進路ML302bと、車両9からの距離が約1.5mの位置を示す距離線D3aとの交点である。
また、図12に示す点p7aと点p17bとの間隔(W12b)、および、点p8aと点p18bとの間隔(W12b)は、図7に示した間隔W12aよりも大きい。図中に示す点p17b、は、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両9の左側の後輪の最大誤差進路ML301bと、車両9からの距離が約3.0mの位置を示す距離線D4との交点である。また、点p18bは、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両9の右側の後輪の最大誤差進路ML302bと、車両9からの距離が約3.0mの位置を示す距離線D4との交点である。このように車両の内部の要因に基づいて、導出された車両9の進行に伴って車両9の通過する可能性のある位置をユーザに認識させることができる。
<2−2.処理フローチャート>
図13は、第2の実施の形態の画像処理装置100の処理フローチャートである。図13に示す第2の実施の形態の処理フローチャートと第1の実施の形態の図11に示す処理フローチャートとの違いは、ステップS201の設計公差の情報を読み出す処理が新たに追加された点である。そして、図11のステップS107,の処理が、図13に示すステップS107aの処理に変更されている。
ステップS107aの処理においては、予測進路導出部13が予測進路の誤差が生じる範囲を導出する際に、第1の実施の形態で説明した路面摩擦係数と車両9の速度に加えて、設計交差を新たに誤差の要因とする。その他の処理については図11に示した処理フローチャートと同様の処理である。
図13に示すステップS102では、操舵角センサ83からの操舵角情報を信号入力部41を介して受信して(ステップS102)、ステップS201の処理に進む。
ステップS201では、要因検知部14が、不揮発性メモリ40の車種別データ4aに記録されている車両9の設計公差の情報を読み出して(ステップS201)、ステップS103の処理へ進む。そして、以降の処理のステップS107aの処理では、予測進路導出部13が予測進路を導出する場合に、設計公差の情報を予測進路に誤差を生じさせる要因の程度として用いて予測進路の誤差が生じる範囲を導出する。
<第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態における画像表示システムの構成・処理は、第1の実施の形態とほぼ同様であるが一部が相違しているため、以下、第1の実施の形態との相違点を中心に説明する。予測進路導出部13が予測進路の誤差が生じる範囲を導出した後に、車両9の速度が変化した場合においては、予測進路の誤差が生じる範囲が変化する。第3の実施の形態では、このように予測進路の誤差が生じる範囲が変化した場合に、変化前と変化後との双方の予測進路の誤差が生じる範囲を示す指標を表示する。
<3−1.表示画像>
図14は、予測進路の誤差が生じる範囲を示す指標MA24を示す図である。図14には車両9の速度の変化に伴う2種類の予測進路の誤差が生じる範囲が示されている。2種類の一方は、図7と同様の進路範囲ML31,ML32である。また、2種類の他方は、これらの進路範囲ML31,ML32が導出された後に、車両9の速度が変化したことに伴って変化した進路範囲ML301,ML302(図14にハッチングで表示されている範囲)である。これら2種類の予測進路の誤差が生じる範囲がディスプレイ21に表示される際には、先に導出された進路範囲ML31上に、後に導出された進路範囲ML301が重畳される。また、先に導出された進路範囲ML32に、後に導出された進路範囲ML302が重畳される。
このように車両9の速度に応じて予測進路の誤差が生じる範囲が変化した場合に、変化前の予測進路の誤差が生じる範囲(進路範囲ML31,ML32)と変化後の予測進路の誤差が生じる範囲(進路範囲ML301,ML302)との双方を示す指標MA24を表示することで、車両9の速度に応じて変化した予測進路の誤差が生じる範囲をユーザが認識できる。
なお、後に導出された進路範囲は、先に導出された進路範囲に比べて範囲内の色を濃くしてもよい。また、車両9の速度の変化後に導出された最大誤差進路ML31c,ML32cの線の太さを、車両9の速度の変化前に導出された最大誤差進路ML31b,ML32bと比べて太く表示するようにしてもよい。これにより、車両9の速度に対応した予測進路をユーザが認識できる。
なお、図14に示す場合では、車両9の速度の変化後に導出された進路範囲ML301,ML302は、車両9の速度の変化前に導出された進路範囲ML31,ML32よりもそれぞれ狭い範囲となっている。これは、路面摩擦係数が一定であると仮定すると、車両9の速度が低下したことを示している。なお、逆に、車両9の速度が速くなった場合は、速度の変化後に導出された進路範囲ML301,ML302は、速度の変化前に導出された進路範囲ML31,ML32よりもそれぞれ広くなる。
<変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。なお、上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、予測進路に誤差が生じる要因の程度として、路面の滑りやすさ、および、車両9の速度の程度などを示したが、これ以外にもジャイロセンサ82により検知される車両9の傾きの程度に基づいて、予測進路導出部13が予測進路の誤差が生じる範囲を導出するようにしてもよい。例えば、車両9が傾斜を有する坂道を走行する場合には、車両9の傾きの程度を考慮することで予測進路の誤差が生じる範囲を精度よく導出することができる。
また、上記実施の形態では、車両9が後退してユーザが目標とするスペースに車両9を移動させる場合に、車両9の後方に予測進路を示す指標を車外画像に重畳して表示する例について述べたが、これ以外にも、車両9が前進して目標とするスペースに車両9を移動させる場合に、車両9の前方に予測進路を示す指標を車外画像に重畳して表示するようにしてもよい。
また、上記実施の形態においては車両9が曲線的に後退する場合に、設計交差を予測進路に誤差を生じさせる要因の程度として用いることを説明した。これに対して、車両9のステアリングホイールが中立位置に操作されている場合(車両9が直線的に後退する場合)においても、設計公差を要因として用いることで予測進路に誤差を生じさせる範囲を精度良く導出することができる。この場合は、まず、画像処理装置100が撮影部5からのカメラ画像を受信する。次に、操舵角取得部12がユーザが操作したステアリングホイールの操舵角が、中立位置であることを取得する。このため、操舵角は考慮されず、車両9の速度と設計公差とに基づいて予測進路導出部13が予測進路に誤差を生じさせる範囲を導出する。そして、この範囲を示す指標が車外画像に重畳してディスプレイ21に表示される。
また、上記実施の形態では、要因検知部17が検知する要因については、ブレーキECU84が検知する路面摩擦係数と、車速センサ86が検知する車両9の速度とした。そして、路面摩擦係数および車両9の速度に基づいて、誤差を生じる予測進路の範囲を予測進路導出部13が導出することについて説明した。また、要因検知部17がサスペンションECU85により検知された車両9の走行する路面の凹凸の程度を検知し、路面の凹凸の程度に基づいて予測進路導出部13が車両9の予測進路の範囲を導出するようにしてもよい。
また、上記実施の形態では、車両9の速度の検知は車速センサ86の信号に基づいて検知されるとしたが、ブレーキECU84からの車速信号に基づいて検知するようにしてもよい。
また、上記実施の形態では、画像処理装置100とナビゲーション装置20とは別の装置であるとして説明したが、画像処理装置100とナビゲーション装置20とが同一の筐体内に配置されて一体型の装置として構成されてもよい。
また、上記実施の形態では、画像処理装置100で生成された画像を表示する表示装置はナビゲーション装置20であるとして説明したが、ナビゲーション機能等の特殊な機能を有していない一般的な表示装置であってもよい。
また、上記実施の形態において、画像処理装置100の制御部1によって実現されると説明した機能の一部は、ナビゲーション装置20の制御部23によって実現されてもよい。
また、上記実施の形態において、信号入力部41を介して画像処理装置100の制御部1に入力されると説明した信号の一部または全部は、ナビゲーション装置20に入力されるようになっていてもよい。この場合は、ナビ通信部42を経由して、画像処理装置100の制御部1に当該信号を入力すればよい。
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。
1・・・・・制御部
5・・・・・撮影部
10・・・・本体部
11・・・・画像制御部
12・・・・操舵角取得部
13・・・・予測進路導出部
14・・・・要因検知部

Claims (6)

  1. 車両に搭載される画像表示システムであって、
    前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、
    前記車両の操舵角を取得する取得手段と、
    前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、
    前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、
    前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する第2導出手段と、
    前記予測進路の前記誤差が生じる範囲を示す指標を前記車外画像に重畳して表示する表示手段と、
    を備えることを特徴とする画像表示システム。
  2. 請求項1に記載の画像表示システムにおいて、
    前記検知手段は、前記車両が走行する路面の滑りやすさと、前記車両の速度とを前記要因の程度として検知すること、
    を特徴とする画像表示システム。
  3. 請求項1または2に記載の画像表示システムにおいて、
    前記検知手段は、前記車両の設計公差を前記要因の程度として検知すること、
    を特徴とする画像表示システム。
  4. 請求項2に記載の画像表示システムにおいて、
    前記表示手段は、前記車両の速度に応じて前記予測進路の前記誤差が生じる範囲が変化した場合に、変化前と変化後との双方の前記予測進路の前記誤差が生じる範囲を示す指標を表示すること、
    を特徴とする画像表示システム。
  5. 車両に搭載される画像処理装置であって、
    前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、
    前記車両の操舵角を取得する取得手段と、
    前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、
    前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、
    前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する第2導出手段と、
    前記予測進路の前記誤差が生じる範囲を示す指標を表示装置に送信する送信手段と、
    を備えることを特徴とする画像処理装置。
  6. 車両に搭載される画像表示方法であって、
    (a)前記車両の周辺を撮影する撮像部が取得した車外画像を受信する工程と、
    (b)前記車両の操舵角を取得する工程と、
    (c)前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する工程と、
    (d)前記予測進路に誤差を生じさせる要因の程度を検知する工程と、
    (e)前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する工程と、
    (f)前記予測進路の前記誤差が生じる範囲を示す指標を前記車外画像に重畳して表示する工程と、
    を備えることを特徴とする画像表示方法。
JP2011018192A 2011-01-31 2011-01-31 画像表示システム、画像表示装置、及び、画像表示方法 Active JP5651491B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011018192A JP5651491B2 (ja) 2011-01-31 2011-01-31 画像表示システム、画像表示装置、及び、画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011018192A JP5651491B2 (ja) 2011-01-31 2011-01-31 画像表示システム、画像表示装置、及び、画像表示方法

Publications (2)

Publication Number Publication Date
JP2012158225A true JP2012158225A (ja) 2012-08-23
JP5651491B2 JP5651491B2 (ja) 2015-01-14

Family

ID=46839125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011018192A Active JP5651491B2 (ja) 2011-01-31 2011-01-31 画像表示システム、画像表示装置、及び、画像表示方法

Country Status (1)

Country Link
JP (1) JP5651491B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018133712A (ja) * 2017-02-16 2018-08-23 アイシン精機株式会社 周辺監視装置
JP2018160812A (ja) * 2017-03-23 2018-10-11 株式会社Jvcケンウッド 運転支援装置、運転支援方法およびプログラム
JP2019186754A (ja) * 2018-04-10 2019-10-24 アイシン精機株式会社 周辺監視装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002019492A (ja) * 2000-07-03 2002-01-23 Toyota Motor Corp 移動体の後方視界表示装置
JP2003085685A (ja) * 2001-09-10 2003-03-20 I Transport Lab Co Ltd 複数のビデオカメラを用いた車両走行軌跡観測装置及び方法
JP2004351960A (ja) * 2003-05-27 2004-12-16 Honda Motor Co Ltd 車両の自動操舵装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002019492A (ja) * 2000-07-03 2002-01-23 Toyota Motor Corp 移動体の後方視界表示装置
JP2003085685A (ja) * 2001-09-10 2003-03-20 I Transport Lab Co Ltd 複数のビデオカメラを用いた車両走行軌跡観測装置及び方法
JP2004351960A (ja) * 2003-05-27 2004-12-16 Honda Motor Co Ltd 車両の自動操舵装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018133712A (ja) * 2017-02-16 2018-08-23 アイシン精機株式会社 周辺監視装置
WO2018150642A1 (ja) * 2017-02-16 2018-08-23 アイシン精機株式会社 周辺監視装置
JP2018160812A (ja) * 2017-03-23 2018-10-11 株式会社Jvcケンウッド 運転支援装置、運転支援方法およびプログラム
JP2019186754A (ja) * 2018-04-10 2019-10-24 アイシン精機株式会社 周辺監視装置
JP7159598B2 (ja) 2018-04-10 2022-10-25 株式会社アイシン 周辺監視装置

Also Published As

Publication number Publication date
JP5651491B2 (ja) 2015-01-14

Similar Documents

Publication Publication Date Title
JP5337878B2 (ja) 運転支援装置
JP6094266B2 (ja) 駐車支援装置、駐車支援方法およびプログラム
US9895974B2 (en) Vehicle control apparatus
JP5681569B2 (ja) 情報処理システム、サーバ装置、および、車載装置
CN109643439B (zh) 周边监视装置
JP5190712B2 (ja) 障害物検出装置
US11383642B2 (en) Display control apparatus
CN107465890B (zh) 车辆的图像处理装置
EP1803602A1 (en) Driving assist method and driving assist apparatus
JP2010184607A (ja) 車両周辺表示装置
WO2020116352A1 (ja) 路面検出装置および路面検出プログラム
CN102149573A (zh) 显示装置
JP2012076551A (ja) 駐車支援装置、駐車支援方法、及び、駐車支援システム
WO2018150642A1 (ja) 周辺監視装置
JP2012073836A (ja) 画像表示システム、画像処理装置、および、画像表示方法
JP2007168560A (ja) 駐車支援装置
JP2019054420A (ja) 画像処理装置
JP5651491B2 (ja) 画像表示システム、画像表示装置、及び、画像表示方法
JP2022023870A (ja) 表示制御装置
US20200140011A1 (en) Parking assistance apparatus
JP7009785B2 (ja) 周辺監視装置
JP6610140B2 (ja) 周辺監視装置
JP2021066286A (ja) 駐車支援装置、駐車支援方法、およびプログラム
JP2020043418A (ja) 周辺監視装置
WO2023090186A1 (ja) 駐車支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R150 Certificate of patent or registration of utility model

Ref document number: 5651491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250