JP2019029757A - 表示制御装置、表示システム、表示制御方法、及び、プログラム - Google Patents

表示制御装置、表示システム、表示制御方法、及び、プログラム Download PDF

Info

Publication number
JP2019029757A
JP2019029757A JP2017145429A JP2017145429A JP2019029757A JP 2019029757 A JP2019029757 A JP 2019029757A JP 2017145429 A JP2017145429 A JP 2017145429A JP 2017145429 A JP2017145429 A JP 2017145429A JP 2019029757 A JP2019029757 A JP 2019029757A
Authority
JP
Japan
Prior art keywords
video data
vehicle
traveling direction
line
parking lot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017145429A
Other languages
English (en)
Inventor
一郎 石田
Ichiro Ishida
一郎 石田
恒夫 里見
Tsuneo Satomi
恒夫 里見
清水 義之
Yoshiyuki Shimizu
義之 清水
林 直人
Naoto Hayashi
直人 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017145429A priority Critical patent/JP2019029757A/ja
Publication of JP2019029757A publication Critical patent/JP2019029757A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】駐車区画に対する車両の向きが適切であるか否か判断することを容易にする技術を提供する。【解決手段】表示制御装置9は、車両2の後方を撮影した映像に対応する後方映像データ、車両2の左側方を撮影した映像に対応する左側方映像データ、および、車両2の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得部21と、車両2の進行方向において車両2が進行することが予想される予想軌跡線としての舵角非連動線30を生成する予想軌跡線生成部24と、後方映像データに舵角非連動線30を重畳させると共に、後方映像データに左側方映像データ及び右側方映像データを合成した合成映像データを生成する、合成映像データ生成部28と、合成映像データを表示装置8に出力する表示制御部23と、を備える。【選択図】図8

Description

本発明は、表示制御装置、表示システム、表示制御方法、及び、プログラムに関する。
特許文献1は、車両の後方視界画面を撮像する撮像手段と、後方視界画面を表示する表示手段とを用い、ステアリング舵角に応じて変化する予想軌跡線を後方視界画面に重ね合わせて表示させることで、運転者の駐車操作を支援する駐車支援方法を開示している。
特開2006−298208号公報
しかしながら、上記特許文献1の方法では、車両が駐車区画内に深く進入すると、駐車区画を車幅方向で区画する駐車区画線が撮像手段の画角内に収まらなくなる。従って、車両が駐車区画内に深く進入すると、運転者が後方視界画像を通じて駐車区画線を認識し難くなるので、駐車区画に対する車両の向きが適切であるか否か判断するのが困難となる。
本発明の目的は、駐車区画に対する車両の向きが適切であるか否か判断することを容易にする技術を提供することにある。
一実施形態に係る表示制御装置は、車両の進行方向を撮影した映像に対応する進行方向映像データ、前記車両の左側方を撮影した映像に対応する左側方映像データ、および、前記車両の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得部と、前記車両の進行方向において前記車両が進行することが予想される予想軌跡線を生成する予想軌跡線生成部と、前記進行方向映像データに前記予想軌跡線を重畳させると共に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成した合成映像データを生成する、合成映像データ生成部と、前記合成映像データを表示装置に出力する表示制御部と、を備える。
他の一実施形態に係る表示制御方法は、車両の進行方向を撮影した映像に対応する進行方向映像データ、前記車両の左側方を撮影した映像に対応する左側方映像データ、および、前記車両の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得ステップと、前記車両の進行方向において前記車両が進行することが予想される予想軌跡線を生成する予想軌跡線生成ステップと、前記進行方向映像データに前記予想軌跡線を重畳させると共に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成した合成映像データを生成する、合成映像データ生成ステップと、前記合成映像データを表示装置に出力する表示制御ステップと、を含む。
更に他の一実施形態に係るプログラムは、車両の進行方向を撮影した映像に対応する進行方向映像データ、前記車両の左側方を撮影した映像に対応する左側方映像データ、および、前記車両の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得ステップと、前記車両の進行方向において前記車両が進行することが予想される予想軌跡線を生成する予想軌跡線生成ステップと、前記進行方向映像データに前記予想軌跡線を重畳させると共に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成した合成映像データを生成する、合成映像データ生成ステップと、前記合成映像データを表示装置に出力する表示制御ステップと、をコンピュータに実行させる。
本発明によれば、駐車区画に対する車両の向きが適切であるか否か判断することが容易となる。
表示システムの機能ブロック図である。(第1実施形態) 所望の駐車区画に向けて車両を後退させている様子を示す俯瞰図である。(第1実施形態) 後方映像データを例示する図である。(第1実施形態) 後方映像データに重畳された舵角非連動線を例示する図である。(第1実施形態) 後方映像データに重畳された舵角連動線を例示する図である。(第1実施形態) 視点変換された左側方映像データを例示する図である。(第1実施形態) 舵角非連動線を重畳させた後方映像データを例示する図である。(第1実施形態) 合成映像データを例示する図である。(第1実施形態) 表示制御装置の制御フローである。(第1実施形態) 表示システムの機能ブロック図である。(第2実施形態) 後方映像データを例示する図である。(第2実施形態) 表示制御装置の制御フローである。(第2実施形態) 視点変換された左側方映像データを例示する図である。(第3実施形態) 表示制御装置の制御フローである。(第3実施形態) 視点変換された左側方映像データを例示する図である。(第4実施形態)
(第1実施形態)
以下、図1から図9を参照して、第1実施形態を説明する。図1は、表示システムの機能ブロック図を示している。図2は、所望の駐車区画に向けて車両を後退させている様子を示す俯瞰図を示している。本実施形態では、所望の駐車区画3に向けて車両2を移動させる際の車両2の進行方向を車両2の後退方向、即ち、車両2の後方とする。しかしながら、所望の駐車区画3に向けて車両2を移動させる際の車両2の進行方向を車両2の前進方向、即ち、車両2の前方としてもよい。
<構成>
図1に示す表示システム1は、運転者の駐車操作を補助するものである。具体的には、表示システム1は、図2に示すように、運転者が車両2を後退させることにより車両2を所望の駐車区画3に向けて移動させる際の駐車操作を補助する。
図1に示すように、表示システム1は、前方カメラ4と、後方カメラ5と、左側方カメラ6と、右側方カメラ7と、表示装置8と、表示制御装置9と、を備えている。
図2に示すように、前方カメラ4は、車両2の前端2aに配置され、車両2の前端2aから車両2の前方を撮像するカメラである。前方カメラ4は、撮像した映像に対応する前方映像データを表示制御装置9に出力する。図2には、前方カメラ4の画角4aと撮像範囲4bを破線で示している。
後方カメラ5は、車両2の後端2bに配置され、車両2の後端2bから車両2の後方を撮像するカメラである。後方カメラ5は、撮像した映像に対応する後方映像データを表示制御装置9に出力する。図2には、後方カメラ5の画角5aと撮像範囲5bを破線で示している。図3には、後方映像データを例示している。図3には、車両2が向かっている駐車区画3を車幅方向で区画する駐車区画線としての縦向き駐車区画線35と、車両2が向かっている駐車区画3を車両2の前後方向で区画する駐車区画線としての横向き駐車区画線36と、が示されている。
図2に戻り、左側方カメラ6は、車両2の左端2cに配置され、車両2の左端2cから車両2の左側方を撮像するカメラである。本実施形態において、左側方カメラ6は、車両2の左端2cに配置されている左サイドミラー10に配置されており、車両2の左サイドミラー10から車両2の左側方を撮像する。左側方カメラ6は、撮像した映像に対応する左側方映像データを表示制御装置9に出力する。図2には、左側方カメラ6の画角6a及び撮像範囲6bを破線で示している。
右側方カメラ7は、車両2の右端2dに配置され、車両2の右端2dから車両2の右側方を撮像するカメラである。本実施形態において、右側方カメラ7は、車両2の右端2dに配置されている右サイドミラー11に配置されており、車両2の右サイドミラー11から車両2の右側方を撮像する。右側方カメラ7は、撮像した映像に対応する右側方映像データを表示制御装置9に出力する。図2には、右側方カメラ7の画角7a及び撮像範囲7bを破線で示している。
前方カメラ4は、車両2の前方を撮影するカメラであり、車両2の前方水平面を含んだ範囲を撮影する。後方カメラ5は、車両2の後方を撮影するカメラであり、車両2の後方水平面を含んだ範囲を撮影する。前方カメラ4及び後方カメラ5は、車両2の進行方向を確認するのに用いられる。
左側方カメラ6は、車両2の左側方を撮影するカメラであり、車両2の左側方下部を含んだ範囲を撮影する。右側方カメラ7は、車両2の右側方を撮影するカメラであり、車両2の右側方下部を含んだ範囲を撮影する。左側方カメラ6及び右側方カメラ7は、全方位モニターすなわち俯瞰映像を構成するための映像を撮影するカメラである。
俯瞰映像を構成するための映像を撮影するカメラとして、左側方カメラ6及び右側方カメラ7に加えて、図示しない俯瞰映像用前方カメラおよび俯瞰映像用後方カメラをさらに備えていてもよい。また、前方カメラ4及び後方カメラ5の撮影範囲が車両2の前方下部および後方下部を含む場合は、前方カメラ4および後方カメラ5が撮影した映像を俯瞰映像を構成するための映像として用いてもよい。
図1に戻り、表示装置8は、例えば、液晶表示装置、有機EL(有機エレクトロルミネッセンス)表示装置、ヘッドアップディスプレイである。表示装置8は、運転者が駐車操作する際に目視可能な位置に配置される。表示装置8は、表示画面8aを有する。
表示制御装置9は、中央演算処理器としてのCPU(Central Processing Unit)と、読み書き自由のRAM(Random Access Memory)、読み出し専用のROM(Read Only Memory)を備えている。そして、CPUがROMに記憶されているプログラムを読み出して実行することで、プログラムは、CPUなどのハードウェアを、車両情報取得部20、映像データ取得部21、映像処理部22、表示制御部23、として機能させる。
車両情報取得部20は、CANなどを通じて、車両情報を取得する。CANなどとは、CAN(Controller Area Network)やMOST(Media Oriented Systems Transport)、イーサネット(登録商標)等の車内ネットワークを意味する。車両情報取得部20は、後退情報取得部20a、及び、舵角情報取得部20bを有する。後退情報取得部20aは、車両2のシフトレバーの操作情報を取得する。舵角情報取得部20bは、車両2のハンドルの舵角情報を取得する。車両情報は、操作情報及び舵角情報を含み得る。車両情報取得部20は、取得した車両情報を映像処理部22に出力する。
映像データ取得部21は、前方カメラ4から前方映像データを取得する。映像データ取得部21は、後方カメラ5から後方映像データを取得する。映像データ取得部21は、左側方カメラ6から左側方映像データを取得する。映像データ取得部21は、右側方カメラ7から右側方映像データを取得する。映像データ取得部21は、取得した前方映像データ及び後方映像データ、左側方映像データ、右側方映像データを映像処理部22に出力する。
映像処理部22は、映像データ取得部21が取得した前方映像データ及び後方映像データ、左側方映像データ、右側方映像データに対し各種処理を行う。映像処理部22は、各種処理の処理内容に応じて、予想軌跡線生成部24と、視点変換処理部27と、合成映像データ生成部28と、を有する。
予想軌跡線生成部24は、車両2の進行方向において車両2が進行することが予想される予想軌跡線を生成する。予想軌跡線は、図4及び図5に示すように、第一予想軌跡線としての舵角非連動線30と、第二予想軌跡線としての舵角連動線31と、を含み得る。
図4に示すように、舵角非連動線30は、車両2の前後方向に沿って直線的に延びる2本の縦線30aと、2本の縦線30aを連結する2本の横線30bと、から構成されている。2本の縦線30aの間の間隔は、車両2の車幅に一致している。2本の横線30bは、省略される場合がある。横線30bの本数は2本に限らない。また、各横線30bは、車両2を起点とした車両2の後方の所定距離を示していてもよい。
図5に示すように、舵角連動線31は、舵角情報に基づいて湾曲する2本の縦線31aと、2本の縦線31aを連結する2本の横線31bと、から構成されている。2本の縦線31aの間の間隔は、車両2の車幅に一致している。2本の横線31bは、省略される場合がある。横線31bの本数は2本に限らない。また、各横線31bは、車両2を起点とした車両2の後方の所定距離を示していてもよい。
図1に戻り、視点変換処理部27は、前方映像データ及び後方映像データ、左側方映像データ、右側方映像データに対して、車両2を真上から見下ろすように仮想的な視点の移動を行う視点変換処理を実行する。視点変換処理には、仮想的な視点の移動に加えて、必要な範囲の切出し処理および映像データの歪補正処理も含まれる。図6には、車両2が駐車区画3内に深く進入した段階における上記視点変換処理が行われた左側方映像データを例示している。ただし、上記視点変換処理が行われた左側方映像データの向きを理解できるよう、説明の便宜上、図6には、車両2を破線で併せて表示した。
図1に戻り、合成映像データ生成部28は、後方映像データに舵角非連動線30を重畳させると共に、後方映像データに左側方映像データ及び右側方映像データを合成した合成映像データを生成する。図7には、舵角非連動線30が重畳された後方映像データ40を示している。図7に示すように、車両2が駐車区画3内に深く進入すると、車両2を車幅方向で挟む2つの縦向き駐車区画線35の後方映像データ40上で確認できる長さが極めて短くなるので、運転者にとって、駐車区画3に対する車両2の向きが適切であるか否か判断し難くなっている。そこで、合成映像データ生成部28は、更に、図8に示すように、後方映像データ40に左側方映像データ41L及び右側方映像データ41Rを合成した合成映像データ42を生成する。このように、十分な長さの縦向き駐車区画線35を画角内に収めた左側方映像データ41L、及び、十分な長さの縦向き駐車区画線35を画角内に収めた右側方映像データ41Rを後方映像データ40に合成することで、車両2が駐車区画3に深く進入した段階でも、運転者が、駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
本実施形態において、左側方映像データ41Lは、後方映像データ40の中の右側領域40Rに合成されている。同様に、右側方映像データ41Rは、後方映像データ40の中の左側領域40Lに合成されている。このように左側方映像データ41Lと右側方映像データ41Rを左右逆に配置することで、運転者が車両2の後方に顔を向けているように表示される後方映像データ40と、左側方映像データ41L及び右側方映像データ41Rと、を違和感なく見比べることができる。
また、図8に示すように、後方映像データ40における車両2の進行方向2Pは紙面において下から上へ向かう方向である。同様に、左側方映像データ41L及び右側方映像データ41Rにおける車両2の進行方向2Qは紙面上において下から上へ向かう方向である。このように、合成映像データ生成部28は、後方映像データ40における車両2の進行方向2Pと、左側方映像データ41L及び右側方映像データ41Rにおける車両2の進行方向2Qと、が一致するように、後方映像データ40に左側方映像データ41L及び右側方映像データ41Rを合成する。このように合成映像データ42において進行方向2Pと進行方向2Qを一致させることで、一致していない場合と比較して、車両2が向かっている駐車区画3に対する車両2の向きを適切にするためにハンドルをどちらに切るべきかを運転者が容易且つ直感的に判断できるようになる。
また、合成映像データ生成部28は、図8に示すように、後方映像データ40に左側方映像データを合成するに際し、左側方映像データのすべてを後方映像データ40に合成するのではなく、図6において二点鎖線で示すように車両2に比較的近い部分43のみを後方映像データ40に合成するようにしている。このように左側方映像データにおける合成の対象を狭く限定することで、図8に示すように、合成映像データ42において縦向き駐車区画線35を拡大表示することができる。右側方映像データについても同様である。また、合成映像データ生成部28は、図8に示すように、後方映像データ40の右側または左側に左側方映像データおよび右側方映像データを重畳させるのではなく、図7に示す後方映像データ40の表示範囲を維持した状態で、後方映像データ40の右側または左側に左側方映像データおよび右側方映像データを接続して表示してもよい。
図1に戻り、表示制御部23は、合成映像データを表示装置8に出力する。
<作動>
次に、図9を参照して、表示制御装置9の制御フローを説明する。
図9に示すように、先ず、表示制御装置9は、シフトレバーがリバースポジションへと切り替わるまで処理を待機させる(S100:NO)。
シフトレバーがリバースポジションへと切り替わったら(S100:YES)、映像データ取得部21が、後方映像データ及び左側方映像データ、右側方映像データを取得する(S110)。
次に、視点変換処理部27が、左側方映像データ及び右側方映像データに対して視点変換処理を行う(S120)。
次に、予想軌跡線生成部24が、図4に示す舵角非連動線30を生成する(S130)。
次に、合成映像データ生成部28が、合成映像データを生成する(S160)。具体的には、合成映像データ生成部28は、先ず、図4及び図7に示すように、後方映像データに舵角非連動線30を重畳させる(S170)。次に、合成映像データ生成部28は、図8に示すように、舵角非連動線30を重畳させた後方映像データ40に、左側方映像データ41L及び右側方映像データ41Rを合成する(S180)。これにより、合成映像データ生成部28は、図8に示す合成映像データ42を生成する。
次に、表示制御部23が、映像処理部22が生成した合成映像データを表示装置8に出力する(S220)。これにより、合成映像データが表示装置8の表示画面8aに表示される。
そして、表示制御装置9は、シフトレバーがリバースポジション以外のポジションへ切り替わるまで(S230:YES)、S110からS220のステップを繰り返し、シフトレバーがリバースポジション以外のポジションへ切り替わったら(S230:NO)、処理を終了する。
以上に、第1実施形態を説明したが、上記第1実施形態は、以下の特徴を有する。
表示制御装置9は、車両2の後方を撮影した映像に対応する後方映像データ、車両2の左側方を撮影した映像に対応する左側方映像データ、および、車両2の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得部21と、車両2の進行方向において車両2が進行することが予想される予想軌跡線としての舵角非連動線30を生成する予想軌跡線生成部24と、後方映像データに舵角非連動線30を重畳させると共に、後方映像データに左側方映像データ及び右側方映像データを合成した合成映像データを生成する、合成映像データ生成部28と、合成映像データを表示装置8に出力する表示制御部23と、を備える。以上の構成によれば、車両2が駐車する駐車区画3に対する車両2の向きが適切であるか否か判断することを容易にすることができる。更に言えば、以上の構成によれば、車両2が駐車区画3に深く進入した段階でも、運転者が、車両2が駐車する駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
また、図8に示すように、合成映像データ生成部28は、後方映像データ40の中の右側領域40Rに左側方映像データ41Lを合成し、後方映像データ40の中の左側領域40Lに右側方映像データ41Rを合成する。以上の構成によれば、左側方映像データ41Lや右側方映像データ41Rが後方映像データ40の中の中央や上下領域に合成される場合と比較して、車両2が駐車する駐車区画3に対する車両2の向きが適切であるか否か、直感的に判断できるようになる。
また、図8に示すように、合成映像データ生成部28は、後方映像データ40における車両2の進行方向2Pと、左側方映像データ及び前記右側方映像データにおける車両2の進行方向2Qと、が一致するように、後方映像データ40に左側方映像データ41L及び右側方映像データ41Rを合成する。このように合成映像データ42において、進行方向2Pと進行方向2Qを一致させることで、一致していない場合と比較して、車両2が駐車する駐車区画3に対する車両2の向きを適切にするためにハンドルをどちらに切るべきかを運転者が容易且つ直感的に判断できるようになる。
また、表示システム1は、図1及び図6に示すように、更に、左側方映像データ及び右側方映像データに対して車両2を真上から見るような視点変換処理を行う視点変換処理部27を更に備える。そして、合成映像データ生成部28は、図8に示すように、後方映像データ40に視点変換処理された左側方映像データ41L及び右側方映像データ41Rを合成する。以上の構成によれば、左側方映像データ41L及び右側方映像データ41Rにおいて縦向き駐車区画線35が直線的に表示されるので、車両2が駐車する駐車区画3に対する車両2の向きが適切であるか否か明確に判断できるようになる。
また、表示システム1は、少なくとも、表示制御装置9を備える。表示システム1は、少なくとも、車両2の後方を撮影する後方カメラ5と、車両2の左側方を撮影する左側方カメラ6と、車両2の右側方を撮影する右側方カメラ7と、表示装置8と、のうち少なくとも何れかを備える。
また、図9に示すように、表示制御方法は、車両2の後方を撮影した映像に対応する後方映像データ、車両2の左側方を撮影した映像に対応する左側方映像データ、および、車両2の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得ステップ(S110)と、車両2の進行方向において車両2が進行することが予想される予想軌跡線としての舵角非連動線30を生成する予想軌跡線生成ステップ(S130)と、後方映像データに舵角非連動線30を重畳させると共に、後方映像データに左側方映像データ及び右側方映像データを合成した合成映像データを生成する、合成映像データ生成ステップ(S160)と、合成映像データを表示装置8に出力する表示制御ステップ(S220)と、を含む。以上の方法によれば、車両2が駐車する駐車区画3に対する車両2の向きが適切であるか否か判断することを容易にすることができる。更に言えば、以上の方法によれば、車両2が駐車区画3に深く進入した段階でも、運転者が、車両2が駐車する駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
上記第1実施形態は、例えば、以下のように変更できる。
上記第1実施形態では、所望の駐車区画3に向けて車両2を移動させる際の車両2の進行方向を車両2の後退方向、即ち、車両2の後方とした。しかしながら、所望の駐車区画3に向けて車両2を移動させる際の車両2の進行方向を車両2の前進方向、即ち、車両2の前方としてもよい。この場合、第1実施形態の説明においては、「後退方向」「後方」「後方映像データ」を適宜、「前進方向」「前方」「前方映像データ」に読み替えるものとする。以降の各実施形態においても同様である。
また、上記第1実施形態において、合成映像データ生成部28は、後方映像データに図4に示す舵角非連動線30を重畳させることとした。しかし、これに代えて、合成映像データ生成部28は、後方映像データに図5に示す舵角連動線31を重畳させることとしてもよい。
また、上記第1実施形態において、合成映像データ生成部28は、後方映像データに左側方映像データ及び右側方映像データを合成することとした。しかし、これに代えて、合成映像データ生成部28は、後方映像データに左側方映像データ又は右側方映像データのうち何れか一方のみを合成することとしてもよい。
なお、上記第1実施形態において、合成映像データ生成部28は、後方映像データ40の中の右側領域40Rに左側方映像データ41Lを合成し、後方映像データ40の中の左側領域40Lに右側方映像データ41Rを合成することとした。しかし、これに代えて、合成映像データ生成部28は、後方映像データ40の中の左側領域40Lに左側方映像データ41Lを合成したり、後方映像データ40の中の右側領域40Rに右側方映像データ41Rを合成したり、後方映像データ40の中の左側領域40L又は右側領域40Rの何れかに左側方映像データ41L及び右側方映像データ41Rを合成してもよい。即ち、合成映像データ生成部28は、後方映像データ40の中の左側領域40L又は右側領域40Rの少なくとも何れか一方に、左側方映像データ41L又は右側方映像データ41Rのうち少なくとも何れか一方を合成することができる。
更に言えば、上記第1実施形態において、合成映像データ生成部28は、後方映像データ40よりも右側又は左側の領域に左側方映像データ41Lを合成したり、後方映像データ40よりも右側又は左側の領域に右側方映像データ41Rを合成したり、後方映像データ40よりも右側又は左側の何れか一方の領域に左側方映像データ41L及び右側方映像データ41Rを合成してもよい。即ち、合成映像データ生成部28は、後方映像データ40よりも左側又は右側の領域の少なくとも何れか一方に、左側方映像データ41L又は右側方映像データ41Rのうち少なくとも何れか一方を合成することができる。
また、上記第1実施形態の視点変換処理部27は、省略することもできる。この場合、合成映像データ生成部28は、後方映像データに左側方映像データ及び右側方映像データを視点変換することなくそのまま合成する。視点変換処理部27を省略する場合、左側方映像データ及び右側方映像データに対して歪補正処理を行ってもよい。この場合の歪補正処理とは、左側方カメラ6および右側方カメラ7の撮影画角が広角であることに基づく映像の湾曲に対し、図8に示すように駐車区画線が直線となるような補正である。
(第2〜第4実施形態)
以下、図10から図15を参照して、第2〜第4実施形態を説明する。第2〜第4実施形態では、以下の共通する特徴を有している。即ち、例えば図10に示すように、表示システム1は、後方映像データ、左側方映像データ、及び、右側方映像データのうち少なくとも何れか1つに基づいて、車両2が向かっている駐車区画3を区画する駐車区画線を認識する認識部25を更に備える。合成映像データ生成部28は、認識部25が認識した駐車区画線と車両2との位置関係が所定の位置関係となった場合に、後方映像データに左側方映像データ又は右側方映像データのうち少なくとも何れか一方を合成する。以上の構成によれば、駐車区画線と車両2との位置関係に応じて、合成映像データ生成部28による合成の有無を切り替えることができる。
以下、第2〜第4実施形態を詳細に説明する。
(第2実施形態)
以下、図10から図12を参照して、第2実施形態を説明する。以下、本実施形態が上記第1実施形態と相違する点を中心に説明し、重複する説明は省略する。
<構成>
図10に示すように、本実施形態の映像処理部22は、更に、認識部25及び算出部26を有する。
認識部25は、図11に示すように、後方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する縦向き駐車区画線35として、左縦向き駐車区画線35L及び右縦向き駐車区画線35Rを認識する。左縦向き駐車区画線35Lは、車両2が向かっている駐車区画3の左側を区画する。右縦向き駐車区画線35Rは、車両2が向かっている駐車区画3の右側を区画する。左縦向き駐車区画線35L及び右縦向き駐車区画線35Rを認識する方法としては、例えばエッヂ検出などの公知の画像処理方法を採用し得る。また、認識部25は、左縦向き駐車区画線35Lの遠端部35a及び右縦向き駐車区画線35Rの遠端部35aを検出する。遠端部35aとは、縦向き駐車区画線35の長手方向における2つの端部のうち、車両2の後退方向側(進行方向側)の端部である。
算出部26は、左縦向き駐車区画線35Lと車両2との位置関係、及び、右縦向き駐車区画線35Rと車両2との位置関係を算出する。具体的には、算出部26は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離を算出する。また、算出部26は、右縦向き駐車区画線35Rの遠端部35aと車両2との間の距離を算出する。ここで、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離とは、車両2の基準点に対する左縦向き駐車区画線35Lの遠端部35aの水平離間距離を意味する。車両2の基準点は、バンパーや後方カメラ5など任意に設定することができる。右縦向き駐車区画線35Rについても同様である。
合成映像データ生成部28は、左縦向き駐車区画線35Lと車両2との位置関係、及び、右縦向き駐車区画線35Rと車両2との位置関係が所定の位置関係となった場合に、後方映像データに左側方映像データ及び右側方映像データを合成する。具体的には、合成映像データ生成部28は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離が所定値未満となり、且つ、右縦向き駐車区画線35Rの遠端部35aと車両2との間の距離が所定値未満となった場合に、後方映像データに左側方映像データ及び右側方映像データを合成する。
<作動>
本実施形態では、図12に示すように、舵角非連動線30を生成するステップ(S130)と、合成映像データを生成するステップ(S160)と、の間に、認識するステップ(S140)と、算出するステップ(S150)と、が挿入される。また、合成映像データを生成するステップ(S160)においては、合成するステップ(S180)に代えて、判定するステップ(S190)、通常表示モードを実行するステップ(S200)、合成表示モードを実行するステップ(S210)が挿入される。
認識するステップ(S140)において、認識部25は、図11に示すように、左縦向き駐車区画線35L及びその遠端部35aを認識する。同様に、認識部25は、右縦向き駐車区画線35R及びその遠端部35aを認識する。
算出するステップ(S150)において、算出部26は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離を算出する。また、算出部26は、右縦向き駐車区画線35Rの遠端部35aと車両2との間の距離を算出する。
判定するステップ(S190)において、合成映像データ生成部28は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離が所定値未満であり、且つ、右縦向き駐車区画線35Rの遠端部35aと車両2との間の距離が所定値未満であるか否か判定する(S190)。S190における判定に用いる所定値とは、例えば後方映像データの画素値から算出される、左縦向き駐車区画線35Lの遠端部35aまでの距離、または右縦向き駐車区画線35Rの遠端部35aまでの距離が、2m未満となったときなどである。または、距離に換算せずに画素数で判断してもよい。さらには、左縦向き駐車区画線35Lの遠端部35aまたは右縦向き駐車区画線35Rの遠端部35aが後方画像データの下方2分の1の範囲や3分の1の範囲に存在するか否かの判断としてもよい。
S190において偽判定となった場合は(S190:NO)、合成映像データ生成部28は、通常表示モードを実行する(S200)。通常表示モードにおいて、合成映像データ生成部28が生成する合成映像データは、後方映像データに舵角非連動線30は重畳させるものの、後方映像データに左側方映像データや右側方映像データは合成させないものである。一方、S190において真判定となった場合は(S190:YES)、合成映像データ生成部28は、合成表示モードを実行する(S210)。合成表示モードにおいて、合成映像データ生成部28が生成する合成映像データは、後方映像データに舵角非連動線30を重畳させると共に、後方映像データに左側方映像データ及び右側方映像データを合成させたものである。この条件分岐の技術的な意義は以下の通りである。
即ち、車両2が駐車区画3に深く進入する前の段階であれば、表示装置8の表示画面8aを通じて、運転手は、車両2が向かっている駐車区画3に対する車両2の向きが適切であるか否かを容易に判断することができる。しかしながら、車両2が駐車区画3に深く進入すると、車両2を車幅方向で挟む2つの駐車区画線35の、表示装置8の表示画面8a上で確認できる長さが極めて短くなるので、運転者にとって、駐車区画3に対する車両2の向きが適切であるか否か判断し難くなる。そこで、本実施形態では、判定するステップ(S190)により車両2が駐車区画3に深く進入したか否かを判定し、車両2が駐車区画3に深く進入した場合に、後方映像データに左側方映像データ及び右側方映像データを合成するものとしている。以上の構成によれば、車両2が駐車区画3に深く進入する前の段階における表示装置8の表示内容を簡素にすることができると共に、車両2が駐車区画3に深く進入した段階では運転者が駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
以上に、第2実施形態を説明したが、上記第2実施形態は、以下の特徴を有する。
即ち、認識部25は、後方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する駐車区画線を縦向き駐車区画線35として認識する。縦向き駐車区画線35は、第一駐車区画線に対応している。合成映像データ生成部28は、縦向き駐車区画線35の遠端部35aと、車両2と、の間の距離が所定値未満となった場合に(S190:YES)、後方映像データに左側方映像データ及び右側方映像データを合成する(S210)。以上の構成によれば、車両2が駐車区画3に深く進入する前の段階における表示装置8の表示内容を簡素にすることができると共に、車両2が駐車区画3に深く進入した段階では運転者が駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
上記第2実施形態は、以下のように変更できる。
即ち、合成映像データ生成部28は、後方映像データに左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方のみを合成するようにしてもよい。
また、合成映像データ生成部28は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離が所定値未満であり、且つ、右縦向き駐車区画線35Rの遠端部35aと車両2との間の距離が所定値未満でない場合、後方映像データに左側方映像データ又は右側方映像データの何れかのみを合成するようにしてもよい。同様に、合成映像データ生成部28は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離が所定値未満でなく、且つ、右縦向き駐車区画線35Rの遠端部35aと車両2との間の距離が所定値未満である場合、後方映像データに左側方映像データ又は右側方映像データの何れかのみを合成するようにしてもよい。
(第3実施形態)
以下、図13及び図14を参照して、第3実施形態を説明する。以下、本実施形態が上記第2実施形態と相違する点を中心に説明し、重複する説明は省略する。図13には、視点変換された左側方映像データを示している。
<構成>
図13に示すように、認識部25は、左側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する縦向き駐車区画線35を左縦向き駐車区画線35Lとして認識する。左縦向き駐車区画線35Lは、第二駐車区画線に対応している。
算出部26は、左縦向き駐車区画線35Lと車両2との位置関係を算出する。具体的には、算出部26は、左縦向き駐車区画線35Lと、車両2の前後方向37と、の間の角度θを算出する。なお、算出部26は、左縦向き駐車区画線35Lと、車両2の前後方向37と、の間の角度θを算出することに代えて、左縦向き駐車区画線35Lと、左側方映像データの垂直線と、の間の角度を角度θとして算出してもよい。
合成映像データ生成部28は、角度θが所定値未満となった場合に、後方映像データに左側方映像データ及び右側方映像データを合成する。
<作動>
本実施形態では、図14に示すように、認識するステップ(S140)において、認識部25は、図13に示すように、左側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する縦向き駐車区画線35を左縦向き駐車区画線35Lとして認識する。
また、算出するステップ(S150)において、算出部26は、左縦向き駐車区画線35Lと、車両2の前後方向37と、の間の角度θを算出する。この角度θは、一般に、車両2が駐車区画3に深く進入すればするほど小さくなっていくものである。
判定するステップ(S190)において、合成映像データ生成部28は、角度θが所定値未満であるか否か判定する(S190)。S190において偽判定となった場合は(S190:NO)、合成映像データ生成部28は、通常表示モードを実行する(S200)。一方、S190において真判定となった場合は(S190:YES)、合成映像データ生成部28は、合成表示モードを実行する(S210)。この条件分岐の技術的な意義は以下の通りである。
即ち、車両2が駐車区画3に深く進入する前の段階であれば、表示装置8の表示画面8aを通じて、運転手は、車両2が向かっている駐車区画3に対する車両2の向きが適切であるか否かを容易に判断することができる。しかしながら、車両2が駐車区画3に深く進入すると、車両2を車幅方向で挟む2つの駐車区画線35の、表示装置8の表示画面8a上で確認できる長さが極めて短くなるので、運転者にとって、駐車区画3に対する車両2の向きが適切であるか否か判断し難くなる。そこで、本実施形態では、判定するステップ(S190)により車両2が駐車区画3に深く進入したか否かを判定し、車両2が駐車区画3に深く進入した場合に、後方映像データに左側方映像データ及び右側方映像データを合成するものとしている。以上の構成によれば、車両2が駐車区画3に深く進入する前の段階における表示装置8の表示内容を簡素にすることができると共に、車両2が駐車区画3に深く進入した段階では運転者が駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
以上に、第3実施形態を説明したが、上記第3実施形態は、以下の特徴を有する。
認識部25は、左側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する縦向き駐車区画線35を左縦向き駐車区画線35Lとして認識する。左縦向き駐車区画線35Lは、第二駐車区画線に対応している。合成映像データ生成部28は、左縦向き駐車区画線35Lと、車両2の前後方向37と、の間の角度θが所定値未満となった場合に(S190:YES)、後方映像データに左側方映像データ及び右側方映像データを合成する(S210)。以上の構成によれば、車両2が駐車区画3に深く進入する前の段階における表示装置8の表示内容を簡素にすることができると共に、車両2が駐車区画3に深く進入した段階では運転者が駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
上記第3実施形態は、例えば、以下のように変更できる。
認識部25は、左側方映像データ又は右側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する駐車区画線として左縦向き駐車区画線35L又は右縦向き駐車区画線35Rを認識し、合成映像データ生成部28は、左縦向き駐車区画線35L又は右縦向き駐車区画線35Rと、車両2の前後方向37と、の間の角度θが所定値未満となった場合に、後方映像データに左側方映像データ又は右側方映像データのうち少なくとも何れか一方を合成するようにしてもよい。
(第4実施形態)
以下、図15を参照して、第4実施形態を説明する。以下、本実施形態が上記第2実施形態と相違する点を中心に説明し、重複する説明は省略する。図15には、視点変換された左側方映像データを示している。
<構成>
図13に示すように、認識部25は、左側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する縦向き駐車区画線35を左縦向き駐車区画線35Lとして認識する。左縦向き駐車区画線35Lは、第二駐車区画線に対応している。また、認識部25は、左縦向き駐車区画線35Lの遠端部35aを検出する。
算出部26は、左縦向き駐車区画線35Lと車両2との位置関係を算出する。具体的には、算出部26は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離を算出する。
合成映像データ生成部28は、左縦向き駐車区画線35Lと車両2との位置関係が所定の位置関係となった場合に、後方映像データに左側方映像データ及び右側方映像データを合成する。具体的には、合成映像データ生成部28は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離が所定値未満となった場合に、後方映像データに左側方映像データ及び右側方映像データを合成する。
<作動>
本実施形態の制御フローについては、上記第2実施形態の図12に記載のものと同一であるから、以下、図12を適宜参照されたい。
認識するステップ(S140)において、認識部25は、図15に示すように、左側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する縦向き駐車区画線35を左縦向き駐車区画線35Lとして認識する。また、認識部25は、左縦向き駐車区画線35Lの遠端部35aを検出する。
また、算出するステップ(S150)において、算出部26は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離を算出する。
判定するステップ(S190)において、合成映像データ生成部28は、左縦向き駐車区画線35Lの遠端部35aと車両2との間の距離が所定値未満であるか否か判定する(S190)。S190において偽判定となった場合は(S190:NO)、合成映像データ生成部28は、通常表示モードを実行する(S200)。一方、S190において真判定となった場合は(S190:YES)、合成映像データ生成部28は、合成表示モードを実行する(S210)。この条件分岐の技術的な意義は第2実施形態で説明した通りである。
以上に、第4実施形態を説明したが、上記第4実施形態は、以下の特徴を有する。
認識部25は、左側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する縦向き駐車区画線35を左縦向き駐車区画線35Lとして認識する。左縦向き駐車区画線35Lは、第二駐車区画線に対応している。合成映像データ生成部28は、左縦向き駐車区画線35Lの遠端部35aと、車両2と、の間の距離が所定値未満となった場合に(S190:YES)、後方映像データに左側方映像データ及び右側方映像データを合成する(S210)。以上の構成によれば、車両2が駐車区画3に深く進入する前の段階における表示装置8の表示内容を簡素にすることができると共に、車両2が駐車区画3に深く進入した段階では運転者が駐車区画3に対する車両2の向きが適切であるか否かを判断し易くなる。
上記第4実施形態は、以下のように変更できる。
認識部25は、左側方映像データ又は右側方映像データに基づいて、車両2が向かっている駐車区画3を車幅方向で区画する駐車区画線として左縦向き駐車区画線35L又は右縦向き駐車区画線35Rを認識し、合成映像データ生成部28は、左縦向き駐車区画線35L又は右縦向き駐車区画線35Rの遠端部35aと、車両2と、の間の距離が所定値未満となった場合に、後方映像データに左側方映像データ又は右側方映像データのうち少なくとも何れか一方を合成するようにしてもよい。
上記第3実施形態から第4実施形態は、以下のように変更できる。
即ち、視点変換処理部27を省略した上で、認識部25は、左側方映像データに基づいて、車両2の駐車区画3の左側を区画する駐車区画線を左縦向き駐車区画線35Lとして認識し、合成映像データ生成部28は、左縦向き駐車区画線35Lが表示装置8の表示画面8a上で直線として表示されるように左側方映像データに歪補正を行った上で、後方映像データに左側方映像データを合成するようにしてもよい。なお、左縦向き駐車区画線35Lは、第二駐車区画線に対応している。
同様に、視点変換処理部27を省略した上で、認識部25は、右側方映像データに基づいて、車両2の駐車区画3の右側を区画する駐車区画線を右縦向き駐車区画線35Rとして認識し、合成映像データ生成部28は、右縦向き駐車区画線35Rが表示装置8の表示画面8a上で直線として表示されるように右側方映像データに歪補正を行った上で、後方映像データに右側方映像データを合成するようにしてもよい。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
また、第1実施形態、第2実施形態、第3実施形態、第4実施形態は、相互に組み合わせて実施することができる。特に、第2実施形態と第3実施形態を組みあせたり、第2実施形態と第4実施形態を組み合わせたりすることができる。
1 表示システム
2 車両
2a 前端
2b 後端
2c 左端
2d 右端
2P 進行方向
2Q 進行方向
3 駐車区画
4 前方カメラ
4a 画角
4b 撮像範囲
5 後方カメラ
5a 画角
5b 撮像範囲
6 左側方カメラ
6a 画角
6b 撮像範囲
7 右側方カメラ
7a 画角
7b 撮像範囲
8 表示装置
8a 表示画面
9 表示制御装置
10 左サイドミラー
11 右サイドミラー
20 車両情報取得部
20a 後退情報取得部
20b 舵角情報取得部
21 映像データ取得部
22 映像処理部
23 表示制御部
24 予想軌跡線生成部
25 認識部
26 算出部
27 視点変換処理部
28 合成映像データ生成部
30 舵角非連動線
30a 縦線
30b 横線
31 舵角連動線
31a 縦線
31b 横線
35 縦向き駐車区画線
35a 遠端部
35L 左縦向き駐車区画線
35R 右縦向き駐車区画線
36 横向き駐車区画線
37 前後方向
40 後方映像データ
40L 左側領域
40R 右側領域
41L 左側方映像データ
41R 右側方映像データ
42 合成映像データ
43 部分
θ 角度

Claims (12)

  1. 車両の進行方向を撮影した映像に対応する進行方向映像データ、前記車両の左側方を撮影した映像に対応する左側方映像データ、および、前記車両の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得部と、
    前記車両の進行方向において前記車両が進行することが予想される予想軌跡線を生成する予想軌跡線生成部と、
    前記進行方向映像データに前記予想軌跡線を重畳させると共に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成した合成映像データを生成する、合成映像データ生成部と、
    前記合成映像データを表示装置に出力する表示制御部と、
    を備えることを特徴とする表示制御装置。
  2. 前記進行方向映像データ、前記左側方映像データ、及び、前記右側方映像データのうち少なくとも何れか1つに基づいて、前記車両が向かっている駐車区画を区画する駐車区画線を認識する認識部を更に備え、
    前記合成映像データ生成部は、前記駐車区画線と前記車両との位置関係が所定の位置関係となった場合に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成する、
    請求項1に記載の表示制御装置。
  3. 前記認識部は、前記進行方向映像データに基づいて、前記車両が向かっている前記駐車区画を車幅方向で区画する駐車区画線を第一駐車区画線として認識し、
    前記合成映像データ生成部は、前記第一駐車区画線の遠端部と、前記車両と、の間の距離が所定値未満となった場合に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成する、
    請求項2に記載の表示制御装置。
  4. 前記認識部は、前記左側方映像データ又は前記右側方映像データに基づいて、前記車両が向かっている前記駐車区画を車幅方向で区画する駐車区画線を第二駐車区画線として認識し、
    前記合成映像データ生成部は、前記第二駐車区画線と、前記車両の前後方向と、の間の角度が所定値未満となった場合に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成する、
    請求項2または3に記載の表示制御装置。
  5. 前記認識部は、前記左側方映像データ又は前記右側方映像データに基づいて、前記車両が向かっている前記駐車区画を車幅方向で区画する駐車区画線を第二駐車区画線として認識し、
    前記合成映像データ生成部は、前記第二駐車区画線の遠端部と、前記車両と、の間の距離が所定値未満となった場合に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成する、
    請求項2または3に記載の表示制御装置。
  6. 前記認識部は、前記左側方映像データに基づいて、前記車両が向かっている前記駐車区画の左側を区画する駐車区画線を第二駐車区画線として認識し、
    前記合成映像データ生成部は、前記第二駐車区画線が前記表示装置の表示画面上で直線として表示されるように前記左側方映像データに歪補正を行った上で、前記進行方向映像データに前記左側方映像データを合成し、
    又は、
    前記認識部は、前記右側方映像データに基づいて、前記車両が向かっている前記駐車区画の右側を区画する駐車区画線を第二駐車区画線として認識し、
    前記合成映像データ生成部は、前記第二駐車区画線が前記表示装置の表示画面上で直線として表示されるように前記右側方映像データに歪補正を行った上で、前記進行方向映像データに前記右側方映像データを合成する、
    請求項2または3に記載の表示制御装置。
  7. 前記合成映像データ生成部は、前記進行方向映像データの中の左側領域又は右側領域の少なくとも何れか一方に、前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成し、
    又は、
    前記合成映像データ生成部は、前記進行方向映像データよりも左側又は右側の領域の少なくとも何れか一方に、前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成する、
    請求項1から請求項6の何れか1項に記載の表示制御装置。
  8. 前記合成映像データ生成部は、前記進行方向映像データにおける前記車両の進行方向と、前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方における前記車両の進行方向と、が一致するように、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成する、
    請求項7に記載の表示制御装置。
  9. 前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方に対して前記車両を真上から見るような視点変換処理を行う視点変換処理部を更に備え、
    前記合成映像データ生成部は、前記進行方向映像データに前記視点変換処理された前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成する、
    請求項1から請求項8の何れか1項に記載の表示制御装置。
  10. 請求項1から請求項9の何れか1項に記載の前記表示制御装置と、
    前記車両の進行方向を撮影する進行方向カメラと、前記車両の左側方を撮影する左側方カメラと、前記車両の右側方を撮影する右側方カメラと、前記表示装置と、のうち少なくとも何れかと、
    を備える表示システム。
  11. 車両の進行方向を撮影した映像に対応する進行方向映像データ、前記車両の左側方を撮影した映像に対応する左側方映像データ、および、前記車両の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得ステップと、
    前記車両の進行方向において前記車両が進行することが予想される予想軌跡線を生成する予想軌跡線生成ステップと、
    前記進行方向映像データに前記予想軌跡線を重畳させると共に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成した合成映像データを生成する、合成映像データ生成ステップと、
    前記合成映像データを表示装置に出力する表示制御ステップと、
    を含む、
    表示制御方法。
  12. 車両の進行方向を撮影した映像に対応する進行方向映像データ、前記車両の左側方を撮影した映像に対応する左側方映像データ、および、前記車両の右側方を撮影した映像に対応する右側方映像データを取得する映像データ取得ステップと、
    前記車両の進行方向において前記車両が進行することが予想される予想軌跡線を生成する予想軌跡線生成ステップと、
    前記進行方向映像データに前記予想軌跡線を重畳させると共に、前記進行方向映像データに前記左側方映像データ又は前記右側方映像データのうち少なくとも何れか一方を合成した合成映像データを生成する、合成映像データ生成ステップと、
    前記合成映像データを表示装置に出力する表示制御ステップと、
    をコンピュータに実行させるプログラム。
JP2017145429A 2017-07-27 2017-07-27 表示制御装置、表示システム、表示制御方法、及び、プログラム Pending JP2019029757A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017145429A JP2019029757A (ja) 2017-07-27 2017-07-27 表示制御装置、表示システム、表示制御方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017145429A JP2019029757A (ja) 2017-07-27 2017-07-27 表示制御装置、表示システム、表示制御方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2019029757A true JP2019029757A (ja) 2019-02-21

Family

ID=65476548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017145429A Pending JP2019029757A (ja) 2017-07-27 2017-07-27 表示制御装置、表示システム、表示制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2019029757A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114582154A (zh) * 2020-11-30 2022-06-03 丰田自动车株式会社 图像显示装置及方法、非临时性的计算机可读取的介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306402A (ja) * 2007-06-06 2008-12-18 Auto Network Gijutsu Kenkyusho:Kk 車載撮像表示装置
JP2009278349A (ja) * 2008-05-14 2009-11-26 Aisin Seiki Co Ltd 周辺監視装置
JP2013212723A (ja) * 2012-03-30 2013-10-17 Fujitsu Ten Ltd 駐車支援装置、及び駐車支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306402A (ja) * 2007-06-06 2008-12-18 Auto Network Gijutsu Kenkyusho:Kk 車載撮像表示装置
JP2009278349A (ja) * 2008-05-14 2009-11-26 Aisin Seiki Co Ltd 周辺監視装置
JP2013212723A (ja) * 2012-03-30 2013-10-17 Fujitsu Ten Ltd 駐車支援装置、及び駐車支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114582154A (zh) * 2020-11-30 2022-06-03 丰田自动车株式会社 图像显示装置及方法、非临时性的计算机可读取的介质
CN114582154B (zh) * 2020-11-30 2023-12-29 丰田自动车株式会社 图像显示装置及方法、非临时性的计算机可读取的介质

Similar Documents

Publication Publication Date Title
WO2018230021A1 (ja) 表示制御装置、表示制御システム、表示制御方法及び表示制御プログラム
JP5523448B2 (ja) 運転支援システム、情報表示装置、及び情報表示プログラム
US10956757B2 (en) Image processing device, outside recognition device
JP5904093B2 (ja) 車載画像生成装置
JP6425991B2 (ja) 牽引車両周囲画像生成装置および牽引車両周囲画像生成方法
KR101498973B1 (ko) 차량용 주차 지원 시스템 및 방법
US9683861B2 (en) Estimated route presentation apparatus and estimated route presentation method
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
US11648932B2 (en) Periphery monitoring device
JP2019024179A (ja) 表示制御装置、表示制御システム、表示制御方法及び表示制御プログラム
JP2018144526A (ja) 周辺監視装置
US20180208115A1 (en) Vehicle display device and vehicle display method for displaying images
WO2017211089A1 (zh) 车辆行进全景系统及其方法
JP5309891B2 (ja) 駐車支援装置
JP6902109B2 (ja) 表示装置、撮像表示システム、および、列車
EP2647530A1 (en) Drive assist display apparatus
US11820300B2 (en) Image generation device, camera, display system, and vehicle
JP2019029757A (ja) 表示制御装置、表示システム、表示制御方法、及び、プログラム
JP2007249814A (ja) 画像処理装置及び画像処理プログラム
CN110945866B (zh) 车辆周边图像显示装置及车辆周边图像显示方法
JP6909388B2 (ja) 表示制御装置、表示システム、表示制御方法、及び、プログラム
JP2018116579A (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
JP2007109113A (ja) 車載画像表示装置
JP2019004355A (ja) 表示制御装置、表示制御システム、表示制御方法及び表示制御プログラム
JP6950317B2 (ja) 表示制御装置、表示システム、表示制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211012