JP5977130B2 - 画像生成装置、画像表示システム、および、画像生成方法 - Google Patents

画像生成装置、画像表示システム、および、画像生成方法 Download PDF

Info

Publication number
JP5977130B2
JP5977130B2 JP2012210430A JP2012210430A JP5977130B2 JP 5977130 B2 JP5977130 B2 JP 5977130B2 JP 2012210430 A JP2012210430 A JP 2012210430A JP 2012210430 A JP2012210430 A JP 2012210430A JP 5977130 B2 JP5977130 B2 JP 5977130B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
vehicle
display
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012210430A
Other languages
English (en)
Other versions
JP2014067120A (ja
Inventor
康嘉 澤田
康嘉 澤田
巧 林田
巧 林田
正博 山田
正博 山田
美紀 村角
美紀 村角
親一 森山
親一 森山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012210430A priority Critical patent/JP5977130B2/ja
Publication of JP2014067120A publication Critical patent/JP2014067120A/ja
Application granted granted Critical
Publication of JP5977130B2 publication Critical patent/JP5977130B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両において画像を生成して表示させる技術に関する。
従来から、自動車などの車両に搭載され、車載カメラで得られる撮影画像に基づいて車両の周辺の領域を示す画像を車室内のディスプレイに表示する画像生成装置が知られている。この画像生成装置を利用することにより、ユーザ(代表的にはドライバ)は車両の周辺の様子をほぼリアルタイムに把握することができる。
そして、車両の周囲は運転席のドライバから死角となる箇所が複数ある。例えば、車両の運転席の逆側となるフロントフェンダの外側領域(以下、「フロントフェンダ領域」という。)は運転席から死角となりやすく、車両の障害物となる物体が存在する場合、ドライバは車両と物体との間隔を把握しにくい。これに対して、画像生成装置は、次のような画像を生成する。例えば、画像生成装置は、車両のドライバの視点位置近傍を仮想視点の視点位置(以下、「ドライバ視点」ともいう。)とし、フロントフェンダ領域の方向を仮想視点の視線方向として生成される合成画像で、この合成画像に同様の仮想視点からみて車両が透過状態となる画像を重畳し、車両に備えられた表示装置に表示する表示画像(以下、「ドライバ視点画像」という。)を生成する。
しかしながら、このようなドライバ視点画像を表示装置に表示するのみでは、ユーザは表示画像における奥行きの情報が充分に得られない。そのため、車両のフロントフェンダ領域に物体が存在する場合、車両と物体との間隔を正確に把握することが困難な場合があった。
これに対して、ドライバ視点画像とは別の視点位置からみた画像を生成して表示装置に表示する技術がある。例えば、画像生成部が仮想視点の視点位置を車両位置の略中央の直上とし、視線方向を車両位置の直下方向として、車両の略直上から車両を見下ろすように車両、および、車両の周辺の領域を示す合成画像を生成し、この合成画像から表示装置に表示する表示画像(以下、「トップ視点画像」という)を生成し、トップ視点画像をドライバ視点画像と共に表示装置に表示する技術がある。なお、本発明と関連する技術を説明する資料としては特許文献1がある。
特開2011−66763号公報
しかしながら、ドライバ視点画像とトップ視点画像とを表示装置に表示しても、ドライバ視点画像の中央部に示されている箇所、即ちドライバが注視すべき箇所(例えば、フロントフェンダ領域)は、トップ視点画像の画像中では、画像中央部から外れた位置(例えば、表示画像中央の車両の位置に対して左前方の位置)に表示される。そのため、その箇所の状況(例えば、フロントフェンダ領域に物体が存在する場合は、車両と物体との間隔)がトップ視点画像中の端の比較的小さい範囲に表示され、ユーザが確認したい箇所(この場合はフロントフェンダ領域)の状況を正確に把握できない場合があった。
本発明は、上記課題に鑑みてなされたものであり、車両のユーザが確認したい箇所の状況を、正確に把握できる画像を生成する技術を提供することを目的とする。
上記課題を解決するために、請求項1の発明は、車両に搭載されたカメラの撮影画像を取得する取得手段と、前記車両のドライバの視点位置近傍を仮想視点の視点位置とし、該視点位置から所定方向を前記仮想視点の視線方向として生成される画像で、該画像に含まれる前記車両の画像が透過画像である第1画像を前記撮影画像に基づいて生成する第1生成手段と、前記車両の外部の位置を前記仮想視点の視点位置とし、前記第1画像における前記仮想視点の視線方向の延長線上に位置する特定箇所を指し示す方向を前記仮想視点の視線方向として生成される第2画像を前記撮影画像に基づいて生成する第2生成手段と、前記第1画像の前記仮想視点の視線方向に応じて、前記第1画像に対する前記第2画像の表示位置を変更する変更手段と、を備える。
また、請求項2の発明は、請求項1に記載の画像生成装置において、前記第2生成手段は、前記特定箇所を拡大して示す拡大画像を生成する。
また、請求項3の発明は、請求項1または2に記載の画像生成装置と、前記画像生成装置から出力された前記第1画像、および、前記第2画像を表示する表示装置と、を備える。
また、請求項4の発明は、(a)車両に搭載されたカメラの撮影画像を取得する工程と、(b)前記車両のドライバの視点位置近傍を仮想視点の視点位置とし、該視点位置から所定方向を前記仮想視点の視線方向として生成される画像で、該画像に含まれる前記車両の画像が透過画像である第1画像を前記撮影画像に基づいて生成する工程と、(c)前記車両の外部の位置を前記仮想視点の視点位置とし、前記第1画像における前記仮想視点の視線方向の延長線上に位置する特定箇所を指し示す方向を前記仮想視点の視線方向として生成される第2画像を前記撮影画像に基づいて生成する工程と、前記第1画像の前記仮想視点の視線方向に応じて、前記第1画像に対する前記第2画像の表示位置を変更する工程と、を備える。
請求項1ないし5の発明によれば、異なる仮想視点からみた一つの箇所が複数の画像の各画像の中央部に表示され、自車両のユーザが確認したい箇所の状況を正確に把握できる。
また、特に請求項2の発明によれば、第2画像の中央部に表示される画像が拡大されることとなり、ユーザはドライバ視点で透過画像を重畳した合成画像だけでは把握できない自車両と物体との距離をより詳細に確認できる。
また、特に請求項3の発明によれば、各画像が表示される位置関係により、自車両のユーザは、各画像が自分の位置からみてどの方向を映す画像なのかを直感的に把握できる。
図1は、画像表示システムの構成を示す図である。 図2は、4つのカメラが撮影する方向を示す図である。 図3は、画像合成部が合成画像を生成する手法を説明する図である。 図4は、投影面を拡大した図である。 図5は、表示画像について説明する図である。 図6は、表示装置に表示される画像の切替えについて説明する図である。 図7は、画像生成装置の処理を説明するフローチャートである。 図8は、拡大画像を生成する場合の仮想視点の視点位置について説明する図である。 拡大画像を含む表示画像について説明する図である。 図10は、自車両のドライバの視点位置近傍の仮想視点の視線方向が右前方の場合の仮想視点の設定について説明する図である。 図11は、ドライバの視点位置近傍の仮想視点の視線方向が右前方の場合の表示画像について説明する図である。 図12は、ドライバの視点位置近傍の仮想視点の視線方向が後方の場合の仮想視点の設定について説明する図である。 図13は、ドライバの視点位置近傍の仮想視点の視線方向が後方の場合の表示画像について説明する図である。 図14は、表示装置に表示される画像の切替えについて説明する図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.構成>
図1は、画像表示システム10の構成を示す図である。この画像表示システム10は、車両(本実施の形態では、自動車)において用いられるものであり、車両の周辺の領域を示す画像を生成して車室内に表示する機能を有している。画像表示システム10のユーザ(代表的にはドライバ)は、この画像表示システム10を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できる。以下、この画像表示システム10が搭載される車両を「自車両」という。
図に示すように、画像表示システム10は、複数のカメラ5、画像生成装置2、表示装置3、および、操作ボタン41を主に備えている。複数のカメラ5はそれぞれ、自車両の周辺を撮影して撮影画像を取得し、取得した撮影画像のデータを画像生成装置2に入力する。画像生成装置2は、自車両の周辺を示す撮影画像を用いて、後述する合成画像を生成し、合成画像から表示装置3に表示するための表示画像を生成する。表示装置3は、画像生成装置2で生成された表示画像を表示する。また、操作ボタン41は、ユーザの操作を受け付ける。
複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、自車両の周辺を示す撮影画像のデータを取得する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、および、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、自車両において互いに異なる位置に配置され、自車両の周辺の異なる方向を撮影する。
図2は、4つのカメラ5F,5B,5L,5Rがそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、自車両9の前端に設けられ、その光軸5Faは自車両9の直進方向に向けられる。リアカメラ5Bは、自車両9の後端に設けられ、その光軸5Baは自車両9の直進方向の逆方向に向けられる。左サイドカメラ5Lは左側の左サイドミラー93Lに設けられ、その光軸5Laは自車両9の左側方(自車両9の直進方向の直交方向)に向けられる。また、右サイドカメラ5Rは右側の右サイドミラー93Rに設けられ、その光軸5Raは自車両9の右側方(自車両9の直進方向の直交方向)に向けられる。
これらのカメラ5F,5B,5L,5Rのレンズには魚眼レンズなどの広角レンズが採用され、各カメラ5F,5B,5L,5Rは180度以上の画角θを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、自車両9の全周囲を撮影することが可能である。
図1に戻り、表示装置3は、例えば、液晶などの薄型の表示パネルを備えており、各種の情報や画像を表示する。表示装置3は、ユーザがその画面を視認できるように、自車両9のインストルメントパネルなどに配置される。表示装置3は、画像生成装置2と同一のハウジング内に配置されて画像生成装置2と一体化されていてもよく、画像生成装置2とは別体の装置であってもよい。表示装置3は、表示パネルに重ねてタッチパネル31、および、表示パネルの外周近傍にハードボタン32を備えており、ユーザの操作を受け付けることが可能である。
操作ボタン41は、ユーザの操作を受け付ける操作部材である。操作ボタン41は、例えば、自車両9のステアリングホイールに設けられており、主にドライバからの操作を受け付ける。ユーザは、この操作ボタン41と、表示装置3のタッチパネル31およびハードボタン32とを介して画像表示システム10に対する各種の操作を行うことができる。なお、以下では、この操作ボタン41と、表示装置3のタッチパネル31およびハードボタン32とを操作部4という。操作部4によりユーザの操作がなされた場合は、その操作の内容を示す操作信号が画像生成装置2に入力される。
画像生成装置2は、各種の画像処理が可能な電子装置であり、画像取得部21と、画像合成部22と、画像調整部23と、画像出力部24とを主に備えている。
画像取得部21は、4つのカメラ5F,5B,5L,5Rでそれぞれ得られた撮影画像のデータを取得する。画像取得部21は、例えば、アナログの撮影画像をデジタルの撮影画像に変換する機能などの画像処理機能を有している。画像取得部21は、取得した撮影画像のデータに所定の画像処理を行い、処理後の撮影画像のデータを画像合成部22、および、画像調整部23に入力する。
画像合成部22は、合成画像を生成するための画像処理を行うハードウェア回路である。画像合成部22は、複数のカメラ5で取得された複数の撮影画像を合成して、仮想視点からみた自車両9の周辺を示す合成画像を生成する。画像合成部22は、自車両9の周辺に相当する仮想の投影面に複数の撮影画像のデータを投影し、投影面上のデータを用いて合成画像を生成する。この合成画像を生成する手法の詳細については後述する。
画像調整部23は、表示装置3で表示するための表示画像を生成する。画像調整部23は、例えば、複数の合成画像を一つの表示画像として表示装置3に表示させる場合に、表示画像中の各合成画像の表示位置を決定し、表示装置3への表示画像を生成する。
画像出力部24は、画像調整部23で生成された表示画像を表示装置3に出力して、表示画像を表示装置3に表示させる。これにより、仮想視点からみた自車両9の周辺を示す表示画像が表示装置3に表示される。
また、画像生成装置2は、制御部20と、操作受付部25と、記憶部27とをさらに備えている。制御部20は、例えば、CPU、RAM、および、ROMなどを備えたマイクロコンピュータであり、画像生成装置2の全体を統括的に制御する。
操作受付部25は、ユーザが操作を行った場合に操作ボタン41、タッチパネル31、および、ハードボタン32の操作部4から出力される操作信号を受信する。これにより、操作受付部25はユーザの操作を受け付ける。操作受付部25は、受信した操作信号を制御部20に入力する。
記憶部27は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部27は、ファームウェアとしてのプログラム27aや、合成画像、および、表示画像を生成するときに用いる各種のデータを記憶する。合成画像の生成に用いられるデータの例として、仮想視点の視点位置および視線方向を含む仮想視点データ27bがある。また、表示画像の生成に用いられるデータの例として、表示画像中の合成画像の表示位置を定める画像位置データ27cがある。
制御部20の各種の機能は、記憶部27に記憶されたプログラム27a等に従ってCPUが演算処理を行うことで実現される。つまり、図中に示す画像制御部20aは、プログラム27a等に従ってCPUが演算処理を行うことで実現される機能部の一部である。
画像制御部20aは、合成画像を生成する画像合成部22、および、表示画像を生成する画像調整部23を主に制御する。画像制御部20aは画像合成部22、および、画像調整部23を制御して、合成画像を含む表示画像を生成する。
<1−2.合成画像の生成>
次に、画像合成部22が、仮想視点からみた自車両9の周辺の状況を示す合成画像を生成する手法について説明する。図3は、画像合成部22が合成画像を生成する手法を説明する図である。
フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、および、右サイドカメラ5Rのそれぞれで撮影が行われると、自車両9の前方、後方、左側方、および、右側方をそれぞれ示す4つの撮影画像SF,SB,SL,SRが取得される。これら4つの撮影画像SF,SB,SL,SRには、自車両9の全周囲のデータが含まれている。
画像合成部22は、まず、これら4つの撮影画像SF,SB,SL,SRに含まれるデータ(各画素の値)を、仮想的な三次元空間における投影面TSに投影する。投影面TSは、自車両9の周辺の領域に相当する仮想の立体面である。投影面TSの中心領域は、自車両9の位置となる車両領域R0として定められている。
投影面TSでは、車両領域(自車両9の位置)R0には撮影画像のデータは投影されず、車両領域R0の外側の領域に撮影画像のデータが投影される。以下、投影面TSにおいて、撮影画像のデータが投影される領域(車両領域R0の外側の領域)を、「投影対象領域」という。
また、車両領域R0には自車両9の三次元形状を示すポリゴンモデルである車両像PGを仮想的に備えている。構成された車両像PGは、投影面TSが設定される三次元空間において、自車両9の位置と定められた略半球状の中心部分に配置される。
投影面TSの投影対象領域における各位置は、4つの撮影画像SF,SB,SL,SRのいずれかと、テーブルデータ等の対応情報によって対応付けられている。画像合成部22は、4つの撮影画像SF,SB,SL,SRのデータをそれぞれ投影対象領域の対応する部分に投影する。
画像合成部22は、投影対象領域において自車両9の前方に相当する部分PFに、フロントカメラ5Fの撮影画像SFのデータを投影する。また、画像合成部22は、投影対象領域において自車両9の後方に相当する部分PBに、リアカメラ5Bの撮影画像SBのデータを投影する。さらに、画像合成部22は、投影対象領域において自車両9の左側方に相当する部分PLに左サイドカメラ5Lの撮影画像SLのデータを投影し、投影対象領域において自車両9の右側方に相当する部分PRに右サイドカメラ5Rの撮影画像SRのデータを投影する。
このように投影面TSの投影対象領域の各部分に撮影画像のデータを投影すると、画像合成部22は、自車両9の三次元形状を示すポリゴンのモデルを仮想的に構成する。この自車両9のモデルは、投影面TSが設定される三次元空間における自車両9の位置である車両領域R0に配置される。
次に、画像合成部22は、三次元空間に対して仮想視点を設定し合成画像を生成する。詳細には、画像合成部22は、後述する方向選択画像(例えば、図6に示す方向選択画像SE)の方向選択ボタンB2に対して、ユーザが操作部4を用いて選択した方向の操作信号に基づく画像制御部20aの制御により、記憶部27から仮想視点データ27bを読出す。つまり、ユーザの操作する全ての方向に対応した仮想視点の視点位置、および、視線方向のデータが仮想視点データ27bとして予めメモリに記憶され、ユーザの操作した方向に応じた仮想視点の視点位置および視線方向のデータが記憶部27から読み出される。
そして、画像合成部22は仮想視点データ27bに基づいて、視点位置および視線方向の異なる2つの仮想視点である仮想視点VPaおよびVPbを設定する。なお、以下では仮想視点VPaおよびVPbに基づく複数の合成画像の生成について説明するが、画像合成部22によるこれらの合成画像の生成は、時間的に異なるタイミングで行ってもよいし、同時に行ってもよい。
図4は、図3に示す投影面TSを拡大した図である。この図4を用いて仮想視点VPa、および、仮想視点VPbに基づく合成画像の生成について具体的に説明する。なお、以下、投影面TSを用いて合成画像を生成する説明においては方向、および、向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は自車両9に対応する車両像PGの略中心部分(自車両9の直進方向における車体中央部、自車両9の車幅方向の車体中央部、および、自車両9の高さ方向の車体中央部)をXYZ軸の原点として相対的に固定される。ここで、X軸方向は車両像PGの左右方向に沿い、Y軸方向は車両像PGの前後方向に沿い、Z軸方向は車両像PGの高さ方向(鉛直方向)に沿っている。また、便宜上、+X側を車両像PG(自車両9)の右側、+Y側を車両像PG(自車両9)の前側、+Z側を車両像PG(自車両9)の上側とする。
画像合成部22は、方向選択ボタンB2でユーザが操作部4を用いて選択した方向の操作信号に基づき、自車両9(車両像PG)のドライバの視点位置近傍(原点に対して+X側、+Y側、および、Z軸原点の位置)を視点位置とし、この視点位置から所定方向(例えば、フロントフェンダ領域の方向(原点に対して−X方向、+Y方向、および、−Z方向)を視線方向とする仮想視点VPaを設定する。また、画像合成部22は、仮想視点VPaが設定されたことに伴い、自車両9の外部の位置(例えば、車両領域R0の外側の領域で、自車両9の左前方のドライバの視点位置よりも高い位置(原点に対して−X側、+Y側、および、+Z側の位置)を視点位置とし、仮想視点VPaの視線方向の延長線上に位置する特定箇所PTaを指し示す方向(原点に対してX軸原点、Y軸原点、および、−Z方向))を視線方向とする仮想視点VPbを設定する。
図3に戻り、画像合成部22は、投影面TSにおいて設定された仮想視点VPa、および、仮想視点VPbからみて所定の視野角に含まれる領域に投影されたデータを画像として切り出す。そして、画像合成部22は仮想視点VPaに基づいて合成画像IMaを生成し、仮想視点VPbに基づいて合成画像IMbを生成する。そして、これらの合成画像IMaおよびIMbは図5に示す表示画像OUaとして表示される。
図5は、表示画像OUaについて説明する図である。表示画像OUa中には合成画像IMaおよびIMbが表示されている。詳細には、表示画像OUaに対して向かって右側が合成画像IMaの表示位置となり、表示画像OUaに対して向かって左側が合成画像IMbの表示位置となっている。
合成画像IMaは、視点位置をドライバ視点とし、視線方向をフロントフェンダ領域の方向とする仮想視点に基づいて、投影面TSにおいて切り出された画像に、同じ視点位置および視線方向に基づく自車両9の車両像を透過状態とした画像(以下、「透過画像91」という。)を重畳した合成画像である。この透過画像91は、自車両9のモデルに対して仮想視点VPaに応じてレンダリングを行い生成されたものである。そして、合成画像IMaの中央部には、投影面TSが設定される三次元空間における仮想視点VPaの視線方向の延長線上に位置する箇所、即ちドライバが注視する箇所である特定箇所PTaに対応する画像が表示されている。
また、合成画像IMbは、視点位置を自車両9の外側である自車両9のフロントフェンダ領域の直上とし、視野方向をフロントフェンダ領域の方向とする仮想視点に基づいて、投影面TSにおいて切り出された画像に、同じ視点位置および視線方に基づく自車両9の車両像を非透過状態とした画像(以下、「車両像92」という。)を重畳した合成画像である。この車両像92は、自車両9のモデルに対して仮想視点VPbに応じてレンダリングを行い生成されたものである。そして、合成画像IMbの中央部には、投影面TSが設定される三次元空間における仮想視点VPbの視線方向の延長線上に存在する特定箇所PTaに対応する画像が表示されている。
そして、図5に示すように特定箇所PTaが複数の合成画像の各画像の中央部に表示されることで、自車両9のユーザは確認したい箇所の状況を正確に把握できる。詳細には、一方はドライバ視点の合成画像IMaで、他方は自車両9の外側の視点の合成画像IMbという異なる仮想視点からみた複数の合成画像を含む表示画像OUaを表示することで、ユーザは、自車両9の周辺に存在する物体の位置を死角なしにドライバの視線位置および視線方向で把握することができる。また、ユーザは、ドライバ視点だけでは正確に認識できない自車両9と物体との距離も自車両9の外部の位置を視点位置として、特定箇所PTaを画像中央部に表示する合成画像IMbにより、即座にかつ正確に認識することができる。
なお、合成画像IMa、および、合成画像IMb中に示された特定箇所PTaの指標は説明のために示したものであり、表示装置3に表示される実際の表示画像OUaの合成画像IMaおよびIMbにはこの特定箇所PTaの指標は表示されない。
また、表示画像OUaの各合成画像には他車両101の画像が表示されているが、この他車両101が自車両9の近傍に存在しない場合も画像合成部22が仮想視点VPa、および、VPbに基づく合成画像を生成し、この合成画像に基づき画像調整部23が生成した表示画像を表示装置3が表示する。つまり、自車両9の周辺の物体の存在の有無に関わらず、仮想視点VPaおよびVPbに基づいて、合成画像IMaおよびIMbを含む表示画像OUaが生成される。
なお、表示画像OUaにおける各合成画像の表示位置の決定は、画像調整部23が行う。図3に戻り、画像調整部23は画像制御部20aの制御により、記憶部27から画像位置データ27cを読出す。そして、画像調整部23が画像位置データ27cに基づいて、表示画像中の合成画像IMaと合成画像IMbの表示位置を決定し表示画像を生成する。 そして、画像出力部24が、画像調整部23で生成された表示画像を表示装置3に出力して、表示画像を表示装置3に表示させる。
<1−3.画像の切替>
図6は、表示装置3に表示される画像の切替えについて説明する図である。ここでは、表示装置3がユーザに対して目的地までのルート案内を行うナビゲーション機能を有している場合を例に説明を行う。図6の上段の画像は、ナビゲーション機能を実行する場合に表示されるナビゲーション画像NAであり、中断の画像はユーザがユーザの見たい方向を選択する方向選択画像SEである。また、図6の下段の画像は表示画像OUaである。これらの画像はユーザの操作部4を用いた操作に応じて切替えが可能である。
表示装置3は、図示しない表示装置3の記憶部に地図画像データ等のナビゲーション機能に使用するデータが記録されており、ナビゲーション機能を実行する際に、それらのデータが読み出されて、表示装置3にナビゲーション画像NAが表示される。ナビゲーション画像NAには、地図画像に重畳して自車両9の現在位置を示す指標GP、詳細機能ボタンB0、および、周辺画像ボタンB1が主に表示され、このうち詳細機能ボタンB0および周辺画像ボタンB1の機能は、操作部4のタッチパネル31に対してユーザが指などを接触させて操作することで実行される。
ここで、詳細機能ボタンB0をユーザが操作すると、例えばナビゲーション画像NAからナビゲーション機能以外の他の各種機能に関する表示画像に切替わる。そして、周辺画像ボタンB1をユーザが操作すると、図6に示すようにナビゲーション画像NAから、ユーザが見たい方向を設定する方向選択画像SEに切替わる。
方向選択画像SEは、ユーザがユーザの見たい方向を選択する際に操作する方向選択ボタンB2と、戻るボタンB3とが表示されている。ユーザが方向選択ボタンB2に示される8つの方向(前方、右前方、右、右後方、後方、左後方、左、および、左前方)のうちいずれかの方向を選択すると、その方向に対応した仮想視点の視点位置および視線方向の仮想視点データ27bが記憶部27から読み出されて仮想視点が設定され、仮想視点に対応した表示画像OUaに切替わる。なお、ユーザが戻るボタンB3を操作すると、方向選択画像SEからナビゲーション画像NAに切替わる。なお、方向選択ボタンB2に示す8つの方向は一例であり方向の数を加減してもよい。
表示画像OUa中には合成画像IMaおよびIMbが表示されると共に,戻るボタンB4が表示されている。ユーザが戻るボタンB4を操作すると、表示画像OUaから方向選択画像B3に切替わる。なお、ユーザが戻るボタン4を操作した場合に、方向選択画像SEに代えて、ナビゲーション画像NAに切替わるようにしてもよい。
<1−4.処理>
図7は、画像生成装置2の処理を説明するフローチャートである。画像生成装置2の操作受付部25がユーザの操作よる操作部4からの操作信号、即ち、ユーザが図6のナビゲーション画像NAの周辺画像ボタンB1を操作して、方向選択画像SEの方向選択ボタンB2を操作した操作信号を受信した場合(ステップS101でYes)、画像合成部22が画像制御部20aの制御により、仮想視点データ27bに基づいて仮想視点VPaと仮想視点VPbとの視点位置、および、視線方向を設定する(ステップS102)。一方、操作受付部25が操作信号を受信していない場合(ステップ101でNo)は、処理を終了する。
次に、画像合成部22が、投影面TSにおいて設定された仮想視点VPa、および、仮想視点VPbからみて所定の視野角に含まれる領域に投影されたデータを画像として切り出す処理を行う。そして、画像合成部22は、仮想視点VPaに基づいて切り出した画像に対して透過画像91を重畳し、合成画像IMaを生成する。また、画像合成部22は仮想視点VPbに基づいて切り出した画像に対して車両像92を重畳し、合成画像IMbを生成する(ステップS103)。
次に、画像調整部23が、画像制御部20aの制御により記憶部27から読み出された画像位置データ27cに基づいて表示画像中の合成画像IMa、および、合成画像IMbの表示位置を決定し、表示画像OUa生成する(ステップS104)。
次に、画像出力部24が、画像調整部23で生成された表示画像OUaを表示装置3に出力して表示させる(ステップS105)。この結果、仮想視点VPaおよびVPbからみた自車両9の周辺を示す表示画像OUaが表示装置3に表示される。このように特定箇所PTaが複数の合成画像の各画像の中央部に表示されることで、自車両9のユーザは確認したい箇所の状況を正確に把握できる。詳細には、一方はドライバ視点の合成画像IMaで、他方は自車両9の外側の視点の合成画像IMbという異なる仮想視点からみた複数の合成画像を含む表示画像OUaを表示することで、ユーザは、自車両9の周辺に存在する物体の位置を死角なしにドライバの視線位置および視線方向で把握することができる。また、ユーザは、ドライバ視点だけでは正確に認識できない自車両9と物体との距離も自車両9の外部の位置を視点位置として、特定箇所PTaを画像中央部に表示する合成画像IMbにより、即座にかつ正確に認識することができる。
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像表示システム10の画像生成装置2では、上述の第1の実施の形態で説明したように、画像合成部22が、方向選択ボタンB2でユーザが操作部4を用いて選択した方向の操作信号に基づく画像制御部20aの制御により、記憶部27から仮想視点データ27bを読出す。そして、画像合成部22は仮想視点データ27bに基づいて、視点位置および視線方向の異なる2つの仮想視点を設定して合成画像を生成する。その中で、この第2の実施の形態では、自車両9の外部の位置を仮想視点の視点位置とする合成画像において、投影面TSの特定箇所PTaを拡大して示す合成画像(以下、「拡大画像」という。)を生成する。
即ち、第1の実施の形態での自車両9の外部の位置を仮想視点の視点位置とする合成画像IMbに対して、視点位置をより特定箇所PTaに近づけた合成画像生成する。ここで、拡大画像とは、例えば、ワールド(実空間上の)座標において特定箇所PTaを略中心とした半径約1m範囲が一つの合成画像上で50%以上を占める画像をいう。
第2の実施の形態の画像表示システムの10の構成および処理は、第1の実施の形態とほぼ同様であるが、このように自車両9の外部の位置を仮想視点の視点位置とする合成画像において、拡大画像を生成する点で、一部が相違する。このため以下、図8および図9を用いて相違点を中心に説明する。
図8は、拡大画像を生成する場合の仮想視点の視点位置について説明する図である。図8に示すように拡大画像の仮想視点VPcの視点位置は、図4に示した仮想視点VPbの視点位置よりも、仮想視点VPcの視点位置と特定箇所PTaとの距離が近づいている。つまり、仮想視点VPcの視点位置は、仮想視点VPbよりも車両像PGの前方方向(原点に対して+Y方向)に移動した視点位置となっている。なお、仮想視点VPcの視野方向は仮想視点VPbとは変わらず、さらにドライバの視点位置近傍の仮想視点VPaの視点位置および視野方向も変更はない。
そして、画像合成部22が仮想視点VPaおよび仮想視点VPcに基づいて、後述する図9に示す合成画像IMaおよび合成画像IMcを含む表示画像OUbを生成する。このように、表示画像中の複数の合成画像のうちユーザが確認したい箇所の状況を最も把握しやすい一つの合成画像のみが拡大画像として表示されることで、表示画像においてユーザが注視すべき部分が明確となり、ユーザはその箇所の状況をより正確に把握できる。
図9は、拡大画像を含む表示画像OUbについて説明する図である。図9の拡大画像である合成画像IMcの特定箇所PTaに対応する合成画像中の画像の範囲は、図5に示す合成画像IMbの特定箇所PTaに対応する合成画像中の範囲と比べて増加している。つまり、特定箇所PTaを略中心とした半径約1mの範囲が合成画像IMc上で50%以上となることで、この合成画像IMcが拡大画像となる。このように特定箇所PTaに対応する画像が合成画像IMcの中央部に表示された状態で、当該特定箇所PTaに対応する画像を拡大できるため、ユーザはドライバ視点で透過画像91を重畳した合成画像IMaだけでは把握できない自車両9と物体との距離をより詳細に確認できる。
なお、このような拡大画像の表示は、ユーザの操作に応じてユーザの任意のタイミングで表示装置3に表示できる。つまり、図5に示した表示画像OUaを表示装置3に表示した後、ユーザの操作部4の操作により表示画像OUaに替えて表示画像OUbを表示装置3に表示するようにしてもよいし、表示画像OUaを表示装置3に表示することなく、ユーザの操作部4の操作により表示画像OUbを表示装置3に表示するようにしてもよい。
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態の画像表示システム10の画像生成装置2は、表示画像中に表示される複数の合成画像の表示位置が、自車両9のドライバの視点位置近傍の仮想視点の視線方向(例えば、第1の実施の形態で説明した仮想視点VPaの視線方向)に応じて変更される表示画像を生成する。つまり、第3の実施の形態では、第1の実施の形態で、画像位置データ27cにより表示画像中の所定の表示位置に表示されるとした自車両9の外部の位置を視点位置とする合成画像の表示位置がドライバ視点の視線方向に応じて変化する。
詳細には、方向選択画像SEの方向選択ボタンB2でユーザが選択した方向(例えば、右方向)をドライバ視点に基づいて生成される合成画像(例えば、後述する図11に示す表示画像OUcの合成画像IMd)の視線方向とする。そして、自車両9の外部の位置を視点位置とする合成画像(例えば、図11に示す合成画像IMe)の表示位置をユーザの選択した方向(例えば、右方向)に対応した表示位置とする。具体的には、図11に示すように合成画像IMdに対して向かって右側が合成画像IMeの表示位置となる。これにより表示画像中に表示されている合成画像の表示位置をドライバーの感覚に一致させられる。
なお、第3の実施の形態の画像表示システム10の構成、および、処理は第1の実施の形態とほぼ同様であるが、このように仮想視点VPaの視線方向に応じて、表示画像中に表示される合成画像の表示位置が変更される点で一部が相違する。このため以下、図10から図14を用いて相違点を中心に説明する。
<3−1.合成画像の生成>
自車両9のドライバの視点位置近傍が視点位置となる仮想視点の視線方向が、自車両9の右前方の場合に生成される合成画像の表示画像中の表示位置について説明する。図10は、ドライバの視点位置近傍の仮想視点の視線方向が右前方の場合の仮想視点の設定について説明する図である。
画像合成部22は、方向選択ボタンB2でユーザが操作部4を用いて選択した方向の操作信号に基づく画像制御部20aの制御により、記憶部27から仮想視点データ27bを読出し、図10に示す仮想視点VPdおよび仮想視点VPeを設定する。具体的には画像合成部22は、自車両9のドライバの視点位置近傍(原点に対して+X側、+Y側、および、Z軸原点の位置)を視点位置とし、この視点位置から所定方向(例えば、自車両9のドライバの運転席側のフロントフェンダの外側領域の方向(原点に対して+X方向、+Y方向、および、−Z方向))を視線方向とする仮想視点VPdを設定する。また、画像合成部22は、自車両9の外部の位置(例えば、車両領域R0の外側の領域で、自車両9の右後方の位置(原点に対して+X側、−Y側、および、+Z側の位置))を視点位置とし、仮想視点VPdの視線方向の延長線上に位置する特定箇所PTbを指し示す方向(原点に対して+X方向、+Y方向、および、−Z方向)を視線方向とする仮想視点VPeを設定する。
図11は、ドライバの視点位置近傍の仮想視点の視線方向が右前方の場合の表示画像OUcについて説明する図である。表示画像OUcに対して向かって左側が合成画像IMdの表示位置で、合成画像IMdの隣(表示画像OUcに対して向かって右側)が合成画像IMeの表示位置となっている。
そして、上述のように合成画像IMdの自車両9のドライバの視点位置近傍を視点位置とする仮想視点VPdは、その視線方向を自車両9のドライバの運転席側のフロントフェンダの外側領域の方向として生成された画像である。つまり、自車両9に対して右前方(原点に対して+X方向、+Y方向、および、−Z方向)を視線方向としている。そのため、画像調整部23は表示画像OUc中の合成画像IMdに対する合成画像IMeの表示位置を仮想視点VPdの視線方向に対応させて右側とする。画像調整部23は、このようにドライバ視点位置近傍を視点位置とする仮想視点の視線方向に応じて、ドライバの視点位置近傍の仮想視点に基づく合成画像(ドライバ視点画像)の表示位置に対する他の合成画像の表示位置を変更する。このように各合成画像の表示される位置関係により、ユーザは、各合成画像が自分の位置からみてどの方向を映す画像なのかを直感的に把握できる。
次に、別の例として自車両9のドライバの視点位置近傍が視点位置となる仮想視点の視線方向が自車両9の後方の場合に生成される合成画像の表示画像中の表示位置について説明する。図12は、ドライバの視点位置近傍の仮想視点の視線方向が後方の場合の仮想視点の設定について説明する図である。画像合成部22は、方向選択ボタンB2でユーザが操作部4を用いて選択した方向の操作信号に基づく画像制御部20aの制御により、記憶部27から仮想視点データ27bを読出し、図12に示す仮想視点VPfおよび仮想視点VPgを設定する。
具体的には画像合成部22は、自車両9のドライバの視点位置近傍(原点に対して+X側、+Y側、および、Z軸原点の位置)を視点位置とし、この視点位置から所定方向(例えば、自車両9のリアバンパの領域の方向(原点に対してX軸原点、−Y方向、および、Z軸原点))を視線方向とする仮想視点VPfを設定する。また、画像合成部22は、自車両9の外部の位置(例えば、車両領域R0の外側の領域で、車両像PGの後方で、車両像PGの直上の位置(原点に対して、X軸原点、−Y側、および、+Z側)を視点位置とし、仮想視点VPfの視線方向の延長線上に位置する特定箇所PTcを指し示す方向(原点に対してX軸原点、−Y方向、および、−Z方向)を視線方向とする仮想視点VPgを設定する。
図13は、ドライバの視点位置近傍の仮想視点の視線方向が後方の場合の表示画像OUdについて説明する図である。表示画像OUd中の上側が合成画像IMfの表示位置で、表示画像OUd中の下側が合成画像IMgの表示位置となっている。つまり、合成画像IMfの下側に合成画像IMgが位置している。
そして、上述のように合成画像IMfの自車両9のドライバの視点位置近傍を視点位置とする仮想視点VPfは、その視線方向を自車両9の後方でリアバンパの方向として生成された画像である。つまり、自車両9に対して後方(原点に対してX軸原点、−Y方向、および、Z軸原点)を視線方向としている。そのため、画像調整部23は表示画像OUd中の合成画像IMfに対する合成画像IMgの表示位置を仮想視点VPfの視線方向に対応させて合成画像IMfの下側とする。
さらに別の例としてドライバの視点位置近傍の仮想視点の視線方向が自車両9に対して前方(原点に対してX軸原点、+Y方向、および、Z軸原点)の場合は、ドライバの視点位置近傍の仮想視点に対応する一方の合成画像に対して、他方の合成画像の表示位置を上側としてもよい。そして、ドライバの視点位置近傍の仮想視点の視線方向に応じて、ドライバ視点画像に対する他の合成画像の表示位置は、これまで述べた表示位置以外の表示位置としてもよい。
<3−2.画像の切替>
図14は、表示装置3に表示される画像の切替えについて説明する図である。図14の方向選択画像SEにおいてユーザが、例えば後方ボタンB44を操作すると、図12および図13を用いて説明した画像合成部22による仮想視点の設定に基づく合成画像の生成と、画像調整部23による表示画像中の各合成画像の表示位置の決定により、図14に示す表示画像OUdが表示装置3に表示される。また、方向選択ボタンB2におけるその他の方向のボタン(例えば、左前方ボタン42や右前方ボタン43など)をユーザが選択することで、図5を用いて説明した表示画像OUaや図11を用いて説明した表示画像OUcなどが表示装置3に表示される。
<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、表示画像中の2つの合成画像の視点位置および視線方向について具体的な例を示して説明したが、これらの合成画像において、ドライバ視点の合成画像の視線方向と、自車両の外部の視点の視点位置および視線方向とは、上記以外の視点位置および視線方向であってもよい。
上記実施の形態では、自車両9のユーザが操作部4を操作したことに伴う、操作信号を操作受付部25が受信した場合に、画像生成装置2が複数の合成画像を含む表示画像を生成することについて説明した。これに対して、その他の条件により画像生成装置2が表示画像を生成するようにしてもよい。例えば、自車両9がレーダ装置やクリアランスソナーなどの自車両9の周辺の物体を検出可能なセンサを搭載している場合、これらのセンサが検出した物体の位置が、自車両9と物体とが所定の位置関係の条件を満たす場合(例えば、自車両9に対して比較的近い距離に物体検出された場合)に、画像生成装置2がセンサが検出した物体の位置を中心とした複数の合成画像を含む表示画像を生成するようにしてもよい。
ここで、上記センサにより所定の位置関係の条件を満たす物体が複数検出された場合は、例えば、自車両9に搭載された視線センサにより検出された自車両9のドライバの視線方向に存在する物体の位置情報に基づいて、画像生成装置2が表示画像を生成するようにしてもよい。
その他にも自車両9がIG-ONされた場合、自車両9のシフト切替えが行われた場合、車両速度が所定速度を超えた場合、ステアリングホイールの回転角が所定角度を超えた場合など、自車両9に関する何らかの情報を画像生成装置2が取得した場合に、この画像生成装置2が表示画像を生成するようにしてもよい。例えば、自車両9のシフトの位置が自車両9を後退させる位置(リバース)とされた場合、例えば、ユーザが方向選択画像SEの方向選択ボタンB2の「後方」を選択した場合と同様に、図12の仮想視点VPgを設定し、図13に示す合成画像IMf、および、IMgを含む表示画像OUdを表示するようにしてもよい。
また、上記実施の形態において、表示画像を表示装置3に表示する場合、自車両9の移動に伴い、表示画像中のドライバ視点画像の視点位置を固定し、視線方向を変更させてもよい。さらに、ドライバ視点画像の視線方向の変更に伴い、ドライバ視点画像とは他の合成画像の仮想視点の視点位置および視線方向の少なくともいずれか一方を変更し、自車両9が移動しても表示画像に表示される自車両9の周辺の状況をユーザが常に把握できるようにしてもよい。ここで、ドライバ画像の仮想視点の視線方向や他の合成画像の仮想視点の視点位置および視線方向の少なくとも一方を変更する時間間隔は任意に設定可能である。
また、上記実施の形態において、画像生成装置2の制御部20によって実現されると説明した機能の一部は、表示装置3の制御部によって実現されてもよい。
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。
2 画像生成装置
3 表示装置
4 操作部
5 撮影部
9 自車両
10 画像表示システム

Claims (4)

  1. 車両に搭載されたカメラの撮影画像を取得する取得手段と、
    前記車両のドライバの視点位置近傍を仮想視点の視点位置とし、該視点位置から所定方
    向を前記仮想視点の視線方向として生成される画像で、該画像に含まれる前記車両の画像
    が透過画像である第1画像を前記撮影画像に基づいて生成する第1生成手段と、
    前記車両の外部の位置を前記仮想視点の視点位置とし、前記第1画像における前記仮想視
    点の視線方向の延長線上に位置する特定箇所を指し示す方向を前記仮想視点の視線方向と
    して生成される第2画像を前記撮影画像に基づいて生成する第2生成手段と、
    前記第1画像の前記仮想視点の視線方向に応じて、前記第1画像に対する前記第2画像の表示位置を変更する変更手段と、
    を備えることを特徴とする画像生成装置。
  2. 請求項1に記載の画像生成装置において、
    前記第2生成手段は、前記特定箇所を拡大して示す拡大画像を生成すること、
    を特徴とする画像生成装置。
  3. 請求項1または2に記載の画像生成装置と、
    前記画像生成装置から出力された前記第1画像、および、前記第2画像を表示する表示
    装置と、
    を備えることを特徴とする画像表示システム。
  4. (a)車両に搭載されたカメラの撮影画像を取得する工程と、
    (b)前記車両のドライバの視点位置近傍を仮想視点の視点位置とし、該視点位置から所
    定方向を前記仮想視点の視線方向として生成される画像で、該画像に含まれる前記車両の
    画像が透過画像である第1画像を前記撮影画像に基づいて生成する工程と、
    (c)前記車両の外部の位置を前記仮想視点の視点位置とし、前記第1画像における前記
    仮想視点の視線方向の延長線上に位置する特定箇所を指し示す方向を前記仮想視点の視線
    方向として生成される第2画像を前記撮影画像に基づいて生成する工程と、
    前記第1画像の前記仮想視点の視線方向に応じて、前記第1画像に対する前記第2画像の表示位置を変更する工程と、
    を備えることを特徴とする画像生成方法。
JP2012210430A 2012-09-25 2012-09-25 画像生成装置、画像表示システム、および、画像生成方法 Active JP5977130B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012210430A JP5977130B2 (ja) 2012-09-25 2012-09-25 画像生成装置、画像表示システム、および、画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012210430A JP5977130B2 (ja) 2012-09-25 2012-09-25 画像生成装置、画像表示システム、および、画像生成方法

Publications (2)

Publication Number Publication Date
JP2014067120A JP2014067120A (ja) 2014-04-17
JP5977130B2 true JP5977130B2 (ja) 2016-08-24

Family

ID=50743482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012210430A Active JP5977130B2 (ja) 2012-09-25 2012-09-25 画像生成装置、画像表示システム、および、画像生成方法

Country Status (1)

Country Link
JP (1) JP5977130B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018005391T5 (de) 2017-11-10 2020-06-25 Denso Corporation Anzeigeverarbeitungsvorrichtung

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6938123B2 (ja) * 2016-09-01 2021-09-22 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6962035B2 (ja) * 2017-07-07 2021-11-05 株式会社アイシン 周辺監視装置
JP7103773B2 (ja) * 2017-10-24 2022-07-20 株式会社デンソーテン 画像処理装置及び画像処理方法
EP3896962A4 (en) * 2018-12-11 2022-01-26 Sony Group Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM
EP3896960A4 (en) * 2018-12-11 2022-01-26 Sony Group Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4067424B2 (ja) * 2003-02-21 2008-03-26 株式会社デンソー 車両周辺画像処理装置及びプログラム並びに記録媒体
JP5412979B2 (ja) * 2009-06-19 2014-02-12 コニカミノルタ株式会社 周辺表示装置
JP5436086B2 (ja) * 2009-08-03 2014-03-05 アルパイン株式会社 車両周辺画像表示装置および車両周辺画像表示方法
JP5158051B2 (ja) * 2009-09-18 2013-03-06 三菱自動車工業株式会社 運転支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018005391T5 (de) 2017-11-10 2020-06-25 Denso Corporation Anzeigeverarbeitungsvorrichtung

Also Published As

Publication number Publication date
JP2014067120A (ja) 2014-04-17

Similar Documents

Publication Publication Date Title
JP6014442B2 (ja) 画像生成装置、画像表示システム、および、画像生成方法
JP5412979B2 (ja) 周辺表示装置
JP5977130B2 (ja) 画像生成装置、画像表示システム、および、画像生成方法
JP6548900B2 (ja) 画像生成装置、画像生成方法及びプログラム
WO2010137684A1 (ja) 画像生成装置及び画像表示システム
JP6084097B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
KR102570780B1 (ko) 화상 처리 장치, 이동 장치 및 방법, 그리고 프로그램
JP6257978B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
EP3069935B1 (en) Rearview mirror angle setting system, method, and program
JP2018107754A (ja) 画像生成装置および画像生成方法
JP2016063390A (ja) 画像処理装置、及び画像表示システム
JP2014069629A (ja) 画像処理装置、及び画像処理システム
JP2020088697A (ja) 周辺監視装置
JP2015184839A (ja) 画像生成装置、画像表示システム及び画像生成方法
JP5479639B2 (ja) 画像処理装置、画像処理システム、および、画像処理方法
JP2012091625A (ja) 運転支援システム、運転支援方法および運転支援プログラム
JP2016213841A (ja) 画像生成装置、画像表示システム及び画像生成方法
JP7135378B2 (ja) 周辺監視装置
JP6816436B2 (ja) 周辺監視装置
JP2018142340A (ja) 画像生成装置、画像表示システム及び画像生成方法
CN111201788A (zh) 图像处理装置
JP2016141303A (ja) 視界支援装置
JP6610139B2 (ja) 周辺監視装置
JP2023006857A (ja) ビュー表示装置およびビュー表示方法
JP5765575B2 (ja) 撮影領域明示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160721

R150 Certificate of patent or registration of utility model

Ref document number: 5977130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250