JP2021150838A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2021150838A
JP2021150838A JP2020049619A JP2020049619A JP2021150838A JP 2021150838 A JP2021150838 A JP 2021150838A JP 2020049619 A JP2020049619 A JP 2020049619A JP 2020049619 A JP2020049619 A JP 2020049619A JP 2021150838 A JP2021150838 A JP 2021150838A
Authority
JP
Japan
Prior art keywords
image
vehicle
virtual viewpoint
camera
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020049619A
Other languages
English (en)
Inventor
進 福▲崎▼
Susumu Fukuzaki
進 福▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2020049619A priority Critical patent/JP2021150838A/ja
Publication of JP2021150838A publication Critical patent/JP2021150838A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】起動時に違和感の少ない画像を生成することができる画像処理装置を提供する。【解決手段】画像処理装置は、画像生成部と、合成部と、起動時処理部と、を備える。前記画像生成部は、カメラによって撮影された撮影画像に基づいて、仮想視点から見た自車両の周辺を示す仮想視点画像を生成する。前記合成部は、前記仮想視点画像と、自車両表示領域に配置される自車両画像と、を合成する。前記起動時処理部は、起動時に、前記自車両表示領域を、前記撮影画像に含まれる色に対応する所定色に設定する。【選択図】図1

Description

本発明は、画像処理装置に関する。
従来、車両に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た車両の周辺を示す仮想視点画像を生成する画像処理技術が種々に開発されている(例えば特許文献1参照)。上述した仮想視点画像は、例えば車両の運転を支援するため等に用いられる。
特許文献1で開示されている画像処理装置では、仮想視点画像と自車両画像とを合成している。
特許第4579132号公報 特開2014−68308号公報
自車両画像の見栄えを良くすること等を目的として、例えば特許文献2ではポリゴンモデルを用いて自車両画像が生成されている。
しかしながら、ポリゴンモデルを用いて自車両画像を生成する場合、画像処理装置の起動時に自車両画像の生成が完了するまで時間がかかってしまう。そして、自車両画像の生成が完了する前に生成する画像は、必然的に自車両画像が合成されていない画像になるため、違和感の多い画像になる可能性があった。
本発明は、上記課題に鑑みて、起動時に違和感の少ない画像を生成することができる画像処理装置を提供することを目的とする。
本発明の一局面に係る画像処理装置は、カメラによって撮影された撮影画像に基づいて、仮想視点から見た自車両の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像と、自車両表示領域に配置される自車両画像と、を合成する合成部と、起動時に、前記自車両表示領域を、前記撮影画像に含まれる色に対応する所定色に設定する起動時処理部と、を備える構成(第1の構成)である。
上記第1の構成の画像処理装置において、前記所定色は、起動時に前記カメラによって撮影された前記撮影画像の自車両近傍領域の色である構成(第2の構成)であってもよい。
上記第1の構成の画像処理装置において、前記所定色は、前記撮影画像に映り込んでいる自車両ボディの色である構成(第3の構成)であってもよい。
上記第1の構成の画像処理装置において、前記所定色は、自車両停止時に前記カメラによって撮影された前記撮影画像の自車両近傍領域の色又は自車両停止時に前記カメラによって撮影された前記撮影画像の自車両近傍領域の色を補正した色である構成(第4の構成)であってもよい。
本発明の他の局面に係る画像処理装置は、カメラによって撮影された撮影画像に基づいて、仮想視点から見た自車両の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像と、自車両表示領域に配置される自車両画像と、を合成する合成部と、起動時に前記自車両表示領域に図形を配置する起動時処理部と、を備え、前記図形は起動完了後に前記自車両画像によって全体を隠すことができる位置に配置される構成(第5の構成)である。
本発明の更に他の局面に係る画像処理装置は、カメラによって撮影された撮影画像に基づいて、仮想視点から見た自車両の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像と、自車両表示領域に配置される自車両画像と、を合成する合成部と、起動時に、起動よりも前に予め記憶している事前記憶画像を前記自車両画像として前記合成部に提供する起動時処理部と、を備える構成(第6の構成)である。
上記第6の構成の画像処理装置において、前記事前記憶画像は、自車両ポリゴンモデルのレンダリング像をキャプチャした画像である構成(第7の構成)であってもよい。
本発明に係る画像処理装置によると、起動時に違和感の少ない画像を生成することができる。
車両周辺監視システムの構成を示すブロック図 4つのカメラが配置された車両を示す模式図 画像生成部が仮想視点画像を生成する手法を説明するための図 画像処理装置の動作を示すフローチャート 仮想視点画像を示す模式図 第1実施形態での起動時処理で得られる画像を示す模式図 合成画像を示す模式図 第2実施形態での起動時処理で得られる画像を示す模式図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。
<システムの構成>
図1は、本発明の実施の形態に係る車両周辺監視システムSYS1の構成を示すブロック図である。車両周辺監視システムSYS1は、車両ごとに搭載される。車両周辺監視システムSYS1は、当該システムを搭載する車両の周辺状況を監視する機能を有する。図1に示すように、車両監視システムSYS1は、画像処理システムSYS2と、表示装置3と、を備える。画像処理システムSYS2は、車両の周囲を撮影する撮影部1と、画像処理装置2とを備える。以下の説明では、画像処理装置2を搭載する車両を自車両と呼ぶ。
画像処理システムSYS2は、自車両の周辺を撮影して画像を生成し、生成した画像を表示装置3に出力する機能を有する。また、画像処理システムSYS2は、自車両の周辺を撮影して得られた画像に基づいて、検出対象を検出する機能も有する。本実施の形態では、検出対象には駐車枠が含まれる。なお、これは例示であり、検出対象には、移動体等が含まれてよい。検出した駐車枠情報は、例えば駐車支援等を行う運転支援装置(不図示)によって使用される。
撮影部1は、自車両に搭載される4つのカメラ11〜14を備える。すなわち、画像処理システムSYS2は、車両に搭載されるカメラ11〜14を備える。図2は、4つのカメラ11〜14が配置された車両4を示す模式図である。本実施の形態において、自車両4は自動車である。撮影部1が備えるカメラの数は例示であり、カメラの数は適宜変更されてよい。各カメラ11〜14は、有線又は無線で画像処理装置2に接続されており、撮影画像を画像処理装置2に送信する。
図2に示すように、カメラ11は自車両4の前端に設けられる。このため、カメラ11をフロントカメラ11とも呼ぶ。フロントカメラ11の光軸11aは平面視で自車両4の前後方向に沿っている。フロントカメラ11は自車両4の前方向を撮影する。カメラ14は自車両4の後端に設けられる。このため、カメラ14をバックカメラ14とも呼ぶ。バックカメラ14の光軸14aは平面視で自車両4の前後方向に沿っている。バックカメラ14は自車両4の後方向を撮影する。フロントカメラ11及びバックカメラ14の取付け位置は、自車両4の左右中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
カメラ12は自車両4の左側ドアミラー41に設けられる。このため、カメラ12を左サイドカメラ12とも呼ぶ。また自車両がいわゆるドアミラーレス車である場合には、左サイドカメラは、左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。左サイドカメラ12の光軸12aは平面視で自車両4の左右方向に沿っている。左サイドカメラ12は自車両4の左方向を撮影する。カメラ13は自車両4の右側ドアミラー42に設けられる。このため、カメラ13を右サイドカメラ13とも呼ぶ。また自車両がいわゆるドアミラーレス車である場合には、右サイドカメラは、右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。右サイドカメラ13の光軸13aは平面視で自車両4の左右方向に沿っている。右サイドカメラ13は自車両4の右方向を撮影する。
各カメラ11〜14のレンズとしては、例えば魚眼レンズが使用される。各カメラ11〜14の水平方向の画角θは180度以上である。このため、4つのカメラ11〜14を利用することで、自車両4の水平方向における全周囲を撮影することが可能になっている。
画像処理装置2は、撮影部1によって撮影された撮影画像を取得して、当該撮影画像の処理を行う。また、画像処理装置2は、撮影画像を処理して得られた処理画像を表示装置3に出力する。また、画像処理装置2は、撮影画像を処理して、撮影画像中から検出対象(例えば駐車枠)を検出する。画像処理装置2は、自車両4の所定の位置に配置される。すなわち、画像処理装置2は、自車両において用いられる。画像処理装置2の詳細については後述する。
表示装置3は、例えばタッチパネル等の操作機能を有する液晶等のディスプレイを備え、画像処理システムSYS2による処理で得られた表示画像を表示する。表示装置3は、自車両4の乗員(代表的には運転者)がディスプレイの表示画面を視認できる位置に設けられる。例えば、表示装置3は、自車両4のインストルメントパネルに設置される。なお、表示装置3は、自車両4に搭載されるナビゲーション装置等の表示部であってもよい。
<画像処理装置の構成>
画像処理装置2は、ECU(Electronic Control Unit)として構成される。図1に示すように、画像処理装置2は、画像生成部21と、制御部22と、合成部23と、通信部24と、記憶部25と、を備える。
画像生成部21は、撮影部1で撮影された撮影画像を処理して表示用画像を生成する。本実施の形態では、画像生成部21は、各種の画像処理が可能なハードウェア回路として構成されている。本実施の形態では、画像生成部21は、自車両4に搭載されるカメラ11〜14による撮影画像に基づいて、仮想視点から見た自車両4の周辺を示す仮想視点画像を生成する。仮想視点画像を生成する手法の詳細については後述する。
仮想視点画像は、合成部23によって自車両画像と合成された後、通信部24によって表示装置3に出力され、表示装置3の表示画面に表示される。
制御部22は、画像処理装置2の全体を制御する。制御部22は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータである。本実施の形態では、制御部22は、画像制御部221と、表示制御部222と、起動時処理部223と、を備える。制御部22が備えるこれらの各部は、例えばROMに格納されるプログラムに従ってCPUが演算処理を行うことによって実現される機能である。
画像制御部221は、画像生成部21によって実行される画像処理及び合成部23によって実行される画像処理を制御する。例えば、画像制御部221は、画像生成部21に対して、仮想視点画像を生成するために必要となる各種のパラメータ等の指示を行い、合成部23に対して、合成画像を生成するために必要となる各種のパラメータ等の指示を行う。
表示制御部222は、主に画像処理装置2の処理によって得られた画像情報を表示装置3で表示させるための制御を行う。例えば、表示制御部222は、合成部23で生成された合成画像を表示装置3に出力する際の制御を行う。
自車両画像生成部223は自車両画像を生成する。自車両画像生成部223の処理内容については後述する。
起動時処理部224は後述する第1〜第3実施形態それぞれで異なる処理を行う。起動時処理部224の処理内容については後述する。
通信部24は、表示装置3との間で通信を行う。通信部24は、例えば、合成部23で生成された合成画像を表示装置3に出力する。また、通信部24は、運転者等が表示装置3の操作を行った場合に操作部(タッチパネル等)から送信される信号を受信する。
記憶部25は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部25は、例えば、ファームウェアとしてのプログラム、画像生成部21が仮想視点画像を生成するための各種のデータを記憶する。
<仮想視点画像の生成処理>
画像生成部21が、仮想視点から見た自車両4の周辺の様子を示す仮想視点画像を生成する手法について説明する。図3は、画像生成部21が仮想視点画像を生成する手法を説明するための図である。画像生成部21は、仮想視点画像の生成に仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある仮想視点画像を生成する。
フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及び、バックカメラ14によって、自車両4の前方、左側方、右側方、及び、後方をそれぞれ示す4つの撮影画像P11〜P14が同時に取得される。これら4つの撮影画像P11〜P14には、自車両4の全周囲のデータが含まれている。画像生成部21は、これら4つの撮影画像P11〜P14を取得する。4つの撮影画像P11〜P14内のベタ塗り部分は、撮影画像に映り込んでいる自車両4のボディである。
画像生成部21は、これら4つの撮影画像P11〜P14に含まれるデータ(画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしており、その中心部(お椀の底部分)が自車両4の位置として定められている。撮影画像P11〜P14に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められている。この対応関係を示すテーブルデータは、記憶部25に記憶されている。投影面TSの各画素の値は、この対応関係と、撮影画像P11〜P14に含まれる各画素の値とに基づいて決定できる。なお、図2に示す斜線領域に対応する投影面TSの領域では、2つのカメラからの撮影画像が投影される。図2に示す斜線領域に対応する投影面TSの領域では、例えば2つのカメラからの撮影画像を所定の割合でブレンドすればよい。
次に、画像生成部21は、画像制御部221の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像生成部21は、任意の視点位置、かつ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像生成部21は、設定された仮想視点VPに応じて投影面TSにおける必要な領域を切り出す。これにより、任意の仮想視点VPから見た仮想視点画像が生成される。
例えば、図3に示すように、視点位置を自車両4の真上、視線方向を直下とした仮想視点VPaを想定した場合、自車両4及び自車両4の周辺を俯瞰する仮想視点画像(俯瞰画像)と、自車両4 の像と、を合成した合成画像CPaを得ることができる。また、視点位置を自車両4の左後方、視線方向を自車両4の前方とした仮想視点VPbを想定した場合、自車両4の左後方から見た自車両4及び自車両4の周辺を示す仮想視点画像と、自車両4の像と、を合成した合成画像CPbを得ることができる。
なお、自車両画像生成部223は、仮想視点画像CP中に示す自車両4の像を、自車両4の三次元形状を示すポリゴンのモデル(自車両ポリゴンモデル)から生成する。自車両ポリゴンモデルは、投影面TSが設定される仮想的な三次元空間において、自車両4が存在する位置として定められた位置(投影面TSの中心部分)に配置される。
自車両画像生成部223は、仮想視点VPに応じて、自車両ポリゴンモデルに関してレンダリングを行い、自車両画像として自車両ポリゴンモデルのレンダリング像を生成する。
<画像処理装置の動作>
図4は、画像処理装置2の動作を示すフローチャートである。自車両4のイグニッションスイッチ(電気自動車である場合はパワースイッチ)がオンになると、画像処理装置2に電源が投入されて画像処理装置2が起動し、画像処理装置2は図4に示すフロー動作を開始する。
まず、画像制御部221の指示に従って、画像生成部21が、仮想視点から見た自車両4の周辺の様子を示す仮想視点画像を生成する画像生成処理を実行する(ステップS10)。また、画像処理装置2の直後から自車両画像生成部223は、自車両ポリゴンモデルのレンダリング像を生成するために必要な処理を開始する。
次に、制御部22は、自車両ポリゴンモデルのレンダリング像が生成されたか否かを確認する(ステップS20)。
自車両ポリゴンモデルのレンダリング像が生成されていなければ、起動時処理部224が起動時処理を実行し(ステップS30)、その後ステップS20に戻る。
一方、自車両ポリゴンモデルのレンダリング像が生成されていれば、合成部23は、仮想視点画像と、自車両ポリゴンモデルのレンダリング像とを合成する(ステップS40)。ステップS40の処理が終わると、ステップS20に戻る。
<第1実施形態>
本実施形態では、ステップS30において、起動時処理部224が、自車両表示領域を、カメラ11〜14によって撮影された撮影画像の少なくとも一つに含まれる色に対応する所定色に設定する。例えば、撮影画像に灰色の路面が多く映っている場合、所定色を灰色に設定する。
ここで、例えば図5に示す仮想視点画像F1が視点位置を自車両4の真上、視線方向を直下とした仮想視点を想定した場合の俯瞰画像である場合、仮想視点画像F1(=図5中の網目部分)に映り込んでいる自車両4のボディを完全に囲む領域R1を、上記の自車両表示領域とすることができる。言い換えれば、自車両表示領域R1以外の領域は、仮想視点画像F1内の自車両4のボディが映り込んでいる領域を含まない。自車両表示領域R1は、領域R2(=図5中の白の長方形枠部分)も囲んでいる。領域R2は、カメラ11〜14によって撮影された撮影画像の撮影領域外に該当する領域である。領域R2には、ステップS40の処理によって自車両ポリゴンモデルのレンダリング像が配置される。
上述した所定色が例えば灰色である場合、ステップS30の処理によって図6に示すように、領域R1を灰色で塗りつぶした画像と仮想視点画像F1とを合成した合成俯瞰画像が得られる。なお、合成俯瞰画像において、領域R1を灰色で塗りつぶした画像と仮想視点画像F1とが重複する領域は、仮想視点画像F1に対して領域R1を灰色で塗りつぶした画像を重ねている。言い換えれば、合成俯瞰画像において、領域R1を灰色で塗りつぶした画像と仮想視点画像F1とが重複する領域の画素データは、領域R1を灰色で塗りつぶした画像の画素データとなっている。ステップS40の処理が終わるまでは、ステップS30の処理で得られた画像を表示装置3に表示させるとよい。
上述した所定色は、カメラ11〜14によって撮影された撮影画像に含まれる色に対応するので、領域R1を仮想視点画像F1或いは自車両ポリゴンモデルのレンダリング像F2に対して目立たないようにすることできる。つまり、画像処理装置2は、起動時に違和感の少ない画像を生成することができる。
なお、ステップS40の処理が終わると、図7に示す画像(=ステップS40の処理によって得られる合成画像)のように領域R1に自車両ポリゴンモデルのレンダリング像F2が配置される。図7に示す画像において、領域R1内の自車両ポリゴンモデルのレンダリング像F2が重なっていない領域は、上述した所定色であってもよく、上述した所定色でなくてもよい。自車両ポリゴンモデルのレンダリング像F2が存在するため、領域R1内の自車両ポリゴンモデルのレンダリング像F2が重なっていない領域は目立たないからである。
図6に示す画像又は図7に示す画像は単独で表示装置3に表示されてもよく、例えば自車両4のシフトレバーがバックのレンジであるときには、図6に示す画像又は図7に示す画像と、バックカメラ14で撮影した撮影画像とが並んで表示装置3に表示されてもよい。
上述した所定色は、例えば、起動時にカメラ11〜14によって撮影された撮影画像の少なくとも一つの自車両近傍領域の色にすればよい。これにより、上述した所定色と仮想視点画像F1との境界が分かり難くなり、領域R1を仮想視点画像F1に対して目立たないようにすることできる。
なお、自車両近傍領域の色は通常単一色ではないため、例えば自車両近傍領域の平均的な色を自車両近傍領域の色としてもよく、自車両近傍領域内で最も画素数が多かった色を自車両近傍領域の色としてもよい。
また、上述した所定色は、例えば、カメラ11〜14によって撮影された撮影画像の少なくとも一つに映り込んでいる自車両ボディの色にしてもよい。これにより、ステップS30の処理で得られる画像からステップS40の処理で得られる画像に表示が切り替わる際の違和感を少なくすることができる。つまり、ステップS30の処理で得られる画像を違和感の少ない画像にすることができる。
上述した所定色は、例えば、自車両4の停止時にカメラ11〜14によって撮影された撮影画像の少なくとも一つの自車両近傍領域の色にしてもよい。これにより、画像処理装置2の起動後に起動時処理部224が自車両近傍領域の色を把握しなくてすむため、起動時処理部224はより早くステップS30の処理を終えることができる。
なお、自車両4が停止しているが自車両4のシフトレバーがパーキングのレンジでない場合には、自車両4の停止とみなさないようにしてもよい。自車両4のシフトレバーがパーキングのレンジでなければ、自車両4のイグニッションスイッチ(電気自動車である場合はパワースイッチ)がオフになる前に自車両4が再び動き出すことが想定されるからです。
また、自車両4の停止時と画像処理装置2の起動時とで自車両近傍領域の色が異なっている場合があるので、自車両4の停止時にカメラ11〜14によって撮影された撮影画像の少なくとも一つの自車両近傍領域の色を補正して、上述した所定色にしてもよい。例えば、自車両4の停止時が日中であり、画像処理装置2の起動時が夕方であれば、自車両4の停止時にカメラ11〜14によって撮影された撮影画像の少なくとも一つの自車両近傍領域の色を暗めに補正すればよい。
<第2実施形態>
本実施形態では、ステップS30において、起動時処理部224が、自車両表示領域に図形を配置する。より詳細には、起動時処理部224は、上記の図形を画像処理装置2の起動完了後に自車両ポリゴンモデルのレンダリング像F2(図7参照)によって全体を隠すことができる位置に配置する。好ましくは、起動時処理部224は、上記の図形を、レンダリング像F2の表示範囲の境界を示し、かつレンダリング像F2によって当該図形の全体が隠される図形とする。
図8は、本実施形態での起動時処理で得られる画像を示す模式図である。図8に示す画像では、上述した図形を点線矩形F3にしている。点線矩形F3は、自車両ポリゴンモデルのレンダリング像F2(図7参照)が配置される領域の境界を示し、かつレンダリング像F2によって点線矩形F3全体が隠される図形である。点線矩形F3によってレンダリング像F2の出現と表示位置を仄めかしていることになるため、ステップS30の処理で得られる画像からステップS40の処理で得られる画像に表示が切り替わる際の違和感を少なくすることができる。つまり、ステップS30の処理で得られる画像を違和感の少ない画像にすることができる。
<第3実施形態>
本実施形態では、ステップS30において、起動時処理部224が、画像処理装置2の起動よりも前に記憶部25が予め記憶している事前記憶画像を自車両画像として合成部23に提供する。そして、ステップS40に移行するまでの間、合成部23は、上記の事前記憶画像と、仮想視点画像と、を合成するようにする。
これにより、ステップS30の処理で得られる画像を、ステップS40の処理で得られる画像に類似させることができるため、ステップS30の処理で得られる画像からステップS40の処理で得られる画像に表示が切り替わる際の違和感を少なくすることができる。つまり、ステップS30の処理で得られる画像を違和感の少ない画像にすることができる。
なお、ステップS40に移行することにより、自車両ポリゴンモデルのレンダリング像F2(図7参照)によって、例えば方向指示器の点滅、ドアの開閉等を表現することが可能になる。つまり、ステップS30の処理で得られる画像からステップS40の処理で得られる画像に表示を切り替えることで、より高度な表示が可能となる。
上述した事前記憶画像は、自車両ポリゴンモデルのレンダリング像F2(図7参照)をキャプチャした画像であることが好ましい。ステップS30の処理で得られる画像と、ステップS40の処理で得られる画像との類似度を高めることができるからである。レンダリング像F2を事前記憶画像とする場合は、イグニッションスイッチがオフされたタイミングで、その時点のレンダリング像F2を事前記憶画像として不揮発性メモリに記憶すればよい。これにより、前回のトリップ終了時のレンダリング像F2が事前記憶画像として記憶され、今回の起動時の自車両画像として使用される。あるいは、イグニッションスイッチがオンされている間、定期的にレンダリング像F2を不揮発性メモリに上書き保存するようにしてもよい。これによっても、前回のトリップ時におけるレンダリング像F2が事前記憶画像として記憶され、今回の起動時の自車両画像として使用される。
しかしながら、上述した事前記憶画像として、自車両4を表すイラスト画像等を用いても構わない。自車両4を表すイラスト画像等を用いた場合でも、ステップS30の処理で得られる画像を違和感の少ない画像にすることができるからである。なお、この場合は、製品出荷前に予め自車両4を表すイラスト画像が記憶部25に記憶される。
<留意事項>
本明細書における実施形態や実施例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。例えば、第1実施形態と第2実施形態とは組み合わせて実施することができる。
上述した第1実施形態及び第2実施形態では、ステップS30の処理で得られる画像からステップS40の処理で得られる画像に表示が切り替わったときに初めて自車両画像が出現することになる。この自車両画像がスムーズに現れるようにするため、ステップS40に移行してから時間の経過に伴って自車両画像の透過度を100%から徐々に低くし、最終的に自車両画像の透過度を零にするようにしてもよい。また、第3実施形態では、ステップS30の処理で得られる画像からステップS40の処理で得られる画像に表示が切り替わったときに自車両画像に変化が生じる可能性がある。この自車両画像の変化を目立たせなくするため、ステップS30の処理で得られる自車両画像の透過度を100%から零より大きい値まで徐々に低くしていき、ステップS40の処理で得られる自車両画像で透過度を零としてもよい。
上述した実施形態では、俯瞰画像である仮想視点画像を用いて起動時処理部224が起動時処理を実行したが、仮想視点画像は俯瞰画像でなくてもよい。例えば、視点位置を自車両4の車室内とし、自車両4の車室内から車外を視るように設定された仮想視点での仮想視点画像を用いて起動時処理部224が起動時処理を実行してもよい。
2 画像処理装置
4 自車両
11 フロントカメラ
12 左サイドカメラ
13 右サイドカメラ
14 バックカメラ
21 画像生成部
23 合成部
224 起動時処理部

Claims (7)

  1. カメラによって撮影された撮影画像に基づいて、仮想視点から見た自車両の周辺を示す仮想視点画像を生成する画像生成部と、
    前記仮想視点画像と、自車両表示領域に配置される自車両画像と、を合成する合成部と、
    起動時に、前記自車両表示領域を、前記撮影画像に含まれる色に対応する所定色に設定する起動時処理部と、
    を備える、画像処理装置。
  2. 前記所定色は、起動時に前記カメラによって撮影された前記撮影画像の自車両近傍領域の色である、請求項1に記載の画像処理装置。
  3. 前記所定色は、前記撮影画像に映り込んでいる自車両ボディの色である、請求項1に記載の画像処理装置。
  4. 前記所定色は、自車両停止時に前記カメラによって撮影された前記撮影画像の自車両近傍領域の色又は自車両停止時に前記カメラによって撮影された前記撮影画像の自車両近傍領域の色を補正した色である、請求項1に記載の画像処理装置。
  5. カメラによって撮影された撮影画像に基づいて、仮想視点から見た自車両の周辺を示す仮想視点画像を生成する画像生成部と、
    前記仮想視点画像と、自車両表示領域に配置される自車両画像と、を合成する合成部と、
    起動時に前記自車両表示領域に図形を配置する起動時処理部と、
    を備え、
    前記図形は起動完了後に前記自車両画像によって全体を隠すことができる位置に配置される、画像処理装置。
  6. カメラによって撮影された撮影画像に基づいて、仮想視点から見た自車両の周辺を示す仮想視点画像を生成する画像生成部と、
    前記仮想視点画像と、自車両表示領域に配置される自車両画像と、を合成する合成部と、
    起動時に、起動よりも前に予め記憶している事前記憶画像を前記自車両画像として前記合成部に提供する起動時処理部と、
    を備える、画像処理装置。
  7. 前記事前記憶画像は、自車両ポリゴンモデルのレンダリング像をキャプチャした画像である、請求項6に記載の画像処理装置。
JP2020049619A 2020-03-19 2020-03-19 画像処理装置 Pending JP2021150838A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049619A JP2021150838A (ja) 2020-03-19 2020-03-19 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049619A JP2021150838A (ja) 2020-03-19 2020-03-19 画像処理装置

Publications (1)

Publication Number Publication Date
JP2021150838A true JP2021150838A (ja) 2021-09-27

Family

ID=77849578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049619A Pending JP2021150838A (ja) 2020-03-19 2020-03-19 画像処理装置

Country Status (1)

Country Link
JP (1) JP2021150838A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004155395A (ja) * 2002-11-08 2004-06-03 Denso Corp 車両周辺画像処理装置
JP2007129290A (ja) * 2005-11-01 2007-05-24 Alpine Electronics Inc 車両/周囲画像提供装置
JP2011008762A (ja) * 2009-05-29 2011-01-13 Fujitsu Ten Ltd 画像処理装置、電子装置、および、画像処理方法
JP2011182236A (ja) * 2010-03-02 2011-09-15 Toshiba Alpine Automotive Technology Corp カメラキャリブレーション装置
JP2012133614A (ja) * 2010-12-22 2012-07-12 Nissan Motor Co Ltd 運転支援表示装置
JP2013212723A (ja) * 2012-03-30 2013-10-17 Fujitsu Ten Ltd 駐車支援装置、及び駐車支援方法
US20140347470A1 (en) * 2013-05-23 2014-11-27 GM Global Technology Operations LLC Enhanced top-down view generation in a front curb viewing system
JP2020502850A (ja) * 2016-10-20 2020-01-23 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 乗り物において該乗り物の周辺部の描写を作成するための方法ならびに装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004155395A (ja) * 2002-11-08 2004-06-03 Denso Corp 車両周辺画像処理装置
JP2007129290A (ja) * 2005-11-01 2007-05-24 Alpine Electronics Inc 車両/周囲画像提供装置
JP2011008762A (ja) * 2009-05-29 2011-01-13 Fujitsu Ten Ltd 画像処理装置、電子装置、および、画像処理方法
JP2011182236A (ja) * 2010-03-02 2011-09-15 Toshiba Alpine Automotive Technology Corp カメラキャリブレーション装置
JP2012133614A (ja) * 2010-12-22 2012-07-12 Nissan Motor Co Ltd 運転支援表示装置
JP2013212723A (ja) * 2012-03-30 2013-10-17 Fujitsu Ten Ltd 駐車支援装置、及び駐車支援方法
US20140347470A1 (en) * 2013-05-23 2014-11-27 GM Global Technology Operations LLC Enhanced top-down view generation in a front curb viewing system
JP2020502850A (ja) * 2016-10-20 2020-01-23 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 乗り物において該乗り物の周辺部の描写を作成するための方法ならびに装置

Similar Documents

Publication Publication Date Title
US7825953B2 (en) Vehicular image display apparatus
US11336839B2 (en) Image display apparatus
JP2009017020A (ja) 画像処理装置及び表示画像生成方法
WO2010137680A1 (ja) 画像処理装置、電子装置、および、画像処理方法
JP4640238B2 (ja) 車両周囲映像作成装置及び車両周囲映像作成方法
US10875452B2 (en) Driving assistance device and driving assistance method
JP2009081664A (ja) 車両用周辺監視装置および映像表示方法
JP2002019556A (ja) 監視システム
JP7039879B2 (ja) 表示制御装置
JP7052632B2 (ja) 車両用周辺表示装置
JP2007180720A (ja) 車両運転支援装置
JP2007141098A (ja) 画像処理装置及び画像処理方法
JP6925848B2 (ja) 表示制御装置、表示制御方法及びカメラモニタリングシステム
JP2016168877A (ja) 車両用視認装置
JP2010137697A (ja) 車両の運転支援装置
JP2011160019A (ja) 画像合成装置、及び、画像合成方法
JP2007172501A (ja) 車両運転支援装置
JP5338374B2 (ja) 車両用表示装置及び車両用表示方法
JP2013100057A (ja) 運転支援装置
JP6118936B2 (ja) 画像処理装置
JP2021150838A (ja) 画像処理装置
JP2005182305A (ja) 車両走行支援装置
JP2012147308A (ja) 画像処理装置、画像表示システム、及び、画像処理方法
JP2006287513A (ja) 車両外状況提示システム
US20210170946A1 (en) Vehicle surrounding image display device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231031