JP7364009B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP7364009B2
JP7364009B2 JP2022170967A JP2022170967A JP7364009B2 JP 7364009 B2 JP7364009 B2 JP 7364009B2 JP 2022170967 A JP2022170967 A JP 2022170967A JP 2022170967 A JP2022170967 A JP 2022170967A JP 7364009 B2 JP7364009 B2 JP 7364009B2
Authority
JP
Japan
Prior art keywords
image
display
vehicle
area
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022170967A
Other languages
English (en)
Other versions
JP2023010713A (ja
Inventor
麻衣 岡本
宏幸 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2022170967A priority Critical patent/JP7364009B2/ja
Publication of JP2023010713A publication Critical patent/JP2023010713A/ja
Application granted granted Critical
Publication of JP7364009B2 publication Critical patent/JP7364009B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関するものである。
撮像手段と、格納手段と、ナビゲーション制御手段と、画像合成手段と、表示器を備えるカーナビゲーションシステムが知られている(例えば、特許文献1)。このカーナビゲーションシステムにおいて、撮像手段は、自動車の進行方向の景色を撮像する。また画像合成手段は、撮像手段により撮像された実写映像を背景画像とし、当該背景画像にナビゲーション情報要素を重ね合わせて合成する。また表示器は、画像合成手段により画像合成された結果の画像を表示する。
特開平11-108684号公報
上記従来技術では、実際の景色の一部がそのままディスプレイに表示されるため、ディスプレイに表示される画像と車両の内装部の表面に視覚的な統一感を持たせることが難しい。このため、車両の乗員がディスプレイの存在感を過大に感じ、乗員の快適性が損なわれる恐れがある。
本発明が解決しようとする課題は、車両の乗員の快適性を向上させることができる画像処理装置及び画像処理方法を提供することである。
本発明は、ディスプレイに表示される表示画像が、第1領域に表示される第1画像と、第2領域に表示される第2画像とから生成された背景画像を含むように、表示画像を生成し、車両の室内に設けられたディスプレイに表示画像を出力することにより、上記課題を解決する。
本発明によれば、乗員が感じるディスプレイの存在感を低減することができるため、乗員の快適性を向上させることができる。
図1は、第1実施形態に係る画像処理装置を含む画像表示システムの一例を示すブロック図である。 図2は、ディスプレイの一例である。 図3は、ディスプレイの位置と乗員の視野との関係性を説明するための図である。 図4Aは、第1画像の生成方法を説明するための図である。 図4Bは、第1画像の生成方法を説明するための図である。 図4Cは、第1画像の生成方法を説明するための図である。 図5は、第2画像の一例である。 図6Aは、背景画像の生成方法を説明するための図である。 図6Bは、背景画像の生成方法を説明するための図である。 図6Cは、背景画像の生成方法を説明するための図である。 図7は、表示画像の生成方法を説明するための図である。 図8は、第1実施形態に係る画像処理装置が実行する処理を示すフローチャートである。 図9は、図8に示すステップS3のサブルーチンである。 図10は、図8に示すステップS5のサブルーチンである。 図11は、画像処理装置により生成された背景画像がディスプレイに表示された場面の一例である。 図12は、第2実施形態に係る画像処理装置を含む画像表示システムの一例を示すブロック図である。 図13は、図8に示すステップS3のサブルーチンである。
以下、本発明に係る画像処理装置及び画像処理方法の実施形態を図面に基づいて説明する。
《第1実施形態》
本実施形態では、車両に搭載された画像処理装置を例示して説明する。図1は、第1実施形態に係る画像処理装置4を含む画像表示システム100の一例を示すブロック図である。図1に示すように、本実施形態における画像表示システム100は、撮像装置1と、データベース2と、ディスプレイ3と、画像処理装置4とを含む。本実施形態のシステムは、画像処理装置4で生成された画像をディスプレイ3に表示させるシステムである。車両の乗員は、本実施形態のシステムにより、ディスプレイ3を介して、画像処理装置4で生成された画像を視認することができる。
本実施形態において、車両の乗員とは、車両に乗車している人間であればよく、乗員が着座するシートの位置は特に限定されない。また車両の乗員の人数も特に限定されず、本実施形態における画像表示システム100は、一又は複数の乗員に対して画像処理装置4で生成された画像を提示する。
次に、画像処理装置4が搭載されている車両について説明する。本実施形態において、車両は、例えば、ナビゲーションシステムが搭載されて人間が運転する一般的な自動車である。また車両は、例えば、ナビゲーションシステムが搭載されているともに走行制御(速度制御と操舵制御)を自動制御する機能を備える自動車であって人間が運転する自動車であってもよい。また車両は、例えば、ナビゲーションシステムが搭載されているとともに走行制御を自動制御する自動車であって無人で運転する自動車であってもよい。
また本実施形態において、車両の動力源は特に限定されない。車両は、電気をエネルギー源とし、モーターを動力源として走行する電気自動車であってもよい。また車両は、ガソリンエンジンを動力源として走行するガソリン車であってもよい。また車両は、エンジンとモーターを動力源として備えた電気式ハイブリッド車であってもよい。本実施形態では、車両として、外部充電が必要な電気自動車を例に挙げて説明する。
次に、図1に示す画像表示システム100に含まれる各構成について説明する。撮像装置1は、車両の外部を撮像する装置である。車両の外部とは、車両周辺の少なくとも一部の領域を意味する。撮像装置1としては、例えば、車両の前方に設けられ、車両の外部のうち車両の前方を撮像する前方カメラが挙げられる。撮像装置1により撮像された撮像画像は、画像処理装置4に出力される。以降では、撮像装置1が上記の前方カメラである場合を例に挙げて説明する。なお、撮像装置1は、前方カメラのみに限られず、撮像装置1には、車両の側方に設けられ、車両の外部のうち車両の側方を撮像する側方カメラが含まれていてもよい。また撮像装置1には、車両の後方に設けられ、車両の外部のうち車両の後方を撮像する後方カメラが含まれていてもよい。
撮像装置1は、車両の前方の景色(車両の前景ともいう)を逐次撮像し、撮像するたびに撮像画像を画像処理装置4に出力する。例えば、撮像装置1は、所定の周期で、車両の前方の景色を撮像する。このように逐次撮像することで、車両の前方の景色が時間帯、天気、及び場所に応じて変化しても、撮像装置1は時間帯、天気、及び場所に対応した車両の前方の景色を撮像することができる。これにより、後述する画像処理装置4は、時間帯、天気、及び場所に対応した車両の外部の色情報を取得することができる。
撮像装置1は、車両の進行方向の景色を撮像する。撮像装置1により撮像された景色とは、車両の前方に設けられたウィンドを介して、車両の乗員が視認する景色である。本実施形態では、車両の乗員からの視野を考慮した位置に撮像装置1を設けることが好ましい。例えば、乗員が車両の前方シートに着座する場合、この乗員は、前方のウィンドを介して、車両が走行する車線、車線の周辺に設けられた道路構造物、車両の周辺を走行する他車両、その他の景色等を視認する。上記の例に挙げた全ての対象を撮像可能な位置に、撮像装置1を設けることが好ましい。このような位置に撮像装置1を設けることで、撮像装置1は、車両の乗員が視認する対象を撮像することができる。
データベース2は、画像情報を格納するデータベースである。データベース2が格納する画像情報には、車両の内装部の画像が含まれる。内装部の画像とは、例えば内装部の表面の色、材質、及び模様の少なくともいずれかの情報が含まれる画像である。内装部の画像は、内装部の表面の色、材質、及び模様の少なくともいずれかを模した画像であってもよく、内装部を撮像した画像であってもよい。本実施形態において、車両の内装部とは、車両の前方に設けられたインストルメントパネルである。データベース2は、インストルメントパネルの画像を格納している。データベース2は、例えば、車両の車種ごと、及び一の車種における内装の色ごとに、インストルメントパネルの画像を格納している。
データベース2は、画像処理装置4からの指令に応じて、格納する複数の画像のうち指定された画像を画像処理装置4に出力する。
ディスプレイ3は、車両の乗員に対して画像を提示する機器である。本実施形態では、ディスプレイ3は、車両の前方シートに着座する乗員にとって視認しやすい場所に設けられている。またディスプレイ3の形状は特に限定されないが、本実施形態では、ディスプレイ3の形状が矩形形状の場合を例に挙げて説明する。
ディスプレイ3には、画像処理装置4から表示画像が入力される。ディスプレイ3は、画像処理装置4から入力された表示画像を表示する。またディスプレイ3は、画像処理装置4から表示画像が入力されるたびに、表示する画像を更新する。以降では、説明の便宜上、ディスプレイ3に表示され、車両の乗員が視認する画像を、表示画像と称して説明する。
表示画像は、背景画像とコンテンツ情報で構成されている。具体的には、背景画像に対してコンテンツ情報が重畳して表示されることで、一の表示画像が形成される。コンテンツ情報とは、車両の乗員に提供するための情報全般を示す画像であり、情報の種別は特に限定されない。コンテンツ情報としては、例えば、車両のスピードメーター、ナビゲーションシステムの操作画面、車両の状態を示す画面などが挙げられる。コンテンツ情報は、アイコン、文字であってもよい。画像処理装置4から入力される表示画像については後述する。
図2は、本実施形態に係るディスプレイ3の一例である。図2は、車両Vの室内を示す。図2の例において、ディスプレイ3は、形状が矩形のディスプレイである。ディスプレイ3の大きさは特に限定されない。例えば、ディスプレイ3は、少なくともナビゲーションシステムの操作画面が表示される程度の大きさを有している。ディスプレイ3は、表示画像を表示するための領域である表示領域31を有している。表示領域31の大きさは、ディスプレイ3の構造により決まる。例えば、ディスプレイ3の端部と表示領域31との間にある縁部が比較的薄い場合、表示領域31はディスプレイ3の大きさとほぼ同じ大きさになる。なお、本実施形態では、ディスプレイ3の形状と表示領域31の形状を同一形状として説明するが、ディスプレイ3の形状と表示領域31の形状は、異なる形状であってもよい。
ディスプレイ3は、車両Vの運転席11及び助手席12に着座する乗員にとって視認しやすい位置に設けられている。図2の例では、ディスプレイ3は、表示領域31の一部が、車両Vの内装部13からウィンド14の方向に向かって延在している。ウィンド14は、いわゆるフロントガラスであり、車両Vの前方に設けられている。本実施形態では、ディスプレイ3は、ウィンド14の下端に沿って設けられている。言い換えると、ディスプレイ3は、ウィンド14の下端付近において、ウィンド14の下端の延在方向と平行に設けられている。
例えば、ディスプレイ3は、ディスプレイ3の上端の高さとウィンド14の下端の高さとが一致する(略一致する)高さに設けられていてもよい。この場合、運転者の目の高さ(アイポイントともいう)にかかわらず、運転者がウィンド14を介して車両Vの前方を視認したとき、運転者の視界にディスプレイ3が干渉することを確実に防止することができる。あるいは、ディスプレイ3は、ディスプレイ3の上端と下端との間にウィンド14の下端が位置する高さに設けられていてもよい。この場合、運転者の視界において、ウィンド14の下端とディスプレイ3の上端が近接した位置に視認され、あたかもウィンド14とディスプレイ3とが連続しているように運転者に錯覚されやすい。
本実施形態では、ディスプレイ3は内装部13の表面に装着されている。車両Vの内装部13は、インストルメントパネルである。車両Vの内装部13の表面は、所定の一又は複数の色で塗装されている。本実施形態において、内装部13の色は特に限定されない。また本実施形態において、車両Vの内装部13の表面を構成する材質は特に限定されない。車両Vの内装部13の表面には、材質そのものの模様(例えば、木目調)が付されていてもよい。ディスプレイ3は、内装部13の表面に装着されていることに限定されず、内装部13に埋め込まれていてもよい。この場合、ディスプレイ3は、表示領域の一部が内装部13からウィンド14に向かって突出することになる。
図2に示すように、表示領域31は、ウィンド14側の領域である第1領域32と、第1領域32よりも内装部13側の領域である第2領域33で構成される。別の言い方をすれば、第1領域32及び第2領域33はそれぞれ表示領域31の一部であり、第1領域32は第2領域33よりもウィンド14側に位置する。本実施形態の画像表示システム100は、第1領域32及び第2領域33にそれぞれ異なる背景画像を表示することで、表示領域31全体としての背景画像を表示する。第1領域32及び第2領域33に表示される画像については後述する。
図3は、ディスプレイ3の位置と乗員の視野との関係性を説明するための図である。図3は、図2に示すA-A’線に沿う断面図である。図3に示すように、車両Vの運転者Dは運転席11に着座して車両Vを運転する。図3に示すCは、運転者Dの視野のうち上下方向の視野を模式的に表している。運転者Dの視野Cは、運転者DがB方向を視認したときの視野である。B方向とは、車両Vの進行方向である。つまり、図3は、運転者Dがウィンド14を介して車両Vの進行方向を視ながら運転している場面を示している。
図3に示すように、ディスプレイ3は、運転者Dの視野Cに含まれる場所に設けられている。より詳細には、運転者Dの視野Cには、ディスプレイ3のうち表示領域31(図2参照)が含まれている。別の言い方をすれば、運転者Dの視野Cには、第1領域32(図2参照)と第2領域33(図2参照)が含まれている。このような場所にディスプレイ3を設けることで、運転者Dが車両Vの進行方向からディスプレイ3に視線を移動させるのに要する角度は小さくなるため、運転中の運転者Dにかかる負荷を抑制し、運転者Dの快適性が向上する。
一方で、図3に示す場所にディスプレイ3が設けられると、運転者Dの視野Cにはディスプレイ3が含まれるため、運転者Dは、ディスプレイ3の存在を否応なしに気にする。このため、例えば、ナビゲーションシステムにおける案内画面のような車両Vの前景とは無関係な表示画像がディスプレイ3に表示された場合、車両Vの進行方向を視ている運転者Dは、視野Cに含まれるディスプレイ3の存在が気になる恐れがある。この場合、運転者Dがディスプレイ3の存在感を過大に感じ、運転者Dの快適性が損なわれる恐れがある。そこで、本実施形態に係る画像処理装置4は、運転者Dにとって視認しやすい場所にディスプレイ3が設けられている場合であっても、以下の方法を用いて、ディスプレイ3の存在感を低減させることができる。
再び図1に戻り、画像表示システム100の構成について説明する。画像処理装置4は、ハードウェア及びソフトウェアを備えたコンピュータにより構成され、プログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されている。なお、動作回路としては、CPUに代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。図1に示す制御装置40はCPUに相当し、また図1に示す記憶装置44はROM及びRAMに相当する。
図1に示すように、制御装置40には、情報取得部41と、画像生成部42と、出力部43が含まれ、これらのブロックは、ROMに確立されたソフトウェアによって、後述する各機能を実現する。
情報取得部41の機能について説明する。情報取得部41は、車両の外部の色情報を含む外部情報と、車両の内装部の色情報である内装部情報を取得する。
本実施形態において、色情報とは、色を示す数値データである。色を示す方法としては、RGBカラーモードが一例として挙げられる。RGBカラーモードにおける色は、赤(R)、緑(G)、青(B)の各要素がどれだけ含まれているかで示すことができる。例えば、赤、緑、青の各要素の明度を8ビット(1バイト)の10進数で表す場合、(0、0、0)は黒を示し、(255、255、255)は白を示し、(255、0、0)は赤を示し、(0、255、0)は緑を示し、(0、0、255)は青を示す(カッコ内は左から、R、G、Bの順で各要素の明度を示す)。
次に情報取得部41が取得する外部情報について説明する。情報取得部41は、撮像装置1から車両の前景が写る撮像画像を取得し、撮像画像から車両の外部の色情報を取得する。例えば、情報取得部41は、撮像画像に対して画像処理を実行することで、撮像画像の画素単位における色情報を取得する。そして、情報取得部41は、撮像画像全体の色情報の平均値を算出することで、車両の前景の色情報を取得する。これにより、車両の乗員が視認する景色の色情報を取得することができる。例えば、夕方に車両が走行している場合、撮像画像全体における色情報は、夕日の色であるオレンジ色が支配的になる。この場合、情報取得部41は、車両の前景の色情報として、オレンジ色を示す数値データを取得する。
また情報取得部41は、所定の周期で、撮像装置1により撮像された撮像画像を取得する。これにより、車両が走行するシーンに応じた車両の前景の色情報を取得することができる。なお、所定の周期は予め設定された周期である。
次に内装部情報について説明する。情報取得部41は、データベース2から車両のインストルメントパネルの画像を取得し、インストルメントパネルの画像から車両の内装部の色情報を取得する。例えば、情報取得部41は、インストルメントパネルの画像に対して画像処理を実行することで、車両の内装部の色情報を取得する。例えば、車両のインストルメントパネルの表面に木目調の模様が付されていた場合、内装部における色情報は、木目の色であるベージュ色が支配的になる。この場合、情報取得部41は、車両の内装部の色情報として、ベージュ色を示す数値データを取得する。
次に画像生成部42の機能について説明する。画像生成部42は、表示画像のうち背景画像として機能する第1画像及び第2画像を生成する。第1画像とは、ディスプレイ3の表示領域のうち第1領域に表示される画像である。また第2画像とは、ディスプレイ3の表示領域のうち第1領域とは異なる領域である第2領域に表示される画像である。第1領域とは、ディスプレイ3の表示領域のうちウィンド側の領域である(例えば、図2の第1領域32)。また第2領域とは、ディスプレイ3の表示領域のうち第1領域よりも車両の内装部側の領域である(例えば、図2の第2領域33)。なお、本実施形態では、第1画像の大きさと第2画像の大きさを同じ大きさとして説明するが、第1画像の大きさと第2画像の大きさは異なっていてもよい。言い換えると、第1領域の大きさと第2領域の大きさは同じであってもよいし、異なっていてもよい。
本実施形態では、ディスプレイ3の表示領域は第1領域及び第2領域に分けられるため、背景画像の大きさは、第1領域及び第2領域を足し合わせた領域である。また画像生成部42は、第1画像及び第2画像を結合するとともに、第1画像及び第2画像を加工することで背景画像を生成する。そして、画像生成部42は、背景画像に対してコンテンツ情報を重畳させることで、表示画像を生成する。以降、各画像の具体的な生成方法を説明する。
図4A~図4Cを用いて、第1画像の生成方法について説明する。図4A~図4Cは、第1画像の生成方法を説明するための図である。図4Aに示すように、画像生成部42は、撮像装置1により撮像された撮像画像21を取得する。画像生成部42は、情報取得部41が撮像装置1により撮像された撮像画像を取得したタイミングに対応して、以降で説明する画像の加工処理を行う。画像生成部42は、撮像画像21から、第1領域に対応した対象範囲22の画像を抽出する。
ここで、画像生成部42は、撮像画像21に写る車両の前景を実際の車両の前景とみなすとともに、車両の前景において、ディスプレイ3の存在により実際には車両の乗員が視認するには困難な領域を推測する。例えば、画像生成部42は、車両の乗員の視野とディスプレイ3との位置関係に基づいて、実際にはディスプレイ3の存在によって乗員が視認するには困難な領域を推測する。画像生成部42は、推測された領域を対象範囲22として特定する。これにより、ディスプレイ3の背後にあるため、実際には乗員が視認するには困難な車両の前景に基づく画像を、後述する第1画像とすることができる。その結果、車両の前景と第1画像との間に所定範囲よりも大きな色情報の差異が発生する可能性を低減させることができる。
図4Bは、画像生成部42により抽出された対象画像23である。対象画像23は、図4Aに示す撮像画像21のうち、対象範囲22の画像である。
図4Cは、画像生成部42により生成された第1画像24を示す。画像生成部42は、対象画像23に対して加工処理を行うことで、第1画像24を生成する。具体的には、画像生成部42は、情報取得部41により取得された外部情報に基づいて、対象画像23に対してぼかし加工を行う。
例えば、画像生成部42は、車両の前景の色情報に対する差異が所定の範囲内にあるように、ぼかし加工のレベルを設定する。所定の範囲とは、予め設定された範囲である。ぼかし加工のレベルとは、元の画像とぼかし加工された画像との差の大きさを示す。例えば、ぼかし加工として、ぼかし加工のレベルが大きいほど元の画像との色情報の差異が大きくなる加工方法が採用されてもよい。この場合、画像生成部42は、ぼかし加工レベルの大きさに応じて、対象画像の色情報を補正する。実際の景色の画像をぼかした画像をディスプレイ3に表示することにより、実際の景色の画像が表示される場合よりも、ノイズを避けることができる。また、実際の景色の色情報とは異なるため、実際の景色の画像が表示される場合よりも、車両の乗員が画像に気を取られる可能性を低減することができる。その結果、運転者の運転操作を妨げられる可能性を低減することができる。なお、画像処理装置4には、本願出願時に知られた、ぼかし加工の画像処理技術を適宜援用することができる。なお、ぼかし加工として、ぼかし加工のレベルにかかわらず、元の画像との色情報の差異が一定(又は、略一定)となるように画像を加工する加工方法が採用されてもよい。
次に図5を用いて、第2画像の生成方法について説明する。図5は、第2画像の一例である。本実施形態では、画像生成部42は、データベース2から車両のインストルメントパネルの画像を取得し、取得した画像を第2画像とする。ここで、画像生成部42は、データベース2に格納されている画像から、第2領域に対応した対象範囲の画像を抽出し、第2領域の大きさに対応した画像を第2画像とする。図5の例では、画像処理装置4が搭載された車両のインストルメントパネルには木目調の模様が付されているため、画像生成部42は、木目調の第2画像25を生成する。
次に図6A~図6Cを用いて、背景画像の生成方法について説明する。図6A~図6Cは、背景画像の生成方法を説明するための図である。図6Aに示すように、画像生成部42は、第1画像24の端部のうち内装部13側の端部と、第2画像25の端部のうちウィンド14側の端部を結合することで、結合画像26を生成する。図6Aに示す第1画像24は、図4Cに示す第1画像24に対応し、図6Aに示す第2画像25は、図5に示す第2画像25に対応する。また図6Aにおいて、第1領域32は図2に示す第1領域32に対応し、第2領域33は図2に示す第2領域33に対応する。また図6Aにおいて、27は第1領域32と第2領域33の境界を示す。例えば、ディスプレイ3の表示領域31が矩形形状であって、図6Aに示すように、第1領域32と第2領域33の大きさが同じ場合、境界27は、表示領域31を第1領域32と第2領域33に二分するセンターライン(直線)になる。
画像生成部42は、第1画像及び第2画像を結合させた後、結合された画像に対して加工処理を行うことで、背景画像を生成する。
本実施形態では、画像生成部42は、第1画像及び第2画像に対して縦方向にグラデーション加工を行う。縦方向とは、車両の上方部から下方部の方向又は下方部から上方部の方向である。縦方向における方向の向きは限定されない。図6Bに示す背景画像50は、画像生成部42により、図6Aの結合画像26に対して縦方向のグラデーション加工が行われた背景画像である。
例えば、画像生成部42は、第1画像24の端部24Aから境界27の方向に向かって、黒色となるように第1画像24にグラデーションを施す処理を行う。具体的には、画像生成部42は、色を示す数値データが境界27で黒色を示す数値データとなるように、図6Bに示す矢印51の方向に沿って第1画像24の色情報を補正する。矢印51は、図2に示すウィンド14から内装部13への方向を示す。
また例えば、画像生成部42は、第2画像25の端部25Aから境界27の方向に向かって、黒色となるように第2画像25にグラデーションを施す処理を行う。具体的には、画像生成部42は、色を示す数値データが境界27で黒色を示す数値データとなるように、図6Bに示す矢印52の方向に沿って第2画像25の色情報を補正する。矢印52は、図2に示す内装部13からウィンド14への方向を示す。
画像生成部42は、第1画像及び第2画像に対して縦方向にグラデーション加工をした後、加工された画像に対して横方向にグラデーション加工を行う。
横方向とは、車両の車両左側方から車両右側方の方向又は車両右側方から車両左側方の方向である。横方向における方向の向きは限定されない。図6Cに示す背景画像60は、画像生成部42により、図6Bの背景画像50に対して横方向のグラデーション加工が行われた背景画像である。
例えば、画像生成部42は、第1画像24の端部24B及び端部24Cから境界27の方向に向かって、黒色となるように第1画像24にグラデーションを施す処理を行う。具体的には、画像生成部42は、色を示す数値データが境界27で黒色を示す数値データとなるように、図6Cに示す矢印61の方向に沿って第1画像24の色情報を補正する。また画像生成部42は、色を示す数値データが境界27で黒色を示す数値データとなるように、図6Cに示す矢印62の方向に沿って第1画像24の色情報を補正する。
また例えば、画像生成部42は、第2画像25の端部25B及び端部25Cから境界27の方向に向かって、黒色となるように第2画像25にグラデーションを施す処理を行う。具体的には、画像生成部42は、色を示す数値データが境界27で黒色を示す数値データとなるように、図6Cに示す矢印63の方向に沿って第2画像25の色情報を補正する。また画像生成部42は、色を示す数値データが境界27で黒色を示す数値データとなるように、図6Cに示す矢印64の方向に沿って第2画像25の色情報を補正する。
図6A~図6Cを用いて説明した画像処理を行うことで、図6Cに示すような縦方向及び横方向にグラデーション加工された第1画像及び第2画像で構成される背景画像60が生成される。このようなグラデーションを施すことで、車両の乗員が背景画像60を視認したときに、車両の乗員が奥行きを感じるような効果を得ることができる。別の言い方をすれば、縦方向及び横方向のグラデーションを施すことで、立体的な背景画像60を生成することができる。なお、図6B及び図6Cを用いて説明したグラデーションを施す処理は一例であって、特に限定されるものではない。画像処理装置4には、本願出願時に知られたグラデーションを施す画像処理技術を適宜援用することができる。
次に図7を用いて、表示画像の生成方法について説明する。図7は、表示画像の生成方法を説明するための図である。図7に示すように、画像生成部42は、背景画像60に対して、コンテンツ情報71及びコンテンツ情報72を重畳させることで、表示画像70を生成する。図7に示す71及び72は、それぞれコンテンツ情報を模式的に表したものであって、コンテンツ情報の表示形態及び表示内容は特に限定されない。例えば、コンテンツ情報71は、車両のスピードメーターを示す画面である。また例えば、コンテンツ情報72は、車両の状態を示す画面である。
再び図1に戻り、制御装置40を構成するその他のブロックの機能について説明する。出力部43は、画像生成部42により生成された表示画像をディスプレイ3に出力する。表示画像には、第1画像及び第2画像も含まれているため、出力部43は、第1画像及び第2画像をディスプレイ3に出力する。これにより、ディスプレイ3には表示画像が表示される。
次に、図8~図10を用いて、表示画像をディスプレイ3に表示する画像表示システム100において、画像処理装置4が実行する処理を説明する。図8は、画像処理装置4が実行する処理を示すフローチャートである。
ステップS1では、画像処理装置4は、車両の外部の色情報を含む外部情報を取得する。例えば、画像処理装置4は、撮像装置1から車両の前景の撮像画像を取得する。画像処理装置4は、撮像画像に対して画像処理を実行することで、撮像画像全体の色情報を取得する。
ステップS2では、画像処理装置4は、車両の内装部の色情報を含む内装部情報を取得する。例えば、画像処理装置4は、データベース2から車両のインストルメントパネルの画像を取得する。画像処理装置4は、インストルメントパネルの画像に対して画像処理を実行することで、車両の内装部の色情報を取得する。またこのステップにおいて、画像処理装置4は、ディスプレイ3の形状、車両の室内においてディスプレイ3が設けられている位置、及びディスプレイ3の表示領域の大きさの情報も取得する。これにより、画像処理装置4は、第1領域及び第2領域の大きさ、第1領域と第2領域の境界の位置を認識することができる。
ステップS3では、画像処理装置4は、第1領域に表示される第1画像を生成する。図9は、図8に示すステップS3のサブルーチンである。
ステップS31では、画像処理装置4は、車両の前景の撮像画像から、第1領域に対応した大きさの対象画像を抽出する。例えば、画像処理装置4は、車両の乗員の視野とディスプレイ3との位置関係に基づいて、車両の前景において、実際にはディスプレイ3の背後にあるため、乗員が視認するには困難な領域を推測する。そして、画像処理装置4は、車両の前景の撮像画像から、推測された領域を対象画像として抽出する。対象画像の一例としては、図4Bに示す対象画像23が挙げられる。
ステップS32では、画像処理装置4は、ステップS1で取得された外部情報に基づいて、ステップS31で抽出された対象画像に対してぼかし加工の処理を実行する。例えば、画像処理装置4は、車両の前景の色情報に対する差異が所定の範囲内にあるように、ぼかし加工のレベルを設定する。画像処理装置4は、設定したレベルに応じて、対象画像の色情報を補正する。
ステップS33では、画像処理装置4は、ステップS32の処理により撮像画像をぼかした対象画像を、第1画像とする。第1画像の一例としては、図4Cに示す第1画像24が挙げられる。
ステップS33で第1画像が生成されると、図9に示すサブルーチンを抜け、図8に示すステップS4に進む。
ステップS4では、画像処理装置4は、第2画像を生成する。本実施形態では、画像処理装置4は、データベース2から車両のインストルメントパネルの画像を取得し、取得した画像を第2画像とする。第2画像の一例としては、図5に示す第2画像25が挙げられる。
ステップS5では、画像処理装置4は、ステップS3で生成された第1画像及びステップS4で生成された第2画像に基づいて、ディスプレイ3の表示領域に表示させるための表示画像を生成する。図10は、図8に示すステップS5のサブルーチンである。
ステップS51では、画像処理装置4は、ステップS3で生成された第1画像及びステップS4で生成された第2画像を結合する。例えば、画像処理装置4は、第1画像の端部のうち車両の内装部側の端部と、第2画像の端部のうち車両の前方のウィンド側の端部を結合する。これにより、車両の上方部から下方部の方向に沿って、第1画像、第2画像の順で結合された画像が生成される。結合された画像の一例としては、図6Aに示す結合画像26が挙げられる。
ステップS52では、画像処理装置4は、ステップS51で生成された画像に対して縦方向のグラデーションを施す処理を実行する。例えば、画像処理装置4は、第1画像のウィンド側の端部から第1画像及び第2画像の境界に向かって、黒色となるように第1画像にグラデーションを施す処理を行う。また例えば、画像処理装置4は、第2画像の車両の内装部側の端部から第1画像及び第2画像の境界に向かって、黒色となるように第2画像にグラデーションを施す処理を行う。縦方向のグラデーション処理が行われた画像の一例としては、図6Bに示す背景画像50が挙げられる。
ステップS53では、ステップS52で処理された画像に対して横方向のグラデーションを施す処理を実行する。例えば、画像処理装置4は、第1画像のウィンド側の端部及び第2画像の内装部側の端部以外の端部から、第1画像及び第2画像の境界に向かって、黒色となるように第1画像及び第2画像にグラデーションを施す処理を行う。横方向のグラデーション処理が行われた画像の一例としては、図6Cに示す背景画像60が挙げられる。
ステップS51~ステップS53の処理をすることで、ステップS54にて、第1画像及び第2画像に基づく背景画像が生成される。
ステップS55では、画像処理装置4は、ステップS54で生成された背景画像に対して、コンテンツ情報を重畳させる。例えば、画像処理装置4は、ナビゲーションの案内画面を背景画像に重畳させる。コンテンツ情報が重畳された画像の一例としては、図7に示す表示画像70が挙げられる。
ステップS55の処理をすることで、ステップS56にて、表示画像が生成される。ステップS56で表示画像が生成されると、図10に示すサブルーチンを抜け、図8に示すステップS6に進む。
ステップS6では、画像処理装置4は、ステップS5で生成された表示画像をディスプレイ3に出力する。ステップS6の処理が終了すると、画像処理装置4は処理を終了させる。
図11は、画像処理装置4により生成された背景画像がディスプレイ3に表示された場面の一例である。図11は、図2の車両の室内を示す図に対応している。例えば、図11に示す場面は、車両Vが夕方の時間帯を走行している場面である。ディスプレイ3の第1領域32には、夕日の色であるオレンジ色が支配的な色であって、車両Vの前景をぼかした画像(第1画像)が表示される。またディスプレイ3の第2領域33には、内装部13の画像(第2画像)が表示される。また第1画像と第2画像にはそれぞれ車両の乗員が奥行きを感じるように、縦方向及び横方向にグラデーションが施されている。このような背景画像がディスプレイ3に表示されることで、車両Vの乗員は、ディスプレイ3が存在する場所には内装部13が存在するように錯覚しやすくなる。また車両Vの乗員は、内装部13の上方に車両Vの前景が存在するように錯覚しやすくなる。車両Vの乗員が錯覚しやすくなることで、車両Vの乗員が感じるディスプレイ3の存在感を低減させることができる。
以上のように、本実施形態に係る画像処理装置4は、車両の外部の色情報を含む外部情報を取得する情報取得部41と、外部情報に基づいて、車両の外部に対する色情報の差異が所定の範囲内にある第1画像24を生成する画像生成部42と、車両の室内に設けられたディスプレイ3に第1画像24を出力する出力部43とを備える。これにより、ディスプレイ3に表示される第1画像と、ディスプレイ3周辺の景色に視覚的な統一感を持たすことができる。車両の乗員は、第1画像と車両の外部の景色で一つのまとまった景色と錯覚しやすくなり、車両の乗員が感じるディスプレイの存在感を低減させることができる。その結果、車両の乗員の快適性を向上させることができる。
また、本実施形態では、第1画像24は、ディスプレイ3の表示領域31の一部である第1領域32に表示される。これにより、ディスプレイ3の一部と、ディスプレイ3の周辺の景色に視覚的な統一感を持たすことができ、車両の乗員が感じるディスプレイ3の存在感を低減させることができる。
さらに、本実施形態では、ディスプレイ3は、表示領域31の一部が車両の内装部13から車両のウィンド14の方向に延在しており、第1領域32は、ウィンド14側に位置する。これにより、車両の乗員がウィンドを介して車両の外部を視認したときに、乗員は、第1領域周辺の景色と、第1領域に表示される第1画像が全体として一つのまとまった景色と錯覚しやすくなる。その結果、乗員が感じるディスプレイ3の存在感を低減させることができる。
加えて、本実施形態では、ディスプレイ3は、車両の乗員がウィンド14を介して車両の外部を視認したときに、第1領域32が乗員の視野に含まれる場所に設けられる。これにより、図2に示すような車両の乗員に視認されやすい場所にディスプレイ3が設けられる場合であっても、ディスプレイ3の存在感を低減させることができる。例えば、ディスプレイ3にコンテンツ情報としてナビゲーションシステムの案内画面が表示された場合、車両の乗員は、ディスプレイ3の存在を気にするよりも、ナビゲーションシステムからの情報に集中しやすくなる。その結果、車両の乗員の快適性を向上させることができる。
また、本実施形態では、ディスプレイ3は、車両の乗員の前方に設けられ、情報取得部41は、車両の前方の外部情報を取得する。これにより、乗員は、車両の進行方向の景色の一部として第1画像を認識しやすくなり、乗員が感じるディスプレイ3の存在感を低減させることができる。
さらに、本実施形態では、情報取得部41は、撮像装置1により撮像された車両の外部の撮像画像を取得し、画像生成部42は、外部情報に基づく加工処理を行うことにより、第1画像24を生成する。これにより、実際の景色の色情報に基づく第1画像を生成することができる。その結果、第1画像とディスプレイ3の周辺景色に視覚的な統一感を持たせやすくすることができる。
加えて、本実施形態では、画像生成部42が撮像画像に行う加工処理は、撮像画像をぼかす処理である。これにより、実際の景色よりも色の濃淡の差が小さい第1画像を生成することができるため、乗員の視線は、実際の景色が写る車両のウィンド14側に向かいやすくなる。その結果、例えば、乗員による運転操作を妨げる可能性を低減することができる。
また、本実施形態では、情報取得部41は、車両の前方の撮像画像を逐次取得し、画像生成部42は、撮像画像が取得されたタイミングに対応して撮像画像に加工処理を行う。これにより、車両の走行シーンが変わったことで、車両の前方の景色が変化したとしても、車両の前方の景色に対応した第1画像を生成することができる。その結果、車両の走行シーンにかかわらず、乗員が感じるディスプレイ3の存在感を低減させることができる。
さらに、本実施形態では、画像生成部42は、表示領域31のうち第1領域32と異なる第2領域33に表示される第2画像25を生成し、出力部43は、ディスプレイ3に第2画像25を出力する。これにより、例えば、第1画像と色合いが異なる第2画像を一つのディスプレイ3の中で表示させることができる。
加えて、本実施形態では、第2領域33は、第1領域32より内装部13側に位置する。これにより、例えば、車両の内装部13の色合いに合わせた画像を第2画像として表示させることができ、その結果、内装部13と第2画像に視覚的な統一感を持たせやすくすることができる。
また、本実施形態では、ディスプレイ3は、車両の乗員がウィンド14を介して車両の外部を視認したときに、第2領域33が乗員の視野に含まれる場所に設けられる。これにより、図2に示すような車両の乗員に視認されやすい場所にディスプレイ3が設けられる場合であっても、ディスプレイ3の存在感を低減させることができる。
さらに、本実施形態では、第2画像25は、内装部13の表面を表した画像である。これにより、内装部13と第2画像に視覚的な統一感を持たせることができ、車両の乗員が感じるディスプレイ3の存在感を低減させることができる。
加えて、本実施形態では、ディスプレイ3は、表示領域31が矩形形状のディスプレイであり、画像生成部42は、表示領域31のウィンド14側の端部及び内装部13側の端部から、第1領域32と第2領域33の境界27に向かって、黒色となるように第1画像24及び第2画像25にグラデーションを施す処理を行う。そして、出力部43は、グラデーション処理された第1画像24及び第2画像をディスプレイ3に出力する。第1画像と第2画像の境界周辺では、色を示す数値データの差が小さくなるため、第2画像として、内装部13の表面の画像が表示された場合、車両の乗員は、内装部13に奥行きがあるように錯覚しやすくなる。その結果、乗員が感じるディスプレイ3の存在を低減させることができる。
また、本実施形態では、画像生成部42は、表示領域31のうちウィンド14側の端部及び内装部13側の端部以外の端部から、第1領域32と第2領域33の境界27に向かって、黒色となるように第1画像24及び第2画像25にグラデーションを施す処理を行う。これにより、例えば、内装部13の表面の画像が表示された場合、車両の乗員は、内装部13に奥行きがあるようにより錯覚しやすくなる。その結果、乗員が感じるディスプレイ3の存在をより低減させることができる。
さらに、本実施形態では、画像生成部42は、第1画像24及び第2画像25に、乗員に提供するための情報であるコンテンツ情報71、72を重畳することにより、表示領域31に表示される表示画像70を生成し、出力部43は、ディスプレイ3に表示画像を出力する。これにより、背景画像として機能する第1画像24及び第2画像の存在により、乗員が感じるディスプレイ3の存在感を低減させつつ、乗員にはコンテンツ情報を提示させることができる。その結果、乗員は、空間にコンテンツ情報が表示されているように錯覚しやすくなり、乗員に非日常感を与えることができる。
≪第2実施形態≫
次に、第2実施形態に係る画像処理装置及び画像処理方法について説明する。図12は、第2実施形態に係る画像処理装置104を含む画像表示システム200の一例を示すブロック図である。図12に示すように、本実施形態における画像表示システム200は、撮像装置1と、データベース102と、通信装置105と、ディスプレイ3と、画像処理装置104とを含む。以降の説明では、第1実施形態に係る画像表示システム100と異なる構成について説明を行う。また図12では、第1実施形態と同じ構成については、第1実施形態での符号と同じ符号が付されている。これらの構成については、説明を省略し、第1実施形態で行った説明を援用する。
データベース102は、画像情報を格納するデータベースである。本実施形態では、データベース102は、車両の内装部の画像に加えて、車両の前景の画像を格納している。
データベース102は、車両が走行するシーン(以降では、車両の走行シーンという)ごとに、車両の前景の画像を格納している。データベース102は、車両の前景を写す複数の画像を予め記憶している。車両の走行シーンは、例えば、時間帯、天気、場所に応じて変化する。時間帯としては、例えば、朝、昼、夕方、夜の4種類が挙げられる。天気としては、例えば、晴れ、雨、曇りの3種類が挙げられる。場所としては、例えば、市街地、郊外の2種類が挙げられる。データベース102は、時間帯、天気、及び場所の各組み合わせに対応した車両の前景の画像を格納している。上記例の場合、データベース102は、24種類の画像を格納している。
なお、時間帯、天気、場所の種別の一例としてそれぞれ数種類の種別を挙げたが、種別の数は特に限定されない。例えば、「場所」の場合、さらに、直進路、曲り道、上り坂、下り坂、交差点など道路の形状に応じて細かく分類されていてもよい。
通信装置105は、所定のネットワークを介して、車両の外部に設けられたサーバと通信可能な通信装置である。通信装置105には、画像処理装置104から指令が入力される。通信装置105は、画像処理装置104からの指令に応じてサーバから情報を取得するとともに、サーバから取得した情報を画像処理装置104に出力する。
本実施形態では、通信装置105がサーバから取得する情報は画像情報である。サーバは、例えば、車両の車種ごとに、車両の前景の画像を格納しているサーバである。またサーバは、例えば、データベース102の説明で挙げたような車両の走行シーンごとに、車両の前景の画像を格納しているサーバである。例えば、通信装置105は、画像処理装置104から指定された車種及び走行シーンについて、車両の前景の画像を取得する。通信装置105は、取得した車両の前景の画像を画像処理装置104に出力する。通信装置105としては、4G LTEのモバイル通信機能を備えたデバイス、Wifi通信機能を備えたデバイス等が例示できる。
本実施形態に係る画像処理装置104は、第1実施形態に係る画像処理装置4と比べて、制御装置140に含まれる情報取得部141と画像生成部142が異なる以外は同様の構成を有している。第1実施形態の構成と同じ符号が付された構成については、説明を省略し、第1実施形態で行った説明を援用する。
本実施形態に係る情報取得部141は、外部情報として、車両の前景が写る撮像画像に加えて、データベース102から車両の前景の画像を取得する。また情報取得部141は、外部情報として、サーバから車両の前景の画像を取得する。例えば、情報取得部141は、現在の車両の走行シーンを条件として指定し、指定した条件に該当する複数の車両の前景の画像を取得する。この場合において、情報取得部141は、全ての条件に完全に一致した画像だけでなく、条件の一部で一致した画像も含めて取得する。
本実施形態に係る画像生成部142は、第1実施形態に係る画像生成部42と比べて、第1画像の生成方法が異なる以外は同様の機能を有している。このため、第1画像と同様の機能の説明については省略し、第1実施形態で行った説明を援用する。
画像生成部142による第1画像の生成方法について説明する。本実施形態では、画像生成部142は、外部情報に基づいて、情報取得部141により取得された複数の車両の前景の画像から、第1画像を選択する。画像生成部142は、データベース102やサーバに予め記録されている複数の画像候補の中から、車両の前景に対する色情報の差異が所定の範囲内にある画像を、第1画像として選択する。
例えば、画像生成部142は、撮像装置1により撮像された撮像画像全体を対象にして、色を示す数値データの平均値を算出する。また画像生成部142は、情報取得部141により取得された車両の前景の画像全体を対象にして、色を示す数値データの平均値を算出する。画像生成部142は、算出した2つの平均値を比較し、色を示す数値データの差を算出する。画像生成部142は、画像候補ごとに、色を示す数値データの差を算出し、複数の画像候補の中から、色を示す数値データの差が最も小さい画像候補を、第1画像として選択する。
次に、図13を用いて、画像処理装置104が第1画像を生成する処理を説明する。図13は、画像処理装置104が実行する処理であって、図8に示すステップS3のサブルーチンである。画像処理装置104は、第1実施形態と比べて、ステップS3の処理が異なる以外は、同様の処理を実行する。このため、第1実施形態と同様の処理については説明を省略し、第1実施形態で行った説明を援用する。
ステップS131では、画像処理装置104は、複数の画像候補を取得する。例えば、画像処理装置104は、データベース102から、車両の前景が写る複数の画像を取得する。この際に、画像処理装置104は、車両の走行シーンに比較的近い複数の画像を取得する。また画像処理装置104は、通信装置105を介して、サーバから、車両の前景が写る複数の画像を取得する。
ステップS132では、画像処理装置104は、車両の外部の色情報を含む外部情報に基づいて、ステップS131で取得した複数の画像候補から、第1画像を選択する。例えば、画像処理装置104は、車両の外部に対する色情報の差異が所定の範囲内にある画像候補を、第1画像として選択する。所定の範囲とは、車両の外部に対して色の差異が少ないことを示すための範囲であって、予め定められた範囲である。
ステップS132での処理が終了すると、図13に示すサブルーチンを抜け、図8に示すステップS4に進む。
以上のように、本実施形態に係る画像処理装置104では、情報取得部141は、第1画像の候補である複数の候補画像を取得し、画像生成部142は、外部情報に基づいて複数の候補画像から第1画像を選択する。これにより、データベース102やサーバに予め格納された画像を第1画像として用いることができ、撮像画像から第1画像を生成する場合と比べて、撮像画像に対する加工処理を減らすことができる。その結果、画像処理によって制御装置140にかかる演算負荷を軽減させることができる。
なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
例えば、制御装置40が実行するプログラムについて、ROMとして機能する記憶装置44に格納されたプログラムを例に挙げて説明したが、プログラムの格納場所は、画像処理装置4の外部であってもよい。例えば、コンピュータが読み取り可能な記録媒体に制御装置40が実行するプログラムが格納されていてもよい。この場合、当該記録媒体と画像処理装置4を何らかの方法・規格を用いて接続することで、制御装置40は、記録媒体に記録されたプログラムを実行することができる。
また例えば、上述した第1実施形態では、画像処理装置4が行うグラデーション処理として、黒色となるような処理を例に挙げて説明したが、グラデーション処理における色は特に限定されない。例えば、画像処理装置4は、第1画像及び第2画像に対して、白色となるような縦方向及び/又は横方向のグラデーションを施す処理を行ってもよい。
また例えば、上述した第1実施形態では、乗員が奥行きを感じるように錯覚しやすくするために、画像処理装置4が第1画像及び第2画像に対して、縦方向及び横方向のグラデーションを施す場合を例に挙げて説明したが、これに限られない。例えば、画像処理装置4は、乗員が奥行きを感じるように錯覚しやすくするためのその他の加工処理を行ってもよい。
また例えば、上述した第2実施形態では、車両がデータベース102を備える構成を例に挙げて説明したが、データベース102は車両の外部に設けられていてもよい。この場合、画像処理装置104は、通信装置105を介して、データベース102にアクセスし、複数の画像候補を取得する。
また例えば、上述した第2実施形態では、画像処理装置104がデータベース102及びサーバから複数の画像候補を取得する構成を例に挙げて説明したが、画像処理装置104は、データベース102及びサーバの何れか一方から複数の画像候補を取得してもよい。
また例えば、上述した第2実施形態では、データベース102が車両の走行シーンごとに車両の前景の画像を格納している場合を例に挙げたが、車両の走行シーンを構成する要素としては、時間帯、天気、場所に限られない。車両の走行シーンを構成する要素は、その他の要素であってもよい。例えば、車両の走行シーンを構成する他の要素としては、先行車両が存在するか否かが挙げられる。またその他の要素としては、例えば、車両が走行する車線の数などが挙げられる。
また例えば、ディスプレイ3の形状は、本実施形態において例示されている形状とは異なる形状であってもよい。例えば、ディスプレイ3の形状は、縦長の矩形形状であってもよい。また、例えば、ディスプレイ3の形状は、左右一対のAピラー(又は、それらの近傍)の間にわたって延在するような、車両幅方向に長い横長の矩形形状であってもよい。ディスプレイ3が車両幅方向に長い形状である場合、本実施形態に係るディスプレイ3と比較して、通常であれば車両Vの乗員がディスプレイの存在感を一層過大に感じやすい。このため、ディスプレイ3が車両幅方向に長い形状である場合、画像処理装置4,104を採用することにより奏される効果が一層大きくなる。
また例えば、ディスプレイ3は、車両Vのウィンド14の上端に沿って設けられていてもよい。言い換えると、ディスプレイ3は、ウィンド14と平行に、ウィンド14の上端の高さに合わせて設けられていてもよい。例えば、ディスプレイ3は、ディスプレイ3の下端の高さとウィンド14の上端の高さとが一致する(略一致する)高さに設けられていてもよい。この場合、運転者の目の高さにかかわらず、運転者がウィンド14を介して車両Vの前方を視認したとき、運転者の視界にディスプレイ3が干渉することを確実に防止することができる。あるいは、ディスプレイ3は、ディスプレイ3の上端と下端との間にウィンド14の上端が位置する高さに設けられていてもよい。この場合、運転者の視界において、ウィンド14の下端とディスプレイ3の上端が近接した位置に視認され、あたかもウィンド14とディスプレイ3とが連続しているように運転者に錯覚されやすい。
1…撮像装置
2…データベース
3…ディスプレイ
4…画像処理装置
40…制御装置
41…情報取得部
42…画像生成部
43…出力部
44…記憶装置
100…画像表示システム

Claims (6)

  1. ディスプレイに表示される画像を処理する画像処理装置であって、
    前記ディスプレイの表示領域の一部が車両の内装部から前記車両のウィンドの方向に延在し、
    前記ディスプレイの表示領域は、第1領域と、前記第1領域より前記内装部側に位置する第2領域を含み、
    前記車両の前記内装部の表面を表した画像である第2画像をデータベースから取得する情報取得部と、
    前記ディスプレイに表示される表示画像を生成する画像生成部と、
    前記表示画像を前記ディスプレイに出力する出力部とを備え、
    前記表示画像は、前記第1領域に表示される第1画像と、前記第2領域に表示される前記第2画像とから生成された背景画像を含む画像処理装置。
  2. 前記表示領域は、直線の境界で前記第1領域と前記第2領域に分けられている請求項1記載の画像処理装置。
  3. 前記ディスプレイは、前記表示領域が矩形形状のディスプレイであり、
    前記画像生成部は、
    前記表示領域の前記ウィンド側の端部及び前記内装部側の端部から、前記第1領域と前記第2領域の前記境界に向かって、所定の色となるように前記第1画像及び前記第2画像にグラデーションを施す処理を行い、
    前記出力部は、グラデーション処理された前記第1画像及び前記第2画像を前記ディスプレイに出力する請求項2に記載の画像処理装置。
  4. 前記画像生成部は、
    前記ウィンド側の端部から前記境界に向かう方向である第1方向と第2方向に沿ってグラデーションが施されるように、前記第1画像を補正し、
    前記内装部側の端部から前記境界に向かう方向である第3方向と第4方向に沿ってグラデーションが施されるように、前記第2画像を補正し、
    前記背景画像は、前記第1方向、前記第2方向、前記第3方向、及び前記第4方向に沿った線を含む請求項3記載の画像処理装置。
  5. 前記背景画像は、前記第1方向、前記第2方向、前記第3方向、及び前記第4方向に沿った黒色のグラデーションを含む請求項4記載の画像処理装置。
  6. 前記ウィンドの下端の高さと前記境界の高さが同じ高さである請求項2~4のいずれか一項に記載の画像処理装置。
JP2022170967A 2019-08-02 2022-10-25 画像処理装置及び画像処理方法 Active JP7364009B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022170967A JP7364009B2 (ja) 2019-08-02 2022-10-25 画像処理装置及び画像処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021538517A JP7168091B2 (ja) 2019-08-02 2019-08-02 画像処理装置及び画像処理方法
PCT/JP2019/030405 WO2021024290A1 (ja) 2019-08-02 2019-08-02 画像処理装置及び画像処理方法
JP2022170967A JP7364009B2 (ja) 2019-08-02 2022-10-25 画像処理装置及び画像処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021538517A Division JP7168091B2 (ja) 2019-08-02 2019-08-02 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2023010713A JP2023010713A (ja) 2023-01-20
JP7364009B2 true JP7364009B2 (ja) 2023-10-18

Family

ID=74502571

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021538517A Active JP7168091B2 (ja) 2019-08-02 2019-08-02 画像処理装置及び画像処理方法
JP2022170967A Active JP7364009B2 (ja) 2019-08-02 2022-10-25 画像処理装置及び画像処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021538517A Active JP7168091B2 (ja) 2019-08-02 2019-08-02 画像処理装置及び画像処理方法

Country Status (5)

Country Link
US (2) US11748920B2 (ja)
EP (1) EP4009628A4 (ja)
JP (2) JP7168091B2 (ja)
CN (1) CN114208161A (ja)
WO (1) WO2021024290A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003320869A (ja) 2002-04-30 2003-11-11 Nissan Motor Co Ltd 車両用情報表示装置
JP2015099186A (ja) 2013-11-18 2015-05-28 三菱電機株式会社 車両用表示装置
WO2015145980A1 (ja) 2014-03-27 2015-10-01 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
JP2016013747A (ja) 2014-07-01 2016-01-28 株式会社デンソー 車両用表示制御装置及び車両用表示システム
JP2017210233A (ja) 2016-05-19 2017-11-30 カルソニックカンセイ株式会社 車両用情報表示装置
JP2019025947A (ja) 2017-07-25 2019-02-21 株式会社デンソー 車両用表示装置
WO2019111305A1 (ja) 2017-12-05 2019-06-13 三菱電機株式会社 表示制御装置及び表示制御方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19801801C2 (de) 1997-01-20 2000-06-29 Nissan Motor Navigationssystem und Speichermedium für das Speichern dafür verwendeter Betriebsprogramme
JPH10221093A (ja) * 1997-02-07 1998-08-21 Nissan Motor Co Ltd ナビゲーションシステム
JPH11108684A (ja) 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JP2004125446A (ja) 2002-09-30 2004-04-22 Clarion Co Ltd ナビゲーション装置、およびナビゲーションプログラム。
JP2006287826A (ja) * 2005-04-05 2006-10-19 Nissan Motor Co Ltd 車両用画像生成装置および方法
JP4760831B2 (ja) * 2005-08-02 2011-08-31 日産自動車株式会社 車両周囲監視装置及び車両周囲監視方法
EP2018066B1 (en) * 2006-05-09 2019-10-02 Nissan Motor Co., Ltd. Vehicle circumferential image providing device and vehicle circumferential image providing method
JP4858212B2 (ja) 2007-02-16 2012-01-18 トヨタ自動車株式会社 車載ナビゲーション装置
JPWO2009141846A1 (ja) * 2008-05-19 2011-09-22 パナソニック株式会社 車両周囲監視装置および車両周囲監視方法
ES2538827T3 (es) * 2009-09-01 2015-06-24 Magna Mirrors Of America, Inc. Sistema de formación de imágenes y de exhibición para un vehículo
JP2011131678A (ja) * 2009-12-24 2011-07-07 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
US9264672B2 (en) * 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
EP2717571B1 (en) * 2011-05-24 2018-09-05 Nissan Motor Co., Ltd Vehicle monitoring device and method of monitoring vehicle
US9649980B2 (en) * 2012-05-18 2017-05-16 Nissan Motor Co., Ltd. Vehicular display apparatus, vehicular display method, and vehicular display program
US10455159B2 (en) * 2013-11-27 2019-10-22 Kyocera Corporation Imaging setting changing apparatus, imaging system, and imaging setting changing method
US10026196B2 (en) * 2014-02-24 2018-07-17 Nissan Motor Co., Ltd. Apparatuses and methods for self-position calculation of a vehicle using a light projector and a camera
EP3206075A1 (en) * 2016-02-10 2017-08-16 Ricoh Company, Ltd. Image display apparatus and image display method
WO2018220826A1 (ja) * 2017-06-02 2018-12-06 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US11267496B2 (en) * 2019-11-15 2022-03-08 Transportation Ip Holdings, Llc Vehicle system
US11284051B2 (en) * 2018-07-30 2022-03-22 Pony Ai Inc. Systems and methods for autonomous vehicle interactive content presentation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003320869A (ja) 2002-04-30 2003-11-11 Nissan Motor Co Ltd 車両用情報表示装置
JP2015099186A (ja) 2013-11-18 2015-05-28 三菱電機株式会社 車両用表示装置
WO2015145980A1 (ja) 2014-03-27 2015-10-01 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
JP2016013747A (ja) 2014-07-01 2016-01-28 株式会社デンソー 車両用表示制御装置及び車両用表示システム
JP2017210233A (ja) 2016-05-19 2017-11-30 カルソニックカンセイ株式会社 車両用情報表示装置
JP2019025947A (ja) 2017-07-25 2019-02-21 株式会社デンソー 車両用表示装置
WO2019111305A1 (ja) 2017-12-05 2019-06-13 三菱電機株式会社 表示制御装置及び表示制御方法

Also Published As

Publication number Publication date
US20220319066A1 (en) 2022-10-06
JP7168091B2 (ja) 2022-11-09
CN114208161A (zh) 2022-03-18
JPWO2021024290A1 (ja) 2021-02-11
EP4009628A4 (en) 2022-07-13
US20230360287A1 (en) 2023-11-09
US11748920B2 (en) 2023-09-05
JP2023010713A (ja) 2023-01-20
WO2021024290A1 (ja) 2021-02-11
EP4009628A1 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
US8754760B2 (en) Methods and apparatuses for informing an occupant of a vehicle of surroundings of the vehicle
JP5118605B2 (ja) 車両周辺画像表示システム
CN107027329B (zh) 将行进工具的周围环境的局部图像拼接成一个图像
JP5516998B2 (ja) 画像生成装置
JP6669053B2 (ja) ヘッドアップディスプレイシステム
CN111095921B (zh) 显示控制装置
JP2018052216A (ja) 車両用視認装置及び車両用視認画像表示方法
JP5966513B2 (ja) 車両の後側方撮影装置
JP5516997B2 (ja) 画像生成装置
JP2022095303A (ja) 周辺画像表示装置、表示制御方法
JP2021114775A (ja) 移動体用映像表示装置およびその方法
JP4466963B2 (ja) 車両前方画像表示装置及び方法
KR101657673B1 (ko) 파노라마뷰 생성 장치 및 방법
JP7364009B2 (ja) 画像処理装置及び画像処理方法
JP2019034692A (ja) 車両用視認装置
JP7027992B2 (ja) 画像表示装置、移動体、画像表示方法およびプログラム
JP4706896B2 (ja) 広角画像の補正方法及び車両の周辺監視システム
US20220222947A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
JP7113348B2 (ja) 車両周辺表示システム、表示制御装置およびコンピュータプログラム
JP2018074503A (ja) 車両用視認装置及び車両用視認画像表示方法
WO2014010179A1 (ja) 車両用視界支援装置
JP7398637B2 (ja) 表示制御装置、車両及び表示制御方法
US11938863B2 (en) Peripheral image generation device and display control method
JP7415516B2 (ja) 表示制御装置
US11830409B2 (en) Peripheral image display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R151 Written notification of patent or utility model registration

Ref document number: 7364009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151