JP6014442B2 - 画像生成装置、画像表示システム、および、画像生成方法 - Google Patents

画像生成装置、画像表示システム、および、画像生成方法 Download PDF

Info

Publication number
JP6014442B2
JP6014442B2 JP2012213889A JP2012213889A JP6014442B2 JP 6014442 B2 JP6014442 B2 JP 6014442B2 JP 2012213889 A JP2012213889 A JP 2012213889A JP 2012213889 A JP2012213889 A JP 2012213889A JP 6014442 B2 JP6014442 B2 JP 6014442B2
Authority
JP
Japan
Prior art keywords
image
vehicle
frame
display
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012213889A
Other languages
English (en)
Other versions
JP2014068308A (ja
Inventor
親一 森山
親一 森山
正博 山田
正博 山田
康嘉 澤田
康嘉 澤田
美紀 村角
美紀 村角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012213889A priority Critical patent/JP6014442B2/ja
Priority to CN201310311280.3A priority patent/CN103692973B/zh
Priority to US13/965,602 priority patent/US9479740B2/en
Publication of JP2014068308A publication Critical patent/JP2014068308A/ja
Application granted granted Critical
Publication of JP6014442B2 publication Critical patent/JP6014442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Description

本発明は、車両において画像を生成して表示させる技術に関する。
従来、画像生成装置は、車両(主に車両のユーザであるドライバが乗車する車両、以下「自車両」という。)の周辺を当該自車両に備えた複数のカメラで撮影し、その撮影画像に基づいて自車両周辺の画像(以下、「周辺画像」という。)を生成する、そして、周辺画像に自車両の車両像(以下、「自車両像」という。)を重畳した合成画像が表示装置に表示される。しかし、周辺画像を生成する場合に、仮想視点からみた物体が自車両を介した位置に存在する場合、合成画像中の物体の像(以下、「物体像」という。)は、自車両像と重なって、当該物体像が自車両像の後方に隠れることとなる。そのため、ユーザは仮想視点からみて自車両を介した位置に存在する物体を確認することが困難な場合があった。
これに対して、画像生成装置が透過率を高めた(例えば、透過率50%以上)車両像や、車体の枠を線状で表すフレームで表示するフレーム表示の車両像などを周辺画像に重畳した合成画像を生成する技術がある。つまり、画像生成装置が、物体像が自車両像に隠れることのない合成画像を生成し、仮想視点からみて自車両を介した位置に存在する物体をユーザが画像上で視認可能な合成画像を生成する技術がある。なお、本発明と関連する技術を説明する資料としては特許文献1がある。
特開2010−231276号公報
しかしながら、画像生成装置が透過率を高めた自車両像を生成したり、フレーム表示の自車両像を周辺画像に重畳した合成画像を生成することで、ユーザが画像上で自車両の後方に存在する物体を視認できても、自車両と物体との距離を正確に把握することは困難な場合があった。具体的には、画像生成装置が透過率を高めた自車両像を周辺画像に重畳した合成画像を生成した場合、自車両像の表示が不鮮明となる。その結果、ユーザは自車両像と物体像との画像上の間隔を十分に確認できず、ユーザが自車両と物体との距離を正確に把握することが困難な場合があった。
また、画像生成装置がフレーム表示の自車両像を周辺画像に重畳した合成画像を生成した場合、自車両の車体の枠の形状を示すフレームの線の太さや色は一様に表示される。そのため、車両像と物体像との画像上の間隔を確認する場合に、車両像に対する物体像の位置によっては、車両像を構成するフレームに物体像の一部が隠れてしまい、ユーザが車両像と物体像との画像上の間隔を十分に確認すること困難なことがあった。さらに、自車両像を構成するフレーム各部の色が同じ色であるため、フレーム各部が自車両像のどの部分に対応するのかを即座に見分けられず、ユーザは車両像と物体像との画像上の間隔を十分に確認することが困難なことがあった。その結果、ユーザは自車両と物体との正確な距離を把握できない場合があった。
本発明は、上記課題に鑑みてなされたものであり、周辺画像に車両像を重畳させた合成画像を表示した場合に、ユーザが自車両9と物体との正確な距離を把握できる技術を提供することを目的とする。
上記課題を解決するために、請求項1の発明は、車両に搭載されたカメラの撮影画像を取得する取得手段と、前記撮影画像から、前記車両および前記車両の周辺領域を仮想視点からみた周辺画像を生成し、該周辺画像に前記車両を示す車両像を重畳した合成画像を生成する生成手段と、前記車両の周辺に存在する物体の位置に関する情報を取得する取得手段と、を備え、前記生成手段は、前記車両像の表示形態を車体の枠全体を略均一の太さの線状のフレームで表すフレーム表示の表示形態とし、前記物体の位置に応じて、前記フレーム表示の表示形態に係る前記枠全体の前記太さを変更する。
また、請求項2の発明は、請求項1に記載の画像生成装置において、前記生成手段は、前記フレーム表示の表示形態を、前記フレームの線の太さが異なる複数の前記フレーム表示の中から前記車両のユーザの操作に応じて選択された一のフレーム表示の表示形態とする。
また、請求項3の発明は、請求項1または2に記載の画像生成装置において、前記生成手段は、前記仮想視点に応じて、前記車両像を前記フレーム表示、および、前記車両の実像表示のいずれかの表示形態とする。
また、請求項4の発明は、請求項1ないし3のいずれかに記載の画像生成装置において、前記フレームは、一方の面と他方の面とが異なる色であり、前記生成手段は、前記仮想視点から見た場合に、表示される前記フレームが前記一方の面および前記他方の面のいずれの面かに応じて、前記フレーム表示の表示形態を変更する。
また、請求項5の発明は、請求項1ないし4のいずれかに記載の画像生成装置において、前記生成手段は、前記物体の位置が前記車両の位置に近づくにつれて前記フレーム表示のフレームの線の太さを細くする。
また、請求項6の発明は、請求項1ないし5のいずれかに記載の画像生成装置において、前記生成手段は、前記物体の位置に対応する前記フレーム表示の一部のフレームの表示形態を変更する。
また、請求項7の発明は、請求項1ないしのいずれかに記載の画像生成装置と、
前記画像生成装置から出力された前記合成画像を表示する表示装置と、を備える。
また、請求項8の発明は、(a)車両に搭載されたカメラの撮影画像を取得する工程と、b)前記撮影画像から、前記車両および前記車両の周辺領域を仮想視点からみた周辺画像を生成し、該周辺画像に前記車両を示す車両像を重畳した合成画像を生成する工程と、(c)前記車両の周辺に存在する物体の位置に関する情報を取得する工程と、を備え、前記工程(b)は、前記車両像の表示形態を車体の枠全体を略均一の太さの線状のフレームで表すフレーム表示の表示形態とし、前記物体の位置に応じて、前記フレーム表示の表示形態に係る前記枠全体の前記太さを変更する。
さらに、請求項9の発明は、車両に搭載されたカメラの撮影画像を取得する取得手段と、前記撮影画像から、前記車両および前記車両の周辺領域を仮想視点からみた周辺画像を生成し、該周辺画像に前記車両を示す車両像を重畳した合成画像を生成する生成手段と、前記車両の周辺に存在する物体の位置に関する情報を取得する取得手段と、を備え、前記生成手段は、前記車両像を車体の枠を線状のフレームで表すフレーム表示とし、前記物体の位置が前記車両の位置に近づくにつれて前記フレーム表示のフレームの線の太さを細くする。
請求項1ないし9の発明によれば、車両像をフレーム表示としその表示形態を変更することで、ユーザは車両像および物体像を個別に認識し、物体の位置に関わらず車両像と物体像の画像上の間隔を確実に確認でき、車両と物体との距離を正確に把握できる。
また、特に請求項2の発明によれば、車両像の後方に物体像が隠れてユーザが車両像と物体像との画像上の間隔を確認することが困難な場合でも、ユーザが車両像と物体像との画像上の間隔を確認し易い線の太さのフレーム表示を選択することで、車両と物体との距離を正確に把握できる。
また、特に請求項3の発明によれば、仮想視点に応じて車両像をフレーム表示、および車両の実像表示のいずれかの表示形態とすることで、どの仮想視点からみてもユーザが車両の形状を認識し易い車両像が表示され、ユーザは車両と物体との距離を正確に把握できる。
また、特に請求項4の発明によれば、仮想視点からみた場合に表示されるフレームが一方の面および他方の面のいずれの面かに応じてそれぞれの色に対応するフレーム表示の表示形態を変更することで、ユーザは自車両像を立体的に認識可能となり、車両と物体との距離を正確に把握できる。
また、特に請求項5の発明によれば、フレームの線の太さが異なる複数のフレーム表示の中から物体の位置に応じて一のフレーム表示が選択されるため、ユーザは車両像および物体像を個別に認識し、車両像と物体像との画像上の間隔を確認し易くなり、車両と物体との距離を正確に把握できる。
また、特に請求項6の発明によれば、車両と物体との位置が近づくにつれて、フレーム線の太さを細くすることで、ユーザは画像上の物体像の存在を確実に視認でき、画像上の車両像と物体像との間隔を確認し易くなり、車両と物体との距離をより正確に把握できる。
さらに、特に請求項7の発明によれば、物体の位置に対応した一部のフレームの表示形態を変更することで、ユーザは車両に対してどの位置に物体が存在するのかを正確に把握できる。
図1は、画像表示システムの構成を示す図である。 図2は、4つのカメラがそれぞれ撮影する方向を示す図である。 図3は、周辺画像、自車両像、および、合成画像が生成される手法を説明する図である。 図4は、自車両データの複数のポリゴンモデルを示す図である。 図5は、表示装置に表示される画像の遷移を説明する図である。 図6は、仮想視点からみた周辺画像に車両像を重畳した合成画像を示す図である。 図7は、仮想視点からみた周辺画像に自車両像を重畳した合成画像を示す図である。 図8は、合成画像上に表示されるフレーム表示の自車両像の設定について説明する図である。 図9は、画像生成装置の処理を説明するフローチャートである。 図10は、仮想視点に応じた自車両像の表示形態の変更について説明する図である。 図11は、三角形の形状の2枚のポリゴンと、2枚のポリゴンを貼り合わせた1枚の貼合せポリゴンを示す図である。 図12は、フレーム表示される部分のポリゴンに対して貼合せポリゴンを用いて構成したポリゴンモデルの合成画像を示す図である。 図13は、画像表示システムの構成を示す図である。 図14は、物体の位置に応じたフレームの線の太さの変更の状態を示す図である。 図15は、画像表示システムの構成を示す図である。 図16は、フレーム表示の自車両像の一部のフレームの表示形態が、物体の位置に対応した表示形態となる合成画像を示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.構成>
図1は、画像表示システム10の構成を示す図である。この画像表示システム10は、車両(本実施の形態では、自動車であり、主に車両のユーザであるドライバが乗車する車両、以下「自車両」という。)において用いられるものであり、自車両の周辺の領域を示す画像(以下、「周辺画像」という。)を生成して車室内に表示する機能を有している。画像表示システム10のユーザ(代表的にはドライバ)は、この画像表示システム10を利用することにより、自車両の周辺の様子をほぼリアルタイムに把握できる。
図1に示すように、画像表示システム10は、複数のカメラ5、画像生成装置2、表示装置3、および、操作ボタン41を主に備えている。複数のカメラ5はそれぞれ、自車両の周辺を撮影して撮影画像を取得し、取得した撮影画像のデータを画像生成装置2に入力する。画像生成装置2は、自車両の周辺を示す撮影画像を用いて、後述する自車両の車両像(以下、「自車両像」という。)を含む周辺画像である合成画像を生成する。表示装置3は、画像生成装置2で生成された合成画像を表示する。また、操作ボタン41は、ユーザの操作を受け付ける。
複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、自車両の周辺を示す撮影画像のデータを取得する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、および、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、自車両において互いに異なる位置に配置され、自車両の周辺の異なる方向を撮影する。
図2は、4つのカメラ5F,5B,5L,5Rがそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、自車両9の前端に設けられ、その光軸5Faは自車両9の直進方向に向けられる。リアカメラ5Bは、自車両9の後端に設けられ、その光軸5Baは自車両9の直進方向の逆方向に向けられる。左サイドカメラ5Lは左側の左サイドミラー93Lに設けられ、その光軸5Laは自車両9の左側方(自車両9の直進方向の直交方向)に向けられる。また、右サイドカメラ5Rは右側の右サイドミラー93Rに設けられ、その光軸5Raは自車両9の右側方(自車両9の直進方向の直交方向)に向けられる。
これらのカメラ5F,5B,5L,5Rのレンズには魚眼レンズなどの広角レンズが採用され、各カメラ5F,5B,5L,5Rは180度以上の画角θを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、自車両9の全周囲を撮影することが可能である。
図1に戻り、表示装置3は、例えば、液晶などの薄型の表示パネルを備えており、各種の情報や画像を表示する。表示装置3は、ユーザがその画面を視認できるように、自車両9のインストルメントパネルなどに配置される。表示装置3は、画像生成装置2と同一のハウジング内に配置されて画像生成装置2と一体化されていてもよく、画像生成装置2とは別体の装置であってもよい。表示装置3は、表示パネルに重ねてタッチパネル31、および、表示パネルの外周近傍にハードボタン32を備えており、ユーザの操作を受け付けることが可能である。
操作ボタン41は、ユーザの操作を受け付ける操作部材である。操作ボタン41は、例えば、自車両9のステアリングホイールに設けられており、主にドライバからの操作を受け付ける。ユーザは、この操作ボタン41と、表示装置3のタッチパネル31およびハードボタン32とを介して画像表示システム10に対する各種の操作を行うことができる。なお、以下では、この操作ボタン41と、表示装置3のタッチパネル31およびハードボタン32とを操作部4という。操作部4によりユーザの操作がなされた場合は、その操作の内容を示す操作信号が画像生成装置2に入力される。
画像生成装置2は、各種の画像処理が可能な電子装置であり、画像取得部21と、周辺画像生成部22と、合成画像生成部23と、画像出力部24とを主に備えている。
画像取得部21は、4つのカメラ5F,5B,5L,5Rでそれぞれ得られた撮影画像のデータを取得する。画像取得部21は、アナログの撮影画像をデジタルの撮影画像に変換する機能などの画像処理機能を有している。画像取得部21は、取得した撮影画像のデータに所定の画像処理を行い、処理後の撮影画像のデータを周辺画像生成部22、および、合成画像生成部23に入力する。
周辺画像生成部22は、複数のカメラ5で取得された複数の撮影画像を合成し、仮想視点からみた自車両9の周辺の様子を示す周辺画像を生成する。仮想視点は、自車両9の外部の位置から自車両9を俯瞰する俯瞰視点や、その他ドライバにとって死角となる自車両9の周辺の視点である。また、周辺画像生成部22は、周辺画像に重畳する自車両9の車両像である自車両像を生成する。
ここで自車両像は、後述する自車両9のポリゴンモデルに対して一つの仮想視点からみた画像として生成される車両像である。そして、自車両9のポリゴンモデルは後述する自車両データ273として複数のモデルが記憶部27に記憶されている。詳細には、この自車両9のポリゴンモデルは、自車両9を複数のポリゴンを用いて三次元形状で構成するモデルで、自車両9の実像を透過率0%で表す実像表示のモデルや、自車両9の車体の枠を線状のフレームで表すフレーム表示のモデル等である。なお、フレーム表示のモデルは、後述するようにフレームの線の太さの異なる複数のモデルがある。これらのモデルのデータは例えば、ユーザの選択などの所定条件に応じて記憶部27から自車両データ273が読み出され、読み出されたポリゴンモデルに基づいて自車両像が生成される。
合成画像生成部23は、周辺画像生成部22で生成された周辺画像に対して自車両像を重畳した合成画像を生成し、この合成画像を画像出力部24に入力する。また、合成画像生成部23は、画像取得部21から取得した一つのカメラで撮影された撮影画像を画像出力部24に出力する。
画像出力部24は、主に合成画像生成部23で生成された合成画像を表示装置3に出力して一つの表示画像として表示装置3に表示させる。また、合成画像とともに撮影画像を表示装置3に出力して複数の画像を一つの表示画像として表示装置3に表示させる。これにより、仮想視点からみた自車両9の周辺を示す表示画像が表示装置3に表示される。
また、画像生成装置2は、制御部20と、操作受付部25と、信号受信部26と記憶部27とをさらに備えている。制御部20は、例えば、CPU、RAM、および、ROMなどを備えたマイクロコンピュータであり、画像生成装置2の全体を統括的に制御する。
操作受付部25は、ユーザが操作を行った場合に操作部4から出力される操作信号を受信する。これにより、操作受付部25はユーザの操作を受け付ける。操作受付部25は、受信した操作信号を制御部20に入力する。
信号受信部26は、画像生成装置2とは別に自車両9に設けられる他の装置からの信号を受信して、制御部20に入力する。信号受信部26は、例えば、自車両9の変速装置のシフトレバーの位置であるシフトポジションを示す信号をシフトセンサ101から受信する。この信号に基づいて、制御部20は、自車両9の進行方向が前方あるいは後方のいずれであるかを判定することができる。また、信号受信部26は、自車両9の車軸の回転数に基づいて自車両9の速度に応じた信号を車速センサ102から受信する。この信号に基づいて制御部20は、自車両9の現時点の車両速度を取得する。
記憶部27は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部27は、ファームウェアとしてのプログラム271や、周辺画像、および、合成画像を生成するときに用いる各種のデータを記憶する。また、周辺画像の生成に用いられる他のデータとして、複数の仮想視点および視線方向を含むデータである仮想視点データ272がある。また、自車両像を生成する際に用いられる複数のポリゴンモデルを含むデータである自車両データ273がある。
制御部20の各種の機能は、記憶部27に記憶されたプログラム271等に従ってCPUが演算処理を行うことで実現される。つまり、図中に示す画像制御部201は、プログラム271等に従ってCPUが演算処理を行うことで実現される機能部の一部である。
画像制御部201は、周辺画像を生成する周辺画像生成部22、および、合成画像を生成する合成画像生成部23を主に制御する。つまり、画像制御部201は、周辺画像生成部22、および、合成画像生成部23を制御して、自車両9の周辺の状況を示す周辺画像、自車両9の車両像である自車両像、および、周辺画像に自車両像を重畳した合成画像等を生成する。
<1−2.合成画像の生成>
次に、周辺画像生成部22が、仮想視点からみた自車両9の周辺の状況を示す周辺画像と自車両像とを生成し、合成画像生成部23が、周辺画像に自車両像を重畳した合成画像を生成する手法について説明する。図3は、周辺画像、自車両像、および、合成画像が生成される手法を説明する図である。
自車両9に備えられたフロントカメラ5F、リアカメラ5B、左サイドカメラ5L、および、右サイドカメラ5Rのそれぞれで撮影が行われると、自車両9の前方、後方、左側方、および、右側方をそれぞれ示す4つの撮影画像SF,SB,SL,SRが取得される。これら4つの撮影画像SF,SB,SL,SRには、自車両9の全周囲のデータが含まれている。
画像合成部22は、まず、これら4つの撮影画像SF,SB,SL,SRに含まれるデータ(各画素の値)を、仮想的な三次元空間における投影面TSに投影する。投影面TSは、自車両9の周辺の領域に相当する仮想の立体面である。投影面TSの中心領域は、自車両9の位置となる車両領域R0として定められている。
投影面TSでは、車両領域R0には撮影画像のデータは投影されず、車両領域R0の外側の領域に撮影画像のデータが投影される。以下、投影面TSにおいて、撮影画像のデータが投影される領域(車両領域R0の外側の領域)を、「投影対象領域」という。
また、車両領域R0には自車両9を複数のポリゴンを用いて三次元形状で構成されるポリゴンモデル(例えば、図4で後述する「太線モデルPGa」)を仮想的に備えている。太線モデルPGaは、投影面TSが設定される三次元空間において、自車両9の位置と定められた略半球状の中心部分に配置される。この太線モデルPGaは、例えば、ユーザの選択等による所定条件に応じて画像制御部201の制御により複数ポリゴンモデルを有する自車両データ273から読み出されて、車両領域R0に配置されたものである。
ここで、図4を用いて自車両データ273の複数のポリゴンモデルについて説明する。図4は、自車両データ273の複数のポリゴンモデルを示す図である。図4では、4つのポリゴンモデルが例として示され、これらのモデルは例えばユーザの操作部4を用いた操作に応じて選択され、選択されたポリゴンモデルに基づいて周辺画像生成部22が自車両像を生成する。
そして、この4つのポリゴンモデルのうち自車両9の実像を透過率0%で表す実像表示のポリゴンモデルPGは、自車両9を複数のポリゴンを用いて三次元形状で構成するモデルである(以下、「実像モデルPG」という。)。そして、この実像モデルPGを構成する各ポリゴンには実際の自車両9の実像に対応した着色がなされている。そのため、実像モデルPG(自車両9)の外部の仮想視点から実像モデルPG(自車両9)をみた場合に、その仮想視点から実像モデルPG(自車両9)を介した領域に存在する物体の物体像は、実像表示の自車両像の後方に隠れて合成画像上に表示されない。
次に、ポリゴンモデルPGaは、自車両9の車体の枠を比較的太い線状のフレームで表したフレーム表示のポリゴンモデルである(以下、「太線モデルPGa」という。)。この太線モデルPGaは、実像モデルPGと同様に自車両9を複数のポリゴンを用いて三次元形状で構成するモデルである。ここで、太線モデルPGaは実像モデルPGと異なり、自車両9の車体の枠に相当する部分や、自車両9の外形を構成する主要なパーツ(例えば、タイヤ、フロントライト、バックライト、および、サイドミラーなど)に対して着色がなされ、特に車体の枠に相当する部分は比較的太い線状のフレームとして表示されるように着色がなされている。そして、この太線モデルPGaは、自車両9の車体の枠に相当する部分、および、自車両9の外形を構成する主要なパーツ部分以外のポリゴンには着色は行われていない。そのため、太線モデルPGa(自車両9)の外部の仮想視点から太線モデルPGa(自車両9)をみた場合に、太線モデルPGa(自車両9)のポリゴンの着色の行われていない箇所を介するときは、その仮想視点から太線モデルPGa(自車両9)を介した領域に存在する物体の物体像が、フレーム表示の自車両像の後方に隠れることなく合成画像上に表示される。しかも、太線モデルPGaのフレームは比較的太い線状であるため、自車両像が明確となり、ユーザが自車両9の形状を認識しやくなる。
次に、ポリゴンモデルPGbは、自車両9の車体の枠を比較的細い線状のフレームで表したフレーム表示のポリゴンモデルである(以下、「細線モデルPGb」という。)。この細線モデルPGbは、実像モデルPG、および、太線モデルPGaと同様に自車両9を複数のポリゴンを用いて三次元形状で構成されるモデルである。細線モデルPGbは、太線モデルPGと比較して、自車両9の車体の枠に相当する部分や自車両9の外形を構成する主要なパーツ(例えば、タイヤ、フロントライト、バックライト、および、サイドミラーなど)に対して着色がなされている点は同じである。ただし、自車両9の車体の枠に相当する部分は比較的細い線となるよう着色がなされている点で太線モデルPGaとは異なる。そして、この細線モデルPGbは、自車両9の車体の枠に相当する部分、および、自車両9の外形を構成する主要なパーツの部分以外のポリゴンには着色は行われていない。そのため、細線モデルPGb(自車両9)の外部の仮想視点から細線モデルPGb(自車両9)をみた場合に、細線モデルPGb(自車両9)の着色の行われていない箇所を介するときは、その仮想視点から細線モデルPGb(自車両9)を介した領域に存在する物体の物体像が、フレーム表示の自車両像に隠れることなく合成画像上に表示される。
なお、上述のように細線モデルPGbの車体の枠に相当する部分は比較的細い線であるため、太線モデルPGaと比べてユーザが自車両9の形状を認識しにくい場合がある。しかし、太線モデルPGaよりもフレーム表示の自車両像を介して仮想視点から自車両9を介した領域に存在する物体の位置をユーザがより把握し易くなる。具体的には、太線モデルPGaの場合は、車両像を構成するフレームに物体像の一部が隠れてしまい、ユーザが車両像と物体像との画像上の間隔を十分に確認すること困難なときでも、ユーザの選択などに基づいて、太線モデルPGaから細線モデルPGbに表示形態を変更することで自車両像を構成するフレームに隠れていた物体像が表示される。これにより、ユーザは自車両像および他車両像を個別に認識し、自車両像と物体像との画像上の間隔を確認でき、自車両9と物体との距離を正確に把握できる。
次に、自車両9の前半分の車体の枠は細線モデルPGbと同様に比較的細い線状のフレームで表し、自車両9の後半分の車体の枠には着色を行わないフレーム表示のポリゴンモデルPGcは、細線モデルPGbなどと同様に自車両9を複数のポリゴンを用いて三次元形状で構成されるポリゴンモデルである(以下、「前車体モデルPGc」という。)。ここで、前車体モデルPGcは細線モデルPGbと比較して、自車両9に対応する前車体モデルPGcの車体の枠の前半分に相当する部分や自車両9に対応する前車体モデルPGcの外形を構成する主要なパーツ(例えば、タイヤ、フロントライト、バックライト、および、サイドミラーなど)に対して着色がなされている点は同じである。ただし、自車両9の車体の後ろ半分に相当する部分は着色を行わない点で細線モデルPGbとは異なる。つまり、この前車体モデルPGcは、自車両9の前半分の車体の枠に相当する部分、および、自車両9の外形を構成する主要なパーツ部分以外のポリゴンには着色は行われていない。
そのため、前車体モデルPGc(自車両9)の外側の仮想視点から前車体モデルPGc(自車両9)をみた場合に、前車体モデルPGc(自車両9)の着色の行われていない箇所を介するときは、その仮想視点から前車体モデルPGc(自車両9)を介した領域に存在する物体の物体像が、フレーム表示の自車両像に隠れることなく合成画像上に表示される。なお、上述のように前車体モデルPGcの車体の枠に相当する部分は車体の前半分は比較的細い線で表示され、後半分は着色されていないためフレームが表示されない。その結果、細線モデルPGbと比べてユーザが自車両9の形状を認識しにくい場合がある。しかし、細線モデルPGbよりもフレーム表示の車両像を介して仮想視点から自車両9を介した領域に存在する物体の位置をユーザがより把握し易くなる。具体的には、細線モデルPGbの場合は、車両像を構成するフレームに物体像の一部が隠れてしまい、ユーザが車両像と物体像との画像上の間隔を十分に確認すること困難なときでも、ユーザの選択などに基づいて、細線モデルPGbから前車体モデルPGcに表示形態を変更することで車両像を構成するフレームに隠れていた物体像が表示される。これにより、ユーザは自車両像および他車両像を個別に認識し、自車両像と物体像との画像上の間隔を確認でき、自車両9と物体との距離を正確に把握できる。
なお、これら表示形態の変更については後述するが、合成画像が生成されて表示装置3に表示される前に、複数のポリゴンモデルに対応する各フレーム表示のうち一つのフレーム表示の表示形態とする選択を予めユーザの選択等によって行ってもよいし、合成画像が表示装置3に表示されている際に、ユーザの選択によって切り替えることで表示形態を変更してもよい。
図3に戻り、投影面TSの投影対象領域における各位置は、4つの撮影画像SF,SB,SL,SRのいずれかと、テーブルデータ等の対応情報によって対応付けられている。画像合成部22は、4つの撮影画像SF,SB,SL,SRのデータをそれぞれ投影対象領域の対応する部分に投影する。
画像合成部22は、投影対象領域において自車両9の前方に相当する部分PFに、フロントカメラ5Fの撮影画像SFのデータを投影する。また、画像合成部22は、投影対象領域において自車両9の後方に相当する部分PBに、リアカメラ5Bの撮影画像SBのデータを投影する。さらに、画像合成部22は、投影対象領域において自車両9の左側方に相当する部分PLに左サイドカメラ5Lの撮影画像SLのデータを投影し、投影対象領域において自車両9の右側方に相当する部分PRに右サイドカメラ5Rの撮影画像SRのデータを投影する。
このように投影面TSの投影対象領域の各部分に撮影画像のデータを投影すると、周辺画像生成部22は、自車両9を三次元形状で示す太線モデルPGaを車両領域R0に仮想的に配置する。
次に、周辺画像生成部22は、仮想的な三次元空間の投影面TSおいて、仮想視点VPを設定し周辺画像を生成する。この仮想視点VPの視点位置は一例として自車両9の前方で自車両9の車高よりも高い位置であり、視線方向を車両9の前方から後方をみた方向となる。
そして、周辺画像生成部22は、仮想視点VPからみて所定の視野角に含まれる領域に投影されたデータを画像として切り出して周辺画像を生成する。また、周辺画像生成部22は仮想視点VPに基づいて自車両像を生成する。そして、合成画像生成部23は、生成された周辺画像に自車両像を重畳して合成画像IMaを生成する。
ここで、自車両像として太線モデルPGaが選択されている場合、合成画像IMaには、投影面TSにおいて仮想視点VPから太線モデルPGaをみて、車体の枠を比較的太い線状のフレームで表すフレーム表示の自車両像91a(以下、「太線フレーム像91a」という。)が示される。さらに、自車両9の後方に他車両が存在する場合は、合成画像IMaには仮想視点VPからみてこの太線フレーム像91aの自車両像を介した領域に存在する物体である他の車両の像92a(以下、「他車両像92a」という。)が示される。これにより、ユーザは自車両像である太線フレーム像91aの後方に存在する他車両像92aを視認でき、太線フレーム像91aと他車両像92aとの画像上の間隔を確認することで自車両9と他車両との距離を把握できる。そして、この太線フレーム像91aの表示では、フレームに他車両像92aの一部が隠れて、ユーザが画像上の太線フレーム像91aと他車両像92aとの画像上の間隔を確認することが困難な場合は、合成画像中の太線フレーム像91aの自車両像の表示形態を変更する。
<1−3.自車両像の表示形態変更>
次に、図5〜図8を用いて、合成画像中の自車両像の表示形態の変更について説明する。図5は、表示装置3に表示される画像の遷移を説明する図である。図5上段には、ナビゲーション機能を実行する場合に表示装置3に表示されるナビゲーション画像NAが示されている。また、図5下段には、自車両9が後退時に必要となる自車両9の後方を主に示す画像であるバックモード画像BAが示されている。
図5上段のナビゲーション画像NAは、図示しない表示装置3の記憶部に地図画像データ等のナビゲーション機能に使用するデータが記録されており、ナビゲーション機能を実行する際に、それらのデータが読み出されて、表示装置3に表示される。ナビゲーション画像NAには、地図画像に重畳して自車両9の現在位置を示す現在地マークGP、および、設定ボタンBaが主に表示され、このうち設定ボタンBaの機能は、操作部4のタッチパネル31に対してユーザが指などを接触させて操作することで実行される。なお、設定ボタンBaをユーザが操作することで設定される機能は、ナビゲーション機能を含めた各種機能であるが、それらの機能の中で表示装置3に表示される合成画像中のフレーム表示の自車両像の設定については後述する。
ナビゲーション画像NAが表示装置3に表示されている場合に、シフトセンサ101から入力されるシフトポジションの信号が”R(後退)”を示す信号となったときに、バックモード画像BAが表示装置3に表示される。すなわち、シフトポジションが”R(後退)”の場合は、自車両9は後退する状態であるため、自車両9の後方を主に示すバックモード画像BAが表示装置3に表示される。
バックモード画像BAは自投影面TSにおいて視点位置を自車両9の直上とし、視線方向を自車両9の真下の方向(鉛直方向)とする仮想視点(例えば、後述する図10に示す「仮想視点VP1」)からみた俯瞰画像である合成画像TIMと、自車両9のリアカメラ5Bの撮影画像である撮影画像BIMとを表示する画像である。合成画像TIMには実像モデルPGに対応する実像表示の自車両像91hが示されている。また、合成画像TIMには、自車両9の後方に存在する他車両に対応する他車両像92hが示されている。また、撮影画像BIMには、合成画像TIMの他車両像92hに対応するリアカメラ5Bで撮影した他車両像92kが示されている。そして、合成画像TIMと撮影画像BIMとを含むバックモード画像BAには視点切替ボタンB0、および、戻るボタンB1が示されている。この視点切替ボタンB0をユーザが操作部4を用いて操作すると、合成画像TIMを生成する仮想視点が仮想視点VP1から図3で説明した仮想視点VPに切替えられ、次に図6を用いて説明する合成画像IMが表示装置3に表示される。なお、戻るボタンB1をユーザが操作すると、ナビゲーション画像NAが表示装置3に表示される。
図6は、仮想視点VPからみた周辺画像に車両像を重畳した合成画像を示す図である。以下、図6から図7に示す各合成画像について説明するが、それぞれの違いは、仮想視点VPからみた周辺画像に表示形態の異なる複数のポリゴンモデル(実像モデルPG、太線モデルPGa、細線モデルPGb、および、前車体モデルPGc)のうちいずれか一つのポリゴンモデルを仮想視点VPからみた自車両像を周辺画像に重畳した合成画像を示すものである。
図6上段は、仮想視点VPからみた周辺画像に同じ仮想視点VPからみた実像モデルPGの自車両像91(以下、「実像表示の自車両像91」という。)を重畳した合成画像IM(以下、「合成画像IM」という。)を示す図である。合成画像IMには、実像モデルPGに対応する実像表示の自車両像91、および、自車両9の後方に存在する他車両に対応する他車両像92が示されている。ここで、他車両像92は合成画像IM上で、車体の一部の像は表示されているものの、車体の他の部分の像は自車両像91の後方に隠れているため、ユーザは視認できない。つまり、実像モデルPG(自車両9)の外部の仮想視点VPから実像モデルPG(自車両9)をみた場合に、その仮想視点から実像モデルPG(自車両9)を介した領域に存在する物体の物体像のほとんどの部分が、実像表示の自車両像91に隠れて合成画像上に表示されない。そのため、ユーザはこの合成画像IMの表示をみても自車両像91の後方に存在する他車両像92の存在は視認できても、画像上の自車両像91と他車両像92の間隔を十分に確認できない。つまり、自車両9と他車両との距離を正確に把握することはできない。
このため、次に説明するようにユーザが操作部4を用いて画像切替ボタンB2を操作すると、実像表示の自車両像91からフレーム表示の自車両像に表示形態を変更した自車両像を含む合成画像が表示装置3に表示される。なお、操作部4を用いて戻るボタンB1をユーザが操作すると直前に表示装置3に表示されていたバックモード画像BAが表示装置3に表示される。なお、以下の図面中に示される戻るボタンB1の機能はこのように現在表示されている画像から直前に表示されていた画像に切り替えて表示装置3に表示させるものである。
次に、操作部4を用いた操作により合成画像IMにおける画像切替ボタンB2をユーザが操作すると、図6下段の合成画像IMaが表示装置3に表示される。
図6下段には、仮想視点VPからみた周辺画像に同じ仮想視点VPからみた太線モデルPGaに対応する比較的太いフレーム表示の太線フレーム像91aを重畳した合成画像IMa(以下、「合成画像IMa」という。)が示されている。この合成画像IMaは上述のようにユーザの画像切替ボタンB2の操作に応じて、合成画像IM中の実像表示の自車両像91が太線フレーム像91aの表示形態に変更され、仮想視点VPからみた周辺画像に太線フレーム像91aを重畳した合成画像IMaとして表示装置3に表示されたものである。
この太線フレーム像91aでは、太線モデルPGa(自車両9)の外部の仮想視点VPから太線モデルPGa(自車両9)をみることで、太線モデルPGa(自車両9)の着色の行われていない箇所については、仮想視点VPからみた太線フレーム像91aを介した領域に存在する物体である他車両像92が、自車両像に隠れることなく合成画像上に表示される。これにより、ユーザは自車両像および他車両像を個別に認識し、自車両像と他車両像の画像上の間隔を確実に確認でき、自車両に対する物体である他車両の距離を正確に把握できる。
なお、合成画像IMaに示すようにフレーム表示の自車両像を比較的太いフレーム表示とした場合、ユーザは画像上の自車両像の形状や位置を認識しやすいが、画像上の物体像の位置によっては、太線フレーム像91aのフレームに他車両像92aの一部が隠れてしまい、ユーザが太線フレーム像91aと他車両像92aとの画像上の間隔を確認することが困難になる場合がある。その結果、ユーザが自車両9に対する物体の距離を正確に把握できないときがある。これに対して、ユーザは自車両像と他車両像との画像上の間隔を確認して、自車両9に対する他車両の距離を正確に把握するため、操作部4を用いて画像切替ボタンB2を操作することで、図7上段に示す合成画像IMbを表示装置3に表示させる。
図7は、仮想視点VPからみた周辺画像に自車両像を重畳した合成画像を示す図である。図7上段には、仮想視点VPからみた周辺画像に同じ仮想視点VPからみた細線モデルPGbに対応する比較的細いフレーム表示の自車両像である細線フレーム像91bを重畳した合成画像IMb(以下、「合成画像IMb」という。)が示されている。この合成画像IMbは、上述のようにユーザの画像切替ボタンB2の操作に応じて、合成画像IMa中の太線フレーム像91aが細線フレーム像91bの表示形態に変更され、仮想視点VPからみた周辺画像に細線フレーム像91bを重畳した合成画像IMbとして表示装置3に表示されたものである。
この細線フレーム像91bでは、細線モデルPGb(自車両9)の外部の仮想視点VPから細線モデルPGb(自車両9)をみることで、細線モデルPGb(自車両9)の着色の行われていない箇所については、仮想視点VPからみた細線フレーム像91bを介した領域に存在する物体である他車両像92bが、自車両像に隠れることなく画像上に表示される。これにより、ユーザは自車両像および他車両像を個別に認識し、自車両像と物体像の画像上の間隔を確実に確認でき、車両に対する物体の距離を正確に把握できる。
そして、細線フレーム像91bは上述の太線フレーム像91aとはフレームの線の太さが異なる。つまり、細線フレーム像91bは太線フレーム像91aと比べるとフレームの線の太さが細くなる。そのため、細線フレーム像91bは、太線フレーム像91aと比べて、ユーザが合成画像上の自車両像の形状や位置を認識しにくいものの合成画像上の細線フレーム像91bと後方に存在する物体像である他車両像92bとの間隔の確認は太線フレーム像91aと比べて行い易い。これにより、ユーザは自車両像および他車両像を個別に認識し、自車両と物体である他車両との距離を正確に把握できる。
なお、画像上の物体像の位置によっては、細線フレーム像91bのフレームに他車両像92bの一部が隠れてしまい、細線フレーム像91bと他車両像92bとの画像上の間隔を確認することが困難になる場合がある。その結果、ユーザが自車両9に対する物体の距離を正確に把握できないときがある。これに対して、ユーザは自車両像および他車両像を個別に認識し、自車両像と他車両像との画像上の間隔を確認して、自車両9に対する他車両の距離を正確に把握するため、操作部4を用いて画像切替ボタンB2を操作することで、図7下段に示す合成画像IMcを表示装置3に表示させる。
図7下段には、仮想視点VPからみた周辺画像に同じ仮想視点VPからみた前車体モデルPGcに対応する車体の前半分を比較的細い線状で表したフレーム表示の自車両像91c(以下、「前車体フレーム像91c」という。)を重畳した合成画像IMc(以下、「合成画像IMc」という。)が示されている。この合成画像IMcは上述のようにユーザの画像切替ボタンB2の操作に応じて、合成画像IMb中の細線フレーム像91bが前車体フレーム像91cの表示形態に変更され、仮想視点VPからみた周辺画像に前車体フレーム像91cを重畳した合成画像IMcとして表示装置3に表示されたものである。
この前車体フレーム像91cでは、前車体モデルPGc(自車両9)の外部の仮想視点VPから前車体モデルPGc(自車両9)をみることで、前車体モデルPGc(自車両9)の着色の行われていない箇所については、仮想視点VPからみた前車体フレーム像91cを介した領域に存在する物体である他車両像92cが、自車両像に隠れることなく画像上に表示される。これによりユーザは、自車両像および他車両像を個別に認識し、車両像と物体像との画像上の間隔を確実に確認でき、自車両9と物体である他車両との距離を正確に把握できる。
このように図6から図7に示したように自車両像の表示を車体の枠を線状のフレーム表示としその表示形態を変更することで、物体の位置に関わらず自車両像および他車両像を個別に認識し、車両像と物体像の画像上の間隔を確実に確認でき、自車両9に対する物体の距離を正確に把握できる。そして、上述のようにフレーム表示の表示形態をフレームの線の太さが異なる複数のフレーム表示の中から自車両9のユーザの操作部4を用いた操作に応じて選択されたフレーム表示の表示形態とすることで、自車両像の後方に物体像が隠れてユーザが車両像と物体像との画像上の間隔を確認することが困難な場合でも、ユーザが車両像と物体像との画像上の間隔を確認し易い線の太さのフレーム表示を選択でき、自車両像および他車両像を個別に認識し、自車両9と物体との距離を正確に把握できる。
なお、図7下段の合成画像IMcにおいて画像切替ボタンB2が操作されると、合成画像IMcから図6上段に示す合成画像IMが表示装置に表示され、ユーザは複数のフレーム表示の自車両像の表示形態から、自車両像と物体像との画像上の間隔を確認し易い表示形態を自由に選択できる。
図8は、合成画像上に表示されるフレーム表示の自車両像の設定について説明する図である。図8上段には、ナビゲーション画像NAが示されている。ユーザがナビゲーション画像NAの設定ボタンBaを操作部4を用いて操作すると、図8下段に示す車両像選択画像SEが表示装置3に表示される。この車両像選択画像SEは、合成画像を生成される際のポリゴンモデルをユーザが操作部4を用いて予め選択するものであり、車両像選択画像SE中には実像モデルPG、太線モデルPGa、細線モデルPGb、および、前車体モデルPGcが示されている。これらの複数のポリゴンモデルの中からユーザが選択した一つのポリゴンモデルが、合成画像を生成する際に投影面TSにおける車両領域R0に配置される。そして、周辺画像生成部22により仮想視点からみた自車両像が生成されて、この自車両像を周辺画像に重畳した合成画像が生成される。
<1−4.処理>
図9は、画像生成装置2の処理を説明するフローチャートである。画像生成装置2の信号受信部26がシフトセンサ101からのシフトポジションを”R(後退)”とする信号を受信した場合(ステップS101でYes)、周辺画像生成部22、および、合成画像生成部23が、自車両9の直上の仮想視点VP1からみた合成画像TIMとリアカメラ5Bでの撮影により得られる撮影画像BIMとを含むバックモード画像BAを生成し、表示装置3に表示させる(ステップS102)。なお、信号受信部26がシフトセンサ101からのシフトポジションを”R(後退)”とする信号を受信しない場合(ステップS101でNo)は、処理を終了する。
次に、操作受付部25がユーザの操作部4の操作によるバックモード画像BAの視点切替ボタンB0の操作信号を受信した場合(ステップS103でYes)に、周辺画像生成部22は、仮想視点VPからみた自車両9の周辺画像と、車両像選択画像SEで予め選択されているポリゴンモデル(例えば、太線モデルPGa)に対応する自車両像(例えば、太線フレーム像91a)を生成し、合成画像生成部23が周辺画像に自車両像を重畳した合成画像(例えば、合成画像IMa)を生成する(ステップS104)。なお、ユーザの操作部4を用いた視点切替ボタンB0の操作信号を操作受付部25が受信していない場合(ステップS103でNo)は後述するステップS106の処理を行う。
そして、画像出力部24は、合成画像生成部23で生成された合成画像を表示装置3に入力して表示させる(ステップS105)。
次に、操作受付部25がユーザの操作部4を用いた画像切替ボタンB2の操作信号を受信した場合(ステップS106でYes)に、周辺画像生成部22は、仮想視点VPからみた自車両9の周辺画像と、車両像選択画像SEで予め選択されているポリゴンモデル(例えば、太線モデルPGa)の自車両像から表示形態を変更する別のポリゴンモデル(例えば、細線モデルPGa)に対応する自車両像(例えば、細線フレーム像91b)を生成し、合成画像生成部23が周辺画像に自車両像を重畳した合成画像を生成する(ステップS104)。なお、ユーザの操作部4を用いた画像切替ボタンB2の操作信号を操作受付部25が受信していない場合(ステップS106でNo)は処理を終了する。
なお、ステップS106の処理でユーザの操作部4を用いた画像切替ボタンB2の操作信号を操作受付部25が受信していない場合は、表示装置3に表示されている画像は変更されずそのままの状態を継続するか、一定時間(例えば、5分以上)経過した場合に、ナビゲーション画像NAに切り替わるようにしてもよい。
このように自車両像をフレーム表示としその表示形態を変更することで、ユーザは自車両像および他車両像を個別に認識し、物体の位置に関わらず自車両像と物体像との画像上の間隔を確実に確認でき、自車両9に対する物体の距離を正確に把握できる。
また、物体像である他車両像の一部がフレーム表示の自車両像に隠れてユーザが車両像と物体像との画像上の間隔を確認しにくい場合でも、ユーザが車両像と物体像との画像上の間隔を確認し易い線の太さのフレーム表示を選択することで、ユーザは自車両像および他車両像を個別に認識し、自車両9に対する物体の距離を正確に把握できる。
<1−5.仮想視点に応じた自車両像の表示形態の変更>
なお、本実施の形態では上述の図5に示した仮想視点VP1に基づく合成画像TIMと図7に示した仮想視点VPに基づく合成画像IMbのように仮想視点に応じて、合成画像中に表示される自車両像の表示形態を変更している。つまり、実像表示の自車両像に対応する実像モデルPGと、フレーム表示の自車両像とを仮想視点に応じて変更している。
図10は、仮想視点に応じた自車両像の表示形態の変更について説明する図である。図10上段には、投影面TSにおいて実像モデルPG(自車両9)の直上の視点位置で、視線方向を鉛直方向とする仮想視点VP1からみた合成画像TIMが示されている。この仮想視点VP1に基づく合成画像TIMは、上述の図5下段に示したバックモード画像BAを生成する場合以外に次のような場面で生成される。例えば、ユーザが自車両9をIGON(イグニッションオン)したことを示す信号を信号受信部26が受信した場合に、画像生成装置2が仮想視点VP1からみた合成画像TIMを生成し、表示装置3に表示させる。そして、合成画像を生成する仮想視点が仮想視点VP1の場合は、ポリゴンモデルは実像モデルPGが選択される。これは仮想視点VP1からみた周辺画像に実像表示の自車両像91hを重畳した場合、仮想視点からみた自車両9を介した領域はユーザの死角になることがないためであり、また、自車両像としてフレーム表示とした場合、仮想視点VP1からみると自車両像は四角形条の線が表示されることとなるため、かえってユーザが自車両像をイメージしづらくなるためである。
このように、フレーム表示よりもユーザが車両の形状や位置を把握し易い実像表示の自車両像を表示することで、ユーザは、自車両像および他車両像を個別に認識し、自車両9に対する物体の距離を正確に把握できる。そして、仮想視点からみて自車両9を介した領域がユーザにとって死角とならない場合は、実像モデルPGに対応する実像表示の自車両像を周辺画像に重畳した合成画像を表示装置3に表示する。
これに対して、図10下段では、投影面TSにおける太線モデルPGa(自車両9)の前方で自車両9の車高よりも高い視点位置で、視線方向を自車両9の前方から後方をとする仮想視点VPからみた合成画像IMaが示されている。合成画像を生成する仮想視点が仮想視点VPの場合は、ポリゴンモデルはフレーム表示の自車両像に対応するモデル(例えば、太線モデルPGa)が選択される。これは、仮想視点VPから自車両9を介した領域がユーザにとって死角となる。そのため、実像表示の自車両像を合成画像に重畳する自車両像として選択した場合、自車両9の後方に存在する他車両に対応する他車両像92aが確認できなかったり、その存在を確認できたとしても、自車両像と他車両像92aとの画像上の間隔が確認できない場合がある。その結果、ユーザが自車両9に対する他車両の正確な距離を把握できないことがある。そのため、仮想視点からみて自車両9を介した領域がユーザにとって死角となる場合は、太線モデルPGa等のフレーム表示の自車両像を周辺画像に重畳した合成画像を表示装置3に表示する。
このように仮想視点に応じて、周辺画像に重畳する自車両像をフレーム表示および、実像表示のいずれかの表示とすることで、どの仮想視点からみてもユーザが車両の形状を認識し易い自車両像が表示されるため、ユーザは自車両像および他車両像を個別に認識し、自車両9と物体との距離を正確に把握できる。
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像表示システム10の画像生成装置2では、第1の実施の表示形態で説明したポリゴンモデルの構成を変更するものである。具体的には、複数のポリゴンで構成される各モデル(太線モデルPGa、細線モデルPGb、および、前車体モデルPGc)の少なくともフレーム表示がなされる箇所については、2枚のポリゴンの裏面同士を張り合わせ、張り合わせたポリゴン(以下、「貼合せポリゴン」という。)の表面、および、裏面の色をそれぞれ異なる色として着色するものである。第2の実施の形態の画像表示システムの10の構成および処理は、第1の実施の形態とほぼ同様であるが、このように各モデルを構成する複数のポリゴンの少なくとも一部のポリゴンの構成が相違し、その結果、周辺画像生成部22で生成される自車両像の表示形態も異なる。このため図11および図12を用いて相違点を中心に説明する。
図11は、三角形の形状の2枚のポリゴンと、2枚のポリゴンを貼り合わせた1枚の貼合せポリゴンを示す図である。図11の上段のポリゴンpn1とpn2とは同じ形状および性質のポリゴンであり、それぞれの表面を表面ob1(ob2)、裏面を裏面re1(re2)として説明する。そして、第1の実施の形態で説明した各ポリゴンモデルはこのような複数のポリゴンpn1(pn2)を使って三次元形状を構成する。
また、第1の実施の形態で説明した各ポリゴンモデルはその種類に応じて、複数のポリゴンpn1(pn2)の表面ob1(ob2)に着色される範囲や色等が異なる。例えば、実像モデルPGの場合は、自車両9の三次元形状を構成するモデルに対して、実際の自車両9の実像に近い着色が複数のポリゴンpn1(pn2)の表面ob1(ob2)に行われる。なお、ポリゴンpn1(pn2)の裏面re1(re2)には着色は行われない。そのため、仮想視点からポリゴンpn1(pn2)を見た場合、表面ob1(ob2)が見える場合は、表面に着色した色が画像上に表示され、裏面re1(re2)が見える場合は、裏面re1(re2)は着色されていないため透明となり、表面ob1(ob2)に着色した色が画像上に表示されることとなる。
そして、フレーム表示の各ポリゴンモデルの場合は、自車両9の三次元形状を構成する複数のポリゴンpn1(pn2)のうち自車両9の車体の枠に相当する部分やその他の自車両9の外形を構成する主要なパーツ(例えば、タイヤ、フロントライト、バックライト、および、サイドミラーなど)のポリゴンpn1(pn2)対して着色がなされ、その他の部分を構成するポリゴンpn1(pn2)は着色されない。例えば、ポリゴンpn1(pn2)の表面ob1(ob2)に緑色の着色がなされることで、フレーム表示(例えば、図7上段に示す合成画像IMbの細線フレーム像91bの車両の枠)の部分が緑色で表示される。
このように構成されるフレーム表示の各ポリゴンモデルに対して、第2の実施の形態では、自車両9の車体の枠に相当する部分のポリゴンpn1(pn2)の裏面re1(re2)に別のポリゴンpn1(pn2)の裏面re1(re2)を貼り合わせて、2枚のポリゴンの互いの裏面が貼り合わされた、貼合せポリゴンpn3を生成する。そして例えば、図11下段に示すようにポリゴンpn1の裏面re1とポリゴンpn2の裏面re2とが貼り合わされた場合、ポリゴンpn3の表面ob3と裏面re3とは着色される色が異なる。例えば、ポリゴンpn3の表面ob3には緑色に着色され、ポリゴンpn3の裏面には赤色が着色される。このようにして貼りあわせポリゴンにより構成されたポリゴンモデルを仮想視点からみた自車両像を周辺画像に重畳した合成画像の例を次ぎに示す。
図12は、細線モデルPGbにおいて、フレーム表示される部分のポリゴンに対して貼合せポリゴンpn3を用いて構成したポリゴンモデルを仮想視点VPからみた場合の合成画像IMd(以下、「合成画像IMd」という。)を示す図である。つまり、合成画像IMd中に示す自車両像91dは、上述の図7上段の細線フレーム像91bに対応する細線モデルPGbを構成するポリゴンpn1(pn2)のうち、表面ob1(ob2)を緑色に着色されるフレームの部分のポリゴンを貼りあわせポリゴンpn3とし、この貼り合せポリゴンpn3を含むポリゴンモデルを仮想視点VPからみた自車両像とする。そして、図12に示す合成画像IMdは、この自車両像91dを周辺画像に重畳した合成画像である。
そのため、図12の自車両像91dにおいて実線で示される表面ob3に対応するフレームの色は緑色で表示され、破線に網掛けした線で示される裏面re3に対応するフレームの色は赤色で表示される。つまり、仮想視点VPから自車両9を見た場合に、仮想視点VPから見えるフレーム部分は表面ob3を使用する。その結果フレームの色は緑色で表示される。そして、車体に隠れて本来見えないフレーム部分は裏面re3を使用する。その結果フレームの色は赤色で表示される。つまり、自車両9の車体の枠に対応するフレームの一方の面と他方の面とが異なる色であり、仮想視点から見た場合に、表示されるフレームが一方の面および他方の面のいずれの面かに応じて、フレーム表示の表示形態が変更される。これにより、ユーザはフレーム各部が自車両9のどの部分に対応するのかを即座に見分けることができるため、ユーザは自車両像91dを立体的に認識可能となり、自車両9と物体との距離を正確に把握できる。
なお、このような合成画像IMdは、図12に示す画像切替ボタンB2をユーザが操作部4を用いて操作することで、第1の実施の形態の図6および図7で示した各合成画像のように順次切替えて表示される各合成画像の中の一つの合成画像として表示装置3に表示される。また、図6および図7で説明した各合成画像中のフレーム表示の自車両像に対応するポリゴンモデルを構成するポリゴンを貼り合せポリゴンとして、図12に示す自車両像91dのように仮想視点から見た場合に、フレームが表面、および、裏面のいずれかの面に応じてフレーム表示の表示形態を変更した自車両像を表示装置3に表示するようにしてもよい。
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態の画像表示システム10aの画像生成装置2aでは、画像情報や各種センサからの情報などにから自車両9の周辺に存在する物体の位置を検出し、その物体の位置に応じて、フレーム表示の自車両像のフレームの線の太さを変更するものである。つまり、画像生成装置2aが物体の位置に応じてフレーム表示の表示形態をフレームの太さが異なる複数のフレーム表示の中から選択された一つのフレーム表示の表示形態とするものである。なお、物体の位置は必ずしも正確な位置である必要はない。
第3の実施の形態の画像表示システムの10aの構成および処理は、第1の実施の形態とほぼ同様であるが、このように自車両9の周辺に存在する物体の位置に応じて、自車両像のフレーム表示の表示形態を変更する点で少なくとも一部の構成が相違する。このため以下、図13および図14を用いて相違点を中心に説明する。
図13は、画像表示システム10aの構成を示す図である。画像表示システム10aの画像生成装置2aは、制御部20に自車両9の周辺に存在する物体の位置を検出する位置検出部202を備えている。この位置検出部202は、画像生成装置2aで生成された画像上の物体像(例えば、後述する図14上段の合成画像IMeに示す障害物像92e)の位置から、自車両9に対する障害物の位置を検出する。
また、位置検出部202は、画像表示システム10aの外部で自車両9に設けられた自車両9の周辺に存在する物体の位置を検出するレーダ装置103およびクリアランスソナー104の少なくともいずれか一つのセンサから自車両9の周辺に存在する物体の位置を示す情報(以下、「周辺物体情報」という。)を信号受信部26を介して受信し、自車両9の周辺に存在する物体の位置を検出する。ここで、レーダ装置103は、例えば、自車両9の前方や後方バンパーの略中央部分に備えられ、送信波が物体に反射した反射波を受信して物体の位置を導出する。また、クリアランスソナー104は、自車両9の前方のバンパー近傍に複数、および、自車両9後方のバンパー近傍に複数備えられ、送信波が物体に反射した反射波を受信して物体の位置を導出する。
そして、位置検出部202が検出した周辺物体情報に応じて画像制御部201が自車両データ273の複数のフレーム表示の複数のポリゴンモデルの中から一つのポリゴンモデルを読み出し、投影面TSの車両領域R0に読み出されたポリゴンモデルが配置され、仮想視点からみた自車両像を周辺画像に重畳した合成画像が生成される。
ここで、複数のポリゴンモデルの中から読み出される一つのポリゴンモデルは周辺物体情報の自車両9の位置に対する障害物の位置が近づくにつれて、画像制御部201は、複数のフレーム表示の表示形態のうち、フレームの線の太さが細いフレーム表示に対応するポリゴンモデルを選択する。つまり、画像制御部201は、物体の位置が自車両9の位置に近づくにつれてフレーム表示のフレームの線の太さを細くする。これにより、ユーザは画像上の物体像の存在を確実に視認でき、車両像と物体像との画像上の間隔を確認し易くなり、自車両9と物体との距離をより正確に把握できる。このように、自車両9に対する物体の位置によって自車両9と物体とが衝突する危険度が高いほどフレーム表示のフレーム線の太さを細くすることで、自車両像によって隠れる障害物像をユーザに対してより見易くできる。
図14は、物体の位置に応じたフレームの線の太さの変更の状態を示す図である。図14上段には、自車両9に対する物体の位置が第1の範囲(例えば、自車両9に対する物体の距離が5mを超え、かつ、20m以下)の場合のフレーム表示の自車両像を含む合成画像IMe(以下、「合成画像IMe」という。)が示されている。また、図14下段には、自車両9に対する物体の位置が第2の範囲(例えば、自車両9に対する物体の距離が1mを超え、かつ、5m以下)の場合のフレーム表示の自車両像を含む合成画像IMf(以下、「合成画像IMf」という。)を示されている。
合成画像IMeおよび合成画像IMfは略同じ仮想視点から自車両9をみた場合に生成される合成画像であり、視点位置を自車両9の左前方で自車両9の車高よりも高い位置とし、視線方向を自車両9の左前方から自車両9の右後方とする仮想視点からみた自車両像を周辺画像に重畳した合成画像である。
そして、図14上段の合成画像IMeには、略中央に太線モデルPGaに対応する太線フレーム像91eが示されている。そして、太線フレーム像91eの右側後方に障害物(例えば、電柱やポール等)に対応する障害物像92eが表示されている。
位置検出部202は、合成画像IMeの障害物像92eの画像情報やレーダ装置103、および、クリアランスソナー104からの周辺物体情報により、自車両9に対する障害物の位置を検出する。そして、位置検出部202によって検出された自車両9に対する障害物の位置に応じて(この場合は、第1の範囲内に障害物が存在するものとして)、画像制御部201は、自車両データ273の複数のポリゴンデータの中から、太線モデルPGaを読み出し、投影面TSの車両領域R0に読み出された太線モデルPGaが配置され、仮想視点からみた太線フレーム像91eを周辺画像に重畳した合成画像IMeを生成し、表示装置3に表示させる。
次に、自車両9の位置が図14上段の図に示す位置よりも後退して自車両9の位置と障害部の位置とが近づいた場合を図14下段の図を用いて説明する。図14下段では、合成画像IMfの略中央に細線モデルPGbに対応する細線フレーム像91fが示されている。そして、細線フレーム像91fの右側後方に障害物に対応する障害物像92fが表示されている。
位置検出部202は、合成画像IMfの障害物像92eの画像情報やレーダ装置103、および、クリアランスソナー104からの周辺物体情報により、自車両9に対する障害物の位置を検出する。そして、位置検出部202によって検出された自車両9に対する物体の位置に応じて(この場合は、第2の範囲内に障害部が存在するものとして)、画像制御部201は、自車両データ273の複数のポリゴンデータの中から、細線モデルPGaを読み出し、投影面TSの車両領域R0に読み出された太線モデルPGaが配置され、仮想視点からみた細線フレーム像91fを周辺画像に重畳した合成画像IMfを生成し、表示装置3に表示させる。
このように画像生成装置2は、自車両9の周辺に存在する物体の位置が自車両9の位置に近づくにつれてフレーム表示のフレームの線の太さを細くする。これにより、ユーザは自車両像および他車両像を個別に認識し、画像上の物体像の存在を確実に視認でき、画像上の自車両像と物体像との間隔を確認し易くなり、自車両9と物体との距離をより正確に把握できる。
<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態の画像表示システム10bの画像生成装置2bでは、画像情報や各種センサからの情報などから自車両9の周辺に存在する物体の位置を検出し、その物体の位置が自車両9の近傍の場合に、物体の位置に対応したフレーム表示の一部のフレームの表示形態を変更するものである。つまり、物体の位置が自車両9の近傍の場合、物体の位置に対応する一部のフレームに対してユーザに対して注意すべき箇所を示す指標の画像(例えば、緑色のフレームに対して黄色の指標の画像)を重畳する。なお、物体の位置は必ずしも正確な位置である必要はない。
第4の実施の形態の画像表示システムの10bの構成および処理は、第3の実施の形態とほぼ同様であるが、このように物体の位置に応じて自車両像のフレームにユーザに対して注意すべき箇所を示す指標の画像(以下、「指標画像」という。)を重畳表示する点で少なくとも一部の構成が相違する。このため以下、図15および図16を用いて相違点を中心に説明する。
図15は、画像表示システム10bの構成を示す図である。画像表示システム10bの画像生成装置2bにおける記憶部27は、指標画像データ274を備える。この指標画像データ274は、位置検出部202により自車両9の周辺の物体の位置が検出され、その物体の位置が自車両9の近傍の場合に、画像制御部201の制御により記憶部27から読み出される。そして、物体の位置に対応する自車両像のフレームの部分に当該フレームと色が異なる指標画像が重畳される。これにより、ユーザは自車両9に対してどの位置に物体が存在するのかを正確に把握できる。
図16は、フレーム表示の自車両像91gの一部のフレームの表示形態が、物体の位置に対応した表示形態に変更された合成画像IMg(以下、「合成画像IMg」という。)を示す図である。図16の合成画像IMgは、視点位置を自車両9の左側後方で自車両9の車高よりも高い位置とし、視線方向を自車両9の左側後方から自車両9の右側前方とする仮想視点からみた自車両像を周辺画像に重畳した合成画像である。そして、合成画像16の略中央に細線モデルPGbに対応する細線フレーム像91gが示されている。また、細線フレーム像91gの左側後方に障害物に対応する障害物像92gが表示されている。
位置検出部202は、合成画像IMgの障害物像92gの画像情報やレーダ装置103、および、クリアランスソナー104からの周辺物体情報により、自車両9に対する障害物の位置を検出する。そして、位置検出部202によって検出された自車両9に対する物体の位置が自車両9の近傍(例えば、5m以内)の場合、自車両9の右側後方に障害物が存在することに対応して、画像制御部201はこの障害物の位置に対応する自車両9の右側後方の車体部分に相当する一部のフレームに指標画像データ274の指標画像MAを重畳して表示装置3に表示させる。これにより、ユーザは自車両9に対してどの位置に物体が存在するのかを正確に把握でき、自車両9の危険箇所を確認できる。
なお、自車両9の近傍に物体が存在した場合に、物体が存在する位置に応じて自車両像のどのフレームの箇所の表示形態を変更させるのかを予め定めておき、物体の位置に応じた自車両像の一部のフレームの表示形態を変更させることで、ユーザは物体が自車両9に対してどの位置に存在し、自車両9のどの箇所が危険なのかを直感的に把握できる。
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、周辺画像と自車両像を含む合成画像を生成する場合の仮想視点を主に仮想視点VPおよびVP1の位置や視線方向として説明したが、仮想視点は仮想視点からみて車両を介した領域を示すものであれば、仮想視点VPおよびVP1以外の位置および視線方向であってもよい。
また、上記実施の形態において、自車両9の周辺に存在する物体の位置の検出の方法として、位置検出部202による画像情報からの物体位置の検出や、レーダ装置103および、クリアランスソナー104を用いた周辺物体情報を信号受信部26を介して取得するなど、複数の取得方法について述べたが、これらのうち少なくも一つの方法により物体の位置を検出するようにしてもよい。また、自車両9の周辺の物体の位置を検出できる方法であればこれら以外の方法を用いてもよい。
また、上記実施の形態4において、物体の位置が自車両9の近傍の場合、物体の位置に対応するフレーム表示される自車両像のフレームの一部に対してユーザに対して注意すべき箇所を示す指標の画像を重畳することを説明した。これ以外に、ユーザに対して注意すべき箇所を示す指標画像の重畳を時間的に継続して行うのではなく、所定の時間間隔(例えば約1秒の間隔)を空けて重畳と非重畳を繰り返し行うことで、ユーザが合成画像IMgをみた場合に、画像上の指標画像MAを点滅させるようにしてもよい。なお、点滅させる以外にも、尚、指標画像MAは他のフレーム部分と色を異ならせる他、線の太さを変えたり、あるいはこれらを組み合わせるようにしてもよい。これにより、ユーザは危険箇所をより認識し易くなる。さらに、物体が自車両9の近傍の位置に検出された場合、指標画像MAを重畳する替わりに、または指標画像MAの重畳と併せて図15に図示しない画像生成装置2bに備えられたスピーカから警告音をユーザに対して報知するようにしてもよい。
また、上記実施の形態において、画像生成装置2の制御部20によって実現されると説明した機能の一部は、表示装置3の制御部によって実現されてもよい。
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。
2 画像生成装置
3 表示装置
4 操作部
5 撮影部
9 自車両
10 画像表示システム

Claims (9)

  1. 車両に搭載されたカメラの撮影画像を取得する取得手段と、
    前記撮影画像から、前記車両および前記車両の周辺領域を仮想視点からみた周辺画像を生成し、該周辺画像に前記車両を示す車両像を重畳した合成画像を生成する生成手段と、
    前記車両の周辺に存在する物体の位置に関する情報を取得する取得手段と、
    を備え、
    前記生成手段は、前記車両像の表示形態を車体の枠全体を略均一の太さの線状のフレームで表すフレーム表示の表示形態とし、前記物体の位置に応じて、前記フレーム表示の表示形態に係る前記枠全体の前記太さを変更すること、
    を特徴とする画像生成装置。
  2. 請求項1に記載の画像生成装置において、
    前記生成手段は、前記フレーム表示の表示形態を、前記フレームの線の太さが異なる複数の前記フレーム表示の中から前記車両のユーザの操作に応じて選択された一のフレーム表示の表示形態とすること、
    を特徴とする画像生成装置。
  3. 請求項1または2に記載の画像生成装置において、
    前記生成手段は、前記仮想視点に応じて、前記車両像を前記フレーム表示、および、前記車両の実像表示のいずれかの表示形態とすること、
    を特徴とする画像生成装置。
  4. 請求項1ないし3のいずれかに記載の画像生成装置において、
    前記フレームは、一方の面と他方の面とが異なる色であり、
    前記生成手段は、前記仮想視点から見た場合に、表示される前記フレームが前記一方の面および前記他方の面のいずれの面かに応じて、前記フレーム表示の表示形態を変更すること、
    を特徴とする画像生成装置。
  5. 請求項1ないし4のいずれかに記載の画像生成装置において、
    前記生成手段は、前記物体の位置が前記車両の位置に近づくにつれて前記フレーム表示のフレームの線の太さを細くすること、
    を特徴とする画像生成装置。
  6. 請求項1ないし5のいずれかに記載の画像生成装置において、
    前記生成手段は、前記物体の位置に対応する前記フレーム表示の一部のフレームの表示形態を変更すること、
    を特徴とする画像生成装置。
  7. 請求項1ないしのいずれかに記載の画像生成装置と、
    前記画像生成装置から出力された前記合成画像を表示する表示装置と、
    を備えること、
    を特徴とする画像表示システム。
  8. (a)車両に搭載されたカメラの撮影画像を取得する工程と、
    b)前記撮影画像から、前記車両および前記車両の周辺領域を仮想視点からみた周辺画像を生成し、該周辺画像に前記車両を示す車両像を重畳した合成画像を生成する工程と、
    (c)前記車両の周辺に存在する物体の位置に関する情報を取得する工程と、
    を備え、
    前記工程(b)は、前記車両像の表示形態を車体の枠全体を略均一の太さの線状のフレームで表すフレーム表示の表示形態とし、前記物体の位置に応じて、前記フレーム表示の表示形態に係る前記枠全体の前記太さを変更すること、
    を特徴とする画像生成方法。
  9. 車両に搭載されたカメラの撮影画像を取得する取得手段と、
    前記撮影画像から、前記車両および前記車両の周辺領域を仮想視点からみた周辺画像を生成し、該周辺画像に前記車両を示す車両像を重畳した合成画像を生成する生成手段と、
    前記車両の周辺に存在する物体の位置に関する情報を取得する取得手段と、
    を備え、
    前記生成手段は、前記車両像を車体の枠を線状のフレームで表すフレーム表示とし、前記物体の位置が前記車両の位置に近づくにつれて前記フレーム表示のフレームの線の太さを細くすること、
    を特徴とする画像生成装置。
JP2012213889A 2012-09-27 2012-09-27 画像生成装置、画像表示システム、および、画像生成方法 Active JP6014442B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012213889A JP6014442B2 (ja) 2012-09-27 2012-09-27 画像生成装置、画像表示システム、および、画像生成方法
CN201310311280.3A CN103692973B (zh) 2012-09-27 2013-07-23 图像生成装置、图像显示系统、以及图像生成方法
US13/965,602 US9479740B2 (en) 2012-09-27 2013-08-13 Image generating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012213889A JP6014442B2 (ja) 2012-09-27 2012-09-27 画像生成装置、画像表示システム、および、画像生成方法

Publications (2)

Publication Number Publication Date
JP2014068308A JP2014068308A (ja) 2014-04-17
JP6014442B2 true JP6014442B2 (ja) 2016-10-25

Family

ID=50338465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012213889A Active JP6014442B2 (ja) 2012-09-27 2012-09-27 画像生成装置、画像表示システム、および、画像生成方法

Country Status (3)

Country Link
US (1) US9479740B2 (ja)
JP (1) JP6014442B2 (ja)
CN (1) CN103692973B (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6388205B2 (ja) * 2014-02-25 2018-09-12 パナソニックIpマネジメント株式会社 表示制御プログラム、表示制御装置、および表示装置
US10293752B2 (en) 2014-08-28 2019-05-21 The University Of Tokyo Display system for work vehicle, display control device, work vehicle, and display control method
JP6361382B2 (ja) * 2014-08-29 2018-07-25 アイシン精機株式会社 車両の制御装置
JP6327160B2 (ja) * 2014-09-02 2018-05-23 株式会社デンソー 車両用画像処理装置
WO2016035271A1 (ja) * 2014-09-02 2016-03-10 株式会社デンソー 車両用画像処理装置
CN107429890A (zh) 2015-03-23 2017-12-01 株式会社小糸制作所 车辆用拍摄装置、车辆用灯具以及电子控制单元
CN106143303A (zh) * 2015-04-23 2016-11-23 唐勇超 一种汽车驾驶影像技术
KR101741433B1 (ko) * 2015-06-09 2017-05-30 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
JP6662175B2 (ja) * 2016-04-21 2020-03-11 日産自動車株式会社 表示方法及び運転支援装置
JP6595401B2 (ja) * 2016-04-26 2019-10-23 株式会社Soken 表示制御装置
JP6868805B2 (ja) * 2016-06-07 2021-05-12 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法、およびプログラム
DE102016217488A1 (de) * 2016-09-14 2018-03-15 Robert Bosch Gmbh Verfahren zum Bereitstellen einer Rückspiegelansicht einer Fahrzeugumgebung eines Fahrzeugs
WO2018051810A1 (ja) * 2016-09-16 2018-03-22 ソニー株式会社 画像処理装置および方法、並びに画像処理システム
JP6816436B2 (ja) 2016-10-04 2021-01-20 アイシン精機株式会社 周辺監視装置
KR101949438B1 (ko) * 2016-10-05 2019-02-19 엘지전자 주식회사 차량용 디스플레이 장치 및 이를 포함하는 차량
JP2018063294A (ja) * 2016-10-11 2018-04-19 アイシン精機株式会社 表示制御装置
JP6730177B2 (ja) * 2016-12-28 2020-07-29 株式会社デンソーテン 画像生成装置および画像生成方法
JP2018110328A (ja) * 2017-01-04 2018-07-12 株式会社デンソーテン 画像処理装置および画像処理方法
US20180278922A1 (en) * 2017-03-22 2018-09-27 Bragi GmbH Wireless earpiece with a projector
JP6962036B2 (ja) * 2017-07-07 2021-11-05 株式会社アイシン 周辺監視装置
JP7056034B2 (ja) * 2017-08-14 2022-04-19 株式会社アイシン 周辺監視装置
WO2019049709A1 (ja) * 2017-09-07 2019-03-14 ソニー株式会社 画像処理装置、画像処理方法、および画像表示システム
DE102018100212A1 (de) * 2018-01-08 2019-07-11 Connaught Electronics Ltd. Verfahren zum Darstellen einer Umgebung eines Fahrzeugs durch Einblenden und Ausblenden eines Modells des Fahrzeugs in einem virtuellen Bild; Steuereinheit; Fahrerassistenzsystem; sowie Kameraeinrichtung
DE102018100599A1 (de) * 2018-01-12 2019-07-18 Connaught Electronics Ltd. Verfahren zum Darstellen einer Umgebung eines Fahrzeugs durch Anpassen eines Modells des Fahrzeugs in einem virtuellen Bild an Wetterbedingungen; Steuereinheit; Fahrerassistenzsystem; sowie Kameraeinrichtung
JP7140498B2 (ja) * 2018-01-25 2022-09-21 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置及び表示システム
JP6607272B2 (ja) * 2018-03-02 2019-11-20 株式会社Jvcケンウッド 車両用記録装置、車両用記録方法及びプログラム
JP6802226B2 (ja) 2018-09-12 2020-12-16 矢崎総業株式会社 車両用表示装置
CN112930557A (zh) * 2018-09-26 2021-06-08 相干逻辑公司 任何世界视图生成
JP7283059B2 (ja) 2018-11-28 2023-05-30 株式会社アイシン 周辺監視装置
CN109849788B (zh) * 2018-12-29 2021-07-27 北京七鑫易维信息技术有限公司 信息提供方法、装置及系统
JP7318265B2 (ja) * 2019-03-28 2023-08-01 株式会社デンソーテン 画像生成装置および画像生成方法
JP2020183166A (ja) * 2019-05-07 2020-11-12 アルパイン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP7293862B2 (ja) * 2019-05-24 2023-06-20 沖電気工業株式会社 移動体表示システム、画像処理装置及び画像処理プログラム
US11136025B2 (en) * 2019-08-21 2021-10-05 Waymo Llc Polyline contour representations for autonomous vehicles
JP7443705B2 (ja) * 2019-09-12 2024-03-06 株式会社アイシン 周辺監視装置
JP7327171B2 (ja) * 2020-01-08 2023-08-16 トヨタ自動車株式会社 車両用電子ミラーシステム
JP7460385B2 (ja) 2020-02-13 2024-04-02 Go株式会社 プログラム、車両端末及び表示方法
US11661722B2 (en) 2020-11-19 2023-05-30 Deere & Company System and method for customized visualization of the surroundings of self-propelled work vehicles
JP7491194B2 (ja) * 2020-11-23 2024-05-28 株式会社デンソー 周辺画像生成装置、表示制御方法
CN112818743B (zh) * 2020-12-29 2022-09-23 腾讯科技(深圳)有限公司 图像识别的方法、装置、电子设备及计算机存储介质
CN116095298A (zh) * 2021-11-06 2023-05-09 浙江吉利控股集团有限公司 车外场景显示方法、头戴显示设备、终端设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002029349A (ja) * 2000-07-13 2002-01-29 Nissan Motor Co Ltd 車両周囲認識装置
JP4593070B2 (ja) * 2001-12-12 2010-12-08 株式会社エクォス・リサーチ 車両の画像処理装置
JP3972722B2 (ja) * 2002-04-24 2007-09-05 株式会社エクォス・リサーチ 車載画像処理装置
JP3797343B2 (ja) * 2003-05-12 2006-07-19 株式会社デンソー 車両周辺表示装置
JP4329525B2 (ja) 2003-12-16 2009-09-09 株式会社エクォス・リサーチ 車外情報表示装置
JP4569285B2 (ja) * 2004-12-13 2010-10-27 日産自動車株式会社 画像処理装置
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
US9270976B2 (en) * 2005-11-02 2016-02-23 Exelis Inc. Multi-user stereoscopic 3-D panoramic vision system and method
JP4579145B2 (ja) 2005-11-30 2010-11-10 アルパイン株式会社 車両周辺画像表示装置
JP4325705B2 (ja) * 2007-06-15 2009-09-02 株式会社デンソー 表示システム及びプログラム
JP4895940B2 (ja) * 2007-08-13 2012-03-14 アルパイン株式会社 車両周辺画像表示装置および表示モード情報表示方法
JP2009265803A (ja) * 2008-04-23 2009-11-12 Panasonic Corp 車両視界支援装置
JP5636609B2 (ja) * 2008-05-08 2014-12-10 アイシン精機株式会社 車両周辺表示装置
JP2010093567A (ja) 2008-10-08 2010-04-22 Panasonic Corp 画像処理装置
JP5439890B2 (ja) 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
JP5500369B2 (ja) * 2009-08-03 2014-05-21 アイシン精機株式会社 車両周辺画像生成装置
JP5592138B2 (ja) * 2010-03-31 2014-09-17 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP5765995B2 (ja) * 2011-03-31 2015-08-19 富士通テン株式会社 画像表示システム

Also Published As

Publication number Publication date
US9479740B2 (en) 2016-10-25
CN103692973B (zh) 2015-12-23
CN103692973A (zh) 2014-04-02
US20140085466A1 (en) 2014-03-27
JP2014068308A (ja) 2014-04-17

Similar Documents

Publication Publication Date Title
JP6014442B2 (ja) 画像生成装置、画像表示システム、および、画像生成方法
JP6148887B2 (ja) 画像処理装置、画像処理方法、及び、画像処理システム
EP2739050B1 (en) Vehicle surroundings monitoring system
JP5454934B2 (ja) 運転支援装置
WO2018105417A1 (ja) 撮像装置、画像処理装置、表示システム、および車両
JP5408198B2 (ja) 映像表示装置及び映像表示方法
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP6548900B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP7283059B2 (ja) 周辺監視装置
JP5495071B2 (ja) 車両周辺監視装置
WO2013065119A1 (ja) 障害物警報装置
JP5516998B2 (ja) 画像生成装置
JP2016063390A (ja) 画像処理装置、及び画像表示システム
WO2013065341A1 (ja) 障害物警報装置
JP2005242606A (ja) 画像生成装置、画像生成プログラム、及び画像生成方法
JP2013168063A (ja) 画像処理装置、画像表示システム及び画像処理方法
JP2018110328A (ja) 画像処理装置および画像処理方法
JP5977130B2 (ja) 画像生成装置、画像表示システム、および、画像生成方法
JP5500392B2 (ja) 車両周辺監視装置
JP5861449B2 (ja) 障害物警報装置
JP2012001126A (ja) 車両用周辺監視装置
JP5479639B2 (ja) 画像処理装置、画像処理システム、および、画像処理方法
JP5974476B2 (ja) 障害物警報装置
JP5660395B2 (ja) 障害物警報装置
WO2013065122A1 (ja) 障害物警報装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R150 Certificate of patent or registration of utility model

Ref document number: 6014442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250