JP2016134001A - 画像生成装置、画像生成方法及びプログラム - Google Patents

画像生成装置、画像生成方法及びプログラム Download PDF

Info

Publication number
JP2016134001A
JP2016134001A JP2015008424A JP2015008424A JP2016134001A JP 2016134001 A JP2016134001 A JP 2016134001A JP 2015008424 A JP2015008424 A JP 2015008424A JP 2015008424 A JP2015008424 A JP 2015008424A JP 2016134001 A JP2016134001 A JP 2016134001A
Authority
JP
Japan
Prior art keywords
vehicle
virtual viewpoint
image
image generation
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015008424A
Other languages
English (en)
Other versions
JP6548900B2 (ja
Inventor
康嘉 澤田
Yasuyoshi Sawada
康嘉 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015008424A priority Critical patent/JP6548900B2/ja
Priority to US14/978,196 priority patent/US10499014B2/en
Publication of JP2016134001A publication Critical patent/JP2016134001A/ja
Application granted granted Critical
Publication of JP6548900B2 publication Critical patent/JP6548900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • B62D15/0295Steering assistants using warnings or proposing actions to the driver without influencing the steering system by overlaying a vehicle path based on present steering angle over an image without processing that image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Software Systems (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両の周辺に存在する物体をユーザが速やかに把握できるようにする。
【解決手段】画像生成装置2においては、画像生成部22が、複数のカメラで得られた複数の撮影画像を用いて、仮想視点からみた車両9の周辺を示す複数の仮想視点画像を時間的に連続して生成する。視点制御部20aは、複数の仮想視点画像が車両9の周囲を周回するように車両9の周辺を示す周回動画となるように、仮想視点VPを時間的に連続して変更する。また、結果取得部20bが車両9の周辺に存在する物体を検出する物体検出装置7の検出結果を取得し、方向決定部20dは物体検出装置7が検出した物体の位置に基づいて周回動画の周回方向を決定する。このため、ユーザが車両9の周辺に存在する物体を速やかに確認することができる。
【選択図】図1

Description

本発明は、車両の周辺を示す画像を生成する技術に関する。
従来より、自動車などの車両の周辺を示す画像を生成し、生成した画像を車両内の表示装置に出力して表示させる画像生成装置が知られている。このような画像を視認することにより、ユーザ(代表的にはドライバ)は、車両の周辺の様子をほぼリアルタイムに確認することができる。
また、近年では、複数のカメラで得られた複数の撮影画像を合成して、仮想視点からみた車両の周辺を示す仮想視点画像を生成する画像生成装置も知られている。このような仮想視点画像として、車両の外部の視点から見下ろすように車両の周辺を示す画像(例えば、俯瞰画像)や、車両の内部の視点からみた車両の周辺を示す画像(例えば、ドライバ視点の画像)を生成することが提案されている。
また、画像生成装置が仮想視点を連続的に変更しながら仮想視点画像を連続的に生成することで、車両の周囲を周回するように車両の周辺を示す動画(アニメーション)を表示することも提案されている(例えば、特許文献1参照。)。このような動画を利用することで、ユーザは、車両の周辺に存在する歩行者や障害物などの物体を容易に把握することができる。
特開2011−8762号公報
上述した車両の周囲を周回するように車両の周辺を示す動画の表示には、ある程度の時間(例えば、10秒程度)が必要となる。このため、動画の表示の終盤においてユーザに示される車両の周辺の領域に物体が存在した場合は、ユーザによる当該物体の把握が遅くなる可能性がある。
本発明は、上記課題に鑑みてなされたものであり、車両の周辺に存在する物体をユーザが速やかに把握できる技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、車両において用いられる画像生成装置であって、複数のカメラで得られた複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す複数の仮想視点画像を時間的に連続して生成する生成手段と、前記複数の仮想視点画像が前記車両の周囲を周回するように前記車両の周辺を示す動画となるように、前記仮想視点を時間的に連続して変更する変更手段と、前記車両の周辺に存在する物体を検出する検出手段の検出結果を取得する取得手段と、前記検出手段が検出した物体の位置に基づいて前記動画の周回方向を決定する決定手段と、を備えている。
また、請求項2の発明は、請求項1に記載の画像生成装置において、前記検出手段が複数の物体を検出した場合に、前記複数の物体それぞれに関して前記車両と接触する可能性の程度を示す危険度を導出する導出手段、をさらに備え、前記決定手段は、前記複数の物体のうち前記危険度が最も高い物体の位置に基づいて前記周回方向を決定する。
また、請求項3の発明は、請求項2に記載の画像生成装置において、前記導出手段は、前記複数の物体それぞれの位置に基づいて、前記複数の物体それぞれの前記危険度を導出する。
また、請求項4の発明は、請求項3に記載の画像生成装置において、前記導出手段は、前記車両が走行すると予測される予測進路と前記複数の物体それぞれの位置とに基づいて、前記複数の物体それぞれの前記危険度を導出する。
また、請求項5の発明は、請求項1ないし4のいずれかに記載の画像生成装置において、前記変更手段は、前記仮想視点の視線が前記物体に向く場合は、前記動画の周回速度を基準速度よりも小さくし、前記仮想視点の視線が前記物体以外の領域に向く場合は、前記動画の周回速度を前記基準速度よりも大きくする。
また、請求項6の発明は、請求項1ないし4のいずれかに記載の画像生成装置において、前記変更手段は、前記車両の周囲のうちの前記物体以外の領域をスキップしつつ前記物体のみに前記仮想視点の視線が向くように、前記仮想視点を変更する。
また、請求項7の発明は、請求項1ないし6のいずれかに記載の画像生成装置において、前記動画を表示する表示手段、をさらに備えている。
また、請求項8の発明は、車両において用いられる画像生成方法であって、(a)複数のカメラで得られた複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す複数の仮想視点画像を時間的に連続して生成する工程と、(b)前記複数の仮想視点画像が前記車両の周囲を周回するように前記車両の周辺を示す動画となるように、前記仮想視点を時間的に連続して変更する工程と、(c)前記車両の周辺に存在する物体を検出する検出手段の検出結果を取得する工程と、(d)前記検出手段が検出した物体の位置に基づいて前記動画の周回方向を決定する工程と、を備えている。
また、請求項9の発明は、車両において用いられるコンピュータによって実行可能なプログラムであって、前記コンピュータに、(a)複数のカメラで得られた複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す複数の仮想視点画像を時間的に連続して生成する工程と、(b)前記複数の仮想視点画像が前記車両の周囲を周回するように前記車両の周辺を示す動画となるように、前記仮想視点を時間的に連続して変更する工程と、(c)前記車両の周辺に存在する物体を検出する検出手段の検出結果を取得する工程と、(d)前記検出手段が検出した物体の位置に基づいて前記動画の周回方向を決定する工程と、を実行させる。
請求項1ないし9の発明によれば、車両の周囲を周回するように車両の周辺を示す動画の周回方向が物体の位置に基づいて決定される。このため、ユーザが車両の周辺に存在する物体を速やかに確認することができる。
また、特に請求項2の発明によれば、危険度が最も高い物体の位置に基づいて周回方向が決定されるため、ユーザが危険度が最も高い物体を速やかに確認することができる。
また、特に請求項3の発明によれば、複数の物体それぞれの位置に基づいて、物体の危険度を適切に導出することができる。
また、特に請求項4の発明によれば、車両の予測進路に基づいて、物体の危険度をさらに適切に導出することができる。
また、特に請求項5の発明によれば、仮想視点の視線が物体に向く場合は、周回速度を基準速度よりも小さくするため、ユーザが物体を詳細に確認できる。これとともに、仮想視点の視線が物体以外の領域に向く場合は、周回速度の変更速度を基準速度よりも大きくするため、動画の表示に必要な時間が長期化することを防止できる。
また、特に請求項6の発明によれば、車両の周囲のうち物体以外の領域をスキップするため、動画の表示に必要な時間を短縮することができる。
図1は、画像表示システムの構成を示す図である。 図2は、4つのカメラがそれぞれ撮影する方向を示す図である。 図3は、物体検出装置の構成を示す図である。 図4は、クリアランスソナーが車両に配置される位置を示す図である。 図5は、仮想視点画像を生成する手法を説明する図である。 図6は、画像表示システムの動作モードの遷移を示す図である。 図7は、第1の実施の形態の周回モードにおける仮想視点の遷移の例を示す図である。 図8は、周回モードに生成される複数の仮想視点画像の例を示す図である。 図9は、第1の実施の形態の周回モードにおける仮想視点の遷移の例を示す図である。 図10は、周回モードに生成される仮想視点画像の例を示す図である。 図11は、画像生成装置の動作の流れを示す図である。 図12は、予測進路の例を示す図である。 図13は、予測進路の例を示す図である。 図14は、予測進路の例を示す図である。 図15は、危険度の導出例を示す図である。 図16は、危険度の導出例を示す図である。 図17は、危険度の導出例を示す図である。 図18は、危険度の導出例を示す図である。 図19は、第2の実施の形態の周回モードにおける仮想視点の遷移の例を示す図である。 図20は、第3の実施の形態の周回モードにおける仮想視点の遷移の例を示す図である。 図21は、周回モードにおける仮想視点の遷移の他の例を示す図である。 図22は、周回モードに生成される仮想視点画像の他の例を示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.構成>
図1は、第1の実施の形態の画像生成装置2を含む画像表示システム10の構成を示す図である。この画像表示システム10は、車両(本実施の形態では、自動車)において用いられるものであり、車両の周辺を示す画像を生成して車室内に表示する機能を有している。画像表示システム10のユーザ(代表的にはドライバ)は、この画像表示システム10を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できる。
図1に示すように、画像表示システム10は、複数のカメラ5、表示装置3、操作ボタン4、物体検出装置7及び画像生成装置2を備えている。
複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、車両の周辺を撮影して撮影画像を取得する。各カメラ5は、車両の周辺を示す撮影画像を電子的に取得し、取得した撮影画像を画像生成装置2に入力する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5は、車両9において互いに異なる位置に配置され、車両9の周辺の異なる方向を撮影する。
図2は、4つのカメラ5がそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、車両9の前端に設けられ、その光軸5Faは車両9の前後方向に沿って前方に向けられる。リアカメラ5Bは、車両9の後端に設けられ、その光軸5Baは車両9の前後方向に沿って後方に向けられる。左サイドカメラ5Lは、左側の左サイドミラー93Lに設けられ、その光軸5Laは車両9の左右方向に沿って左方に向けられる。また、右サイドカメラ5Rは、右側の右サイドミラー93Rに設けられ、その光軸5Raは車両9の左右方向に沿って右方に向けられる。
これらのカメラ5のレンズには魚眼レンズなどの広角レンズが採用され、各カメラ5は180度以上の画角θを有している。このため、4つのカメラ5を利用することで、車両9の全周囲を撮影することが可能である。
図1に戻り、表示装置3は、例えば、液晶などの薄型の表示パネルを備え、画像生成装置2で生成された表示画像を表示する。表示装置3は、ユーザが表示パネルの画面を視認できるように、車両9のインストルメントパネルなどに配置される。表示装置3は、画像生成装置2と同一のハウジング内に配置されて画像生成装置2と一体化されていてもよく、画像生成装置2とは別体の装置であってもよい。
また、表示装置3は、表示パネルに重ねてタッチパネル31を備えており、ユーザの操作を受け付けることが可能である。表示装置3は、表示画像を表示する機能以外に、目的地までのルート案内を行うナビゲーション機能などの他の機能を有していてもよい。
操作ボタン4は、ユーザの操作を受け付ける操作部材である。操作ボタン4は、例えば、車両9のステアリングホイールに設けられており、主にドライバからの操作を受け付ける。ユーザは、操作ボタン4、及び、表示装置3のタッチパネル31を介して画像表示システム10に対する各種の操作を行うことができる。操作ボタン4及びタッチパネル31のいずれかにユーザの操作がなされた場合は、その操作の内容を示す操作信号が画像生成装置2に入力される。
物体検出装置7は、車両9の周辺に存在する歩行者や障害物などの物体を検出する電子装置である。物体検出装置7は、物体を検出した検出結果を示す信号を画像生成装置2に出力する。この物体検出装置7の詳細については後述する。
画像生成装置2は、車両9の周辺を示す撮影画像を用いて、表示装置3に表示するための表示画像を生成する画像処理を行う電子装置である。画像生成装置2は、画像取得部21、画像生成部22、画像調整部23、及び、画像出力部24を備えている。
画像取得部21は、4つのカメラ5で得られた4つの撮影画像を取得する。画像取得部21は、アナログの撮影画像をデジタルの撮影画像に変換する機能などの画像処理機能を有している。画像取得部21は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像生成部22に入力する。
画像生成部22は、仮想視点からみた車両9の周辺を示す仮想視点画像を生成するための画像処理を行うハードウェア回路である。画像生成部22は、4つのカメラ5で取得された4つの撮影画像を用いて、仮想視点からみた車両9の周辺を示す仮想視点画像を生成する。画像生成部22は、各カメラ5において直近に得られた撮影画像を用いて仮想視点画像を時間的に連続して生成する。これにより、画像生成部22は、車両9の周辺をほぼリアルタイムに示す仮想視点画像を生成する。
画像調整部23は、表示装置3で表示するための表示画像を生成する。画像調整部23は、画像生成部22で生成された仮想視点画像などを含む表示画像を生成する。
画像出力部24は、画像調整部23で生成された表示画像を表示装置3に出力して、表示画像を表示装置3に表示させる。これにより、仮想視点からみた車両9の周辺をほぼリアルタイムに示す仮想視点画像が表示装置3に表示される。
また、画像生成装置2は、制御部20と、操作受付部25と、信号受信部26と、記憶部27とをさらに備えている。制御部20は、例えば、CPU、RAM及びROMなどを備えたマイクロコンピュータであり、画像生成装置2の全体を統括的に制御する。
操作受付部25は、ユーザが操作を行った場合に操作ボタン4及びタッチパネル31から送出される操作信号を受信する。これにより、操作受付部25はユーザの操作を受け付ける。操作受付部25は、受信した操作信号を制御部20に入力する。
信号受信部26は、物体検出装置7から送出される信号を受信するとともに、車両9に設けられる他の装置から送出される信号を受信する。信号受信部26は、受信した信号を制御部20に入力する。車両9に設けられる他の装置には、シフトセンサ95及び舵角センサ96が含まれる。
シフトセンサ95は、車両9の変速装置のシフトレバーの位置であるシフトポジションを検出し、そのシフトポジションを示す信号を送出する。また、舵角センサ96は、車両9のステアリングホイールの中立位置からの回転角度である舵角(操舵角)を検出し、車両9の舵角を示す信号を送出する。したがって、信号受信部26は、車両9のシフトポジション及び舵角を取得する。制御部20は、シフトポジションに基づいて車両9の前後の進行方向を判断でき、また、舵角に基づいて車両9の左右の進行方向を判断できる。
記憶部27は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部27は、物体検出装置7の機能に必要となるファームウェアとしてのプログラム27a、及び、各種のデータを記憶する。記憶部27は、物体検出装置7の機能に必要となるデータとして、例えば、車両9の車体の形状及びサイズなどを示す車両データ27bを記憶する。
制御部20の各種の機能は、記憶部27に記憶されたプログラム27aの実行(プログラム27aに従ったCPUの演算処理)によって実現される。図中に示す視点制御部20a、結果取得部20b、危険度導出部20c及び方向決定部20dは、プログラム27aの実行により実現される機能部の一部である。
視点制御部20aは、画像生成部22が生成する仮想視点画像に係る仮想視点の位置及び視線の向きを制御する。結果取得部20bは、車両9の周辺に存在する物体を検出する物体検出装置7の検出結果を取得する。危険度導出部20cは、物体検出装置7が検出した物体の危険度を導出する。方向決定部20dは、物体検出装置7が検出した物体の位置に基づいて、車両9の周囲を周回するように車両9の周辺を示す動画の周回方向を決定する。これらの機能部の処理の詳細については後述する。
<1−2.物体検出装置>
次に、物体検出装置7について説明する。図3は、物体検出装置7の構成を主に示す図である。図に示すように、物体検出装置7は、装置全体を統括するソナー制御部71と、複数のクリアランスソナー72とを備えている。
図4は、複数のクリアランスソナー72が車両9に配置される位置を示す図である。図4に示すように、車両9の周囲全体の領域は10個の区分領域A1〜A10に区分される。これらの区分領域A1〜A10は、車両9に対して相対的に設定される。10個の区分領域のうち、区分領域A1,A4,A6,A8は車両9の左側の領域であり、区分領域A3,A5,A7,A10は車両9の右側の領域である。
また、これら10個の区分領域A1〜A10のそれぞれに対応するように10個のクリアランスソナー72が車両9に配置される。車両9の4つのコーナーにそれぞれ1個のクリアランスソナー72が設けられ、車両9の前端及び後端にそれぞれ1個のクリアランスソナー72が設けられ、さらに、車両9の左サイド及び右サイドにそれぞれ2個のクリアランスソナー72が設けられる。
各クリアランスソナー72は、対応する区分領域A1〜A10に存在する物体を検出する。クリアランスソナー72は、超音波を発信し、その超音波が物体で反射した反射波を受信することで物体を検出する。また、クリアランスソナー72は、超音波の発信から反射波の受信までの時間に基づいて車両9から物体までの距離も検出する。各クリアランスソナー72は、検出した結果を示す信号をソナー制御部71に入力する。
ソナー制御部71は、各クリアランスソナー72から入力される信号に基づいて車両9の周辺に物体が存在することを検出する。また、ソナー制御部71は、物体を検出したクリアランスソナー72が対応する区分領域と、車両9から物体までの距離とに基づいて、車両9に対する相対的な物体の位置を検出する。
物体検出装置7は、物体を検出した場合は、検出結果として、物体を検出したことを示す情報と、検出した物体の位置とを含む信号を画像生成装置2に出力する。物体検出装置7は、車両9の周辺に存在する複数の物体を同時に検出することも可能である。物体検出装置7は、複数の物体を検出した場合は、それら複数の物体それぞれの位置を含む信号を画像生成装置2に出力する。
<1−3.仮想視点画像>
次に、画像生成部22が、仮想視点からみた車両9の周辺を示す仮想視点画像を生成する手法について説明する。図5は、画像生成部22が仮想視点画像を生成する手法を説明する図である。画像生成部22は、仮想視点画像の生成に仮想の立体的な曲面である投影面TSを用いることで、現実に近い臨場感のある仮想視点画像を生成する。
フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rは、車両9の前方、後方、左方及び右方をそれぞれ示す4つの撮影画像SF,SB,SL,SRを取得する。これら4つの撮影画像SF,SB,SL,SRには、車両9の全周囲のデータが含まれている。
画像生成部22は、これら4つの撮影画像SF,SB,SL,SRに含まれるデータ(画素の値)を、仮想的な三次元空間における投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしており、その中心領域(お椀の底部分)は車両9の位置として定められている。また、投影面TSにおける車両9の位置の外側は、車両9の周辺の領域に相当する。
撮影画像SF,SB,SL,SRに含まれるデータの位置と、投影面TSの位置とは予め対応関係が定められている。このような対応関係を示すテーブルデータは、記憶部27に記憶される。画像生成部22は、このテーブルデータを用いて、4つの撮影画像SF,SB,SL,SRに含まれるデータを、投影面TSの対応する位置に投影する。
画像生成部22は、投影面TSにおいて車両9の前方に相当する部分に、フロントカメラ5Fの撮影画像SFのデータを投影する。また、画像生成部22は、投影面TSにおいて車両9の後方に相当する部分に、リアカメラ5Bの撮影画像SBのデータを投影する。さらに、画像生成部22は、投影面TSにおいて車両9の左方に相当する部分に左サイドカメラ5Lの撮影画像SLのデータを投影し、投影面TSにおいて車両9の右方に相当する部分に右サイドカメラ5Rの方向画像SRのデータを投影する。
このように投影面TSに撮影画像のデータを投影すると、次に、画像生成部22は、記憶部27に記憶された車両データ27bを用いて、車両9の三次元形状を示すポリゴンのモデルを仮想的に構成する。この車両9のモデルは、仮想的な三次元空間における車両9の位置である投影面TSの中心領域に配置される。
次に、画像生成部22は、視点制御部20aの制御により、三次元空間に対して仮想視点VPを設定する。この仮想視点VPは、位置と視線の向きとで規定される。画像生成部22は、任意の位置、かつ、任意の視線の向きの仮想視点VPを3次元空間に設定できる。
次に、画像生成部22は、設定した仮想視点VPに応じた投影面TSの一部の領域を用いて仮想視点画像CPを生成する。すなわち、画像生成部22は、投影面TSのうち仮想視点VPからみて所定の視野角に含まれる領域のデータを画像として切り出す。切り出した画像は、車両9の周辺に存在する被写体の像を含んでいる。仮想視点VPの視線が向けられた領域は、切り出した画像の中心に位置する。
これとともに、画像生成部22は、設定した仮想視点VPに応じて車両9のモデルに関してレンダリングを行い、その結果となる二次元の車両像90を、切り出した画像に対して重畳する。車両像90は、仮想視点VPからみた車両9の車体の形状を示す。これにより、画像生成部22は、仮想視点VPからみた車両9の周辺と車両9の車体とを示す仮想視点画像CPを生成する。
例えば、図5に示すように、位置を車両9の直上とし視線を下方に向けた仮想視点VPaを設定した場合には、車両9の周辺と車両9の車体とを俯瞰する仮想視点画像(俯瞰画像)CPaを生成できる。また、位置を車両9の左後方とし視線を車両9の中心に向けた仮想視点VPbを設定した場合には、車両9の左後方からみた車両9の周辺と車両9の車体とを示す仮想視点画像CPbを生成できる。
<1−4.周回モード>
次に、画像表示システム10の動作モードの一つである周回モードについて説明する。図6は、画像表示システム10の動作モードの遷移を示す図である。画像表示システム10は、通常モードM0、俯瞰モードM1、及び、周回モードM2の3つの動作モードを有している。画像生成装置2の制御部20は、車両9の状態やユーザの操作に応じてこれらの動作モードを切り替える。
通常モードM0は、画像生成装置2の画像処理機能を利用しない動作モードである。表示装置3がナビゲーション機能を有している場合は、通常モードM0において、表示装置3はナビゲーション機能に基づく地図画像などを表示する。
一方、俯瞰モードM1、及び、周回モードM2は、画像生成装置2の画像処理機能を利用する動作モードである。これらの動作モードでは、画像生成装置2が時間的に連続して生成する仮想視点画像を表示装置3が時間的に連続して表示することで、車両9の周辺の様子がほぼリアルタイムにユーザに示される。俯瞰モードM1では、仮想視点VPが変更されずに、車両9の直上の視点からみた車両9の周辺の様子が示される。これに対して、周回モードM2では、仮想視点VPが時間的に連続して変更され、車両9の周囲を周回するように車両9の周辺の様子が示される。
図6に示すように、通常モードM0において、ユーザが操作ボタン4を通常の長さで押した場合は、動作モードは俯瞰モードM1に切り替えられる。また、俯瞰モードM1において、ユーザが操作ボタン4を押した場合は、動作モードは通常モードM0に切り替えられる。
一方、通常モードM0において、ユーザが操作ボタン4を長押した場合(一定時間以上継続して押圧した場合)は、動作モードは周回モードM2に切り替えられる。また、画像表示システム10が起動した際にも、動作モードは最初に周回モードM2となる。周回モードM2では、車両9の周囲を周回するように車両9の周辺を示す動画(アニメーション)が表示され、動画の表示が完了すると動作モードは通常モードM0に切り替えられる。
図7は、周回モードM2における仮想視点VPの遷移の例を示す図である。周回モードM2においては、まず、視点制御部20aが、位置を車両9の後方上部の初期位置P0とし、視線を車両9の中心9cに向けた仮想視点VPを設定する。そして、視点制御部20aは、仮想視点VPの位置及び視線の向きを時間的に連続して変更する。具体的には、視点制御部20aは、仮想視点VPの視線が車両9の中心9cに向くように仮想視点VPの視線の向きを変更しつつ、仮想視点VPの位置を車両9の周囲を一周するように移動する。これにより、仮想視点VPの視線(仮想視点画像CPの中心に示される領域)が車両9の周囲を周回する。
このように視点制御部20aが仮想視点VPを時間的に連続して変更している状態で、画像生成部22が複数の仮想視点画像CPを時間的に連続して生成する。これにより、例えば、図8に示すような複数の仮想視点画像CPが生成される。これらの複数の仮想視点画像CPは、時間的に連続して表示装置3に表示されることで、車両9の周囲を周回するように車両9の周辺を示す動画(以下、「周回動画」という。)となる。このような周回動画を視認することで、ユーザは車両9の周囲に存在する物体を直感的に把握することができる。
図7においては、視点制御部20aは、仮想視点VPの視線の向きを「右回り」で変更しつつ、仮想視点VPの位置を「右回り」で車両9の周囲を移動させている(矢印AR1)。これに対し、図9に示すように、視点制御部20aは、仮想視点VPの視線の向きを「左回り」で変更しつつ、仮想視点VPの位置を「左回り」で車両9の周囲を移動させることもできる(矢印AR2)。
図7のように仮想視点VPを変更する場合は、図8に示すように、周回動画においては、車両9の背面、車両9の左側、車両9の正面、車両9の右側、及び、車両9の背面の順で車両9の周辺の様子がユーザに示される。以下、図7のように仮想視点VPを変更することを、「周回動画の周回方向を右回りにする」と表現する。周回動画の周回方向を「右回り」にした場合は、車両9の周辺のうち左側の領域が右側の領域よりも先行してユーザに示される。
一方、図9のように仮想視点VPを変更する場合は、図10に示すように、周回動画においては、車両9の背面、車両9の右側、車両9の正面、車両9の左側、及び、車両9の背面の順で車両9の周辺の様子がユーザに示される。以下、図9のように仮想視点VPを変更することを、「周回動画の周回方向を左回りにする」と表現する。周回動画の周回方向を「左回り」にした場合は、車両9の周辺のうち右側の領域が左側の領域よりも先行してユーザに示される。
方向決定部20dは、このような周回動画の周回方向を決定する。方向決定部20dは、物体検出装置7が検出した物体の位置に基づいて、周回動画の周回方向を決定する。これにより、ユーザが車両9の周辺に存在する物体を速やかに確認できるようになっている。
なお、周回動画の周回方向は、仮想視点VPの位置の移動方向(仮想視点VPの視線の向きの変更方向)で規定される。このため、方向決定部20dが、周回動画の周回方向を決定することは、仮想視点VPの位置の移動方向(仮想視点VPの視線の向きの変更方向)を決定することに実質的に相当する。
<1−5.動作の流れ>
次に、周回モードM2における画像生成装置2の動作の流れについて説明する。図11は、周回モードM2における画像生成装置2の動作の流れを示す図である。
まず、結果取得部20bが、物体検出装置7の検出結果を取得する(ステップS11)。結果取得部20bは、信号受信部26が物体検出装置7から受信した信号に基づいて、物体検出装置7の検出結果を取得する。
次に、方向決定部20dは、結果取得部20bが取得した検出結果に基づいて物体検出装置7が物体を検出したか否かを判定する(ステップS12)。
物体検出装置7が物体を検出しなかった場合は(ステップS12にてNo)、方向決定部20dは、周回動画の周回方向を予め定められた基準方向に決定する(ステップS17)。
続いて、視点制御部20aが仮想視点VPを時間的に連続して変更しつつ、画像生成部22が複数の仮想視点画像CPを時間的に連続して生成することで、画像生成装置2は表示装置3に周回動画を表示させる(ステップS18)。この周回動画の表示に際して、視点制御部20aは、ステップS17で方向決定部20dが決定した周回方向(すなわち、基準方向)に従って仮想視点VPを変更する。その結果、車両9の左側及び右側のうち基準方向に応じた側が、先行してユーザに示される。
基準方向は、運転席の位置に応じて定めることが望ましい。例えば、車両9が右ハンドル車の場合は、運転席の反対側となる車両9の左側がドライバからは確認しにくくなる。このため、車両9が右ハンドル車の場合は、車両9の左側が先行してユーザに示されるように、基準方向を「右回り」にすることが望ましい(図7参照。)。
一方、物体検出装置7が物体を検出した場合は(ステップS12にてYes)、方向決定部20dは、物体検出装置7が複数の物体を検出したか否かを判定する(ステップS13)。
物体検出装置7が一つの物体のみを検出した場合は(ステップS13にてNo)、方向決定部20dは、物体検出装置7の検出結果に含まれる当該物体の位置に基づいて、周回動画の周回方向を決定する(ステップS16)。
続いて、画像生成装置2は表示装置3に周回動画を表示させる(ステップS18)。この周回動画の表示に際して、視点制御部20aは、ステップS16で方向決定部20dが決定した周回方向に従って仮想視点VPを変更する。これにより、車両9の左側及び右側のうち物体が存在する側が、先行してユーザに示される。
物体が車両9の左側の領域に存在する場合は、方向決定部20dは、周回動画の周回方向を「右回り」に決定する(図7参照。)。これにより、周回動画においては、物体が存在する車両9の左側が先行してユーザに示される。一方、物体が車両9の右側の領域に存在する場合は、方向決定部20dは、周回動画の周回方向を「左回り」に決定する(図9参照。)。これにより、周回動画においては、物体が存在する車両9の右側が先行してユーザに示される。
このように、方向決定部20dは、物体検出装置7が検出した物体の位置に基づいて、周回動画の周回方向を決定する。このため、周回動画を視認したユーザは、車両9の周辺に存在する物体を速やかに確認することができる。
なお、車両9の前方中央または後方中央に物体が存在するなどにより、車両9の左側及び右側のいずれの領域に物体が存在しているかを判断しにくい場合は、方向決定部20dは、周回動画の周回方向を基準方向に決定すればよい。
また、物体検出装置7が複数の物体を検出した場合は(ステップS13にてYes)、危険度導出部20cが、検出された複数の物体それぞれの危険度を導出する(ステップS14)。物体の危険度は、当該物体が車両9と接触する可能性の程度を示すパラメータであり、危険度が大きいほど車両9と接触する可能性が高くなる。危険度導出部20cは、複数の物体それぞれの位置に基づいて、複数の物体それぞれの危険度を導出する(詳細は後述。)。
次に、方向決定部20dは、検出された複数の物体のうち危険度が最大となる物体を選択し、選択した物体の位置に基づいて周回動画の周回方向を決定する(ステップS15)。
続いて、画像生成装置2は表示装置3に周回動画を表示させる(ステップS18)。この周回動画の表示に際して、視点制御部20aは、ステップS15で方向決定部20dが決定した周回方向に従って仮想視点VPを変更する。これにより、車両9の左側及び右側のうち危険度が最大となる物体が存在する側が、先行してユーザに示される。すなわち、車両9と接触する可能性が最も高い物体が、他の物体と比較して優先的にユーザに示されることになる。
危険度が最大の物体が車両9の左側の領域に存在する場合は、方向決定部20dは、周回動画の周回方向を「右回り」に決定する(図7参照。)。これにより、周回動画においては、危険度が最大の物体が存在する車両9の左側が先行してユーザに示される。一方、危険度が最大の物体が車両9の右側の領域に存在する場合は、方向決定部20dは、周回動画の周回方向を「左回り」に決定する(図9参照。)。これにより、周回動画においては、危険度が最大の物体が存在する車両9の右側が先行してユーザに示される。
このように、方向決定部20dは、物体検出装置7が検出した複数の物体のうち危険度が最も高い物体の位置に基づいて、周回動画の周回方向を決定する。このため、周回動画を視認したユーザは、車両9と接触する可能性が最も高い物体を速やかに確認することができる。
<1−6.危険度>
次に、物体検出装置7が複数の物体を検出した場合に、危険度導出部20cが導出する物体の危険度について説明する。危険度導出部20cは、車両9が走行すると予測される予測進路を導出し、予測進路に基づいて危険度を導出する。
予測進路は、車両9がクリープ現象で走行した場合において所定時間(例えば、3秒間)に進行すると予測される領域である。危険度導出部20cは、信号受信部26が取得する車両9のシフトポジション及び舵角に基づいて予測進路を導出する。
例えば、シフトポジションがドライブであり、ステアリングホイールが中立位置である場合は、図12に示すように、危険度導出部20cは、車両9の前方に直線的に拡がる予測進路R1を導出する。また例えば、シフトポジションがドライブであり、ステアリングホイールが中立位置から左側に回転している場合は、図13に示すように、危険度導出部20cは、車両9の左側及び車両9の前方左側に拡がる予測進路R1を導出する。また例えば、シフトポジションがリバースであり、ステアリングホイールが中立位置から左側に回転している場合は、図14に示すように、危険度導出部20cは、車両9の右側及び車両9の後方左側に拡がる予測進路R1を導出する。
このようなシフトポジション及び舵角と予測進路R1との関係は、予め導出されて、車両データ27bの一部として記憶部27に記憶されている。このため、危険度導出部20cは、車両9のシフトポジション及び舵角に基づいて車両データ27bを参照することで予測進路R1を導出できる。
危険度導出部20cは、このような予測進路R1を導出すると、この予測進路R1と、物体検出装置7が検出した複数の物体それぞれの位置とに基づいて、複数の物体それぞれの危険度を導出する。
危険度導出部20cは、図12から図14に示すように、予測進路R1と、現時点の車両9が存在する領域である車両領域R0とで形成される判定領域R2を設定する。そして、危険度導出部20cは、物体の位置から判定領域R2までの距離に応じて危険度を導出する。危険度導出部20cは、物体の位置から判定領域R2までの距離が小さいほど、危険度を大きくする。
図15から図18は、危険度の導出例を示す図である。これらの図に示した例においては、車両9の左側及び右側の双方の領域に物体OL,ORが存在している。
図15は、シフトポジションがドライブであり、ステアリングホイールが中立位置である場合を示している。図15の場合においては、判定領域R2までの距離は、右側の物体ORの方が左側の物体OLと比較して小さい。このため、危険度導出部20cは、右側の物体ORの危険度を左側の物体OLと比較して大きくする。
したがって、図15の場合は、周回動画の表示において危険度が大きな右側の物体ORが優先的にユーザに示されるように、方向決定部20dは周回動画の周回方向を「左回り」に決定する(矢印AR2)。
また、図16は、シフトポジションがドライブであり、ステアリングホイールが中立位置から左側に回転している場合を示している。図16の場合においては、車両領域R0までの距離は、左側の物体OLと右側の物体ORとで同一である。しかしながら、左側の物体OLは予測進路R1に含まれており、判定領域R2までの距離は左側の物体OLの方が右側の物体ORと比較して小さい。このため、危険度導出部20cは、左側の物体OLの危険度を右側の物体ORと比較して大きくする。
したがって、図16の場合は、周回動画の表示において危険度が大きな左側の物体OLが優先的にユーザに示されるように、方向決定部20dは周回動画の周回方向を「右回り」に決定する(矢印AR1)。
また、図17は、シフトポジションがドライブであり、ステアリングホイールが中立位置から右側に回転している場合を示している。図17の場合においては、車両領域R0までの距離は、左側の物体OLと右側の物体ORとで同一である。しかしながら、右側の物体ORは予測進路R1に含まれており、判定領域R2までの距離は右側の物体ORの方が左側の物体OLと比較して小さい。このため、危険度導出部20cは、右側の物体ORの危険度を左側の物体OLと比較して大きくする。
したがって、図17の場合は、周回動画の表示において危険度が大きな右側の物体ORが優先的にユーザに示されるように、方向決定部20dは周回動画の周回方向を「左回り」に決定する(矢印AR2)。
また、図18は、シフトポジションがリバースであり、ステアリングホイールが中立位置から左側に回転している場合を示している。図18の場合においては、車両領域R0までの距離は、左側の物体OLと右側の物体ORとで同一である。しかしながら、右側の物体ORは予測進路R1に含まれており、判定領域R2までの距離は右側の物体ORの方が左側の物体OLと比較して小さい。このため、危険度導出部20cは、右側の物体ORの危険度を左側の物体OLと比較して大きくする。
したがって、図18の場合は、周回動画の表示において危険度が大きな右側の物体ORが優先的にユーザに示されるように、方向決定部20dは周回動画の周回方向を「左回り」に決定する(矢印AR2)。
以上のように、本実施の形態の画像生成装置2においては、画像生成部22が、複数のカメラで得られた複数の撮影画像を用いて、仮想視点VPからみた車両9の周辺を示す複数の仮想視点画像CPを時間的に連続して生成する。視点制御部20aは、複数の仮想視点画像CPが車両9の周囲を周回するように車両9の周辺を示す周回動画となるように、仮想視点VPを時間的に連続して変更する。また、結果取得部20bが車両9の周辺に存在する物体を検出する物体検出装置7の検出結果を取得し、方向決定部20dは物体検出装置7が検出した物体の位置に基づいて周回動画の周回方向を決定する。このため、ユーザが車両9の周辺に存在する物体を速やかに確認することができる。
また、危険度導出部20cは、物体検出装置7が複数の物体を検出した場合に、複数の物体それぞれに関して車両9と接触する可能性の程度を示す危険度を導出する。そして、方向決定部20dは、複数の物体のうち危険度が最も高い物体の位置に基づいて周回動画の周回方向を決定する。このため、ユーザが危険度が最も高い物体を速やかに確認することができる。
また、危険度導出部20cは、車両9が走行すると予測される予測進路R1と複数の物体それぞれの位置とに基づいて、複数の物体それぞれの危険度を導出する。このため、複数の物体それぞれの危険度を適切に導出することができる。
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像生成装置2の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
第1の実施の形態では、周回動画の周回速度を一定としていた。これに対して、第2の実施の形態では、車両9の周辺に物体が存在しない場合は周回動画の周回速度を一定とする一方で、車両9の周辺に物体が存在する場合は周回動画の周回速度が物体の位置に応じて変更される。
図19は、第2の実施の形態の周回モードM2における仮想視点VPの遷移の例を示す図である。図19に示す例においては、車両9の左側の区分領域A4に物体OLが存在し、車両9の右側の区分領域A5に物体ORが存在している。
この場合においても、視点制御部20aは、まず、位置を車両9の後方上部の初期位置P0とし、視線を車両9の中心に向けた仮想視点VPを設定する。そして、方向決定部20dが決定した周回方向に従って、視点制御部20aは、仮想視点VPの位置及び視線の向きを時間的に連続して変更する。図19の例では、周回動画の周回方向を「右回り」としている。このように視点制御部20aが変更する仮想視点VPの位置の移動速度(仮想視点VPの視線の向きの変更速度)が、周回動画の周回速度を規定する。
そして、仮想視点VPの視線が物体に向く場合は、視点制御部20aは、周回動画の周回速度を基準速度より小さくする。一方で、仮想視点VPの視線が車両9の周囲のうちの物体以外の領域に向く場合は、視点制御部20aは、周回動画の周回速度を基準速度より大きくする。基準速度は、車両9の周辺に物体が存在しない場合における周回動画の周回速度である。
本実施の形態では、視点制御部20aは、物体が存在する区分領域を仮想視点VPの視線が通過する場合は、仮想視点VPの視線が物体に向いていると判断する。一方で、視点制御部20aは、物体が存在する区分領域を仮想視点VPの視線が通過しない場合は、仮想視点VPの視線が物体以外の領域に向いていると判断する。
図19の例では、仮想視点VPの位置が初期位置P0から位置P1に移動する期間は、仮想視点VPの視線が物体以外の領域に向いている。このため、視点制御部20aは、周回動画の周回速度を基準速度より大きくする。
また、仮想視点VPの位置が位置P1から位置P2に移動する期間は、左側の物体OLが存在する区分領域A4を仮想視点VPの視線が通過する。このため、視点制御部20aは、仮想視点VPの視線が左側の物体OLに向いていると判断し、周回動画の周回速度を基準速度より小さくする。
また、仮想視点VPの位置が位置P2から位置P3に移動する期間は、仮想視点VPの視線が物体以外の領域に向いている。このため、視点制御部20aは、周回動画の周回速度を基準速度より大きくする。
また、仮想視点VPの位置が位置P3から位置P4に移動する期間は、右側の物体ORが存在する区分領域A5を仮想視点VPの視線が通過する。このため、視点制御部20aは、仮想視点VPの視線が右側の物体ORに向いていると判断し、周回動画の周回速度を基準速度より小さくする。
また、仮想視点VPの位置が位置P4から初期位置P0に移動する期間は、仮想視点VPの視線が物体以外の領域に向いている。このため、視点制御部20aは、周回動画の周回速度を基準速度より大きくする。
このように、仮想視点VPの視線が物体に向く場合は、周回速度を基準速度よりも小さくするため周回動画が示す物体の様子をユーザが詳細に確認することができる。
ここで仮に、仮想視点VPの視線が物体以外の領域に向く場合に周回速度を基準速度よりも大きくせずに基準速度とした場合を想定する。この場合においては、仮想視点VPの視線が物体に向く場合に周回速度が基準速度よりも小さくなるため、車両9の周辺に物体が存在しない場合と比較して、周回動画の表示に必要な時間は長くなる。
これに対して、第2の実施の形態では、仮想視点VPの視線が物体以外の領域に向く場合は周回速度を基準速度よりも大きくするため、周回動画の表示に必要な時間が長期化することを防止できる。これにより、物体の確認の容易さと、周回動画の表示に必要な時間の非長期化とを両立させることができる。車両9の周辺に物体が存在しない場合と、車両9の周辺に物体が存在する場合とで、周回動画の表示に必要な時間を一定とすることが望ましい。
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態の画像生成装置2の構成及び動作は、第2の実施の形態とほぼ同様であるため、以下、第2の実施の形態との相違点を中心に説明する。
第2の実施の形態では、視点制御部20aは、仮想視点VPの視線が物体以外の領域に向く場合に周回速度が基準速度よりも大きくなるように、仮想視点VPを変更していた。これに対して、第3の実施の形態では、視点制御部20aは、車両9の周囲のうちの物体以外の領域をスキップしつつ物体のみに仮想視点VPの視線が向くように、仮想視点VPを変更する。
図20は、第3の実施の形態の周回モードM2における仮想視点VPの遷移の例を示す図である。図20に示す例においては、車両9の左側の区分領域A4に物体OLが存在し、車両9の右側の区分領域A5に物体ORが存在している。
この場合においても、視点制御部20aは、まず、位置を車両9の後方上部の初期位置P0とし、視線を車両9の中心に向けた仮想視点VPを設定する。そして、方向決定部20dが決定した周回方向に従って、視点制御部20aは、仮想視点VPの位置及び視線の向きを変更する。図20の例では、周回動画の周回方向を「右回り」としている。ただし、視点制御部20aは、車両9の周囲のうちの物体以外の領域をスキップし、仮想視点VPの視線が物体以外の領域に向かないようにする。
仮想視点VPの位置が初期位置P0から位置P1までの範囲となる場合は、仮想視点VPの視線が物体に向かない。このため、視点制御部20aは、初期位置P0から位置P1までの範囲に関しては、仮想視点VPの位置を時間的に連続して移動させずにスキップする。すなわち、視点制御部20aは、仮想視点VPの位置を初期位置P0から位置P1まで瞬時に移動させる。
また、仮想視点VPの位置が位置P1から位置P2までの範囲となる場合は、仮想視点VPの視線が左側の物体OLに向く。このため、視点制御部20aは、仮想視点VPの位置を位置P1から位置P2まで時間的に連続して変更する。この際、ユーザが物体OLを詳細に確認できるように、視点制御部20aは周回動画の周回速度を基準速度より小さくすることが望ましい。
また、仮想視点VPの位置が位置P2から位置P3までの範囲となる場合は、仮想視点VPの視線が物体に向かない。このため、視点制御部20aは、位置P2から位置P3までの範囲に関しては、仮想視点VPの位置を時間的に連続して移動させずにスキップする。すなわち、視点制御部20aは、仮想視点VPの位置を位置P2から位置P3まで瞬時に移動させる。
また、仮想視点VPの位置が位置P3から位置P4までの範囲となる場合は、仮想視点VPの視線が右側の物体ORに向く。このため、視点制御部20aは、仮想視点VPの位置を位置P3から位置P4まで時間的に連続して変更する。この際、ユーザが物体ORを詳細に確認できるように、視点制御部20aは周回動画の周回速度を基準速度より小さくすることが望ましい。
また、仮想視点VPの位置が位置P4から初期位置P0までの範囲となる場合は、仮想視点VPの視線が物体に向かない。このため、視点制御部20aは、位置P4から初期位置P0までの範囲に関しては、仮想視点VPの位置を時間的に連続して移動させずにスキップする。すなわち、視点制御部20aは、仮想視点VPの位置を位置P4から初期位置P0まで瞬時に移動させる。
このように第3の実施の形態においては、視点制御部20aは、車両9の周囲のうちの物体以外の領域をスキップしつつ物体のみに仮想視点VPの視線が向くように、仮想視点VPを変更する。このため、周回動画の表示に必要な時間を短縮することができる。
<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、仮想視点VPの位置を車両9の外部に設定し、視点制御部20aが車両9の周囲を周回するように仮想視点VPの位置を時間的に連続して移動させることで周回動画を表示させていた。これに対して、図21に示すように、仮想視点VPの位置を車両9の車室91の内部に設定し、視点制御部20aが仮想視点VPの視線の向きを時間的に連続して変更することで、周回動画を表示させてもよい。この場合も、仮想視点VPの視線(仮想視点画像CPの中心に示される領域)が車両9の周囲を周回する。
この場合において例えば、仮想視点VPの位置を運転席の位置P9に設定すれば、図22に示すように、ドライバの視点からみた複数の仮想視点画像CPを生成することができる。これらの複数の仮想視点画像CPは、時間的に連続して表示装置3に表示されることで、車両9の周囲を周回するように車両9の周辺を示す周回動画となる。この場合においても、方向決定部20dは、物体検出装置7が検出した物体の位置に基づいて周回動画の周回方向を決定する。図21に示すように、視点制御部20aが仮想視点VPの視線の向きを変更する変更方向(矢印AR3,AR4)が、周回動画の周回方向を規定する。
また、このように仮想視点VPの位置を車両9の車室91の内部に設定する場合において、仮想視点VPの視線の向きに応じて仮想視点VPの位置を移動させてもよい。例えば、仮想視点VPの視線が車両9の後方へ向く場合は、仮想視点VPの位置を車両9の車室91の後方へ移動させてもよい。
また、上記実施の形態では、危険度導出部20cは、予測進路R1を導出する際における車両9の左右の進行方向を舵角に基づいて判断していたが、舵角に代えて、あるいは、舵角に加えて車両9の方向指示器が指し示す方向に基づいて車両9の左右の進行方向を判断してもよい。
また、上記実施の形態では、クリアランスソナー72を含む物体検出装置7が車両9の周辺に存在する物体を検出していた。これに対して、例えば、レーダーによる物体検出や、撮影画像に基づく物体認識などの他の手法によって、車両9の周辺に存在する物体を検出してもよい。
また、上記実施の形態では、仮想視点VPの初期位置P0は車両9の後方上部としていたが、車両9の前方上部など他の位置であってもよい。
また、上記実施の形態では、周回動画が車両9の周囲を一周するようにして車両9の周辺を示していたが、一周未満であってもよく、一周を超えてもよい。
また、上記実施の形態では、画像生成装置2を含む画像表示システム10は車両9に搭載される装置として説明したが、車両に持ち込んで使用可能なスマートフォンなどの可搬性のコンピュータであってもよい。
また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。
また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。
2 画像生成装置
22 画像生成部
20a 視点制御部
20b 結果取得部
20c 危険度導出部
20d 方向決定部
OL 物体
OR 物体
VP 仮想視点

Claims (9)

  1. 車両において用いられる画像生成装置であって、
    複数のカメラで得られた複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す複数の仮想視点画像を時間的に連続して生成する生成手段と、
    前記複数の仮想視点画像が前記車両の周囲を周回するように前記車両の周辺を示す動画となるように、前記仮想視点を時間的に連続して変更する変更手段と、
    前記車両の周辺に存在する物体を検出する検出手段の検出結果を取得する取得手段と、
    前記検出手段が検出した物体の位置に基づいて前記動画の周回方向を決定する決定手段と、
    を備えることを特徴とする画像生成装置。
  2. 請求項1に記載の画像生成装置において、
    前記検出手段が複数の物体を検出した場合に、前記複数の物体それぞれに関して前記車両と接触する可能性の程度を示す危険度を導出する導出手段、
    をさらに備え、
    前記決定手段は、前記複数の物体のうち前記危険度が最も高い物体の位置に基づいて前記周回方向を決定することを特徴とする画像生成装置。
  3. 請求項2に記載の画像生成装置において、
    前記導出手段は、前記複数の物体それぞれの位置に基づいて、前記複数の物体それぞれの前記危険度を導出することを特徴とする画像生成装置。
  4. 請求項3に記載の画像生成装置において、
    前記導出手段は、前記車両が走行すると予測される予測進路と前記複数の物体それぞれの位置とに基づいて、前記複数の物体それぞれの前記危険度を導出することを特徴とする画像生成装置。
  5. 請求項1ないし4のいずれかに記載の画像生成装置において、
    前記変更手段は、
    前記仮想視点の視線が前記物体に向く場合は、前記動画の周回速度を基準速度よりも小さくし、
    前記仮想視点の視線が前記物体以外の領域に向く場合は、前記動画の周回速度を前記基準速度よりも大きくすることを特徴とする画像生成装置。
  6. 請求項1ないし4のいずれかに記載の画像生成装置において、
    前記変更手段は、前記車両の周囲のうちの前記物体以外の領域をスキップしつつ前記物体のみに前記仮想視点の視線が向くように、前記仮想視点を変更することを特徴とする画像生成装置。
  7. 請求項1ないし6のいずれかに記載の画像生成装置において、
    前記動画を表示する表示手段、
    をさらに備えることを特徴とする画像生成装置。
  8. 車両において用いられる画像生成方法であって、
    (a)複数のカメラで得られた複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す複数の仮想視点画像を時間的に連続して生成する工程と、
    (b)前記複数の仮想視点画像が前記車両の周囲を周回するように前記車両の周辺を示す動画となるように、前記仮想視点を時間的に連続して変更する工程と、
    (c)前記車両の周辺に存在する物体を検出する検出手段の検出結果を取得する工程と、
    (d)前記検出手段が検出した物体の位置に基づいて前記動画の周回方向を決定する工程と、
    を備えることを特徴とする画像生成方法。
  9. 車両において用いられるコンピュータによって実行可能なプログラムであって、
    前記コンピュータに、
    (a)複数のカメラで得られた複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す複数の仮想視点画像を時間的に連続して生成する工程と、
    (b)前記複数の仮想視点画像が前記車両の周囲を周回するように前記車両の周辺を示す動画となるように、前記仮想視点を時間的に連続して変更する工程と、
    (c)前記車両の周辺に存在する物体を検出する検出手段の検出結果を取得する工程と、
    (d)前記検出手段が検出した物体の位置に基づいて前記動画の周回方向を決定する工程と、
    を実行させることを特徴とするプログラム。
JP2015008424A 2015-01-20 2015-01-20 画像生成装置、画像生成方法及びプログラム Active JP6548900B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015008424A JP6548900B2 (ja) 2015-01-20 2015-01-20 画像生成装置、画像生成方法及びプログラム
US14/978,196 US10499014B2 (en) 2015-01-20 2015-12-22 Image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015008424A JP6548900B2 (ja) 2015-01-20 2015-01-20 画像生成装置、画像生成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016134001A true JP2016134001A (ja) 2016-07-25
JP6548900B2 JP6548900B2 (ja) 2019-07-24

Family

ID=56408779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015008424A Active JP6548900B2 (ja) 2015-01-20 2015-01-20 画像生成装置、画像生成方法及びプログラム

Country Status (2)

Country Link
US (1) US10499014B2 (ja)
JP (1) JP6548900B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042567A1 (ja) * 2016-08-31 2018-03-08 日立建機株式会社 周辺監視システム及び周辺監視装置
KR20180099534A (ko) * 2017-02-28 2018-09-05 캐논 가부시끼가이샤 화상처리장치, 화상처리방법 및 기억매체
WO2020153292A1 (ja) * 2019-01-23 2020-07-30 株式会社小松製作所 作業機械のシステム及び方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949438B1 (ko) * 2016-10-05 2019-02-19 엘지전자 주식회사 차량용 디스플레이 장치 및 이를 포함하는 차량
JP6501805B2 (ja) * 2017-01-04 2019-04-17 株式会社デンソーテン 画像処理装置および画像処理方法
JP7132730B2 (ja) * 2018-03-14 2022-09-07 キヤノン株式会社 情報処理装置および情報処理方法
CN112930557A (zh) * 2018-09-26 2021-06-08 相干逻辑公司 任何世界视图生成
JP7267753B2 (ja) * 2019-01-21 2023-05-02 キヤノン株式会社 制御装置、制御方法、及びプログラム
JP7222254B2 (ja) * 2019-01-25 2023-02-15 株式会社アイシン 周辺表示制御装置
US20200282909A1 (en) * 2019-03-07 2020-09-10 GM Global Technology Operations LLC Vehicle imaging system and method for a parking solution
CN111624636B (zh) * 2020-05-25 2023-06-20 腾讯科技(深圳)有限公司 数据处理方法、装置、电子设备及计算机可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065520A (ja) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp 運転支援装置
JP2014197817A (ja) * 2013-03-29 2014-10-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100438623C (zh) * 1999-04-16 2008-11-26 松下电器产业株式会社 图象处理装置及监视系统
JP5439890B2 (ja) 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
JP5627253B2 (ja) 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP2011091527A (ja) 2009-10-21 2011-05-06 Panasonic Corp 映像変換装置及び撮像装置
JP2011135253A (ja) * 2009-12-24 2011-07-07 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
WO2011114442A1 (ja) * 2010-03-16 2011-09-22 トヨタ自動車株式会社 運転支援装置
JP5739722B2 (ja) * 2011-04-26 2015-06-24 株式会社日立情報通信エンジニアリング 物体認識方法及び認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065520A (ja) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp 運転支援装置
JP2014197817A (ja) * 2013-03-29 2014-10-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042567A1 (ja) * 2016-08-31 2018-03-08 日立建機株式会社 周辺監視システム及び周辺監視装置
JPWO2018042567A1 (ja) * 2016-08-31 2018-08-30 日立建機株式会社 周辺監視システム及び周辺監視装置
KR20180099534A (ko) * 2017-02-28 2018-09-05 캐논 가부시끼가이샤 화상처리장치, 화상처리방법 및 기억매체
KR102271527B1 (ko) * 2017-02-28 2021-07-01 캐논 가부시끼가이샤 화상처리장치, 화상처리방법 및 기억매체
WO2020153292A1 (ja) * 2019-01-23 2020-07-30 株式会社小松製作所 作業機械のシステム及び方法
JP2020120234A (ja) * 2019-01-23 2020-08-06 株式会社小松製作所 作業機械のシステム及び方法
JP7160702B2 (ja) 2019-01-23 2022-10-25 株式会社小松製作所 作業機械のシステム及び方法

Also Published As

Publication number Publication date
US20160212384A1 (en) 2016-07-21
JP6548900B2 (ja) 2019-07-24
US10499014B2 (en) 2019-12-03

Similar Documents

Publication Publication Date Title
JP6548900B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP5911775B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JP5627253B2 (ja) 画像処理装置、電子装置、および、画像処理方法
JP5858650B2 (ja) 画像生成装置、画像表示システム、及び、画像生成方法
JP5681569B2 (ja) 情報処理システム、サーバ装置、および、車載装置
JP6084097B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JP6257978B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JP2011151666A (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
US10609337B2 (en) Image processing apparatus
JP2011004201A (ja) 周辺表示装置
JP2013168063A (ja) 画像処理装置、画像表示システム及び画像処理方法
US10040395B2 (en) Vehicular display control apparatus
JP2018144554A (ja) 車両用ヘッドアップディスプレイ装置
JP6258000B2 (ja) 画像表示システム、画像表示方法及びプログラム
JP6130118B2 (ja) 画像処理システム、画像処理装置、画像処理方法、及び、プログラム
JP6118936B2 (ja) 画像処理装置
JP6370833B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JP2015009676A (ja) 情報提供装置および情報提供方法
US20200231099A1 (en) Image processing apparatus
JP2012216997A (ja) 画像表示システム、画像生成装置及び画像生成方法
JP2018142340A (ja) 画像生成装置、画像表示システム及び画像生成方法
JP7164967B2 (ja) 表示制御装置及び表示制御方法
JP2018074558A (ja) 車両用撮影表示装置及び車両用撮影表示プログラム
JP2022048454A (ja) 車両用表示装置
JP2016141303A (ja) 視界支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190626

R150 Certificate of patent or registration of utility model

Ref document number: 6548900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250