JP6311020B2 - 映像合成システムとそのための映像合成装置及び映像合成方法 - Google Patents

映像合成システムとそのための映像合成装置及び映像合成方法 Download PDF

Info

Publication number
JP6311020B2
JP6311020B2 JP2016529328A JP2016529328A JP6311020B2 JP 6311020 B2 JP6311020 B2 JP 6311020B2 JP 2016529328 A JP2016529328 A JP 2016529328A JP 2016529328 A JP2016529328 A JP 2016529328A JP 6311020 B2 JP6311020 B2 JP 6311020B2
Authority
JP
Japan
Prior art keywords
image
video
target object
interest
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016529328A
Other languages
English (en)
Other versions
JPWO2015194501A1 (ja
Inventor
樋口 晴彦
樋口  晴彦
健太 高野橋
健太 高野橋
中嶋 満雄
満雄 中嶋
秀紀 坂庭
秀紀 坂庭
吉孝 内田
吉孝 内田
中村 浩之
浩之 中村
勝夫 小野崎
勝夫 小野崎
崇之 塩屋
崇之 塩屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of JPWO2015194501A1 publication Critical patent/JPWO2015194501A1/ja
Application granted granted Critical
Publication of JP6311020B2 publication Critical patent/JP6311020B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、1つ以上のカメラによって撮影される映像を変形及び合成して表示装置に表示する映像合成装置、映像表示装置に関する。
車両運転時に運転者が自車の周辺を確認できるように、車両に設置された複数カメラで車両の周囲を撮影し、車内に映像表示するシステムは既に提案されており、かかる既知のシステムの内には、車両に設置された複数のカメラで撮影された映像を適切に変形して合成することにより、仮想的な視点から当該車両周囲を見た映像を表示する技術も含まれている。
このような映像表示システムにおいては、仮想の空間上に投影面を配置してカメラ映像をマッピングして、その空間内において仮想的な視点から見る映像を作成して表示する手法がある。この場合、一般的に、カメラで撮影した被写体と仮想投影面との間で、その形状に差異が発生すると、当該差異に応じて、変形合成される映像に歪みが見られてしまう。例えば、カメラで撮影する被写体が人又はガードレールのような立体物であり、仮想投影面が地面の高さと等しく地面と並行な平面である場合には、変形合成される映像のうち、当該立体物は引き伸ばされたような映像に歪んでしまい、これでは、利用者が状況を把握し難くなってしまう。かかる問題点に対しては、従来、変形して合成された映像の生成方法に関連し、種々の技術が開示されている。
例えば、以下の特許文献1には、車両の状態に応じて仮想投影面の形状と仮想視点の位置及び角度を変化させる技術が開示されている。
特開2009−171537号公報
即ち、上述した特許文献1では、変化する車両の状態や車両周辺物に対して仮想投影面の形状を動的に変えることにより、運転シーンに併せて表示映像を変化させることについては開示されているが、しかしながら、特定の被写体に注目して表示したい場合には、当該被写体の歪み低減に対するための具体的な方策は開示されておらず、そのため、変形合成映像中で被写体が歪んで表示されてしまうという課題が残っていた。
そこで、本発明は、上述した従来技術における課題を解決するために達成されたものであり、特定の被写体に注目して表示したい場合にも、当該被写体の歪の低減を可能とし、もって、注目物体をより自然に表示する画像を作成することが可能な映像表示システムと、そのための映像合成装置及び映像合成方法を提供することをその目的とする。
上述した目的を達成するため、本発明によれば、その一例として、以下の請求項にも記載するように、まず、複数のカメラを有する撮像部と、前記撮像部の複数のカメラからの映像を入力して合成する映像合成装置と、前記映像合成装置により合成された映像を表示する映像表示部とを有する映像表示システムであって、前記映像合成装置は、前記撮像部からの映像を基に、注目物体を検出する検出部と、前記撮像部の複数のカメラが撮影した複数の映像を変形して合成する変形合成部と、少なくとも前記検出部と前記変形合成部の動作を制御する演算処理装置とを備えており、前記演算処理装置は、前記変形合成部により、前記検出部により検出された前記注目物体に関する情報に応じて決定される仮想投影面と、仮想視点と、合成方法とを用いて、前記複数のカメラで撮影した映像を、当該注目物体の歪を低減するように、変形して合成し、もって、前記映像表示部に表示させる映像表示システムが提供される。
また、上述した目的を達成するため、本発明によれば、複数のカメラからの映像を入力して合成し、合成した映像を映像表示部に表示する映像合成装置であって、前記撮像部からの映像を基に、注目物体を検出する検出部と、前記撮像部の複数のカメラが撮影した複数の映像を変形して合成する変形合成部と、少なくとも前記検出部と前記変形合成部の動作を制御する演算処理装置とを備えており、前記演算処理装置は、前記変形合成部により、前記検出部により検出された前記注目物体に関する情報に応じて決定される仮想投影面と、仮想視点と、合成方法とを用いて、前記複数のカメラで撮影した映像を、当該注目物体の歪を低減するように、変形して合成し、もって、前記映像表示部に表示させる映像表示映像合成装置が提供される。
更に、本発明によれば、やはり上述した目的を達成するため、複数のカメラからの映像を入力して合成し、合成した映像を映像表示部に表示する映像合成方法であって、検出部により検出された注目物体に関する情報に応じて決定される仮想投影面と、仮想視点と、合成方法とを用いて、複数のカメラで撮影した映像を、当該注目物体の歪を低減するように、変形して合成し、もって、前記映像表示部に表示させる映像表示映像合成方法が提供される。
上述した本発明によれば、注目物体をより自然に表示する画像を作成する映像表示システムを、更には、そのための映像合成装置及び映像合成方法を提供することが可能となるという優れた効果を発揮する。
本発明の一実施例になる映像合成装置と映像表示システムの構成の一例を示すブロック図である。 上記映像表示システムにおける車載カメラの設置例を示す左側面図、平面図、そして、車載カメラの画角及び撮影範囲の重複領域を示す図である。 上記映像表示システムにおいて、撮影カメラ映像の画素を仮想視点から見た画素に座標変換する処理を説明する図である。 上記映像表示システムにおいて、仮想投影面及び仮想視点を設定する第1の見取り図の左側面図及び平面図である。 上記図4(A)及び(B)の撮影カメラの設定時に仮想視点から見た映像を示す図である。 上記映像表示システムにおいて、仮想投影面及び仮想視点を設定する第2の見取り図の左側面図及び平面図である。 上記図6(A)及び(B)の撮影カメラの設定時に仮想視点から見た映像を示す図である。 上記図6(B)の条件における仮想視点の設定可能範囲を示す図である。 上記図6(B)の注目物体に対する別の仮想視点の設定を示す図である。 上記図9の設定時に仮想視点から見た映像を示す図である。 上記図6(B)及び図9の設定時での映像の合成方法の設定を説明する図である。 上記映像表示システムにおいて、注目物体の位置に応じて、仮想投影面と仮想視点の決定方法やカメラ映像の合成方法を決定する処理フロー図である。 カメラ映像の重複領域を角度情報で表した一例を示す図である。 上記図13に示す角度に対する2つのカメラ映像のブレンド率の変化の一例を示す図である。 上記図13に示す角度に対する2つのカメラ映像のブレンド率の変化の他の例を示す図である。 本発明の他の実施例になる映像合成装置と映像表示システムの構成(複数のモニタを有する)を示すブロック図である。 本発明の更に他の実施例になる映像合成装置と映像表示システムの構成(複数の照明を有する)を示すブロック図である。 本発明の他の実施例になる映像合成装置と映像表示システムの構成(複数のスピーカーを有する)を示すブロック図である。
以下、本発明になる実施例について、添付の図面を参照しながら詳細に説明する。
図1は、本実施例になる映像表示システムの全体構成の一例を示すブロック図である。図において、映像表示システムは、基本的には、映像合成装置100、被写体を撮像するための複数(n個)のカメラを備えた撮像部110、画像を表示するためのモニタ120とから構成される。なお、かかる構成において、撮像部110を構成する複数のカメラで撮影した映像は、映像合成装置100において変形・合成され、その映像がモニタ120上に出力されることは、一般の映像表示システムと同様である。
ここでは、まず、撮像部110を構成する複数のカメラについて説明すると、本実施例では、図2に示すように、全4台のカメラ110−1〜110−4が、例えば、自動車300の前後、及び、左右に設置されており、以下では、本発明になる映像表示システムを車両に適用した例について説明する。しかし、本発明はこれに限らず、複数の監視カメラの撮影画像を表示する他のシステムに対しても適用できる。また、図中の符号310は、地面を示している。
再び、図1に戻り、映像合成装置100は、デコード部101、CPU(Central Control Unit:中央演算処理装置)102、メモリ103、検出部104、変形合成部105、エンコード部106、バス107から構成される。以下、各部における処理について説明する。
デコード部101は、撮像部110の複数のカメラ110−1〜110−4から入力される映像信号を、量子データなど、画像の変形及び合成に必要な情報に変換する。
CPU102は、装置全体の動作を制御しており、また、後述する検出部104により検出もしくは判定された注目物体の位置に基づき、画像変換処理に必要な仮想投影面の形状と仮想視点との合成方法を決定する。
メモリ103には、バス107に接続されている各部から、映像合成に必要な情報が書き込まれもしくは読み出される。なお、このメモリ103に格納される情報としては、その一例として、デコード部101から入力されて画像変換を施す前に一時的に保存される画像データや、検出部104により検出された注目物体の位置情報や、変形合成部105で変換されて一時的に保存される画像データなどが挙げられる。また、変形合成部105や検出部104はソフトウェアによって実現できる場合もある。この場合は図示しない記憶部に記憶されたプログラムをCPU102がメモリ103に読みだし、プログラムに従ってCPU102が演算を行うことで変形合成部105や検出部104としての機能を実現することが可能である。
検出部104は、撮像部110の各カメラ110−1〜110−4が撮影する映像全体のうち、注目して表示する対象の位置、もしくは、一定の範囲を検出もしくは判定する機能を持つ。なお、ここで、「注目物体」としては、例えば、歩行者、自車以外に走行する車両、ガードレール、建物のような立体物と共に、更には、例えば、交差点で右折する際の右前方や後退する際の後方など、走行上危険と思われる一定の範囲も含むものとする。
かかる注目物体の検出もしくは判定方法としては、例えば、上述した検出部104の他に、デコード部101を経由して入力されるカメラ映像から特徴量を検出し、当該検出部がカメラ位置との相対位置を検出する特徴量検出処理部を有していても良く、又は、1つ以上のソナーやレーザー距離計等により自車からの大まかな方向や距離を検出する距離計測部を併用するものでも良い。あるいは、GPS(Global Positioning System)もしくはITS(Intelligent Transport System)などの情報を取得する通信処理部を備え、当該通信処理部の取得情報よって当該検出部が自車と注目物体の相対位置を判定するものでも良い。さらに、車両の周囲に複数の物体が検出された場合は、CAN(Controller Area Network:通信部)を介して得られる、車両の進行方向、車速、操舵角などの車両情報を取得するCAN情報取得部を備え、これらの情報から車両が移動する方向を推定し、当該方向にある物体を衝突の可能性が高い物体であると判定し、これを注目物体として検出部104が判定するものでも良い。さらには、車両の周囲に複数の物体が検出された場合は、車両に最も近い物体を注目物体として映像を生成してもよい。ここで、検出もしくは判定する情報としては、注目物体の自車もしくは各カメラの取り付け位置に対する平面図上の相対位置などの情報を用い、特に、注目物体の画像変換精度を向上するためには、立体物の高さや立体形状など、更なる詳細情報を用いても良い。これらの方法によって車両の周辺にある物体や、車両の進行に障害となる物体に注目して、ユーザに適切に提示することができる。上記の検出部104、特徴量検出処理部、距離計測部、通信処理部、CAN情報取得部、等は注目物体に関する情報を取得するという点で共通し、これらの処理部の1つ以上の機能を備える1つの処理部(注目物体情報取得部)として映像合成装置100に備えることも可能である。
なお、注目物体に関する情報を取得できる機器が映像合成装置100とは別に車両に備えられている場合は、画像合成装置100は当該機器と通信を行って注目物体に関する情報を取得するインターフェースを備えることで、検出部104が備えられなくても同等の機能を発現することができる。
変形合成部105は、上記撮像部110のカメラからデコード部101を経由して入力される各々の画像に対し、変形処理及び合成処理を施す。なお、この変形処理及び合成処理については、後に、図3を参照しながら説明する。この時、仮想的な投影面として3次元空間に生成したオブジェクト面に、撮像部110の各カメラ110−1〜110−4が撮影した画像を投影し、これを仮想的な視点から見た時の画像に変換し、更に、カメラn個分の画像を合成する。このように、各カメラ110−1〜110−4の画像を変形合成部105で変形すると、変形後の画像は、一定の重複領域を有することとなり、これらの重複領域に対して、後記するαブレンディングにより、ブレンド合成処理を行う。
エンコード部106は、上記の変形合成部105により変形及び合成された画像を、映像表示に必要な形式の情報に変換してモニタ120に出力する。
このようにして、上記映像合成装置100は、2次元のカメラ画像から、擬似的な3次元空間を作り出すことができる。このとき、変形合成部105では、3次元空間上に仮想的に配置された投影面に画像を投影し、当該3次元空間上に仮想的に配置された視点から見た画像を演算することになる。なお、これは、画像を仮想的な3次元空間にマッピングし、仮想視点から見た映像として2次元画像を生成するものであるが、本発明はこれに限られず、変形合成部105が、3次元空間へのマッピングを、直接、施すものでも良く、又は、3次元空間へのマッピングと同等な処理を、2次元空間へのマッピングにおいて擬似的に施すものでも良い。
上記のメモリ103に書き込み、又は、読み出す情報としては、上述の他、例えば、車に搭載する各カメラ110−1〜110−4の3次元空間座標系での取付情報(例えば、座標情報、角度情報)、レンズの歪係数、焦点距離、又は、撮像センサの有効画素サイズ等の情報を含んでいてもよく、あるいは、上記変形合成部105において3次元空間のマッピングを2次元空間へのマッピングで擬似的に実現する際に必要な情報でも良い。また、レンズ歪係数に関しては、カメラ画像中心からの距離に応じた歪の度合いを示す係数や、レンズの入射角と被写体の長さの関係を示す情報などを含んでもよい。特に、本実施例においては、後述するように、カメラ110−1〜110−4に魚眼レンズを用いることがあり、当該魚眼レンズでは、その周辺部では中心部と比較して歪が大きいため、これを補正する際に前記歪係数が必要となる。これらの情報は、変形合成部105における画像の変形もしくは画像の合成に用いられる。
また、上記のメモリ103は、変形合成部105が用いる、仮想投影面、仮想視点、合成方法に関する情報をも有する。仮想視点の情報としては、座標情報(Xv、Yv、Zv)と、各軸に対する角度情報(αv、βv、γv)とを有する。また仮想投影面の情報としては、例えば、地面と平行で地面と同じ高さの平面と球体の組み合わせとして、球体の中心座標と球体の半径とを有する。なお、この情報は、更に複雑な形状のものや複数の形状の組み合わせでもよく、又は、一般的に知られる3次元オブジェクトの情報で用いられる(Xt、Yt、Zt)で記述される情報でも良い。なお、合成方法に関する情報としては、重複領域の合成方法として、後記するαブレンディングに関する情報を有する。
次に、上述した図3を用いて、本実施例における撮影カメラ画像中の画素を、仮想視点から見た画像の画素に座標変換する処理の一例について、以下に説明する。
図3では、実際の車載カメラ(ここでは、代表的に、符号110で示す)で撮影された画像201の画素を、カメラ110に対するカメラ座標系Xr、Yr、Zrにおける点Pr(xr、yr、zr)と表している。なお、ここでは、カメラ座標系に関して、例えば、カメラ110に対する奥行方向をZr、撮像した画像の水平方向をXr、垂直方向をYrと表している。この点Prは、空間内で共通に用いられるWorld座標系であるXw、Yw、Zwにおける点Pw(xw、yw、zw)に相当する。このWorld座標系での点Pwを、ある仮想の位置に配置した仮想視点210から撮影した場合の画像211の画素は、仮想視点211に対するカメラ座標系Xv、Yv、Zvの点Pv(xv、yv、zv)に相当する。つまり、ある仮想の位置から見た画像を生成するために、次のような座標変換を行う。
実際のカメラ110に対するカメラ座標系の点PrとWorld座標の点Pwとの関係は、4×4の透視投影変換行列Mrを用い、以下の(数1)により示される。
Figure 0006311020
また、仮想視点210に対するカメラ座標系の点PvとWorld座標系の点Pwとの関係は、透視投影変換行列Mvを用い、以下の(数2)により示される。
Figure 0006311020
但し、Mp、Mvは、以下の(数3)に示すように、3×3の回転行列Rと、3×1の平行移動行列Tを含んでいる。
Figure 0006311020
上述した(数1)と(数2)を用いると、実カメラ座標系の点Prと仮想視点座標の点Pvとの関係が、以下の(数4)で求められ、即ち、生成したい仮想視点の画素値を、実際のカメラで撮影した画素値から計算により求めることができる。
Figure 0006311020
World座標系上でのカメラの設置位置と設置角度、そして、カメラの内部パラメータである焦点距離やセンサの有効画素サイズ等の情報を用い、MvとMrの逆行列を掛け合わせた4×4の行列を算出する。即ち、これらの式を用いることにより、変形合成部105は、実際のカメラ110の画像を、ある位置に配置した仮想視点から見た画像へ変換する。
続いて、以下に述べる実施例においては、上述したように、4台の車載カメラ110−1〜110−4を用いた場合いついて記述するが、しかしながら、本発明はこれに限定されず、実カメラ110が1つだけであっても良い。例えば、当該カメラ110として魚眼レンズを使用した場合には、目的によっては、1つのカメラで必要な画角をカバーできる場合もある。そのため、以下の実施例は、カメラが1つである場合にも適用可能である。
ここで、再び、上述した図2に戻り、本実施例におけるカメラの設置の一例として、上記図1における撮像部110のカメラ110−1〜110−4を、車両300に搭載した状態を示しており、より詳細には、図3(A)は、車両の左側面図を、そして、図2(B)は、平面(上面)図を、それぞれ、示している。即ち、地面310上には車両300があり、当該4台のカメラ110−1、110−2、110−3、110−4が、車両300の前後及び左右に、それぞれ、所定の俯角を持って下方向を向くように設置されており、各カメラは、それぞれ、その撮影範囲において、隣接するカメラの撮影範囲との間で、一定の重複領域を持つような画角を持っている。
さらに、図2(C)には、上記各カメラ110−1、110−2、110−3、110−4の撮像範囲を図示する。図では、カメラ110−1、110−2、110−3、110−4の撮像範囲が、それぞれ、斜線領域311、312、313、314で示しており、各々が重複した領域321、322、323、324を持っていることが分かる。以降、図2(A)〜(B)に示すようなカメラ設置条件に基づいて、本実施例について説明する。
まず、図4(A)及び(B)、更には、図5を参照しながら、物体の歪みを考慮しない仮想投影面、仮想視点を設定した場合の変換画像における課題について説明する。
なお、上記の図4(A)及び(B)は、本実施例における車両周辺に設定される仮想投影面及び仮想視点の例を示す見取り図である。上述した図2(A)及び(B)に比較して、車両300の左前方には、例えば、立木のような立体物である注目物体401がある。また、地面310と同じ高さで地面と平行な平面412と、注目物体401より遠い位置には、仮想的な球面411から構成される仮想投影面を配置しており、上記平面412と球面411とは、円413に沿って交差している。即ち、図にも示すように、車両300の後方から、車体及び車両の前方を見下ろすような設置位置及び設置角度に、仮想視点を設定する。なお、球面411は厳密に球体である必要はなく、仮想投影面に投影された映像が自然に見えるように設計された任意の曲線の回転体や、その他の曲面であってもよい。
図5は、上記図4(A)及び(B)で設定した仮想投影面411、412にカメラ110−1の映像を投影した状態(以下では仮想投影状態と称す)を、上記図4(A)及び(B)で設定した仮想視点414から見た場合の変換画像である。なお、以下では、車両300の左前方に写る注目物体401をカメラ110−1で写した画像の変換について述べるが、しかしながら、当該注目物体401の位置は、車両300の周囲のどこにあっても良く、撮影するカメラも110−1に限定されず、他の110−2、110−3、110−4のいずれであってもよい。
カメラ110−1が撮影した映像は、上記図4(A)及び(B)が示すような、仮想投影面である球面411と、そして、平面412上に投影される。即ち、カメラ110−1と注目物体401とを結ぶ直線の延長線と、仮想投影面との交点415に、注目物体401が投影される。
図5は、仮想視点から見た場合の画像であり、当該画像は、その画像中に、注目物体401、球面である仮想投影面411に投影した領域、平面である仮想投影面412に投影した領域、そして、球面と平面の投影面の境界413を含んでいる。かかる仮想視点から見た場合の画像において、平面の仮想投影面412に対しては、地面310などの平らなものは、平面の投影面と同じ位置にあるため、上記領域412上において、正常に、遠近感が生成された歪みのない画像を形成できるが、しかしながら、立木などの立体物である注目物体401は、平面投影面412の部分において面として投影されるため、その立体感が失われた歪んだ画像になってしまう。
なお、球面の仮想投影面411である領域に対しても同様であり、注目物体401は、位置の異なる(即ち、ズレた)球面投影面411上に投影されるため、仮想視点413から見た像は、斜めに倒れ込んだような、歪んだ画像となってしまう。
本発明は、上述した歪を解消するためになされたものであり、以下には、図6(A)及び(B)、更には、図7を参照しながら、本実施例において、上述した歪み低減した変換画像の生成について説明する。
図6(A)及び(B)は、本実施例における、車両300の周辺に設定される仮想投影面及び仮想視点の一例を示す見取り図であり、これらの図においても、上記図3(A)及び(B)と同様に、車両300の左前方に立体物(立木)である注目物体401がある。なお、この設定では、仮想的な球面投影面411は、上記の図4(A)及び(B)に示したそれよりも、より注目物体401に近い位置に配置されている。また、仮想視点414は、上記図4(A)及び(B)のそれよりも低い場所で、右後方から車両300の車体及びその左前方を見下ろすような設置位置及び設置角度に設定されている。
図7は、上記図6(A)及び(B)で設定した仮想投影面411、412上にカメラ110−1の映像を投影し、上記図6(A)及び(B)で設定した仮想視点414から見た場合の変換画像である。この場合には、図7からも明らかなように、注目物体401の像のうち、平面投影面412上に投影される面積は少なく、また、球面投影面411と注目物体401との位置の差(位置ズレ)が少なく、それ故、映像上の歪みは少ない。
また、実カメラ110−1と注目物体401とを結ぶ線を延長し、仮想投影面411と交わる点415について、当該交点415と実カメラ110−1とを結ぶ線と、当該交点415と仮想視点414とを結ぶ線との角度差が、所定の値以下となるよう、仮想視点414を定める。
結果として、図7からも明らかなように、上記図5に示した変換画像と比較すると、注目物体の像401の立体感が失われるような歪が低減されており、更には、斜めに倒れるような歪みも歪み少なく表示されることが分かる。
以上、上記図4〜図7に示したように、車両300周囲との距離感や注目物体401の見え方は、仮想投影面411及び仮想視点414の設定により、大きく変わってしまう。つまり、立木等の注目物体401の像を歪み少なく見せるためには、仮想投影面411の3次元内での面を、当該注目物体401と近づける必要があり、また、仮想視点414と注目物体401とを結ぶ線は、実カメラ110−1と注目物体401とを結ぶ直線との間で、その角度差が小さくなるように設定する必要がある。
続いて、図8により、上述した観点から、上記図6Bにおける仮想視点414の決定方法の一例について以下に示す。
図にも示すように、まず、注目物体401上の点から実カメラ110−1へのベクトル801を求め、このベクトル801に対して所定の角度範囲802の内側(矢印803)において、当該仮想視点414を設定する。これにより、実カメラ110−1と注目物体401とを結ぶ直線と、仮想視点414と注目物体401とを結ぶ線は、所定の角度よりも小さくなり、合成映像の歪みを低減することができる。例として、図6Bにおける仮想視点414と注目物体401とを結ぶ線と図8におけるベクトル801とのなす角度(劣角)をΔθとし、注目物体401と点415の距離をDとしたとき、仮想視点414と注目物体401を結ぶ線と仮想投影面411との交点から点415までの距離、すなわち、仮想視点414で合成映像を生成したときの注目物体401のズレ量を考える。簡略化のためこのズレ量はD×Δθで近似できるとし、合成映像中の許容ズレ量をEとすると、Δθと取り得る範囲はΔθ<E/Dとして得られ、このΔθの範囲内に仮想視点414を設定すれば、合成映像の歪みを許容範囲内に抑えることができる。
なお、注目物体401と点415の距離Dに応じて変形合成部105が生成する画像における1画素よりも歪みが小さくなるようなΔθとなる位置に仮想視点414を設定することで、表示上はベクトル801上の仮想視点から見た合成映像と同等の歪みで注目物体401が表示される画像を合成することができる。
また、許容ズレ量Eの値は、工場出荷時等に設定されたり、ユーザに設定させることができる。これをメモリ103や映像合成装置100が備える図示しない記憶部に記憶させておくことで、実カメラ110−1と注目物体401との距離Dが変化した場合でも適切な位置に仮想視点414を設定することができる。
なお、上記の図6(B)に示した注目物体401のように、当該注目物体401が、複数カメラの画角が重複する領域内にある場合には、例えば、図9及び図10に示すように、他のカメラ110−2の映像から画像変換するよう、仮想投影面411及び仮想視点414を決定することもできる。なお、この場合も、上記図6(A)及び(B)と同様に、仮想投影面411が、注目物体401の表面との間の最小距離が所定の値以下になるように設定し、また、仮想視点414の位置及び角度については、上記図9の例では、左部カメラ110−2と注目物体401とを結ぶ線との角度差が小さくなるように設定すればよい注目物体401が重複領域にある場合に、仮想視点414の位置をカメラ110−1と注目物体401とを結ぶ線から求めるか、カメラ110−2と注目物体401とを結ぶ線から求めるかについては、カメラ110−1とカメラ110−2とで、注目物体401がより解像度高く撮像されている方を優先し、注目物体が結像する画素数に基づき選択する。ただし、これ以外に、これらカメラと注目物体との距離がより小さい方を選択しても良いし、車両の進行方向により近い方を選択しても良い。
上記図7と図10は、それぞれ、前部カメラ110−1と左部カメラ110−2で撮影した画像を元に変換した画像の例を示しているが、装置内の上記変形合成部105(上記図1を参照)で各カメラからの画像をαブレンディング合成する際、何れの画像を採用するべきかについては、例えば、次に挙げるような条件で判断することができる。
例えば、車両が比較的低速で交差点で左折するような状況では、進行方向で衝突の可能性のある左方を広く映像表示したいという要求が推測され、その場合には、上記図6(B)に示したような仮想視点414を設定して、左方向を広く表示させる。又は、車両が比較的高速で直進しており、衝突の可能性の高い前方を広く映像表示する要求が推測される場合には、上記図9に示したような仮想視点414を設定して前方向を広く表示させる。
次に、図11(A)及び(B)には、上述した図6B及び図9で示した条件下における、ブレンド合成時の繋ぎ目の設定例を示す。なお、何れの場合においても、上記図2(C)に示した重複領域321のαブレンディング合成においては、注目物体401が写る部分が、各カメラ映像の繋ぎ目から外れるような設定を施すものとする。なお、図の例では、太い破線1101と1102で示した直線を合成時の繋ぎ目とし、この線を境に、各映像を区切っている。図11(A)では、図8を用いた前述の通り、合成映像における注目物体401の歪を小さくするため、仮想視点414は前部カメラ110−1と注目物体401とを結ぶ線から所定の角度となるよう設置されている。このとき、注目物体401の合成画像は前部カメラ110−1による撮影画像を用いることから、区切りの破線1101は注目物体401よりも左部カメラ110−2側に設定する。同様に、図11(B)では、注目物体401の位置から、合成画像の歪を小さくするために仮想視点414を設置しており、合成画像は左部カメラ110−2による撮影画像を用いるよう、区切りの破線1102は注目物体よりも前部カメラ110−1側に設定する。すなわち、重複領域321のブレンド位置は、注目物体401の位置と、注目物体401を撮像するカメラの位置と、仮想視点414の位置との関係に基づき決定され、仮想視点401の位置が前部カメラ110−1と注目物体401とを結ぶ直線から所定の角度内となるように配置されている場合は前部カメラ110−1で撮像した注目物体401の映像を用いるようにブレンド位置を左部カメラ110−2側に設定し、仮想視点401の位置が左部カメラ110−2と注目物体401とを結ぶ直線から所定の角度内となるように配置されている場合は左部カメラ110−2で撮像した注目物体401の映像を用いるようにブレンド位置を前部カメラ110−1側に設定する。ここで設定する破線1101及び1102は、注目物体401の位置に関わらずカメラ110−1もしくはカメラ110−2の画角に応じて静的に決めても良いし、注目物体401の形状または大きさが既知であれば、注目物体の全景にかからないような位置に設定するものでも良い。なお、本発明はこれに限定されず、この線を境として、一定の範囲内で、α値を段階的に変化させても良く、又は、太破線1101及び線1102のように直線でなく、任意の曲線でこれを構成しても良い。例えば、注目物体401が重複領域321よりも大きく、ブレンド合成時の繋ぎ目の設定位置に依らず注目物体401上に繋ぎ目が含まれる場合には、これを検出し、必要に応じ、注目物体401上にブレンド合成時の繋ぎ目を置き、この繋ぎ目を境に、一定の範囲内で、α値を変化させるように合成を行っても良い。さらに、CAN等によって車両の進行方向を知ることができる場合、例えば図11(A)の場合であっても車両が直進している場合はブレンド位置を前部カメラ110−1側に設定したり、図11(B)の場合であっても車両が左折している場合はブレンド位置を左部カメラ110−2側に設定してもよい。これは、例えば、図11(A)で車両が直進している場合は注目物体401は相対的にみて車両の左後方に移動するためであり、ブレンド位置を1101に設定すると注目物体401を撮像するカメラを前部カメラ110−1から左部カメラ110−2に切り替える必要があるためである。したがって、初めから左部カメラ110−2で撮像された注目物体401を合成に用いておけばカメラの切り替えをする必要がなく、注目物体401が合成画像から消失する可能性を低減することができる。
なお、本実施例では、計算量を削減するため、単純な平面と球面で仮想投影面を表現している例について示したが、本発明はこれに限定されず、例えば、上記の図1に示した検出部104で検出される情報の精度に応じて特徴量による統計的なクラスタリング処理を行うことで、地面(道路)310と共に、建物、壁、ガードレール、空等を含め、それらの空間的な位置関係、及び、立体形状を考慮して、空間上にオブジェクトを配置し、そこに映像を合成しても良い。これによれば、周囲のより正確な3次元投影を形成することが可能となり、換言すれば、より立体形状の歪みの少ない自然な映像を生成することができることとなる。
続いて、図12は、本実施例になる映像表示システム、特に、その映像合成装置100のCPU102により実行される処理、即ち、注目物体に応じて仮想投影面の形状、仮想視点の設置位置及び設置角度、重複領域の合成方法を決定する動作の一例を示すフローチャート図であり、以下に、先頭にSを付したステップ番号に従って、その詳細を説明する。
まず、ステップS1200で処理フローが開始されると、S1201(画像認識部)では、検出部104において注目物体の位置を検出又は判定し、自車からの、又は、適当な基準点からの相対位置を取得する。なお、ここで取得する情報としては、平面図上の注目物体(例えば、上記の例では立木401)の位置、即ち、地面310上の位置を必要とし、併せて、前述したように、注目物体が立体物であるか否か、更には、その詳細な立体形状を取得しても良い。
次に、S1202では、取得した注目物体の位置より、物体を撮影しているカメラを特定する。このカメラの特定は、注目物体の位置、及び、カメラの設置位置、設置角度、画角等から求める。これらの条件より物体を撮影しているカメラが複数特定された場合には、この注目物体を撮影しているカメラが複数あり、注目物体が重複領域に存在すると判断する。ただし、これらの条件に代えて、例えば、画像認識の結果から注目物体を撮影している当該カメラを特定しても良く、又は、注目物体の車両との相対位置から、撮影カメラを一意に特定するような簡易なものであっても良い。複数のカメラが重複して注目物体を撮影しているかどうかについては、後述する判定S1207での判定条件に用いる。
続いて、S1203では、注目物体と撮影カメラのベクトルを求める。このベクトルは、平面図上の高さを考慮しない2次元のベクトルでも良く、又は、高さをも含めた3次元のベクトルでも良い。なお、このベクトルを求める際は、注目物体上のある1点を指定するのであっても、又は、注目物体上の複数の点を指定した複数のベクトルの集合であっても良い。
更に、S1204では、上記のS1203で求めたベクトルに基づき、上記図8に示したように、このベクトルと一定以内の角度差を持つ範囲で、仮想視点位置を決定する。このときの角度範囲は、World座標上の3軸それぞれで個別の値を持たせても良い。その後、S1205では、注目物体と自車の位置、もしくは、注目物体と基準点との距離に基づき、仮想投影面の形状を決定する。例えば、上述した図4(A)〜図11(B)に示したような平面と球面の仮想投影面であれば、注目物体と投影面との位置の差(位置ズレ)が小さくなるように、球体の中心座標及び半径を設定する。前述したように、注目物体の立体形状に合わせて複雑な投影面形状を持たせても良い。
次に、S1206では、上記S1202で特定した撮影カメラが1つか、又は、複数かを判定し、その結果に基づいて以後の処理を切り替える。
まず、上記S1206での判定の結果「位置が、カメラ映像の重複領域である」と判定された場合には、S1207において、注目物体の位置、及び、上記S1204とS1205で決定した仮想視点及び仮想投影面の条件に加え、更に、注目物体を撮影する複数のカメラのうちどのカメラ映像を用いるかを選定し、重複領域の合成方法を決定する。
他方、上記S1206での判定の結果「位置が、カメラ映像の重複領域でない」と判定された場合には、S1208において、注目物体の位置、及び、上記S1204とS1205で決定した仮想視点及び仮想投影面の条件により、重複領域の合成方法を決定する。
その後、上記したS1207又はS1208に続いて、S1209では、上述したS1208までに決定された仮想投影面、仮想視点、重複領域の合成方法に基づき、各カメラの画像を変形して合成し、上記図1のエンコード部106を経由して、モニタ120に、映像出力する。
更に、本実施例における重複領域の合成方法の一例について、図13、図14、図15を参照しながら、より具体的に説明する。
まず、図13においては、2本の太い実線で囲まれた重複領域321を例にし、当該重複領域を、図にθで示すような角度で記述し、θ=0からθ=θmaxの範囲内でのブレンド率を、例えば、図14又は図15に示す例のように設定する。
これらの設定のうち、図14に示すブレンド率の特性は、単純であり、そのため、その演算負荷が比較的低いが、しかしながら、θがθ_lとθ_hにおいて、ブレンド率が急峻に変化し、そのため、映像の繋ぎ目の合成に違和感を持つ可能性を有する。
一方、図15に示すブレンド率の特性は、上記図14のそれと比較すると、複雑ではあるが、しかしながら、θの変化に対して連続的であり、そのため、より違和感の少ない合成映像を生成することが期待できる。なお、本発明では、ブレンド率の特性は、上述した図14もしくは図15に示す例に限定されるものではない。また、図中の符号1401及び1501は、カメラ110−1が撮影する画像のブレンド率を、1402及び1502は、カメラ110−2が撮影ずる画像のブレンド率をそれぞれ表す。また、図14では、θがθ_lとθ_hの範囲内でブレンドを徐々に変化させており、この範囲内では、各映像の画素値を加重平均していることになる。
更に、その他の変形例としては、検出した注目物体を自然な像として表示させるような合成映像を生成するが、しかしながら、例えば、上記図1のシステム図において、モニタ120上には、注目物体を映す画像のみを表示するのではなく、通常状態の映像と並べて表示するように構成しても良い。例えば、図4(B)における仮想投影面及び仮想視点を定常状態の条件とし、図6(B)における仮想投影面及び仮想視点を注目物体401の表示のための条件として設定し、変形合成部105において、定常状態の映像、及び、注目物体のための映像をそれぞれ生成し、これらが表示画面の中で分割して配置されるよう合成し、エンコード部105を経由してモニタ120に出力する。なお、これにより、運転者は、車両周囲を広範囲に確認すると同時に、歩行者や障害物のような注目物体を歪みの少ない映像として把握することが可能となる。
更に、別の変形例としては、車両の周囲に複数の物体が検出された場合に、検出された注目物体401以外の物体(物体Aと称す)についても歪みが少なくなるように仮想視点の位置を変化させてもよい。これは、注目物体401の歪みは仮想視点414と注目物体401とカメラ110とが成す角によって決定され、仮想視点414と注目物体401との距離は任意に設定することができるためである。具体的には、仮想視点414と注目物体401とを結ぶ直線を直線Aとし、物体Aと物体Aを撮像するカメラとを結ぶ直線を直線Bとして、直線Aと直線Bの最接近点付近かつ、直線A上に仮想視点414を設定することにより、注目物体401について歪みの少ない映像であり、物体Aについても比較的歪みが少ない映像を合成することができる。
また、3以上の物体が車両の周囲に検出された場合に、複数の物体から1つの物体を注目物体401を選択したものと同様の手法で全ての物体の優先度を決定し、1番目に優先度が高い注目物体401と2番目に優先度が高い物体Aの歪みが少なくなるように上記の方法で仮想視点414の位置を決定してもよい。
また、3以上の物体が車両の周囲に検出された場合に、注目物体401以外の物体とその物体を撮像するカメラとを結ぶ直線を物体毎に仮想し、これらの直線同士の距離が最も小さくなる位置付近かつ、直線A上に仮想視点414を設定してもよい。
上記のように仮想視点414の位置を設定することにより、注目物体401以外の物体についても歪みの少ない映像を合成することができ、使い勝手が向上する。
以上、本発明の一実施例について詳細に説明したが、本発明は、上述した実施例だけに限定されることなく、その他の実施例として、例えば、図16に示すように、複数のエンコード部1606と複数のモニタ1620とを有し、もって、各々のモニタに選択的に映像を表示させても良い。この場合、モニタの設置位置や表示特性に応じて表示すべき注目物体を切り替えて、変形合成部105にてそれぞれのモニタに合わせて、仮想投影面、仮想視点、重複領域の合成方法のうち少なくとも1つ以上を設定し、変形して合成した後、モニタ1620それぞれに独立して映像を出力する。これにより、例えば、ナビ画面では定常状態の映像を表示させ、HUD(Head Up Display)には運転手から見えない車両周囲の映像を表示させるなど、モニタの特徴に併せて適切な映像をより自然に表示することができる。
また、その他の実施例として、図17に示すように、更に、複数の照明1721と、当該複数の照明の明滅を制御する複数の明滅制御部1707を有し、注目物体の位置を、映像と照明の明滅の両方で通知することも可能である。一例として、車室内の前後左右などに、それぞれが独立して明滅させることの可能な照明を設置し、例えば、車両の左後方に危険物があった場合には、モニタ120には、車両の左後方を注目した映像を表示し、同時に、車両の左後方付近の照明を明滅させる。これにより、運転手は、より直感的に、危険物を把握することが可能となろう。
更に他の実施例としては、図18に示すように、複数のスピーカー1821と、当該複数のスピーカーの鳴動を制御する複数の鳴動制御部1807とを備え、もって、注目物体の位置を、映像と音の両方で通知する構成とすることもできる。一例として、車室内の前後左右などに独立して鳴動させることの可能なスピーカーを設置し、例えば、車両左後方に危険物があった場合には、モニタ120に車両の左後方の注目した映像を表示し、同時に、車両の左後方付近のスピーカーより警告音を出力する。これにより、運転手は、より直感的に危険物を把握することができる。
上述したように、本発明の実施形態は、車両に搭載するカメラの映像に対して映像変換処理を行って表示する映像表示システムであって、複数のカメラと、前記複数のカメラ、その他センサ、またはネットワークを介して取得した情報などにより前記車両周囲の注目物体を検出する検出部と、前記検出部によって検出された注目物体の位置情報に応じて決定される、仮想投影面の形状と、仮想視点と、合成方法とを用いて、前記複数のカメラで撮影した映像を変形及び合成する変形合成部と、前記変形合成部により変形及び合成された映像を表示する表示部とを備える。
また、本発明の一実施形態は、車両に搭載するカメラの映像に映像変換処理を行って映像変換処理後の映像を表示する映像表示システムであって、注目物体の位置情報に応じて決定される、仮想投影面の形状と、仮想視点と、合成方法とを用いて、前記変形合成部により前記複数のカメラで撮影した映像を変及び合成した映像を第1の合成映像とし、前記第1の合成映像とは別に、前記注目物体の位置情報が変わっても仮想視点が変化しない状態で前記複数のカメラで撮影した映像を変形及び合成した第2の合成映像を、前記表示部または前記表示部とは異なる第2の表示部に表示する。
また、本発明の一実施形態は、車両に搭載するカメラの映像に映像変換処理を行って映像変換処理後の映像を表示する映像表示システムであって、車室内に配置される1つ以上ある照明及び照明の明滅を制御する明滅制御部から構成され、前期検出部によって検出された注目物体の位置情報を照明の明滅する位置により通知する。
また、本発明の一実施形態は、車両に搭載するカメラの映像に映像変換処理を行って映像変換処理後の映像を表示する映像表示システムであって、車室内に配置される1つ以上あるスピーカー及びスピーカーの鳴動を制御する鳴動制御部から構成され、前期検出部によって検出された注目物体の位置情報をスピーカーの発音させる位置により通知する。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するためにシステム全体を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
100…映像合成装置、101…デコード部、102…CPU(Central Control Unit:中央演算処理装置)、103…メモリ、104…検出部、105…変形合成部、106…エンコード部、107…バス、110…撮像部、110−1〜110−4…カメラ、120…モニタ、300…自動車

Claims (10)

  1. 複数のカメラから入力された映像を変形及び合成して映像表示部に出力する映像合成装置であって、
    注目物体に関する位置情報を取得する注目物体情報取得部と、
    前記複数のカメラが撮影した複数の映像を変形及び合成する変形合成部とを備え、
    前記変形合成部は、前記複数のカメラで撮影された各映像が仮想投影面に投影された仮想投影状態を、前記注目物体に関する位置情報に応じて設定した仮想視点から見た映像に変形して合成し、かつ
    前記変形合成部は、前記仮想視点と前記注目物体とを結ぶ直線と、前記複数のカメラのうち前記注目物体を撮像したカメラと前記注目物体とを結ぶ直線とが成す角が所定の角度よりも小さくなる位置に前記仮想視点を設定することを特徴とする映像合成装置。
  2. 請求項2に記載した映像合成装置において、
    前記所定の角度は、前記注目物体を撮像したカメラと前記注目物体との距離と、前記注目物体が前記仮想投影面に投影される投影位置と前記注目物体の位置とのズレ量とにより前記合成画像中の前記注目物体の映像の歪みが最小となるよう決定されることを特徴とする映像合成装置。
  3. 請求項2に記載した映像合成装置において、
    前記仮想投影面は、地面と同じ高さで地面に平行な平面と前記注目物体より遠い位置に配置された球面とで構成され、
    前記変形合成部は、前記注目物体を撮影したカメラから見て前記注目物体の位置から所定の距離以内に前記仮想投影面の前記球面が配置されるように、前記球面の中心位置と前記球面の半径のうち少なくとも1つを設定することを特徴とする映像合成装置。
  4. 請求項2に記載した映像合成装置において、
    前記変形合成部は、前記注目物体に関する位置情報に応じて決定したブレンド位置で前記複数の映像を切り替えて前記仮想投影面に投影した仮想投影状態を前記仮想視点から見た映像に変形して得られる映像をブレンドすることで合成することを特徴とする映像合成装置。
  5. 請求項6に記載した映像合成装置において、
    前記変形合成部は、前記注目物体が隣り合う2つのカメラで重複して撮影される領域に存在する場合に、前記注目物体とブレンド位置が重ならないように前記ブレンド位置を設定して前記2つのカメラで撮影される映像を変形して得られる映像をブレンドすることで合成することを特徴とする映像合成装置。
  6. 請求項2に記載した映像合成装置において、
    前記注目物体は、前記映像合成装置が備えられる車両の速度に係る情報、操舵角に係る情報、もしくは、進行方向に係る情報により推定される、前記車両と衝突の可能性のある方向に存在する物体であることを特徴とする映像合成装置。
  7. 複数のカメラから入力された映像を変形及び合成して映像表示部に出力する映像合成方法であって、
    注目物体に関する位置情報を取得する注目物体情報取得ステップと、
    前記複数のカメラが撮影した複数の映像を変形及び合成する変形合成ステップと、を有し、
    前記変形合成ステップにおいて、前記複数のカメラで撮影された各映像が仮想投影面に投影された仮想投影状態を、前記注目物体に関する位置情報に応じて設定した仮想視点から見た映像に変形して合成し、かつ
    前記変形合成ステップにおいて、前記仮想視点と前記注目物体とを結ぶ直線と、前記複数のカメラのうち前記注目物体を撮像したカメラと前記注目物体とを結ぶ直線とが成す角が所定の角度よりも小さくなる位置に前記仮想視点を設定することを特徴とする映像合成方法。
  8. 請求項10に記載した映像合成方法において、
    前記所定の角度は、前記注目物体を撮像したカメラと前記注目物体との距離と、前記注目物体が前記仮想投影面に投影される投影位置と前記注目物体の位置とのズレ量とにより前記合成画像中の前記注目物体の映像の歪みが最小となるよう決定されることを特徴とする映像合成方法。
  9. 請求項10に記載した映像合成方法において、
    前記仮想投影面は、地面と同じ高さで地面に平行な平面と前記注目物体より遠い位置に配置された球面とで構成され、
    前記変形合成ステップにおいて、前記注目物体を撮影したカメラから見て前記注目物体の位置から所定の距離以内に前記仮想投影面の前記球面が配置されるように、前記球面の中心位置と前記球面の半径のうち少なくとも1つを設定することを特徴とする映像合成方法。
  10. 請求項10に記載した映像合成方法において、
    前記変形合成ステップにおいて、前記注目物体に関する位置情報に応じて決定したブレンド位置で前記複数の映像を切り替えて前記仮想投影面に投影した仮想投影状態を前記仮想視点から見た映像に変形して得られる映像をブレンドすることで合成することを特徴とする映像合成方法。
JP2016529328A 2014-06-20 2015-06-15 映像合成システムとそのための映像合成装置及び映像合成方法 Active JP6311020B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014127565 2014-06-20
JP2014127565 2014-06-20
PCT/JP2015/067169 WO2015194501A1 (ja) 2014-06-20 2015-06-15 映像合成システムとそのための映像合成装置及び映像合成方法

Publications (2)

Publication Number Publication Date
JPWO2015194501A1 JPWO2015194501A1 (ja) 2017-04-27
JP6311020B2 true JP6311020B2 (ja) 2018-04-11

Family

ID=54935487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016529328A Active JP6311020B2 (ja) 2014-06-20 2015-06-15 映像合成システムとそのための映像合成装置及び映像合成方法

Country Status (5)

Country Link
US (1) US10449900B2 (ja)
EP (1) EP3160138B1 (ja)
JP (1) JP6311020B2 (ja)
CN (1) CN106464847B (ja)
WO (1) WO2015194501A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
DE112015002483T5 (de) * 2014-05-28 2017-02-23 Kyocera Corporation Objektdetektionsvorrichtung und Fahrzeug, das mit einer Objektdetektionsvorrichtung versehen ist
JP6723820B2 (ja) * 2016-05-18 2020-07-15 株式会社デンソーテン 画像生成装置、画像表示システムおよび画像表示方法
JP6699370B2 (ja) * 2016-06-06 2020-05-27 アイシン精機株式会社 車両用画像処理装置
US10721456B2 (en) * 2016-06-08 2020-07-21 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
WO2017212679A1 (ja) * 2016-06-08 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2018020751A1 (ja) * 2016-07-26 2018-02-01 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6856999B2 (ja) * 2016-09-23 2021-04-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6501805B2 (ja) * 2017-01-04 2019-04-17 株式会社デンソーテン 画像処理装置および画像処理方法
KR102551099B1 (ko) * 2017-01-13 2023-07-05 엘지이노텍 주식회사 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
DE102017201002A1 (de) * 2017-01-23 2018-07-26 Robert Bosch Gmbh Verfahren und Vorrichtung zum Darstellen einer Umgebung eines Fahrzeuges
CN108501949B (zh) * 2017-02-27 2022-11-22 松下电器(美国)知识产权公司 信息处理装置以及记录介质
JP6730613B2 (ja) 2017-02-28 2020-07-29 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
CN110520904B (zh) * 2017-03-29 2023-07-25 乐天集团股份有限公司 显示控制装置、显示控制方法及程序
US10836312B2 (en) * 2017-06-19 2020-11-17 Rom Acquisition Corporation Dynamic 360 degree view accident avoidance system
JP2019012915A (ja) * 2017-06-30 2019-01-24 クラリオン株式会社 画像処理装置、画像変換方法
JP7039879B2 (ja) * 2017-08-03 2022-03-23 株式会社アイシン 表示制御装置
JP6958163B2 (ja) * 2017-09-20 2021-11-02 株式会社アイシン 表示制御装置
JP7080613B2 (ja) * 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2019080051A1 (en) * 2017-10-26 2019-05-02 Harman International Industries, Incorporated PERIPHERAL VISION SYSTEM AND ASSOCIATED METHOD
JP6479936B1 (ja) * 2017-11-09 2019-03-06 東芝エレベータ株式会社 エレベータ制御システム
CN109935107B (zh) * 2017-12-18 2023-07-14 姜鹏飞 一种提升交通通视范围的方法及装置
JP7132730B2 (ja) * 2018-03-14 2022-09-07 キヤノン株式会社 情報処理装置および情報処理方法
JP7024539B2 (ja) * 2018-03-22 2022-02-24 カシオ計算機株式会社 画像編集装置、画像編集方法、及びプログラム
JP7207913B2 (ja) * 2018-09-07 2023-01-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2020144798A1 (ja) * 2019-01-10 2020-07-16 三菱電機株式会社 情報表示制御装置及び方法、並びにプログラム及び記録媒体
PH12019050076A1 (en) * 2019-05-06 2020-12-02 Samsung Electronics Co Ltd Enhancing device geolocation using 3d map data
JP2020183166A (ja) * 2019-05-07 2020-11-12 アルパイン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN112116530B (zh) * 2019-06-19 2023-08-18 杭州海康威视数字技术股份有限公司 鱼眼图像畸变矫正方法、装置和虚拟显示系统
CN110266926B (zh) * 2019-06-28 2021-08-17 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端以及存储介质
JP7380435B2 (ja) * 2020-06-10 2023-11-15 株式会社Jvcケンウッド 映像処理装置、及び映像処理システム
CN112199016B (zh) * 2020-09-30 2023-02-21 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020033816A (ko) * 2000-07-19 2002-05-07 마츠시타 덴끼 산교 가부시키가이샤 감시시스템
JP3960092B2 (ja) * 2001-07-12 2007-08-15 日産自動車株式会社 車両用画像処理装置
JP4639753B2 (ja) * 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
JP4812510B2 (ja) * 2006-05-17 2011-11-09 アルパイン株式会社 車両周辺画像生成装置および撮像装置の測光調整方法
JP5044204B2 (ja) * 2006-12-18 2012-10-10 クラリオン株式会社 運転支援装置
US9126533B2 (en) * 2007-02-23 2015-09-08 Aisin Aw Co., Ltd. Driving support method and driving support device
JP5292874B2 (ja) 2007-12-17 2013-09-18 富士通株式会社 車両用画像処理装置、車両用画像処理プログラム、車両用画像処理方法
JP5369465B2 (ja) * 2008-03-25 2013-12-18 富士通株式会社 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
US8334893B2 (en) 2008-11-07 2012-12-18 Honeywell International Inc. Method and apparatus for combining range information with an optical image
JP5182042B2 (ja) * 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP5503660B2 (ja) * 2009-09-24 2014-05-28 パナソニック株式会社 運転支援表示装置
JP5716389B2 (ja) * 2010-12-24 2015-05-13 日産自動車株式会社 車両用表示装置
JP5648746B2 (ja) * 2011-07-12 2015-01-07 日産自動車株式会社 車両用監視装置、車両用監視システム、端末装置及び車両の監視方法
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
JP6310652B2 (ja) * 2013-07-03 2018-04-11 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法

Also Published As

Publication number Publication date
US10449900B2 (en) 2019-10-22
CN106464847A (zh) 2017-02-22
JPWO2015194501A1 (ja) 2017-04-27
EP3160138A1 (en) 2017-04-26
US20170096106A1 (en) 2017-04-06
WO2015194501A1 (ja) 2015-12-23
EP3160138A4 (en) 2018-03-14
EP3160138B1 (en) 2021-03-17
CN106464847B (zh) 2019-06-25

Similar Documents

Publication Publication Date Title
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
JP6310652B2 (ja) 映像表示システム、映像合成装置及び映像合成方法
JP7010221B2 (ja) 画像生成装置、画像生成方法、及び、プログラム
JP5444338B2 (ja) 車両周囲監視装置
JP5208203B2 (ja) 死角表示装置
CN107465890B (zh) 车辆的图像处理装置
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP5369465B2 (ja) 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
US8817079B2 (en) Image processing apparatus and computer-readable recording medium
JP5911775B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JP2004021307A (ja) 運転支援装置
JP5959264B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム
JP2011004201A (ja) 周辺表示装置
JPWO2018221209A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR101278654B1 (ko) 차량의 주변 영상 디스플레이 장치 및 방법
JP2011024079A (ja) 周辺表示装置
KR20130071842A (ko) 차량의 주변 정보 제공 장치 및 방법
JP6734136B2 (ja) 画像処理装置
CN110248845B (zh) 用于显示车辆的周围环境的方法和设备
JP4310987B2 (ja) 移動体周辺監視装置
JP6007773B2 (ja) 画像データ変換装置並びにナビゲーションシステムおよびカメラ装置並びに車両
JP7492802B2 (ja) 表示制御装置、車両及び表示制御方法
JP2016131362A (ja) 表示制御装置、投影装置、表示制御方法、表示制御プログラム及び記録媒体
JP2005223568A (ja) 画像合成装置

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20161212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6311020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150