JP2019180016A - 画像合成装置、画像合成方法及びプログラム - Google Patents

画像合成装置、画像合成方法及びプログラム Download PDF

Info

Publication number
JP2019180016A
JP2019180016A JP2018068050A JP2018068050A JP2019180016A JP 2019180016 A JP2019180016 A JP 2019180016A JP 2018068050 A JP2018068050 A JP 2018068050A JP 2018068050 A JP2018068050 A JP 2018068050A JP 2019180016 A JP2019180016 A JP 2019180016A
Authority
JP
Japan
Prior art keywords
image
camera
camera parameter
feature point
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018068050A
Other languages
English (en)
Inventor
直史 吉田
Naofumi Yoshida
直史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018068050A priority Critical patent/JP2019180016A/ja
Priority to DE102019107835.0A priority patent/DE102019107835A1/de
Publication of JP2019180016A publication Critical patent/JP2019180016A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】カメラの位置及び向きのずれに容易に対応する。【解決手段】画像合成装置10は、カメラ12及びカメラ14の各々で得られ、同一の領域が撮影された重複領域を有する画像51及び画像53を取得する取得部21と、カメラ12とカメラ14との位置及び向きの相対関係を示すカメラパラメータ71を用いて、1画像51と画像53とを合成する合成部23と、画像51と画像53とに対して重複領域における特徴点マッチングを行うマッチング部25と、特徴点マッチングの結果を用いて、画像51と画像53との位置及び向きの相対関係を示すカメラパラメータ72を算出するカメラパラメータ算出部26と、カメラパラメータ72を用いて、カメラ12とカメラ14との実際の位置及び向きの相対関係と、カメラパラメータ71との差を低減する調整処理を行う調整部27とを備える。【選択図】図3

Description

本開示は、複数の画像を合成する画像合成装置、画像合成方法及びプログラムに関する。
車両が備える複数のカメラによって車両の周辺が撮影された複数の画像を合成し、得られた画像を表示する装置がある(例えば、特許文献1及び特許文献2を参照)。
特開2016−70814号公報 特許第3968375号公報
このような画像合成装置では、複数のカメラの位置及び向き(向き)にずれが生じた場合には、得られる合成画像にもずれが生じてしまう。
そこで、本開示は、カメラの位置及び向きのずれに容易に対応できる画像合成装置又は画像合成方法を提供することを目的とする。
本開示の一態様に係る画像合成装置は、第1カメラ及び第2カメラの各々で得られ、同一の領域が撮影された重複領域を有する第1画像及び第2画像を取得する取得部と、前記第1カメラと前記第2カメラとの位置及び向きの相対関係を示す第1カメラパラメータを用いて、前記第1画像と前記第2画像とを合成する合成部と、前記第1画像と前記第2画像とに対して前記重複領域における特徴点マッチングを行うマッチング部と、前記特徴点マッチングの結果を用いて、前記第1画像と前記第2画像との位置及び向きの相対関係を示す第2カメラパラメータを算出するカメラパラメータ算出部と、前記第2カメラパラメータを用いて、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係と、前記第1カメラパラメータとの差を低減する調整処理を行う調整部とを備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示は、カメラの位置及び向きのずれに容易に対応できる画像合成装置又は画像合成方法を提供できる。
図1は、実施の形態に係る車両の一例を示す模式図である。 図2は、実施の形態に係る合成前の画像と合成後の画像を示す図である。 図3は、実施の形態に係る画像合成装置のブロック図である。 図4は、実施の形態に係る画像合成処理のフローチャートである。 図5は、実施の形態に係るカメラで得られた画像の一例を示す図である。 図6は、実施の形態に係るマッチング処理を説明するための図である。 図7は、実施の形態に係る誤差評価関数を説明するための図である。 図8は、実施の形態に係る誤差評価関数を説明するための図である。 図9は、実施の形態に係る画像合成処理を説明するための図である。 図10は、実施の形態の変形例1に係る画像合成装置のブロック図である。 図11は、実施の形態の変形例1に係るキャリブレーション処理のフローチャートである。 図12は、実施の形態の変形例2に係る画像合成装置のブロック図である。 図13は、実施の形態の変形例2に係る画像合成処理のフローチャートである。
本開示の一態様に係る画像合成装置は、第1カメラ及び第2カメラの各々で得られ、同一の領域が撮影された重複領域を有する第1画像及び第2画像を取得する取得部と、前記第1カメラと前記第2カメラとの位置及び向きの相対関係を示す第1カメラパラメータを用いて、前記第1画像と前記第2画像とを合成する合成部と、前記第1画像と前記第2画像とに対して前記重複領域における特徴点マッチングを行うマッチング部と、前記特徴点マッチングの結果を用いて、前記第1画像と前記第2画像との位置及び向きの相対関係を示す第2カメラパラメータを算出するカメラパラメータ算出部と、前記第2カメラパラメータを用いて、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係と、前記第1カメラパラメータとの差を低減する調整処理を行う調整部とを備える。
これによれば、当該画像合成装置は、重複領域に対する特徴点マッチングにより第2カメラパラメータを算出し、当該第2カメラパラメータを用いて、カメラの実際の位置及び向きと、合成に用いる第1カメラパラメータとののずれを低減できる。このように、当該画像合成装置は、カメラの位置及び向きのずれに容易に対応できる。
例えば、前記カメラパラメータ算出部は、前記第1画像及び前記第2画像とカメラパラメータとから、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係と、前記カメラパラメータとのずれを示す評価値を算出するための評価関数を用いて、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係とカメラパラメータとのずれが最小となるカメラパラメータを前記第2カメラパラメータとして算出してもよい。
例えば、前記評価値は、前記第1画像及び前記第2画像における、前記特徴点マッチングの結果で示される特徴点対を三次元空間に投影した場合における、前記三次元空間における前記特徴点対の距離を示してもよい。
例えば、前記調整部は、前記第1カメラパラメータを、前記第2カメラパラメータを用いて更新し、前記合成部は、更新された前記第1カメラパラメータを用いて前記第1画像と前記第2画像とを合成してもよい。
例えば、前記調整部は、前記第1カメラパラメータと前記第2カメラパラメータとの差に基づき、前記第1カメラと前記第2カメラとの位置及び向きの相対関係が前記第1カメラパラメータに近づくように、前記第1カメラ及び前記第2カメラの少なくとも一方の位置及び向きを調整し、前記合成部は、調整された前記第1カメラ及び前記第2カメラで得られた前記第1画像及び前記第2画像を、前記第1カメラパラメータを用いて合成してもよい。
例えば、前記取得部は、複数の時刻における前記第1画像及び前記第2画像を取得し、前記マッチング部は、時刻ごとに、前記第1画像及び前記第2画像に対して前記特徴点マッチングを行い、前記カメラパラメータ算出部は、複数の時刻の前記特徴点マッチングの結果を用いて前記第2カメラパラメータを算出し、前記調整部は、算出された前記第2カメラパラメータを用いて前記調整処理を行ってもよい。
これによれば、当該画像合成装置は、複数時刻のマッチング特徴点対を用いることでカメラパラメータの精度を向上できる。
例えば、前記複数の時刻の特徴点マッチングの結果うち、精度が基準値より高い特徴点マッチングの結果を記憶するマッチング情報記憶部を備えてもよい。
これによれば、当該画像合成装置は、精度の高いマッチング特徴点対を用いることでカメラパラメータの精度を向上できる。
例えば、前記取得部は、複数の時刻における前記第1画像及び前記第2画像を取得し、前記マッチング部は、時刻ごとに、前記第1画像及び前記第2画像に対して前記特徴点マッチングを行い、前記カメラパラメータ算出部は、時刻ごとに、当該時刻の前記特徴点マッチングの結果を用いて前記第2カメラパラメータを算出し、前記調整部は、複数の時刻に対して算出された複数の前記第2カメラパラメータを用いて前記調整処理を行ってもよい。
これによれば、当該画像合成装置は、複数時刻の画像を用いることでカメラパラメータの精度を向上できる。
例えば、前記調整部は、前記複数の時刻に対して算出された複数の第2カメラパラメータのうち、精度が基準値より高い第2カメラパラメータを用いて前記調整処理を行ってもよい。
これによれば、当該画像合成装置は、精度の高いマッチング結果を用いることでカメラパラメータの精度を向上できる。
本開示の一態様に係る画像合成方法、第1カメラ及び第2カメラの各々で得られ、同一の領域が撮影された重複領域を有する第1画像及び第2画像を取得する取得ステップと、前記第1カメラと前記第2カメラとの位置及び向きの相対関係を示す第1カメラパラメータを用いて、前記第1画像と前記第2画像とを合成する合成ステップと、前記第1画像と前記第2画像とに対して前記重複領域における特徴点マッチングを行うマッチングステップと、前記特徴点マッチングの結果を用いて、前記第1画像と前記第2画像との位置及び向きの相対関係を示す第2カメラパラメータを算出するカメラパラメータ算出ステップと、前記第2カメラパラメータを用いて、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係と、前記第1カメラパラメータとの差を低減する調整処理を行う調整ステップとを含む。
これによれば、当該画像合成方法は、重複領域に対する特徴点マッチングにより第2カメラパラメータを算出し、当該第2カメラパラメータを用いて、カメラの実際の位置及び向きと、合成に用いる第1カメラパラメータとののずれを低減できる。このように、当該画像合成方法は、カメラの位置及び向きのずれに容易に対応できる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
(実施の形態)
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
図1は、本実施の形態に係る車両1の一例を示す模式図である。図2は、本実施の形態に係る画像合成装置10による合成前の画像と合成後の画像とを示す説明図である。
図1に示されるように、車両1は、画像合成装置10と、カメラ12、13及び14と、電子ミラー40とを備える。なお、以降の説明において特に断らない場合には、前後左右の方向は、車両1の進行方向を前方とした場合の方向とし、これは車両1の運転手にとっての前後左右の方向ともいえる。
カメラ12は、車両1の左側ドア付近に固定され、車両1の左側後方を撮影するカメラである。カメラ12は、車両1の左側後方を撮影して画像51を生成する。カメラ12が生成した画像51を左側後方画像ともいう。
カメラ13は、車両1の右側ドア付近に固定され、車両1の右側後方を撮影するカメラである。カメラ13は、車両1の右側後方を撮影して画像52を生成する。カメラ13が生成した画像52を右側後方画像ともいう。
カメラ14は、車両1のリアバンパー又はトランクフード付近に固定され、車両1の中央後方を撮影するカメラである。カメラ14は、車両1の中央後方を撮影して画像53を生成する。カメラ14が生成した画像53を中央後方画像ともいう。
カメラ12及び14の撮影範囲の一部が重なっており、カメラ13及び14の撮影範囲の一部が重なっている。そのため、左側後方画像と中央後方画像との一部には共通の対象が映っている。また、右側後方画像と中央後方画像との一部には共通の対象が映っている。
カメラ12、13及び14のそれぞれは、互いに異なる撮影条件の下で撮像することで画像を生成する。具体的には、カメラ12、13及び14のそれぞれは、互いに異なる位置に配置され、また、互いに異なる方向を向いて配置されており、例えば60fpsで画像を取得する。また、カメラ12、13及び14のそれぞれの光学系の光学特性は異なっていてもよい。
電子ミラー40は、車両1の後方が映った画像である後方画像50を表示する画像表示装置である。電子ミラー40は、画像合成装置10が出力する映像信号に基づいて画像を表示する。電子ミラー40は、車両1の後方を、光の反射を利用して映す従来のルームミラーの代用として用いられ得る。
画像合成装置10は、カメラ12、13及び14それぞれが生成した画像51、52及び53を合成して電子ミラー40が表示する画像50を生成する装置である。図2は、画像50〜53の一例を示す図である。
以降において、画像合成装置10の機能及び処理を説明する。なお、以下で説明する本実施の形態に係る手法は、少なくとも2つの画像を合成する場合に適用できる。以下では、画像51と画像53とを合成する構成及び処理について説明する。画像52と画像53との合成に対しても、画像51と画像53との合成と同様の処理を行うことで、3つの画像51〜53から画像50を生成できる。
図3は、本実施の形態に係る画像合成装置10の機能構成を示すブロック図である。図3に示されるように、画像合成装置10は、取得部21と、カメラパラメータ保持部22と、合成部23と、表示制御部24と、マッチング部25と、カメラパラメータ算出部26と、調整部27とを備える。上記の各構成要素は、プロセッサがメモリ等を用いて所定のプログラムを実行することで実現されてもよいし、専用ハードウェアで実現されてもよい。
取得部21は、カメラ12及び14で得られた画像51及び画像53を取得する。画像51及び画像53は、同一の領域が撮影された重複領域を有する。
カメラパラメータ保持部22は、カメラパラメータ71(第1カメラパラメータ)を保持する。カメラパラメータ71(キャリブレーション情報)は、カメラ12とカメラ14との位置及び向き(姿勢)の相対関係を示す。なお、カメラパラメータ71は、カメラ12の位置及び向きと、カメラ14の位置及び向きとをそれぞれ示してもよいし、これらの相対関係を示してもよい。また、このカメラパラメータ71は、初期状態において予め設定されている。
合成部23は、カメラパラメータ71を用いて、画像51と画像53とを合成することで合成画像50を生成する。具体的には、合成部23は、カメラパラメータ71に基づき、画像51及び画像53の少なくとも一方に、回転又は変形処理を行い、処理後の2つの画像を重複領域が重なるようにつなぎ合わすことで合成画像50を生成する。なお、合成部23は、つなぎ合わせの境界付近において、2つの画像の画素値の加重平均をとるなどの処理を施してもよい。
表示制御部24は、合成画像50を表示装置である電子ミラー40に表示させる。
マッチング部25は、画像51と画像53とに対して重複領域における特徴点マッチングを行う。具体的には、マッチング部25は、画像51と画像53との重複領域に含まれる複数の特徴点を抽出する。特徴点の抽出処理は、画像から、当該画像に含まれる画素又は画素の集合であって、その周囲と異なる色又は形状等を有する画素又は画素の集合を発見する処理などにより実現され、公知の画像認識技術によりなされ得る。
次に、マッチング部25は、同一の物が撮像された、画像51内の特徴点と、画像53内の特徴点とを特徴点対に決定する。具体的には、マッチング部25は、画像51内の特徴点と、画像53内の特徴点との特徴量(色又は形状等)を比較し、類似する特徴量を有する各画像の特徴点を特徴点対に決定する。
カメラパラメータ算出部26は、マッチング部25による特徴点マッチングの結果を用いて、画像51と画像53との位置及び向きの相対関係を示すカメラパラメータ72(第2カメラパラメータ)を算出する。
調整部27は、算出されたカメラパラメータ72を用いて、カメラ12とカメラ14との実際の位置及び向きの相対関係と、カメラパラメータ保持部22に保持されているカメラパラメータ71との差を低減する調整処理を行う。具体的には、調整部27は、カメラパラメータ71を、カメラパラメータ72を用いて更新する。
図4は、本実施の形態に係る画像合成装置10の動作の流れを示すフローチャートである。例えば、1フレーム毎に、図4に示す処理が繰り返し行われる。
まず、取得部21は、画像51及び画像53を取得する(S11)。図5は、画像51及び画像53の一例を示す図である。図5に示すように画像51及び画像53は、同一の領域が撮影された重複領域61及び62を有する。
なお、取得部21は、取得した画像51及び53の、レンズ歪みを補正する補正処理、及び、サイズ並びに角度の調整等を行い、処理後の画像51及び53を合成部23及びマッチング部25に出力してもよい。
キャリブレーションを行う場合(S12でYes)、マッチング部25は、画像51と画像53とに対して重複領域における特徴点マッチングを行う(S13)。なお、キャリブレーションは、ユーザの操作等の任意のトリガに基づき行われてもよいし、所定の周期(時間間隔)で行われてもよし、毎フレーム行われてもよい。
図6は、マッチング処理を説明するための図である。図6に示すように、マッチング部25は、画像51内の重複領域61に含まれる複数の特徴点63と、画像53内の重複領域62に含まれる複数の特徴点64とを抽出する。次に、マッチング部25は、類似する特徴を有する特徴点63と特徴点64との組を特徴点対65に決定する。
次に、カメラパラメータ算出部26は、マッチング部25による特徴点マッチングの結果を用いてカメラパラメータ72を算出する(S14)。具体的には、カメラパラメータ算出部26は、画像51及び画像53とカメラパラメータとから、カメラ12とカメラ14との実際の位置及び向きの相対関係と、カメラパラメータとのずれを示す評価値を算出するための評価関数を用いて、カメラ12とカメラ14との実際の位置及び向きの相対関係とカメラパラメータとのずれが最小となるカメラパラメータをカメラパラメータ72として算出する。具体的には、評価値は、画像51及び画像53における、特徴点マッチングの結果で示される特徴点対を三次元空間に投影した場合における、三次元空間における特徴点対の距離(ずれ)を示す。
以下、この処理の詳細を説明する。カメラパラメータ算出部26は、2つの画像間の特徴点対から、カメラの実際の位置及び向きの相対関係と、カメラパラメータとのずれの度合いを示す誤差(評価値)を求めるための誤差評価関数を用いる。また、カメラパラメータ算出部26は、複数の特徴点対に対して算出した誤差の平均を、画像間の全体の「誤差」として用いる。
図7及び図8は、カメラパラメータを用いて画像内の特徴点対を三次元空間に投影した場合の様子を示す図である。図7は、カメラパラメータとカメラの実際の位置及び向きが一致している場合を示し、図8は、カメラパラメータとカメラの実際の位置及び向きとにずれがある場合を示す。
図7に示すように、カメラパラメータとカメラの実際の位置及び向きが一致している場合、カメラ位置C0と特徴点S0とを結ぶ直線と、カメラ位置C1と特徴点S1とを結ぶ直線とは、三次元空間上の点Fにて交差する。ここで、カメラ位置C0は、カメラ12の位置であり、特徴点S0は、画像51内の特徴点である。カメラ位置C1は、カメラ14の位置であり、特徴点S1は、画像53内の特徴点である。また、特徴点S0と特徴点S1は、特徴点対を構成する。
一方、図8に示すように、カメラパラメータとカメラの実際の位置及び向きとがずれている場合、カメラ位置C0と特徴点S0とを結ぶ直線と、カメラ位置C1と特徴点S1とを結ぶ直線とは、三次元空間上で交差せず、ねじれた位置関係になる。
この時、カメラパラメータ算出部26は、この2つの直線が最も近くなる、カメラ位置C0と特徴点S0とを結ぶ直線上の点F0と、カメラ位置C1と特徴点S1とを結ぶ直線上の点F1とを算出する。カメラパラメータとカメラの実際の位置及び向きとのずれがい大きいほど、線分OF0と、線分OF1とのなす角θは大きくなる。なお、線分OF0は、原点Oと点F0とを結ぶ線分であり、線分OF1は、原点Oと点F1とを結ぶ線分である。また、カメラパラメータとカメラの実際の位置及び向きが一致している場合、θは0となる。よって、この角θの性質を用いて、誤差評価関数として、下記(式1)を用いることができる。
(1−(|OF0|・|OF1|・cosθ)/(max(|OF0|,|OF1|)^2))×α ・・・(式1)
誤差評価関数で示される値が小さいほど、誤差が小さいことを意味する。また、αは、係数であり、誤差評価関数で示される値が小さくなりすぎないようにするためのものである。ここで、max(|OF0|,|OF1|)は線分OF0と線分OF1の長い方の長さを表す。(|OF0|・|OF1|・cosθ)/(max(|OF0|,|OF1|)^2)は、線分OF0と線分OF1の長い方の長さが1になるように両方の線分の長さをスケーリングして、内積を求めたものになる。
まず、カメラパラメータ算出部26は、初期のカメラパラメータ(カメラ行列)、及び誤差評価関数を用いて初期状態の誤差を算出する。ここで、初期のカメラパラメータとは、例えば、カメラパラメータ保持部22に保持されているカメラパラメータ71である。
次に、カメラパラメータ算出部26は、初期のカメラパラメータの位置及び向きを少しだけ変更し、変更後のカメラパラメータ、及び誤差評価関数を用いて誤差を算出する。例えば、初期のカメラパラメータに対して、以下の12種類の変更を行う。
[0]x軸周りにsmall_angle回転
[1]x軸周りに−small_angle回転
[2]y軸周りにsmall_angle回転
[3]y軸周りに−small_angle回転
[4]z軸周りにsmall_angle回転
[5]z軸周りに−small_angle回転
[6]x軸方向にsmall_translate移動
[7]x軸方向に−small_translate移動
[8]y軸方向にsmall_translate移動
[9]y軸方向に−small_translate移動
[10]z軸方向にsmall_translate移動
[11]z軸方向に−small_translate移動
ここで、small_angleは軸に対する回転角度を示し、small_translateは位置の移動量を示す。つまり、12種類の変更のそれぞれに対する誤差が算出される。
次に、カメラパラメータ算出部26は、誤差が最も少ない変更後のカメラパラメータを基準として、再度、上記の12種類の変更を行い、変更後のカメラパラメータのうち誤差が最も少ないカメラパラメータを選択する。カメラパラメータ算出部26は、誤差が予め定められた閾値より小さくなるまで上記処理を繰り返し、誤差が予め定められた閾値より小さくなった時のカメラパラメータをカメラパラメータ72として出力する。
なお、カメラパラメータ算出部26は、変更後の全てのパラメータの誤差が、変更前のカメラパラメータより誤差より小さくならなかった場合、small_angle及びsmall_translateの値をそれまでの半分の値にして処理を繰り返してもよい。
以上の処理により、カメラパラメータ算出部26は、図9に示すように、画像51と画像53とをずれなく合成できるカメラパラメータ72を算出できる。
次に、調整部27は、カメラパラメータ保持部22に保持されるカメラパラメータ71をカメラパラメータ72に更新する(S15)。
次に、合成部23は、更新されたカメラパラメータ71を用いて、画像51と画像53とを合成することで合成画像50を生成する(S16)。表示制御部24は、生成された合成画像50を電子ミラー40に表示させる(S17)。
また、キャリブレーションが行われない場合(S12でNo)には、ステップS13〜S15の処理はスキップされ、合成画像50の生成(S16)及び表示(S17)が行われる。
以上のように、画像合成装置10は、例えば、車両1の走行中に得られた画像間の重複領域の自然特徴点のマッチング情報を用いて、カメラ間のずれを繰り返し処理で少しずつ補正して行くことができる。これにより、画像合成装置10は、合成に用いるカメラパラメータ71を正しい値に自動的にキャリブレーションできるので、ずれのない合成画像を生成することができる。
これにより、例えば、複数のカメラの位置又は方向がずれてしまった場合、専用のキャリブレータを用いて再キャリブレーションを行うために、キャリブレータを持つ工場等へ車を回送する必要がない。
また、画像合成装置10は、複数の画像の重複領域のマッチング情報を使用することで、煩雑な画像処理を必要としない。よって、演算コストを低減できる。
以下、画像合成装置10の変形例について説明する。上記実施の形態では、画像合成装置10は、ある時刻の画像のマッチング特徴点対を用いてカメラパラメータ72を算出したが、本変形例では、画像合成装置10Aは、過去を含む複数時刻のマッチング特徴点対から、カメラパラメータ72を算出する。
図10は、本実施の形態の変形例1に係る画像合成装置10Aの構成を示すブロック図である。図10に示す画像合成装置10Aは、図3に示す画像合成装置10の構成に加え、マッチング情報記憶部28を備える。また、カメラパラメータ算出部26Aの機能がカメラパラメータ算出部26と異なる。
取得部21は、複数の時刻における画像51及び53を取得する。マッチング部25は、時刻ごとに、画像51及び画像53に対して特徴点マッチングを行う。マッチング情報記憶部28は、マッチング部25で算出された、複数時刻の特徴点マッチングの結果である複数のマッチング特徴点対を記憶する。カメラパラメータ算出部26Aは、複数時刻のマッチング特徴点対を用いてカメラパラメータ72を算出する。
具体的には、マッチング情報記憶部28は、複数の時刻の特徴点マッチングの結果うち、精度が基準値より高い特徴点マッチングの結果を記憶する。より具体的には、マッチング情報記憶部28は、複数時刻のマッチング特徴点対を用いて算出されたカメラパラメータ72によって三次元空間に投影された際の誤差が小さい特徴点対のみを記憶する。
調整部27は、算出されたカメラパラメータ72を用いて調整処理を行う。
図11は、本変形例に係る画像合成装置10Aによるキャリブレーション処理の流れを示すフローチャートである。まず、取得部21は、ある時刻の画像51及び画像53を取得する(S21)。次に、マッチング部25は、取得された画像51及び画像53に対して特徴点マッチングを行う(S22)。次に、カメラパラメータ算出部26Aは、複数時刻のマッチング特徴点対からカメラパラメータ72を算出する(S23)。
なお、ステップS22及びS23の詳細は、図3に示すステップS13及びS14と同様である。また、取得されたマッチング特徴点対の中で、カメラパラメータ72によって三次元空間に投影された際の誤差が小さいものがマッチング情報記憶部28に記憶される(S24)。これにより、複数時刻に取得したマッチング特徴点対の中で、精度のよいものがマッチング情報記憶部28に記憶される。
次に、調整部27は、カメラパラメータ保持部22に保持されるカメラパラメータ71を、カメラパラメータ72に更新する(S25)。
以上により、画像合成装置10Aは、複数時刻のマッチング特徴点対を用いることでカメラパラメータの精度を向上できる。また、精度の高いマッチング特徴点対を用いることでカメラパラメータの精度を向上できる。
次に、変形例2に係る画像合成装置10Bについて説明する。画像合成装置10Bは、合成に用いられるカメラパラメータ71を更新する代わりに、カメラの位置及び姿勢をカメラパラメータ71に一致するように調整する。
図12は、本実施の形態の変形例2に係る画像合成装置10Bの構成を示すブロック図である。図12に示す画像合成装置10Bは、図3に示す画像合成装置10に対して、調整部27Bの機能が調整部27と異なる。
調整部27Bは、カメラパラメータ71とカメラパラメータ72との差に基づき、カメラ12とカメラ14との位置及び向きの相対関係がカメラパラメータ71に近づくように、カメラ12及びカメラ14の少なくとも一方の位置及び向きを調整する。
合成部23は、調整されたカメラ12及びカメラ14で得られた画像51及び画像53を、カメラパラメータ71を用いて合成する。
図13は、画像合成装置10Bの動作の流れを示すフローチャートである。図13に示す処理は、図4に示す処理に対して、ステップS15の代わりにステップS31及びS32を含む。
カメラパラメータ72が算出されると、調整部27Bは、カメラパラメータ保持部22に保持されているカメラパラメータ71と、算出されたカメラパラメータ72との差に基づき、カメラ12とカメラ14との位置及び向きの相対関係がカメラパラメータ71に近づくように、カメラ12及びカメラ14の少なくとも一方の位置及び向きを調整する(S31)。つまり、調整部27Bは、カメラパラメータ72で示される位置及び姿勢が現在のカメラ12及びカメラ14の位置及び向きであると仮定し、カメラパラメータ71とカメラパラメータ72との差分に相当する量だけカメラ12及びカメラ14の位置及び向きを変更する。
次に、取得部21は、調整後のカメラ12及びカメラ14で取得された画像51及び画像53を取得する(S32)。合成部23は、取得された画像51及び画像53を合成する(S16)。
以上により、画像合成装置10Bは、合成に使用されるカメラパラメータ71と、実際のカメラの位置及び向きとのずれを修正することができる。なお、変形例1に対して同様の変更を適用してもよい。
以上、実施の形態に係る画像合成装置について説明したが、本開示は、この実施の形態に限定されるものではない。
例えば、上記変形例1では、画像合成装置10Aは、複数の時刻における複数のマッチング特徴点対を記憶し、当該複数のマッチング特徴点対を用いてカメラパラメータ72を算出したが、時刻ごとに、当該時刻の特徴点マッチングの結果を用いてカメラパラメータ72を算出し、複数の時刻において算出された複数のカメラパラメータ72を記憶し、当該複数のカメラパラメータ72を用いて調整処理を行ってもよい。
例えば、画像合成装置10Aは、複数の時刻に対して算出された複数のカメラパラメータ72のうち、精度が基準値より高いカメラパラメータ72を用いて調整処理(カメラパラメータ72の更新)を行う。ここで精度とは、例えば、算出されたカメラパラメータ72に対して誤差評価関数で示される誤差であり、上述したカメラパラメータ72の算出処理の途中で算出される。なお、画像合成装置10Aは、算出された全てのカメラパラメータ72を記憶するのではなく、算出された複数のカメラパラメータ72のうち、精度が基準値より高い(誤差が基準値より小さい)カメラパラメータ72のみを記憶してもよい。
次に、画像合成装置10Aは、複数の時刻に対する複数のカメラパラメータ72を用いて、更新に用いるカメラパラメータを決定する。例えば、画像合成装置10Aは、複数の時刻に対する複数のカメラパラメータ72のうち精度が最も高いカメラパラメータ72を選択する。そして、画像合成装置10Aは、カメラパラメータ保持部22に保持されるカメラパラメータ71を、選択したカメラパラメータ72に更新する。
また、上記説明では、車載電子ミラーに用いられる画像合成装置を例に説明を行ったが、重複領域を有する2以上の画像を合成する場合に本開示の手法を適用できる。
また、上記実施の形態に係る画像合成装置に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、本開示は、画像合成装置により実行される画像合成方法として実現されてもよい。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
以上、一つまたは複数の態様に係る画像合成装置について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、画像合成装置に適用でき、例えば、車両に搭載したカメラの映像を合成して電子ミラーに表示する画像合成装置に利用可能である。
1 車両
10、10A、10B 画像合成装置
12、13、14 カメラ
21 取得部
22 カメラパラメータ保持部
23 合成部
24 表示制御部
25 マッチング部
26、26A カメラパラメータ算出部
27、27B 調整部
28 マッチング情報記憶部
40 電子ミラー
50、51、52、53 画像
61、62 重複領域
63、64 特徴点
65 特徴点対
71、72 カメラパラメータ

Claims (11)

  1. 第1カメラ及び第2カメラの各々で得られ、同一の領域が撮影された重複領域を有する第1画像及び第2画像を取得する取得部と、
    前記第1カメラと前記第2カメラとの位置及び向きの相対関係を示す第1カメラパラメータを用いて、前記第1画像と前記第2画像とを合成する合成部と、
    前記第1画像と前記第2画像とに対して前記重複領域における特徴点マッチングを行うマッチング部と、
    前記特徴点マッチングの結果を用いて、前記第1画像と前記第2画像との位置及び向きの相対関係を示す第2カメラパラメータを算出するカメラパラメータ算出部と、
    前記第2カメラパラメータを用いて、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係と、前記第1カメラパラメータとの差を低減する調整処理を行う調整部とを備える
    画像合成装置。
  2. 前記カメラパラメータ算出部は、前記第1画像及び前記第2画像とカメラパラメータとから、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係と、前記カメラパラメータとのずれを示す評価値を算出するための評価関数を用いて、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係とカメラパラメータとのずれが最小となるカメラパラメータを前記第2カメラパラメータとして算出する
    請求項1記載の画像合成装置。
  3. 前記評価値は、前記第1画像及び前記第2画像における、前記特徴点マッチングの結果で示される特徴点対を三次元空間に投影した場合における、前記三次元空間における前記特徴点対の距離を示す
    請求項2記載の画像合成装置。
  4. 前記調整部は、前記第1カメラパラメータを、前記第2カメラパラメータを用いて更新し、
    前記合成部は、更新された前記第1カメラパラメータを用いて前記第1画像と前記第2画像とを合成する
    請求項1〜3のいずれか1項に記載の画像合成装置。
  5. 前記調整部は、前記第1カメラパラメータと前記第2カメラパラメータとの差に基づき、前記第1カメラと前記第2カメラとの位置及び向きの相対関係が前記第1カメラパラメータに近づくように、前記第1カメラ及び前記第2カメラの少なくとも一方の位置及び向きを調整し、
    前記合成部は、調整された前記第1カメラ及び前記第2カメラで得られた前記第1画像及び前記第2画像を、前記第1カメラパラメータを用いて合成する
    請求項1〜3のいずれか1項に記載の画像合成装置。
  6. 前記取得部は、複数の時刻における前記第1画像及び前記第2画像を取得し、
    前記マッチング部は、時刻ごとに、前記第1画像及び前記第2画像に対して前記特徴点マッチングを行い、
    前記カメラパラメータ算出部は、複数の時刻の前記特徴点マッチングの結果を用いて前記第2カメラパラメータを算出し、
    前記調整部は、算出された前記第2カメラパラメータを用いて前記調整処理を行う
    請求項1〜5のいずれか1項に記載の画像合成装置。
  7. 前記複数の時刻の特徴点マッチングの結果うち、精度が基準値より高い特徴点マッチングの結果を記憶するマッチング情報記憶部を備える
    請求項6記載の画像合成装置。
  8. 前記取得部は、複数の時刻における前記第1画像及び前記第2画像を取得し、
    前記マッチング部は、時刻ごとに、前記第1画像及び前記第2画像に対して前記特徴点マッチングを行い、
    前記カメラパラメータ算出部は、時刻ごとに、当該時刻の前記特徴点マッチングの結果を用いて前記第2カメラパラメータを算出し、
    前記調整部は、複数の時刻に対して算出された複数の前記第2カメラパラメータを用いて前記調整処理を行う
    請求項1〜5のいずれか1項に記載の画像合成装置。
  9. 前記調整部は、前記複数の時刻に対して算出された複数の第2カメラパラメータのうち、精度が基準値より高い第2カメラパラメータを用いて前記調整処理を行う
    請求項8記載の画像合成装置。
  10. 第1カメラ及び第2カメラの各々で得られ、同一の領域が撮影された重複領域を有する第1画像及び第2画像を取得する取得ステップと、
    前記第1カメラと前記第2カメラとの位置及び向きの相対関係を示す第1カメラパラメータを用いて、前記第1画像と前記第2画像とを合成する合成ステップと、
    前記第1画像と前記第2画像とに対して前記重複領域における特徴点マッチングを行うマッチングステップと、
    前記特徴点マッチングの結果を用いて、前記第1画像と前記第2画像との位置及び向きの相対関係を示す第2カメラパラメータを算出するカメラパラメータ算出ステップと、
    前記第2カメラパラメータを用いて、前記第1カメラと前記第2カメラとの実際の位置及び向きの相対関係と、前記第1カメラパラメータとの差を低減する調整処理を行う調整ステップとを含む
    画像合成方法。
  11. 請求項10記載の画像合成方法をコンピュータに実行させる
    プログラム。
JP2018068050A 2018-03-30 2018-03-30 画像合成装置、画像合成方法及びプログラム Pending JP2019180016A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018068050A JP2019180016A (ja) 2018-03-30 2018-03-30 画像合成装置、画像合成方法及びプログラム
DE102019107835.0A DE102019107835A1 (de) 2018-03-30 2019-03-27 Bildkombiniervorrichtung, Verfahren zum Kombinieren von Bildern und Programm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018068050A JP2019180016A (ja) 2018-03-30 2018-03-30 画像合成装置、画像合成方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019180016A true JP2019180016A (ja) 2019-10-17

Family

ID=67910179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068050A Pending JP2019180016A (ja) 2018-03-30 2018-03-30 画像合成装置、画像合成方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2019180016A (ja)
DE (1) DE102019107835A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021065784A1 (ja) 2019-09-30 2021-04-08 富士フイルム株式会社 放射線撮影装置及び放射線撮影装置の制御方法
CN112887601A (zh) * 2021-01-26 2021-06-01 维沃移动通信有限公司 拍摄方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004235934A (ja) * 2003-01-30 2004-08-19 Sony Corp キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP2011086111A (ja) * 2009-10-15 2011-04-28 Mitsubishi Electric Corp 撮像装置校正方法及び画像合成装置
WO2015029934A1 (ja) * 2013-08-30 2015-03-05 クラリオン株式会社 カメラ校正装置、カメラ校正システム、及びカメラ校正方法
WO2017080753A1 (en) * 2015-11-12 2017-05-18 Robert Bosch Gmbh Vehicle camera system with multiple-camera alignment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3968375B2 (ja) 2005-02-15 2007-08-29 松下電器産業株式会社 周辺監視装置および周辺監視方法
JP6371185B2 (ja) 2014-09-30 2018-08-08 クラリオン株式会社 カメラキャリブレーション装置及びカメラキャリブレーションシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004235934A (ja) * 2003-01-30 2004-08-19 Sony Corp キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP2011086111A (ja) * 2009-10-15 2011-04-28 Mitsubishi Electric Corp 撮像装置校正方法及び画像合成装置
WO2015029934A1 (ja) * 2013-08-30 2015-03-05 クラリオン株式会社 カメラ校正装置、カメラ校正システム、及びカメラ校正方法
WO2017080753A1 (en) * 2015-11-12 2017-05-18 Robert Bosch Gmbh Vehicle camera system with multiple-camera alignment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021065784A1 (ja) 2019-09-30 2021-04-08 富士フイルム株式会社 放射線撮影装置及び放射線撮影装置の制御方法
CN112887601A (zh) * 2021-01-26 2021-06-01 维沃移动通信有限公司 拍摄方法、装置及电子设备

Also Published As

Publication number Publication date
DE102019107835A1 (de) 2019-10-02

Similar Documents

Publication Publication Date Title
JP4975592B2 (ja) 撮像装置
US9600863B2 (en) Method for combining images
WO2015045329A1 (ja) 車両周辺画像表示装置及びカメラの調整方法
JP5456330B2 (ja) 画像表示装置及びそのカメラ取り付け角度算出方法
WO2011010438A1 (ja) 視差検出装置、測距装置及び視差検出方法
TW201535318A (zh) 圖像轉換和多視圖輸出系統及方法
CN111242858B (zh) 一种相机镜头的畸变校正方法和系统
TWI761684B (zh) 影像裝置的校正方法及其相關影像裝置和運算裝置
JP4743538B2 (ja) カメラ校正装置
JP2011049733A (ja) カメラキャリブレーション装置および映像歪み補正装置
TWI616715B (zh) 多鏡頭模組的調校方法及其系統
JP2019180016A (ja) 画像合成装置、画像合成方法及びプログラム
JP6582683B2 (ja) 角度算出システム、角度算出装置、プログラム、および角度算出方法
TW201428687A (zh) 影像校正方法及影像校正電路
JP2004135209A (ja) 広視野高解像度映像の生成装置及び方法
JPH05110926A (ja) 歪曲収差補正装置および画像合成装置
JP2019090755A (ja) 校正方法および校正装置
KR101938067B1 (ko) Sift 플로우를 이용한 광각영상의 스테레오 정합 방법 및 장치
CN114764823A (zh) 自校正的深度计算方法、系统、介质及深度图像处理设备
JP2009123131A (ja) 撮像装置
JP2006140831A (ja) プロジェクタ装置
JP2021027370A (ja) 車載カメラのキャリブレーション方法、及び車載カメラのキャリブレーション装置
JP6680335B2 (ja) ステレオカメラ、車両、算出方法及びプログラム
KR20160097596A (ko) Avm 영상 보정 시스템 및 그 제어방법
JPWO2018180213A1 (ja) 画像修正装置、画像修正方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200721