JP6513305B2 - Video combining apparatus and video combining method - Google Patents
Video combining apparatus and video combining method Download PDFInfo
- Publication number
- JP6513305B2 JP6513305B2 JP2018549688A JP2018549688A JP6513305B2 JP 6513305 B2 JP6513305 B2 JP 6513305B2 JP 2018549688 A JP2018549688 A JP 2018549688A JP 2018549688 A JP2018549688 A JP 2018549688A JP 6513305 B2 JP6513305 B2 JP 6513305B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- imaging
- pixel
- imaging device
- imaging devices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000003384 imaging method Methods 0.000 claims description 198
- 239000002131 composite material Substances 0.000 claims description 87
- 238000002156 mixing Methods 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 10
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 6
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 4
- 101150052583 CALM1 gene Proteins 0.000 description 64
- 238000010586 diagram Methods 0.000 description 21
- 239000000203 mixture Substances 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 238000006467 substitution reaction Methods 0.000 description 3
- 101150114882 CALM2 gene Proteins 0.000 description 2
- 101150058073 Calm3 gene Proteins 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241000905137 Veronica schmidtiana Species 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、複数の撮像装置によって取得された複数の映像(すなわち、複数の映像データ)から1つの合成映像を生成するための映像合成装置及び映像合成方法に関する。 The present invention relates to a video combining apparatus and a video combining method for generating one composite video from a plurality of videos (that is, a plurality of video data) acquired by a plurality of imaging devices.
映像の撮影画角を広げるために、複数の撮像装置(すなわち、複数台のカメラ)による撮影で取得された複数の映像を合成して、1つの合成映像を生成する映像合成処理が知られている(例えば、特許文献1、2、及び3参照)。通常、1つの合成映像を生成するための映像合成処理では、複数の撮像装置から出力された複数の映像の各々に対して、レンズ歪補正処理、視点変換処理、投影変換処理等の映像処理が行われる。これらの映像処理の処理負荷は非常に大きいので、これらの映像処理を、通常の演算装置(CPU:Central Processing Unit)によって実時間で行うことは難しい。そこで、従来の装置では、通常の演算装置と並列的に動作することができる並列演算装置であるGPU(Graphics Processing Unit)によって映像合成処理が行われる。
In order to widen the shooting angle of view of a video, video combining processing is known which combines a plurality of videos acquired by shooting with a plurality of imaging devices (that is, a plurality of cameras) to generate one composite video. (See, for example,
しかしながら、GPU等の並列演算装置を用いた場合においても、映像合成処理の負荷は、撮像装置の台数の増加(すなわち、合成される映像の数の増加)に伴って大きくなる。特に、投影変換処理において、撮像装置による撮像範囲間の境界部である重畳領域における映像にブレンド処理を行う際には、重畳領域における複数の映像が入力されるまで処理待ちが発生するため、映像合成処理に要する処理時間が長くなるという課題がある。 However, even in the case of using a parallel computing device such as a GPU, the load of the video synthesizing process increases as the number of imaging devices increases (that is, the number of images to be synthesized increases). In particular, when performing blending processing on an image in a superimposed region which is a boundary between imaging ranges by the imaging device in the projection conversion processing, processing waiting occurs until a plurality of images in the superimposed region are input. There is a problem that the processing time required for the combining process becomes long.
本発明は、上記従来の課題を解決するためになされたものであり、その目的は、撮像装置の数が増加した場合であっても、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成処理を短時間で行うことができる映像合成装置及び映像合成方法を提供することにある。 The present invention has been made to solve the above-described conventional problems, and an object thereof is to provide one image from a plurality of videos acquired by a plurality of imaging devices even when the number of imaging devices is increased. An object of the present invention is to provide a video combining apparatus and a video combining method capable of performing video combining processing for generating a combined video in a short time.
本発明の一態様に係る映像合成装置は、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成装置であって、前記複数の映像を受信する映像受信部と、前記複数の撮像装置のカメラパラメータが入力されるパラメータ入力部と、前記複数の映像から前記合成映像を生成する映像処理部と、を備え、前記映像処理部は、予め入力された前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む参照テーブルを作成し、前記参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成し、前記映像処理部は、前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む他の参照テーブルを作成し、前記他の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成するものである。 The video compositing apparatus according to an aspect of the present invention is a video compositing apparatus that generates one composite video from a plurality of videos acquired by a plurality of imaging devices, and a video receiving unit that receives the plurality of videos. The image processing apparatus further includes: a parameter input unit to which camera parameters of the plurality of imaging devices are input; and a video processing unit that generates the composite video from the plurality of videos, and the video processing unit In the imaging device specified by the first imaging device specifying information for specifying the corresponding imaging device among the plurality of imaging devices for each pixel of the composite video using the first imaging device specifying information Creating a reference table including a corresponding first pixel position and a first weighted coefficient at the corresponding first pixel position, and referring to the reference table to draw the image of the composite image Each time, the first value obtained by multiplying the first weighted coefficient by the pixel value of the corresponding first pixel position in the imaging device specified by the first imaging device specifying information is substituted. By doing this, the composite video is generated, and the video processing unit uses the camera parameters to set each of the pixels of the composite video among the plurality of imaging ranges captured by the plurality of imaging devices. A second imaging device identification information identifying one of the imaging devices having a superimposed region which is an imaging range to be superimposed, and a second corresponding to the superimposed region in the imaging device identified by the second imaging device identification information Creating another reference table including the pixel position of the pixel and the second weighted coefficient at the second pixel position corresponding to the overlapping area, and referring to the other The pixel value of the corresponding pixel position in the imaging device specified by the second imaging device specifying information is multiplied by the second weighted coefficient for each pixel corresponding to the second pixel position in the overlapping area. By substituting the second value obtained by performing the blending process and performing the blending process, a portion corresponding to the superimposed region in the composite image is generated .
本発明の他の態様に係る映像合成方法は、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成方法であって、前記複数の撮像装置について予め入力されたカメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む第1の参照テーブルを作成するステップと、前記第1の参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成するステップと、前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む第2の参照テーブルを作成するステップと、前記第2の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成するステップとを有するものである。 A video combining method according to another aspect of the present invention is a video combining method for generating one combined video from a plurality of videos acquired by a plurality of imaging devices, and a camera input in advance for the plurality of imaging devices. First imaging device identification information for identifying a corresponding imaging device among the plurality of imaging devices for each pixel of the composite video using a parameter, and imaging identified by the first imaging device identification information Creating a first lookup table including corresponding first pixel locations in the device and first weighted coefficients at the corresponding first pixel locations, with reference to the first lookup table The pixel value of the corresponding first pixel position in the imaging device specified by the first imaging device specification information is multiplied by the first weighted coefficient for each pixel of the composite video. By substituting the first value that is, the step of generating the synthesized image, using the camera parameters, for each pixel of the composite image, the plurality of imaging range to be imaged by the plurality of imaging devices The second imaging device identification information for identifying one of the imaging devices having an overlapping region which is an imaging range to overlap with each other, and the overlapping region in the imaging device identified by the second imaging device identification information Creating a second reference table including a corresponding second pixel position and a second weighted coefficient at a second pixel position corresponding to the overlapping area; and referring to the second reference table Of the pixels of the composite image, the corresponding pixels in the imaging device specified by the second imaging device specifying information for each pixel corresponding to the second pixel position of the overlapping area By substituting the second value obtained by multiplying the second weighted coefficient by the pixel value of the pixel and performing the blending process, a portion corresponding to the superimposed area in the composite video is generated And the step of
本発明によれば、撮像装置の数が増加した場合であっても、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成処理を短時間で行うことができる。 According to the present invention, even when the number of imaging devices increases, it is possible to perform, in a short time, video combining processing for generating one composite video from a plurality of videos acquired by a plurality of imaging devices.
《1》実施の形態1
《1−1》構成
図1は、本発明の実施の形態1に係る映像合成装置1の構成を概略的に示す機能ブロック図である。映像合成装置1は、実施の形態1に係る映像合成方法を実施することができる装置である。映像合成装置1は、複数の撮像装置(すなわち、複数台のカメラ)Cam1,…,Cami,…,CamNから出力された複数の映像(すなわち、複数の映像データ)から1つの合成映像(すなわち、1つの合成映像データ)を生成する。Nは2以上の整数であり、iは1以上N以下の任意の整数である。映像が動画像である場合には、映像合成装置1は、N台の撮像装置Cam1,…,CamNから出力されたN枚の映像フレームから1枚の合成映像フレームを作成する処理を、撮像装置Cam1,…,CamNから映像フレームが入力される度に繰り返し行うことで、合成映像データとしての動画像データを生成する。生成された合成映像データは、表示装置2に出力される。表示装置2は、受信した合成映像データに基づく映像を表示する。<< 1 >>
<< 1-1 >> Configuration FIG. 1 is a functional block diagram schematically showing a configuration of a video combining
合成映像の例は、広い視野を持つ横長の映像であるパノラマ映像及び高い位置から見下ろした映像である俯瞰映像等である。実施の形態1においては、複数の撮像装置によって取得された左右方向(一次元方向)に並ぶ複数の映像を合成することによって生成された合成映像がパノラマ映像である場合を説明する。また、後述の実施の形態2においては、複数の撮像装置によって取得された上下左右方向(二次元方向)に並ぶ複数の映像を合成することによって生成された合成映像が俯瞰映像である場合を説明する。映像合成装置1は、合成映像の画素に対応する、撮像装置Cam1,…,CamNの画素に関する情報を持つ参照テーブルを予め作成し、この参照テーブルを用いて合成映像の画素の画素値を設定(代入)する。
Examples of the composite video are a panoramic video which is a horizontally long video having a wide field of view and a overhead video which is a video viewed down from a high position. In the first embodiment, a case will be described where a composite video generated by combining a plurality of videos aligned in the left-right direction (one-dimensional direction) acquired by a plurality of imaging devices is a panoramic video. Further, in the second embodiment described later, the case where the composite video generated by combining the plurality of videos arranged in the vertical and horizontal directions (two-dimensional direction) acquired by the plurality of imaging devices is a bird's eye view Do. The image synthesizing
図1に示されるように、実施の形態1に係る映像合成装置1は、映像受信部4と、パラメータ入力部5と、記憶部6aを有する映像処理部6と、表示処理部7とを具備している。記憶部6aは、映像処理部6の外部に備えられてもよい。図1に示される映像合成装置1は、ソフトウェアとしてのプログラムを格納する記憶部6aとしてのメモリと、メモリに格納されたプログラムを実行する情報処理部としてのプロセッサとを用いて(例えば、コンピュータにより)実現することができる。なお、図1に示される映像合成装置1の一部を、プログラムを格納するメモリと、このプログラムを実行するプロセッサとによって実現してもよい。
As shown in FIG. 1, the
映像受信部4は、複数の撮像装置Cam1,…,CamNから出力された複数の映像データを受信し、受信した映像データを映像処理部6に出力する。なお、映像データのデコード処理を映像受信部4で行い、デコードされた映像データを映像処理部6に出力してもよい。
The
パラメータ入力部5は、予め行われたキャリブレーション、すなわち、レンズ及びイメージセンサの撮像素子のパラメータ推定によって得られた複数の撮像装置Cam1,…,CamNについてのカメラパラメータを示す情報を受け取り、映像処理部6に出力する。カメラパラメータは、例えば、撮像装置Cam1,…,CamNに固有のカメラパラメータである内部パラメータ、世界座標系における撮像装置Cam1,…,CamNの位置姿勢を示すカメラパラメータである外部パラメータ、撮像装置Cam1,…,CamNのレンズに特有の歪(例えば、レンズの半径方向の歪及びレンズの円周方向の歪)を補正するために使用されるレンズ歪補正係数(例えば、レンズ歪補正マップ)等を含む。
The
実施の形態1においては、映像処理部6は、予め行われたキャリブレーションによって算出されたカメラパラメータを用いて、初期化時に映像合成用の参照テーブルを作成し、この参照テーブルを記憶部6aに格納する。映像処理部6は、参照テーブルを参照して、映像受信部4から出力された複数の映像データ(映像フレーム)から合成映像データを生成する。
In the first embodiment, the
表示処理部7は、映像処理部6で生成された合成映像データを表示装置2に出力する。
The display processing unit 7 outputs the composite video data generated by the
図2は、実施の形態1に係る映像合成装置1を概略的に示すハードウェア構成図である。映像合成装置1は、メインプロセッサ10と、メインメモリ11と、補助メモリ12と、GPU等の並列演算装置である映像処理プロセッサ13と、映像処理メモリ14と、入力インタフェース15と、ファイルインタフェース16と、表示インタフェース17と、映像入力インタフェース18とを具備している。
FIG. 2 is a hardware configuration diagram schematically showing the
図1の映像処理部6は、図2に示されるメインプロセッサ10、メインメモリ11、補助メモリ12、映像処理プロセッサ13、及び映像処理メモリ14を含む。また、図1の記憶部6aは、図2に示されるメインメモリ11、補助メモリ12、及び映像処理メモリ14を含む。また、図1のパラメータ入力部5は、図2に示されるファイルインタフェース16を含む。また、図1の映像受信部4は、図2に示される映像入力インタフェース18を含む。また、図1の表示処理部7は、図2に示される表示インタフェース17を含む。ただし、図2は、図1に示される映像合成装置1のハードウェア構成の一例を示しているに過ぎず、ハードウェア構成は種々の変更が可能である。また、図1に示される機能ブロック4〜7と、図2に示されるハードウェア構成10〜18の対応関係も上記例に限定されない。
The
図1のパラメータ入力部5は、予め実行されたキャリブレーションによって算出したカメラパラメータ情報を、ファイルインタフェース16を補助メモリ12から取得し、メインメモリ11に書き込む。
The
補助メモリ12は、予め実行されたキャリブレーションによって算出されたカメラパラメータを保存してもよい。また、メインプロセッサ10は、カメラパラメータを、ファイルインタフェース16を通じて、メインメモリ11に保存してもよい。また、メインプロセッサ10は、静止画から合成映像を作成する場合に、補助メモリ12に静止画ファイルを保存してもよい。
The
入力インタフェース15は、マウス入力、キーボード入力、タッチパネル入力等のデバイス入力を受け付け、入力情報をメインプロセッサ10に送る。
The
映像処理メモリ14は、メインメモリ11から転送された入力映像データ、及び映像処理プロセッサ13で作成された合成映像データを記憶する。
The
表示インタフェース17と表示装置2とは、HDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続される。合成映像は、表示処理部7としての表示インタフェース17を経由して表示装置2に出力される。
The
映像受信部4としての映像入力インタフェース18は、映像合成装置1に接続された撮像装置Cam1,…,CamNの映像入力を受け付け、入力映像をメインメモリ11に記憶させる。撮像装置Cam1,…,CamNは、例えば、ネットワークカメラ、アナログカメラ、USB(Universal Serial Bus)カメラ、HD−SDI(High Definition Serial Digital Interface)カメラ等である。なお、映像入力インタフェース18としては、接続されるデバイスに適合した規格のものが使用される。
The
《1−2》動作
[初期化処理]
まず、図1における映像処理部6は、作成する合成映像の解像度W_synth×H_synthを決定し、図1における記憶部6aに合成映像を格納するためのメモリ領域を確保する。ここで、W_synthは、矩形の合成映像の水平方向の画素数を示し、H_synthは、合成映像の垂直方向の画素数を示す。この処理を、図2を用いて言い換えれば、映像処理プロセッサ13は、作成する合成映像の解像度W_synth×H_synthを決定し、映像処理メモリ14に合成映像を格納するためのメモリ領域を確保する。<< 1-2 >> Operation [initialization process]
First, the
次に、図1における映像処理部6は、図1におけるパラメータ入力部5から入力された撮像装置Cam1,…,CamNのカメラパラメータ(内部パラメータ、外部パラメータ、レンズ歪補正データ及び投影面等)から、撮像装置Cam1,…,CamNについての参照テーブルを作成して、記憶部6aに格納する。この処理を、図2を用いて言い換えれば、映像処理プロセッサ13は、ファイルインタフェース16から入力された撮像装置Cam1,…,CamNのカメラパラメータから、撮像装置Cam1,…,CamNについての参照テーブルを作成して、映像処理メモリ14に格納する。
Next, the
図3は、実施の形態1に係る映像合成装置1における合成映像の画素と複数の撮像装置Cam1,…,CamNの画素との対応関係の例を示す図である。
撮像装置Cam1,…,CamNについての参照テーブルは、図3に示されるように、合成映像の画素に対応する、撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)、並びに、対応する撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)におけるα値(アルファ値)を記憶する。x_cam1は、カメラ番号i=1である撮像装置Cam1のイメージセンサの画素のx座標を示し、y_cam1は、カメラ番号i=1である撮像装置Cam1のイメージセンサの画素のy座標を示す。α値は、撮像装置Cam1,…,CamNの撮像範囲の重畳領域のブレンド処理に利用する重み付き係数である。α値は、ピクセルデータの不透明度を示すカメラパラメータであり、0から1の範囲内の値であり、α値=0は完全透明を表し、α値=1は完全不透明を表す。FIG. 3 is a diagram showing an example of the correspondence between the pixels of the composite video and the pixels of the plurality of imaging devices Cam1, ..., CamN in the
The reference tables for the imaging devices Cam1, ..., CamN are, as shown in Fig. 3, the pixels (x_cam1, y_cam1), ..., (x_camN, y_camN) of the imaging devices Cam1, ..., CamN corresponding to the pixels of the composite image. And the α values (alpha values) in the pixels (x_cam1, y_cam1),..., (X_camN, y_camN) of the corresponding imaging devices Cam1,. x_cam1 indicates the x-coordinate of the pixel of the image sensor of the imaging device Cam1 in which the camera number i = 1, and y_cam1 indicates the y-coordinate of the pixel of the image sensor of the imaging device Cam1 in which the camera number i = 1. The α value is a weighting coefficient used for blending processing of superimposed regions of imaging ranges of the imaging devices Cam1, ..., CamN. The α value is a camera parameter indicating the opacity of pixel data, and is a value within the range of 0 to 1, where α value = 0 represents complete transparency and α value = 1 represents complete opacity.
合成映像の画素に対応する撮像装置Cam1,…,CamNの画素が存在しない場合は、参照テーブルに対応画素が存在しないことを示す値を設定する。撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)と合成映像の画素(x_synth,y_synth)との対応は、定義した投影面上の座標から投影変換処理前の座標、視点変換処理前の座標、レンズ歪補正処理前の座標と逆算することにより算出することができる。x_synthは、合成映像の画素のx座標を示し、y_synthは、合成映像の画素のy座標を示す。参照テーブルを利用すると、映像合成処理は、合成映像の画素(x_synth,y_synth)の画素値として、合成映像の画素(x_synth,y_synth)に対応する撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)の画素値を代入する処理である。
ただし、撮像装置Cam1,…,CamNの参照テーブルを順に利用して映像合成処理を行う場合には、撮像装置Cam1,…,CamNの台数の増加に比例して処理時間が増加する。また、GPU等の並列演算装置を利用する場合であっても、重畳領域においてブレンド処理を行う際に、処理待ちが発生するため、撮像装置Cam1,…,CamNの台数の増加に伴って処理時間が増加する。When there is no pixel of the imaging devices Cam1, ..., CamN corresponding to the pixel of the composite video, a value indicating that the corresponding pixel is not present is set in the reference table. The correspondence between the pixels (x_cam1, y_cam1),..., (X_camN, y_camN) of the imaging devices Cam1, ..., CamN and the pixels (x_synth, y_synth) of the composite image is calculated from the defined coordinates on the projection plane before the projection conversion process. It can be calculated by back-calculating coordinates, coordinates before viewpoint conversion processing, and coordinates before lens distortion correction processing. x_synth indicates the x-coordinate of the pixel of the composite video, and y_synth indicates the y-coordinate of the pixel of the composite video. When the reference table is used, the video synthesis processing is performed using the pixels (x_cam1, y_cam1) of the imaging devices Cam1, ..., CamN corresponding to the pixels (x_synth, y_synth) of the composite video as the pixel values of the pixels (x_synth, y_synth) of the composite video. ,..., (X_camN, y_camN) is a process of substituting pixel values.
However, when the video synthesis process is performed using the reference tables of the imaging devices Cam1, ..., CamN in order, the processing time increases in proportion to the increase in the number of imaging devices Cam1, ..., CamN. In addition, even when using a parallel computing device such as a GPU, processing delay occurs when performing blending processing in the overlap region, so processing time is increased as the number of imaging devices Cam1, ..., CamN increases. Will increase.
図4は、実施の形態1に係る映像合成装置1における複数の撮像装置Cam1,…,Cam4の撮像範囲の重畳領域の例を示す図である。通常、図4に示されるようなパノラマ合成映像を作成する際には、隣接する撮像装置Cam1,…,Cam4の撮像範囲に重畳領域が存在する。重畳領域には、ブレンド処理を適用するが、異なる撮像装置Cam1,…,Cam4の画素値を参照し、この画素値に重み付き係数αを乗算して重み付けを行い、重み付けされた画素値を合成映像の対応する画素の画素値として代入(ブレンド)するため、撮像装置Cam1,…,Cam4から出力された映像データについて処理待ち時間が発生する。なお、重畳領域ではブレンド処理が行われるので、重畳領域をブレンド領域とも言う。
FIG. 4 is a diagram showing an example of the overlapping area of the imaging ranges of the plurality of imaging devices Cam1, ..., Cam4 in the
図5は、実施の形態1に係る映像合成装置1において参照テーブル(第1の参照テーブル)に含まれる撮像装置Cam1,…,Cam4の画素の範囲を示す図である。また、図6は、実施の形態1に係る映像合成装置1において他の参照テーブル(第2の参照テーブル)に含まれる撮像装置Cam1,…,Cam4の画素の範囲を示す図である。実施の形態1に係る映像合成装置1では、映像処理部6は、撮像装置Cam1,…,CamNの参照テーブルから映像合成用の参照テーブルを作成する。この映像合成用の参照テーブルは、ブレンド領域の上側(左側の撮像装置)とブレンド領域の下側(右側の撮像装置)の情報を保持した2枚の参照テーブル、すなわち、図5に示される第1の参照テーブルと図6に示される第2の参照テーブルとから構成される。
FIG. 5 is a diagram showing the range of pixels of the imaging devices Cam1, ..., Cam4 included in the reference table (first reference table) in the
映像合成用の第1の参照テーブルは、第1の撮像装置特定情報としてのカメラ番号iと、対応する撮像装置Camiの画素(x_cami,y_cami)と、対応する撮像装置Camiの画素のα値とを保持する。なお、重畳領域以外の画素のα値は1とする。図5の例では、撮像装置Cam1,…,Cam4が4台である場合を示す。図5は、一例を示すものであり、第1の参照テーブルに含まれる撮像装置Cam1,…,Cam4の画素の範囲は、図5の例に限定されない。 The first reference table for image composition includes the camera number i as the first imaging device specifying information, the pixel (x_cami, y_cami) of the corresponding imaging device Cami, and the α value of the pixel of the corresponding imaging device Cami Hold. The α value of the pixels other than the overlapping region is 1. The example of FIG. 5 shows the case where there are four imaging devices Cam1, ..., Cam4. FIG. 5 shows an example, and the range of the pixels of the imaging devices Cam1, ..., Cam4 included in the first reference table is not limited to the example of FIG.
映像合成用の第2の参照テーブルは、複数の撮像装置Cam1,…,CamNによって撮像される複数の撮像範囲のうちの、重畳領域を持つ撮像装置を特定する第2の撮像装置特定情報としてのカメラ番号iと、対応する撮像装置Camiの画素(x_cami,y_cami)と、対応する撮像装置Camiの重畳領域の画素のα値とを保持する。図6は、一例を示すものであり、第2の参照テーブルに含まれる撮像装置Cam1,…,Cam4の画素の範囲は、図6の例に限定されない。 The second reference table for image composition is used as second imaging device identification information for identifying an imaging device having a superimposed region among a plurality of imaging ranges imaged by a plurality of imaging devices Cam1, ..., CamN. The camera number i, the corresponding pixel (x_cami, y_cami) of the imaging device Cami, and the α value of the pixel of the overlapping region of the corresponding imaging device Cami are held. FIG. 6 shows an example, and the range of the pixels of the imaging devices Cam1, ..., Cam4 included in the second reference table is not limited to the example of FIG.
撮像装置Cam1,…,CamNの撮像範囲の重畳領域以外の画素と重畳領域の左側の撮像装置(又は、右側の撮像装置)に対応する画素とは、合成映像の画素に同時に代入することができる。これらの画素の情報を保持したものは、図5に示される上側の参照テーブル(第1の参照テーブル)である。撮像装置Cam1,…,CamNの撮像範囲の重畳領域の右側の撮像装置(又は、左側の撮像装置)に対応する画素の情報を保持したものは、図6に示される下側の参照テーブル(第2の参照テーブル)である。 The pixels other than the overlapping region of the imaging range of the imaging devices Cam1, ..., CamN and the pixels corresponding to the imaging device on the left side of the overlapping region (or the imaging device on the right side) can be simultaneously substituted into the pixels of the composite image. . What holds the information of these pixels is the upper lookup table (first lookup table) shown in FIG. The lower side reference table shown in FIG. 6 holds information of pixels corresponding to the imaging device (or the imaging device on the left side) on the right side of the overlapping region of the imaging ranges of the imaging devices Cam1, ..., CamN. 2 reference table).
例えば、図5に示される撮像装置Cam1、Cam2、Cam3、及びCam4の撮像範囲の画素の画素値は、第1の参照テーブルを用いて、合成映像の画素に同時に代入することができる。また、図6に示される撮像装置Cam2、Cam3、及びCam4の撮像範囲の重畳領域の画素の画素値は、第2の参照テーブルを用いて、合成映像の画素に同時に代入することができる。実施の形態1においては、GPU等の並列演算装置である映像処理プロセッサを使用し、第1及び第2の参照テーブルを用いることで、映像合成処理に処理待ちが発生せず、撮像装置Cam1,…,CamNの台数に関わらず、2つのステップ、すなわち、第1の参照テーブルを用いた代入処理と第2の参照テーブルを用いた代入処理とで、合成映像を生成することができる。 For example, the pixel values of the pixels in the imaging ranges of the imaging devices Cam1, Cam2, Cam3 and Cam4 shown in FIG. 5 can be simultaneously substituted into the pixels of the composite image using the first reference table. Further, the pixel values of the pixels in the overlap region of the imaging ranges of the imaging devices Cam2, Cam3 and Cam4 shown in FIG. 6 can be simultaneously substituted into the pixels of the composite image using the second reference table. In the first embodiment, by using the video processing processor, which is a parallel computing device such as a GPU, and using the first and second reference tables, no processing waiting occurs in the video combining process, and the imaging devices Cam1, Cam1, The combined video can be generated in two steps, that is, substitution processing using the first reference table and substitution processing using the second reference table, regardless of the number of ..., CamN.
[映像入力処理]
映像受信部4における映像入力インタフェース18は、撮像装置Cam1,…,CamNの1フレーム分の映像データを取得しメインメモリ11に格納される。取得された映像データは、メインメモリ11から映像処理メモリ14に転送される。[Video input processing]
The
[映像合成処理]
映像処理部6における映像処理プロセッサ13は、映像処理メモリ14に転送された入力映像の画素値を、第1の参照テーブルと第2の参照テーブルとを用いて、入力映像の画素に対応する合成映像の画素の画素値として代入する。この処理手順を以下に説明する。[Video composition processing]
The
以下の映像合成処理は、映像処理プロセッサ13によって、メインプロセッサ10の処理と並列に実行される。
〈1〉先ず、第1の処理として、映像処理プロセッサ13は、第1の参照テーブルから、合成映像における各画素(x_synth,y_synth)に対応するカメラ番号i、カメラ番号iの撮像装置Camiにおける対応する画素位置(x_cami,y_cami)、及び重み付き係数αを取り出す。
〈2〉次に、第2の処理として、映像処理プロセッサ13は、映像処理メモリ14上のカメラ番号iの入力映像(x_cami,y_cami)の画素値を参照し、この画素値に重み付き係数αを乗算して、映像処理メモリ14上の合成映像(x_synth,y_synth)の画素に代入する。The following video synthesis processing is executed by the
<1> First, as the first process, the
<2> Next, as the second process, the
次に、映像処理プロセッサ13は、以下の映像合成処理を、メインプロセッサ10の処理と並列に実行する。
〈3〉先ず、第3の処理として、映像処理プロセッサ13は、第2の参照テーブルから、合成映像における各画素(x_synth,y_synth)に対応するカメラ番号i、カメラ番号iの撮像装置Camiにおける対応する画素位置(x_cami,y_cami)、及び重み付き係数αを取り出す。
〈4〉次に、第4の処理として、映像処理プロセッサ13は、映像処理メモリ14上のカメラ番号iの入力映像(x_cami,y_cami)の画素値を参照し、この画素値に重み付き係数αを乗算して、映像処理メモリ14上の合成映像(x_synth,y_synth)の画素に代入する。これによって、合成映像の重畳領域の画素にブレンド処理が行われる。Next, the
<3> First, as the third process, the
<4> Next, as the fourth process, the
図7は、実施の形態1に係る映像合成装置の動作(すなわち、実施の形態1に係る映像合成方法)を示すフローチャートである。映像処理部6は、初期化処理(ステップS1)にて参照テーブルを作成した後は、映像入力処理(ステップS2)と映像合成処理(ステップS4)を、映像入力が終了するまで(ステップS4)、繰り返し実行する。映像処理部6は、撮像装置Cam1,…,CamNの位置がずれた場合は、映像上の特徴点等を利用して、位置ズレを補正して新たな参照テーブルをバックグラウンドで作成した後、現在使用している参照テーブルを新たな参照テーブルと入れ替えることで、位置合わせされた合成映像を作成することができる。
FIG. 7 is a flowchart showing the operation of the video compositing apparatus according to the first embodiment (that is, the video compositing method according to the first embodiment). After creating the reference table in the initialization process (step S1), the
表示処理部7は、映像処理部6で作成された合成映像データとしてのパノラマ合成映像データを表示装置2に送信する。表示装置2は、受信したパノラマ合成映像データに基づく映像を表示する。なお、表示装置2は、パノラマ合成映像を、1枚のディスプレイ画面に表示してもよく、又は、複数枚のディスプレイ画面に渡って表示してもよい。また、表示装置2は、パノラマ合成映像の一部の領域のみを切り出して表示してもよい。
The display processing unit 7 transmits panoramic composite video data as composite video data created by the
《1−3》効果
以上に説明したように、実施の形態1に係る映像合成装置1及び映像合成方法によれば、撮像装置Cam1,…,CamNの台数に応じて、入力映像データのデコード負荷は増大するが、撮像装置Cam1,…,CamNが取得した映像の映像合成処理の負荷はほとんど増加しない。<< 1-3 >> Effects As described above, according to the
また、撮像装置Cam1,…,CamN毎の入力映像にレンズ歪補正処理、視点変換処理、投影変換処理を適用した場合、撮像装置Cam1,…,CamNの台数の増加に伴って処理時間が増加する。また、撮像装置Cam1,…,CamN毎の参照テーブルを用意してレンズ歪補正処理、視点変換処理、投影変換処理をひとまとめにした場合においても、撮像装置Cam1,…,CamN境界の重畳領域における処理待ちが発生するため、撮像装置Cam1,…,CamNの台数の増加に伴って処理時間が増加する。
実施の形態1に係る映像合成装置1及び映像合成方法では、隣り合って重畳領域を持つ撮像装置の映像間の処理待ちに着目し、第1の参照テーブルを同時に画素代入できるデータのみで構成することで、重畳領域に係る撮像装置Cam1,…,CamNの最大台数のステップ数で映像合成処理を実現することができる。つまり、実施の形態1においては、重畳領域に係る撮像装置Cam1,…,CamNの最大台数は2台であるパノラマ合成映像であるため、第1の参照テーブルを用いたステップと第2の参照テーブルを用いたステップとからなる2つのステップで合成処理が実行可能である。Furthermore, when lens distortion correction processing, viewpoint conversion processing, and projection conversion processing are applied to input images for each of the imaging devices Cam1, ..., CamN, the processing time increases as the number of imaging devices Cam1, ..., CamN increases. . Also, even in the case where lens distortion correction processing, viewpoint conversion processing, and projection conversion processing are collectively performed by preparing a reference table for each of the imaging devices Cam1, ..., CamN, processing in the overlapping region of the imaging devices Cam1, ..., CamN boundary Since waiting occurs, the processing time increases as the number of imaging devices Cam1, ..., CamN increases.
In the
《2》実施の形態2
《2−1》構成
上記実施の形態1においては、左右方向に並ぶ複数の映像から1つの合成映像(パノラマ映像)を生成するための映像合成装置及び映像合成方法を説明した。これに対し、本発明の実施の形態2では、上下左右方向に並ぶ複数の映像から1つの合成映像(俯瞰映像)を生成するための映像合成装置及び映像合成方法を説明する。<< 2 >> Second Embodiment
<< 2-1 >> Configuration In the first embodiment, the video combining apparatus and the video combining method for generating one composite video (panoramic video) from a plurality of videos arranged in the left and right direction have been described. On the other hand, in a second embodiment of the present invention, a video combining apparatus and a video combining method for generating one composite video (overview video) from a plurality of videos arranged in the vertical and horizontal directions will be described.
実施の形態2は、複数の撮像装置Cam1,…,CamNの配置の点、及び図1の映像処理部6(又は図2の映像処理プロセッサ)が参照テーブル(第1の参照テーブル)と他の参照テーブル(第2から第4の参照テーブル)を使用して映像合成処理を行う点において、実施の形態1と相違する。これらの点を除き、実施の形態2は、実施の形態1と同じである。したがって、実施の形態2の説明に際しては、実施の形態1の説明で用いた図1、図2及び図7をも参照する。 In the second embodiment, the arrangement of the plurality of imaging devices Cam1, ..., CamN, and the video processing unit 6 (or the video processing processor of FIG. 2) in FIG. 1 are the reference table (first reference table) and others. The second embodiment differs from the first embodiment in that video synthesis processing is performed using reference tables (second to fourth reference tables). Except for these points, the second embodiment is the same as the first embodiment. Therefore, in the description of the second embodiment, reference is also made to FIGS. 1, 2 and 7 used in the description of the first embodiment.
《2−2》動作
図8は、実施の形態2に係る映像合成装置における複数の撮像装置Cam1,…,Cam9の台形状の撮像範囲の重畳領域の例を示す図である。図8に示されるように、俯瞰合成映像を作成する場合、複数の撮像装置Cam1,…,Cam9が取得する映像を視点変換及び投影変換することで、大きな1枚の俯瞰映像を作成することができる。図8は、複数の撮像装置Cam1,…,Cam9の配置の一例を示すものであり、複数の撮像装置の配置方法を限定するものではない。<< 2-2 >> Operation FIG. 8 is a diagram showing an example of a superimposed region of trapezoidal imaging ranges of a plurality of imaging devices Cam1, ..., Cam9 in the video combining apparatus according to the second embodiment. As shown in FIG. 8, when creating a bird's-eye view composite video, it is possible to create one large bird's-eye view video by performing viewpoint conversion and projection conversion on the images acquired by the plurality of imaging devices Cam1, ..., Cam9. it can. FIG. 8 shows an example of the arrangement of the plurality of imaging devices Cam1, ..., Cam9, and the arrangement method of the plurality of imaging devices is not limited.
図8に示されるように、複数の撮像装置Cam1,…,Cam9を配置した場合、合成映像の重畳領域の同一画素(図8における41)に対応する撮像装置の台数は、上下左右の最大4台となる。パノラマ合成画像の生成と同様に、合成映像の画素に同時に代入可能な画素のみで構成した参照テーブルとして4種類の参照テーブル、すなわち、第1から第4の参照テーブルを作成することで、撮像装置の台数に関わらず、4回のステップで映像合成処理を実行することができる。
As shown in FIG. 8, when a plurality of
図9は、実施の形態2に係る映像合成装置における複数の撮像装置Cam1,…,Cam9の撮像範囲の重畳領域の例を示す図である。図9では、図8の例を簡素化するために、撮影範囲を長方形に描いている。図10は、実施の形態2に係る映像合成装置における撮像範囲についての第1の参照テーブルを示す図である。図11から図13は、実施の形態2に係る映像合成装置における撮像範囲(重畳領域)についての他の参照テーブルである第2の参照テーブル、第3の参照テーブル、及び第4の参照テーブルを示す図である。図9から図13は、説明を簡単にするため、撮像装置Cam1,…,CamNの投影変換後の映像を長方形で示すが、台形又は他の形状であっても処理は同様である。また、図9から図13に示される第1から第4の参照テーブルは一例であり、参照テーブルの形状及び個数は図9から図13の例に限定されない。
FIG. 9 is a diagram showing an example of the overlapping area of the imaging ranges of the plurality of imaging devices Cam1, ..., Cam9 in the video synthesizing apparatus according to the second embodiment. In FIG. 9, in order to simplify the example of FIG. 8, the imaging range is drawn in a rectangle. FIG. 10 is a diagram showing a first reference table for an imaging range in the video compositing apparatus according to the second embodiment. 11 to 13 are a second reference table, a third reference table, and a fourth reference table, which are other reference tables for the imaging range (superimposed area) in the video compositing apparatus according to the second embodiment. FIG. FIGS. 9 to 13 illustrate rectangular images after projection conversion of the
[映像入力処理]
映像受信部4が撮像装置Cam1,…,CamNの1フレーム分の入力映像を取得完了したら、メインメモリ11から映像処理メモリ14に入力映像データを転送する。[Video input processing]
When the
[映像合成処理]
映像処理メモリ14上に転送された入力映像の画素値を、上記の第1から第4の参照テーブルを用いて合成映像に代入する。処理手順を以下に示す。[Video composition processing]
The pixel values of the input video transferred to the
以下の操作を、映像処理部6の映像処理プロセッサ13が、並列に実行する。
〈11〉第1の処理では、映像処理プロセッサ13は、図10に示される第1の参照テーブルから合成映像における各画素(x_synth,y_synth)に対応するカメラ番号i、カメラ番号iの撮像装置Camiにおける対応する画素位置(x_cami,y_cami)、及び重み付き係数αを取り出す。
〈12〉第2の処理では、映像処理プロセッサ13は、映像処理メモリ14上のカメラ番号iの撮像装置Camiの入力映像の画素(x_cami,y_cami)の画素値を参照し、この画素値に重み付き係数αを乗算して、映像処理メモリ14上の合成映像(x_synth,y_synth)の画素に代入する。
〈13〉第3の処理では、映像処理プロセッサ13は、第2の参照テーブルについて第11の処理と第12の処理と同様の処理を実行する。
〈14〉第4の処理では、映像処理プロセッサ13は、第3の参照テーブルについても、第11の処理と第12の処理と同様の処理を実行する。
〈15〉第5の処理では、映像処理プロセッサ13は、第4の参照テーブルについても、第11の処理と第12の処理と同様の処理を実行する。
また、映像処理部全体の処理手順は図7と同じである。また、表示処理部の動作も実施の形態1のものと同じである。The
<11> In the first process, the
<12> In the second process, the
<13> In the third process, the
<14> In the fourth process, the
<15> In the fifth process, the
Further, the processing procedure of the entire video processing unit is the same as that of FIG. Further, the operation of the display processing unit is also the same as that of the first embodiment.
《2−3》効果
実施の形態2に係る映像合成装置及び映像合成方法によれば、撮像装置Cam1,…,CamNの台数に応じて、入力映像データのデコード負荷は増大するが、撮像装置Cam1,…,CamNが取得した映像の映像合成処理の負荷はほとんど増加しない。<2-3> Effects According to the video compositing apparatus and the video compositing method according to the second embodiment, the decoding load of input video data increases according to the number of imaging devices Cam1, ..., CamN. ,... The load of the video synthesis processing of the video acquired by CamN hardly increases.
また、実施の形態2に係る映像合成装置及び映像合成方法では、隣り合って重畳領域を持つ撮像装置の映像間の処理待ちに着目し、第1の参照テーブルを同時に画素代入できるデータのみで構成することで、重畳領域に係る撮像装置Cam1,…,CamNの最大台数のステップ数のみで映像合成処理を実現することができる。これにより、撮像装置Cam1,…,CamNの台数が増加しても、同一処理時間での合成映像が作成可能となる。例えば、俯瞰合成映像の場合、4回のステップで処理が実行可能である。 Further, in the video combining apparatus and the video combining method according to the second embodiment, attention is paid to processing waiting between videos of imaging devices having overlapping regions adjacent to each other, and only data that can simultaneously substitute the first reference table is used. By doing this, it is possible to realize the video composition processing only with the maximum number of steps of the imaging devices Cam1, ..., CamN related to the overlapping area. As a result, even if the number of imaging devices Cam1, ..., CamN increases, it becomes possible to create a composite image in the same processing time. For example, in the case of a bird's eye synthetic video, the process can be performed in four steps.
俯瞰合成映像の場合、図7のように個別カメラの配置を行った場合は、最大4ステップで処理が実行可能となる。 In the case of the bird's-eye synthetic image, when the individual cameras are arranged as shown in FIG. 7, the processing can be performed in up to four steps.
1 映像合成装置、 2 表示装置、 4 映像受信部、 5 パラメータ入力部、 6 映像処理部、 6a 記憶部、 7 表示処理部、 10 メインプロセッサ、 11 メインメモリ、 12 補助メモリ、 13 映像処理プロセッサ、 14 映像処理メモリ、 15 入力インタフェース、 16 ファイルインタフェース、 17 表示インタフェース、 18 映像入力インタフェース、 Cam1,…,Cami,…,CamN 撮像装置(カメラ)。
DESCRIPTION OF
Claims (4)
前記複数の映像を受信する映像受信部と、
前記複数の撮像装置のカメラパラメータが入力されるパラメータ入力部と、
前記複数の映像から前記合成映像を生成する映像処理部と、
を備え、
前記映像処理部は、
予め入力された前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む参照テーブルを作成し、
前記参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成し、
前記映像処理部は、
前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む他の参照テーブルを作成し、
前記他の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成する
ことを特徴とする映像合成装置。 A video combining apparatus that generates one composite video from a plurality of videos acquired by a plurality of imaging devices, the video combining apparatus comprising:
A video receiving unit that receives the plurality of videos;
A parameter input unit to which camera parameters of the plurality of imaging devices are input;
A video processing unit that generates the composite video from the plurality of videos;
Equipped with
The video processing unit
First imaging device identification information for identifying a corresponding imaging device among the plurality of imaging devices for each pixel of the composite video using the camera parameters input in advance, and the first imaging device identification Creating a lookup table including corresponding first pixel locations in the imaging device identified by the information and first weighted coefficients at the corresponding first pixel locations;
With reference to the reference table, for each pixel of the composite video, the first weighted coefficient is applied to the pixel value of the corresponding first pixel position in the imaging device specified by the first imaging device specification information. The composite image is generated by substituting the first value obtained by multiplication .
The video processing unit
Among the plurality of imaging ranges imaged by the plurality of imaging devices, one of the imaging devices having a superimposed region which is an overlapping imaging range is specified for each pixel of the composite video using the camera parameter Second imaging device identification information, a second pixel position corresponding to the overlapping region in the imaging device identified by the second imaging device identification information, and a second pixel position corresponding to the overlapping region Create another lookup table that contains the second weighting factor,
In the image pickup apparatus specified by the second image pickup apparatus specifying information for each pixel corresponding to the second pixel position of the superimposed area among the pixels of the composite video with reference to the other reference table The second value obtained by multiplying the second weighted coefficient by the pixel value of the corresponding pixel position is substituted to perform blending processing, thereby corresponding to the superimposed region of the composite video An image synthesizing apparatus characterized by generating a part .
前記他の参照テーブルは1つのテーブルである
ことを特徴とする請求項1に記載の映像合成装置。 Of the plurality of imaging ranges imaged by the plurality of imaging devices, imaging ranges to be superimposed on each other are superimposed in the left-right direction, and the composite video is a panoramic video,
The video compositing apparatus according to claim 1 , wherein the other reference table is one table.
前記他の参照テーブルは3つのテーブルである
ことを特徴とする請求項1に記載の映像合成装置。 Of the plurality of imaging ranges imaged by the plurality of imaging devices, imaging ranges to be superimposed on each other are superimposed in the vertical and horizontal directions, and the composite video is a bird's-eye view video,
The video compositing apparatus according to claim 1 , wherein the other reference table is three tables.
前記複数の撮像装置について予め入力されたカメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む第1の参照テーブルを作成するステップと、
前記第1の参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成するステップと、
前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む第2の参照テーブルを作成するステップと、
前記第2の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成するステップと
を有することを特徴とする映像合成方法。 A video combining method for generating one composite video from a plurality of videos acquired by a plurality of imaging devices, comprising:
First imaging device identification information for identifying a corresponding imaging device of the plurality of imaging devices for each pixel of the composite image using camera parameters input in advance for the plurality of imaging devices; Creating a first reference table including a corresponding first pixel position in the image pickup device specified by the image pickup device identification information of 1 and a first weighted coefficient at the corresponding first pixel position; ,
With reference to the first reference table, the first weight is assigned to the pixel value of the corresponding first pixel position in the imaging device identified by the first imaging device identification information for each pixel of the composite video Generating the composite image by substituting a first value obtained by multiplying an attached coefficient ;
Among the plurality of imaging ranges imaged by the plurality of imaging devices, one of the imaging devices having a superimposed region which is an overlapping imaging range is specified for each pixel of the composite video using the camera parameter Second imaging device identification information, a second pixel position corresponding to the overlapping region in the imaging device identified by the second imaging device identification information, and a second pixel position corresponding to the overlapping region Creating a second lookup table including a second weighting factor;
An imaging device specified by the second imaging device specifying information for each pixel corresponding to a second pixel position of the overlapping area among the pixels of the composite video with reference to the second reference table The second value obtained by multiplying the pixel value of the corresponding pixel position in the second by the second weighting factor is substituted for the blending processing, thereby corresponding to the superimposed region in the composite video. And V. generating an image portion.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/083316 WO2018087856A1 (en) | 2016-11-10 | 2016-11-10 | Image synthesis device and image synthesis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018087856A1 JPWO2018087856A1 (en) | 2019-04-11 |
JP6513305B2 true JP6513305B2 (en) | 2019-05-15 |
Family
ID=62109506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018549688A Active JP6513305B2 (en) | 2016-11-10 | 2016-11-10 | Video combining apparatus and video combining method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6513305B2 (en) |
WO (1) | WO2018087856A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6833110B2 (en) * | 2018-05-21 | 2021-02-24 | 富士フイルム株式会社 | Image correction device, image correction method, and image correction program |
KR102297683B1 (en) * | 2019-07-01 | 2021-09-07 | (주)베이다스 | Method and apparatus for calibrating a plurality of cameras |
JP7038935B2 (en) * | 2020-03-25 | 2022-03-18 | 三菱電機株式会社 | Image processing device, image processing method, and image processing program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5013773B2 (en) * | 2006-08-18 | 2012-08-29 | パナソニック株式会社 | In-vehicle image processing apparatus and viewpoint conversion information generation method thereof |
WO2015029934A1 (en) * | 2013-08-30 | 2015-03-05 | クラリオン株式会社 | Camera calibration device, camera calibration system, and camera calibration method |
-
2016
- 2016-11-10 JP JP2018549688A patent/JP6513305B2/en active Active
- 2016-11-10 WO PCT/JP2016/083316 patent/WO2018087856A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018087856A1 (en) | 2018-05-17 |
JPWO2018087856A1 (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6330987B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11195253B2 (en) | Equatorial stitching of hemispherical images in a spherical image capture system | |
US9196022B2 (en) | Image transformation and multi-view output systems and methods | |
JP5906028B2 (en) | Image processing apparatus and image processing method | |
JP6882868B2 (en) | Image processing equipment, image processing method, system | |
JP2009124685A (en) | Method and system for combining videos for display in real-time | |
AU2017317839B2 (en) | Panoramic video compression method and device | |
CN111161660A (en) | Data processing system | |
JP6513305B2 (en) | Video combining apparatus and video combining method | |
US20150109408A1 (en) | System and method for capturing and rendering a landscape image or video | |
JP2020173529A (en) | Information processing device, information processing method, and program | |
JP6708444B2 (en) | Image processing apparatus and image processing method | |
JP5847610B2 (en) | Computer graphics image processing system and method using AR technology | |
JP2021140458A5 (en) | ||
JP2019146155A (en) | Image processing device, image processing method, and program | |
JP2019532319A (en) | Composite user interface | |
Shete et al. | Real-time panorama composition for video surveillance using GPU | |
KR20170139816A (en) | Image synthesis method in real time | |
JP2020187529A (en) | Image processing apparatus, image processing system, control method, and program | |
JP2019213164A (en) | Image processing apparatus and image processing method | |
KR102074072B1 (en) | A focus-context display techinique and apparatus using a mobile device with a dual camera | |
JP2023550764A (en) | Methods, devices, smart terminals and media for creating panoramic images based on large displays | |
JP6716019B2 (en) | IMAGE CORRECTION DEVICE, IMAGE CORRECTION METHOD, AND PROGRAM | |
JP2012150614A (en) | Free viewpoint image generation device | |
WO2019163449A1 (en) | Image processing apparatus, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181228 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181228 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6513305 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |