JP6513305B2 - Video combining apparatus and video combining method - Google Patents

Video combining apparatus and video combining method Download PDF

Info

Publication number
JP6513305B2
JP6513305B2 JP2018549688A JP2018549688A JP6513305B2 JP 6513305 B2 JP6513305 B2 JP 6513305B2 JP 2018549688 A JP2018549688 A JP 2018549688A JP 2018549688 A JP2018549688 A JP 2018549688A JP 6513305 B2 JP6513305 B2 JP 6513305B2
Authority
JP
Japan
Prior art keywords
video
imaging
pixel
imaging device
imaging devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018549688A
Other languages
Japanese (ja)
Other versions
JPWO2018087856A1 (en
Inventor
浩平 岡原
浩平 岡原
古木 一朗
一朗 古木
司 深澤
司 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018087856A1 publication Critical patent/JPWO2018087856A1/en
Application granted granted Critical
Publication of JP6513305B2 publication Critical patent/JP6513305B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数の撮像装置によって取得された複数の映像(すなわち、複数の映像データ)から1つの合成映像を生成するための映像合成装置及び映像合成方法に関する。   The present invention relates to a video combining apparatus and a video combining method for generating one composite video from a plurality of videos (that is, a plurality of video data) acquired by a plurality of imaging devices.

映像の撮影画角を広げるために、複数の撮像装置(すなわち、複数台のカメラ)による撮影で取得された複数の映像を合成して、1つの合成映像を生成する映像合成処理が知られている(例えば、特許文献1、2、及び3参照)。通常、1つの合成映像を生成するための映像合成処理では、複数の撮像装置から出力された複数の映像の各々に対して、レンズ歪補正処理、視点変換処理、投影変換処理等の映像処理が行われる。これらの映像処理の処理負荷は非常に大きいので、これらの映像処理を、通常の演算装置(CPU:Central Processing Unit)によって実時間で行うことは難しい。そこで、従来の装置では、通常の演算装置と並列的に動作することができる並列演算装置であるGPU(Graphics Processing Unit)によって映像合成処理が行われる。   In order to widen the shooting angle of view of a video, video combining processing is known which combines a plurality of videos acquired by shooting with a plurality of imaging devices (that is, a plurality of cameras) to generate one composite video. (See, for example, Patent Documents 1, 2 and 3). Usually, in video composition processing for generating one composite video, video processing such as lens distortion correction processing, viewpoint conversion processing, and projection conversion processing is performed on each of a plurality of videos output from a plurality of imaging devices. To be done. Since the processing load of these video processing is very large, it is difficult to perform these video processing in real time by a normal processing unit (CPU: Central Processing Unit). Therefore, in the conventional device, the video composition processing is performed by a GPU (Graphics Processing Unit) which is a parallel processing device capable of operating in parallel with a normal processing device.

特許第4744823号公報Patent No. 4744823 特開2015−207802号公報JP, 2015-207802, A 特開2016−066842号公報JP, 2016-066842, A

しかしながら、GPU等の並列演算装置を用いた場合においても、映像合成処理の負荷は、撮像装置の台数の増加(すなわち、合成される映像の数の増加)に伴って大きくなる。特に、投影変換処理において、撮像装置による撮像範囲間の境界部である重畳領域における映像にブレンド処理を行う際には、重畳領域における複数の映像が入力されるまで処理待ちが発生するため、映像合成処理に要する処理時間が長くなるという課題がある。   However, even in the case of using a parallel computing device such as a GPU, the load of the video synthesizing process increases as the number of imaging devices increases (that is, the number of images to be synthesized increases). In particular, when performing blending processing on an image in a superimposed region which is a boundary between imaging ranges by the imaging device in the projection conversion processing, processing waiting occurs until a plurality of images in the superimposed region are input. There is a problem that the processing time required for the combining process becomes long.

本発明は、上記従来の課題を解決するためになされたものであり、その目的は、撮像装置の数が増加した場合であっても、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成処理を短時間で行うことができる映像合成装置及び映像合成方法を提供することにある。   The present invention has been made to solve the above-described conventional problems, and an object thereof is to provide one image from a plurality of videos acquired by a plurality of imaging devices even when the number of imaging devices is increased. An object of the present invention is to provide a video combining apparatus and a video combining method capable of performing video combining processing for generating a combined video in a short time.

本発明の一態様に係る映像合成装置は、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成装置であって、前記複数の映像を受信する映像受信部と、前記複数の撮像装置のカメラパラメータが入力されるパラメータ入力部と、前記複数の映像から前記合成映像を生成する映像処理部と、を備え、前記映像処理部は、予め入力された前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む参照テーブルを作成し、前記参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成し、前記映像処理部は、前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む他の参照テーブルを作成し、前記他の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成するものである。 The video compositing apparatus according to an aspect of the present invention is a video compositing apparatus that generates one composite video from a plurality of videos acquired by a plurality of imaging devices, and a video receiving unit that receives the plurality of videos. The image processing apparatus further includes: a parameter input unit to which camera parameters of the plurality of imaging devices are input; and a video processing unit that generates the composite video from the plurality of videos, and the video processing unit In the imaging device specified by the first imaging device specifying information for specifying the corresponding imaging device among the plurality of imaging devices for each pixel of the composite video using the first imaging device specifying information Creating a reference table including a corresponding first pixel position and a first weighted coefficient at the corresponding first pixel position, and referring to the reference table to draw the image of the composite image Each time, the first value obtained by multiplying the first weighted coefficient by the pixel value of the corresponding first pixel position in the imaging device specified by the first imaging device specifying information is substituted. By doing this, the composite video is generated, and the video processing unit uses the camera parameters to set each of the pixels of the composite video among the plurality of imaging ranges captured by the plurality of imaging devices. A second imaging device identification information identifying one of the imaging devices having a superimposed region which is an imaging range to be superimposed, and a second corresponding to the superimposed region in the imaging device identified by the second imaging device identification information Creating another reference table including the pixel position of the pixel and the second weighted coefficient at the second pixel position corresponding to the overlapping area, and referring to the other The pixel value of the corresponding pixel position in the imaging device specified by the second imaging device specifying information is multiplied by the second weighted coefficient for each pixel corresponding to the second pixel position in the overlapping area. By substituting the second value obtained by performing the blending process and performing the blending process, a portion corresponding to the superimposed region in the composite image is generated .

本発明の他の態様に係る映像合成方法は、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成方法であって、前記複数の撮像装置について予め入力されたカメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む第1の参照テーブルを作成するステップと、前記第1の参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成するステップと、前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む第2の参照テーブルを作成するステップと、前記第2の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成するステップとを有するものである。 A video combining method according to another aspect of the present invention is a video combining method for generating one combined video from a plurality of videos acquired by a plurality of imaging devices, and a camera input in advance for the plurality of imaging devices. First imaging device identification information for identifying a corresponding imaging device among the plurality of imaging devices for each pixel of the composite video using a parameter, and imaging identified by the first imaging device identification information Creating a first lookup table including corresponding first pixel locations in the device and first weighted coefficients at the corresponding first pixel locations, with reference to the first lookup table The pixel value of the corresponding first pixel position in the imaging device specified by the first imaging device specification information is multiplied by the first weighted coefficient for each pixel of the composite video. By substituting the first value that is, the step of generating the synthesized image, using the camera parameters, for each pixel of the composite image, the plurality of imaging range to be imaged by the plurality of imaging devices The second imaging device identification information for identifying one of the imaging devices having an overlapping region which is an imaging range to overlap with each other, and the overlapping region in the imaging device identified by the second imaging device identification information Creating a second reference table including a corresponding second pixel position and a second weighted coefficient at a second pixel position corresponding to the overlapping area; and referring to the second reference table Of the pixels of the composite image, the corresponding pixels in the imaging device specified by the second imaging device specifying information for each pixel corresponding to the second pixel position of the overlapping area By substituting the second value obtained by multiplying the second weighted coefficient by the pixel value of the pixel and performing the blending process, a portion corresponding to the superimposed area in the composite video is generated And the step of

本発明によれば、撮像装置の数が増加した場合であっても、複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成処理を短時間で行うことができる。   According to the present invention, even when the number of imaging devices increases, it is possible to perform, in a short time, video combining processing for generating one composite video from a plurality of videos acquired by a plurality of imaging devices.

本発明の実施の形態1に係る映像合成装置の構成を概略的に示す機能ブロック図である。FIG. 1 is a functional block diagram schematically showing a configuration of a video synthesis apparatus according to Embodiment 1 of the present invention. 実施の形態1に係る映像合成装置を概略的に示すハードウェア構成図である。FIG. 1 is a hardware configuration diagram schematically showing a video synthesis apparatus according to Embodiment 1. 実施の形態1に係る映像合成装置における合成映像の画素と複数の撮像装置の画素との対応関係の例を示す図である。FIG. 7 is a diagram showing an example of the correspondence between pixels of a synthesized video and pixels of a plurality of imaging devices in the video synthesizing apparatus according to Embodiment 1; 実施の形態1に係る映像合成装置における複数の撮像装置の撮像範囲の重畳領域の例を示す図である。FIG. 6 is a diagram showing an example of a superimposed region of imaging ranges of a plurality of imaging devices in the video compositing device according to Embodiment 1. 実施の形態1に係る映像合成装置において第1の参照テーブルに含まれる撮像装置の画素の範囲を示す図である。FIG. 7 is a diagram showing the range of pixels of the imaging device included in the first reference table in the video compositing device according to the first embodiment. 実施の形態1に係る映像合成装置において第2の参照テーブルに含まれる撮像装置の画素の範囲を示す図である。FIG. 7 is a diagram showing the range of pixels of the imaging device included in the second reference table in the video compositing device according to the first embodiment. 実施の形態1に係る映像合成装置の動作(すなわち、実施の形態1に係る映像合成方法)を示すフローチャートである。7 is a flowchart showing an operation of the video combining apparatus according to Embodiment 1 (that is, a video combining method according to Embodiment 1). 実施の形態2に係る映像合成装置における複数の撮像装置の台形状の撮像範囲の重畳領域の例を示す図である。FIG. 16 is a diagram illustrating an example of a superimposed region of trapezoidal imaging ranges of a plurality of imaging devices in the video compositing device according to the second embodiment. 実施の形態2に係る映像合成装置における複数の撮像装置の撮像範囲を簡素化した例を示す図である。FIG. 14 is a diagram showing an example in which the imaging ranges of a plurality of imaging devices in the video compositing device according to the second embodiment are simplified. 実施の形態2に係る映像合成装置における第1の参照テーブルに含まれる撮像装置の画素の範囲を示す図である。FIG. 16 is a diagram showing the range of pixels of the imaging device included in the first reference table in the video compositing device according to the second embodiment. 実施の形態2に係る映像合成装置における第2の参照テーブルに含まれる撮像装置の画素の範囲(重畳領域)を示す図である。FIG. 16 is a diagram showing a range (superimposed region) of pixels of an imaging device included in a second reference table in the video compositing device according to the second embodiment. 実施の形態2に係る映像合成装置における第3の参照テーブルに含まれる撮像装置の画素の範囲(重畳領域)を示す図である。FIG. 16 is a diagram showing a range (superimposed area) of pixels of the imaging device included in the third reference table in the video compositing device according to the second embodiment. 実施の形態2に係る映像合成装置における第4の参照テーブルに含まれる撮像装置の画素の範囲(重畳領域)を示す図である。FIG. 16 is a diagram showing a range (superimposed region) of pixels of the imaging device included in the fourth reference table in the video compositing device according to the second embodiment.

《1》実施の形態1
《1−1》構成
図1は、本発明の実施の形態1に係る映像合成装置1の構成を概略的に示す機能ブロック図である。映像合成装置1は、実施の形態1に係る映像合成方法を実施することができる装置である。映像合成装置1は、複数の撮像装置(すなわち、複数台のカメラ)Cam1,…,Cami,…,CamNから出力された複数の映像(すなわち、複数の映像データ)から1つの合成映像(すなわち、1つの合成映像データ)を生成する。Nは2以上の整数であり、iは1以上N以下の任意の整数である。映像が動画像である場合には、映像合成装置1は、N台の撮像装置Cam1,…,CamNから出力されたN枚の映像フレームから1枚の合成映像フレームを作成する処理を、撮像装置Cam1,…,CamNから映像フレームが入力される度に繰り返し行うことで、合成映像データとしての動画像データを生成する。生成された合成映像データは、表示装置2に出力される。表示装置2は、受信した合成映像データに基づく映像を表示する。
<< 1 >> Embodiment 1
<< 1-1 >> Configuration FIG. 1 is a functional block diagram schematically showing a configuration of a video combining device 1 according to Embodiment 1 of the present invention. The video compositing apparatus 1 is an apparatus capable of implementing the video compositing method according to the first embodiment. The video compositing apparatus 1 includes one composite video (i.e., a plurality of video data) output from a plurality of imaging devices (i.e., a plurality of cameras) Cam1, ..., Cami, ..., CamN. Generate one composite video data). N is an integer of 2 or more, and i is an arbitrary integer of 1 or more and N or less. When the video is a moving image, the video compositing device 1 performs processing for creating one composite video frame from the N video frames output from the N imaging devices Cam1, ..., CamN. Repeatedly every time a video frame is input from Cam1, ..., CamN, moving image data as composite video data is generated. The generated composite video data is output to the display device 2. The display device 2 displays a video based on the received composite video data.

合成映像の例は、広い視野を持つ横長の映像であるパノラマ映像及び高い位置から見下ろした映像である俯瞰映像等である。実施の形態1においては、複数の撮像装置によって取得された左右方向(一次元方向)に並ぶ複数の映像を合成することによって生成された合成映像がパノラマ映像である場合を説明する。また、後述の実施の形態2においては、複数の撮像装置によって取得された上下左右方向(二次元方向)に並ぶ複数の映像を合成することによって生成された合成映像が俯瞰映像である場合を説明する。映像合成装置1は、合成映像の画素に対応する、撮像装置Cam1,…,CamNの画素に関する情報を持つ参照テーブルを予め作成し、この参照テーブルを用いて合成映像の画素の画素値を設定(代入)する。   Examples of the composite video are a panoramic video which is a horizontally long video having a wide field of view and a overhead video which is a video viewed down from a high position. In the first embodiment, a case will be described where a composite video generated by combining a plurality of videos aligned in the left-right direction (one-dimensional direction) acquired by a plurality of imaging devices is a panoramic video. Further, in the second embodiment described later, the case where the composite video generated by combining the plurality of videos arranged in the vertical and horizontal directions (two-dimensional direction) acquired by the plurality of imaging devices is a bird's eye view Do. The image synthesizing device 1 creates in advance a reference table having information on the pixels of the imaging devices Cam1, ..., CamN corresponding to the pixels of the synthesized image, and sets the pixel values of the pixels of the synthesized image using this reference table ( substitute.

図1に示されるように、実施の形態1に係る映像合成装置1は、映像受信部4と、パラメータ入力部5と、記憶部6aを有する映像処理部6と、表示処理部7とを具備している。記憶部6aは、映像処理部6の外部に備えられてもよい。図1に示される映像合成装置1は、ソフトウェアとしてのプログラムを格納する記憶部6aとしてのメモリと、メモリに格納されたプログラムを実行する情報処理部としてのプロセッサとを用いて(例えば、コンピュータにより)実現することができる。なお、図1に示される映像合成装置1の一部を、プログラムを格納するメモリと、このプログラムを実行するプロセッサとによって実現してもよい。   As shown in FIG. 1, the video combining apparatus 1 according to the first embodiment includes a video receiving unit 4, a parameter input unit 5, a video processing unit 6 having a storage unit 6a, and a display processing unit 7. doing. The storage unit 6 a may be provided outside the video processing unit 6. The video synthesizing apparatus 1 shown in FIG. 1 uses a memory as a storage unit 6a for storing a program as software and a processor as an information processing unit for executing a program stored in the memory (for example, by a computer) ) Can be realized. Note that a part of the video synthesizing apparatus 1 shown in FIG. 1 may be realized by a memory for storing a program and a processor for executing the program.

映像受信部4は、複数の撮像装置Cam1,…,CamNから出力された複数の映像データを受信し、受信した映像データを映像処理部6に出力する。なお、映像データのデコード処理を映像受信部4で行い、デコードされた映像データを映像処理部6に出力してもよい。   The video receiving unit 4 receives a plurality of video data output from the plurality of imaging devices Cam 1,..., Cam N, and outputs the received video data to the video processing unit 6. The video data may be decoded by the video reception unit 4 and the decoded video data may be output to the video processing unit 6.

パラメータ入力部5は、予め行われたキャリブレーション、すなわち、レンズ及びイメージセンサの撮像素子のパラメータ推定によって得られた複数の撮像装置Cam1,…,CamNについてのカメラパラメータを示す情報を受け取り、映像処理部6に出力する。カメラパラメータは、例えば、撮像装置Cam1,…,CamNに固有のカメラパラメータである内部パラメータ、世界座標系における撮像装置Cam1,…,CamNの位置姿勢を示すカメラパラメータである外部パラメータ、撮像装置Cam1,…,CamNのレンズに特有の歪(例えば、レンズの半径方向の歪及びレンズの円周方向の歪)を補正するために使用されるレンズ歪補正係数(例えば、レンズ歪補正マップ)等を含む。   The parameter input unit 5 receives information indicating camera parameters for the plurality of imaging devices Cam1, ..., CamN obtained by calibration performed in advance, that is, estimation of parameters of the lens and the imaging device of the image sensor, and image processing Output to section 6. The camera parameters are, for example, internal parameters that are camera parameters unique to the imaging devices Cam1, ..., CamN, external parameters that are camera parameters indicating the position and orientation of the imaging devices Cam1, ..., CamN in the world coordinate system, the imaging devices Cam1, ... ..., including lens distortion correction coefficients (eg, lens distortion correction map) and the like used to correct distortion specific to the lens of CamN (eg, distortion in the radial direction of the lens and distortion in the circumferential direction of the lens) .

実施の形態1においては、映像処理部6は、予め行われたキャリブレーションによって算出されたカメラパラメータを用いて、初期化時に映像合成用の参照テーブルを作成し、この参照テーブルを記憶部6aに格納する。映像処理部6は、参照テーブルを参照して、映像受信部4から出力された複数の映像データ(映像フレーム)から合成映像データを生成する。   In the first embodiment, the video processing unit 6 creates a reference table for video composition at the time of initialization using the camera parameters calculated by calibration performed in advance, and stores the reference table in the storage unit 6a. Store. The video processing unit 6 generates composite video data from a plurality of video data (video frames) output from the video reception unit 4 with reference to the reference table.

表示処理部7は、映像処理部6で生成された合成映像データを表示装置2に出力する。   The display processing unit 7 outputs the composite video data generated by the video processing unit 6 to the display device 2.

図2は、実施の形態1に係る映像合成装置1を概略的に示すハードウェア構成図である。映像合成装置1は、メインプロセッサ10と、メインメモリ11と、補助メモリ12と、GPU等の並列演算装置である映像処理プロセッサ13と、映像処理メモリ14と、入力インタフェース15と、ファイルインタフェース16と、表示インタフェース17と、映像入力インタフェース18とを具備している。   FIG. 2 is a hardware configuration diagram schematically showing the video combining apparatus 1 according to the first embodiment. The video synthesizing device 1 includes a main processor 10, a main memory 11, an auxiliary memory 12, a video processing processor 13 which is a parallel computing device such as a GPU, a video processing memory 14, an input interface 15, and a file interface 16. , Display interface 17 and video input interface 18.

図1の映像処理部6は、図2に示されるメインプロセッサ10、メインメモリ11、補助メモリ12、映像処理プロセッサ13、及び映像処理メモリ14を含む。また、図1の記憶部6aは、図2に示されるメインメモリ11、補助メモリ12、及び映像処理メモリ14を含む。また、図1のパラメータ入力部5は、図2に示されるファイルインタフェース16を含む。また、図1の映像受信部4は、図2に示される映像入力インタフェース18を含む。また、図1の表示処理部7は、図2に示される表示インタフェース17を含む。ただし、図2は、図1に示される映像合成装置1のハードウェア構成の一例を示しているに過ぎず、ハードウェア構成は種々の変更が可能である。また、図1に示される機能ブロック4〜7と、図2に示されるハードウェア構成10〜18の対応関係も上記例に限定されない。   The video processing unit 6 of FIG. 1 includes the main processor 10, the main memory 11, the auxiliary memory 12, the video processing processor 13, and the video processing memory 14 shown in FIG. Further, the storage unit 6a of FIG. 1 includes the main memory 11, the auxiliary memory 12, and the video processing memory 14 shown in FIG. Further, the parameter input unit 5 of FIG. 1 includes the file interface 16 shown in FIG. Further, the video receiving unit 4 of FIG. 1 includes the video input interface 18 shown in FIG. Further, the display processing unit 7 of FIG. 1 includes the display interface 17 shown in FIG. However, FIG. 2 only shows an example of the hardware configuration of the video combining apparatus 1 shown in FIG. 1, and the hardware configuration can be variously changed. Further, the correspondence between the functional blocks 4 to 7 shown in FIG. 1 and the hardware configurations 10 to 18 shown in FIG. 2 is not limited to the above example.

図1のパラメータ入力部5は、予め実行されたキャリブレーションによって算出したカメラパラメータ情報を、ファイルインタフェース16を補助メモリ12から取得し、メインメモリ11に書き込む。   The parameter input unit 5 of FIG. 1 acquires camera parameter information calculated by calibration performed in advance from the auxiliary memory 12 and writes the file interface 16 in the main memory 11.

補助メモリ12は、予め実行されたキャリブレーションによって算出されたカメラパラメータを保存してもよい。また、メインプロセッサ10は、カメラパラメータを、ファイルインタフェース16を通じて、メインメモリ11に保存してもよい。また、メインプロセッサ10は、静止画から合成映像を作成する場合に、補助メモリ12に静止画ファイルを保存してもよい。   The auxiliary memory 12 may store camera parameters calculated by calibration performed in advance. Also, the main processor 10 may store camera parameters in the main memory 11 through the file interface 16. Further, the main processor 10 may store the still image file in the auxiliary memory 12 when creating a composite image from the still image.

入力インタフェース15は、マウス入力、キーボード入力、タッチパネル入力等のデバイス入力を受け付け、入力情報をメインプロセッサ10に送る。   The input interface 15 receives device input such as mouse input, keyboard input, touch panel input, etc., and sends input information to the main processor 10.

映像処理メモリ14は、メインメモリ11から転送された入力映像データ、及び映像処理プロセッサ13で作成された合成映像データを記憶する。   The video processing memory 14 stores input video data transferred from the main memory 11 and composite video data created by the video processing processor 13.

表示インタフェース17と表示装置2とは、HDMI(登録商標)(High−Definition Multimedia Interface)ケーブル等によって接続される。合成映像は、表示処理部7としての表示インタフェース17を経由して表示装置2に出力される。   The display interface 17 and the display device 2 are connected by an HDMI (registered trademark) (High-Definition Multimedia Interface) cable or the like. The composite video is output to the display device 2 via the display interface 17 as the display processing unit 7.

映像受信部4としての映像入力インタフェース18は、映像合成装置1に接続された撮像装置Cam1,…,CamNの映像入力を受け付け、入力映像をメインメモリ11に記憶させる。撮像装置Cam1,…,CamNは、例えば、ネットワークカメラ、アナログカメラ、USB(Universal Serial Bus)カメラ、HD−SDI(High Definition Serial Digital Interface)カメラ等である。なお、映像入力インタフェース18としては、接続されるデバイスに適合した規格のものが使用される。   The video input interface 18 as the video receiving unit 4 receives video input of the imaging devices Cam1, ..., CamN connected to the video combining device 1, and stores the input video in the main memory 11. The imaging devices Cam1, ..., CamN are, for example, a network camera, an analog camera, a USB (Universal Serial Bus) camera, an HD-SDI (High Definition Serial Digital Interface) camera, and the like. Note that as the video input interface 18, a standard conforming to the device to be connected is used.

《1−2》動作
[初期化処理]
まず、図1における映像処理部6は、作成する合成映像の解像度W_synth×H_synthを決定し、図1における記憶部6aに合成映像を格納するためのメモリ領域を確保する。ここで、W_synthは、矩形の合成映像の水平方向の画素数を示し、H_synthは、合成映像の垂直方向の画素数を示す。この処理を、図2を用いて言い換えれば、映像処理プロセッサ13は、作成する合成映像の解像度W_synth×H_synthを決定し、映像処理メモリ14に合成映像を格納するためのメモリ領域を確保する。
<< 1-2 >> Operation [initialization process]
First, the video processing unit 6 in FIG. 1 determines the resolution W_synth × H_synth of the composite video to be created, and secures a memory area for storing the composite video in the storage unit 6 a in FIG. 1. Here, W_synth indicates the number of pixels in the horizontal direction of the rectangular composite video, and H_synth indicates the number of pixels in the vertical direction of the composite video. In other words, the video processing processor 13 determines the resolution W_synth × H_synth of the composite video to be created, and secures a memory area for storing the composite video in the video processing memory 14.

次に、図1における映像処理部6は、図1におけるパラメータ入力部5から入力された撮像装置Cam1,…,CamNのカメラパラメータ(内部パラメータ、外部パラメータ、レンズ歪補正データ及び投影面等)から、撮像装置Cam1,…,CamNについての参照テーブルを作成して、記憶部6aに格納する。この処理を、図2を用いて言い換えれば、映像処理プロセッサ13は、ファイルインタフェース16から入力された撮像装置Cam1,…,CamNのカメラパラメータから、撮像装置Cam1,…,CamNについての参照テーブルを作成して、映像処理メモリ14に格納する。   Next, the image processing unit 6 in FIG. 1 receives the camera parameters (internal parameters, external parameters, lens distortion correction data, projection plane, etc.) of the imaging devices Cam1, ..., CamN input from the parameter input unit 5 in FIG. Reference tables for the imaging devices Cam1, ..., CamN are created and stored in the storage unit 6a. In other words, the video processing processor 13 creates a reference table for the imaging devices Cam1, ..., CamN from the camera parameters of the imaging devices Cam1, ..., CamN input from the file interface 16, in other words, using FIG. And store in the video processing memory 14.

図3は、実施の形態1に係る映像合成装置1における合成映像の画素と複数の撮像装置Cam1,…,CamNの画素との対応関係の例を示す図である。
撮像装置Cam1,…,CamNについての参照テーブルは、図3に示されるように、合成映像の画素に対応する、撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)、並びに、対応する撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)におけるα値(アルファ値)を記憶する。x_cam1は、カメラ番号i=1である撮像装置Cam1のイメージセンサの画素のx座標を示し、y_cam1は、カメラ番号i=1である撮像装置Cam1のイメージセンサの画素のy座標を示す。α値は、撮像装置Cam1,…,CamNの撮像範囲の重畳領域のブレンド処理に利用する重み付き係数である。α値は、ピクセルデータの不透明度を示すカメラパラメータであり、0から1の範囲内の値であり、α値=0は完全透明を表し、α値=1は完全不透明を表す。
FIG. 3 is a diagram showing an example of the correspondence between the pixels of the composite video and the pixels of the plurality of imaging devices Cam1, ..., CamN in the video combining apparatus 1 according to the first embodiment.
The reference tables for the imaging devices Cam1, ..., CamN are, as shown in Fig. 3, the pixels (x_cam1, y_cam1), ..., (x_camN, y_camN) of the imaging devices Cam1, ..., CamN corresponding to the pixels of the composite image. And the α values (alpha values) in the pixels (x_cam1, y_cam1),..., (X_camN, y_camN) of the corresponding imaging devices Cam1,. x_cam1 indicates the x-coordinate of the pixel of the image sensor of the imaging device Cam1 in which the camera number i = 1, and y_cam1 indicates the y-coordinate of the pixel of the image sensor of the imaging device Cam1 in which the camera number i = 1. The α value is a weighting coefficient used for blending processing of superimposed regions of imaging ranges of the imaging devices Cam1, ..., CamN. The α value is a camera parameter indicating the opacity of pixel data, and is a value within the range of 0 to 1, where α value = 0 represents complete transparency and α value = 1 represents complete opacity.

合成映像の画素に対応する撮像装置Cam1,…,CamNの画素が存在しない場合は、参照テーブルに対応画素が存在しないことを示す値を設定する。撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)と合成映像の画素(x_synth,y_synth)との対応は、定義した投影面上の座標から投影変換処理前の座標、視点変換処理前の座標、レンズ歪補正処理前の座標と逆算することにより算出することができる。x_synthは、合成映像の画素のx座標を示し、y_synthは、合成映像の画素のy座標を示す。参照テーブルを利用すると、映像合成処理は、合成映像の画素(x_synth,y_synth)の画素値として、合成映像の画素(x_synth,y_synth)に対応する撮像装置Cam1,…,CamNの画素(x_cam1,y_cam1),…,(x_camN,y_camN)の画素値を代入する処理である。
ただし、撮像装置Cam1,…,CamNの参照テーブルを順に利用して映像合成処理を行う場合には、撮像装置Cam1,…,CamNの台数の増加に比例して処理時間が増加する。また、GPU等の並列演算装置を利用する場合であっても、重畳領域においてブレンド処理を行う際に、処理待ちが発生するため、撮像装置Cam1,…,CamNの台数の増加に伴って処理時間が増加する。
When there is no pixel of the imaging devices Cam1, ..., CamN corresponding to the pixel of the composite video, a value indicating that the corresponding pixel is not present is set in the reference table. The correspondence between the pixels (x_cam1, y_cam1),..., (X_camN, y_camN) of the imaging devices Cam1, ..., CamN and the pixels (x_synth, y_synth) of the composite image is calculated from the defined coordinates on the projection plane before the projection conversion process. It can be calculated by back-calculating coordinates, coordinates before viewpoint conversion processing, and coordinates before lens distortion correction processing. x_synth indicates the x-coordinate of the pixel of the composite video, and y_synth indicates the y-coordinate of the pixel of the composite video. When the reference table is used, the video synthesis processing is performed using the pixels (x_cam1, y_cam1) of the imaging devices Cam1, ..., CamN corresponding to the pixels (x_synth, y_synth) of the composite video as the pixel values of the pixels (x_synth, y_synth) of the composite video. ,..., (X_camN, y_camN) is a process of substituting pixel values.
However, when the video synthesis process is performed using the reference tables of the imaging devices Cam1, ..., CamN in order, the processing time increases in proportion to the increase in the number of imaging devices Cam1, ..., CamN. In addition, even when using a parallel computing device such as a GPU, processing delay occurs when performing blending processing in the overlap region, so processing time is increased as the number of imaging devices Cam1, ..., CamN increases. Will increase.

図4は、実施の形態1に係る映像合成装置1における複数の撮像装置Cam1,…,Cam4の撮像範囲の重畳領域の例を示す図である。通常、図4に示されるようなパノラマ合成映像を作成する際には、隣接する撮像装置Cam1,…,Cam4の撮像範囲に重畳領域が存在する。重畳領域には、ブレンド処理を適用するが、異なる撮像装置Cam1,…,Cam4の画素値を参照し、この画素値に重み付き係数αを乗算して重み付けを行い、重み付けされた画素値を合成映像の対応する画素の画素値として代入(ブレンド)するため、撮像装置Cam1,…,Cam4から出力された映像データについて処理待ち時間が発生する。なお、重畳領域ではブレンド処理が行われるので、重畳領域をブレンド領域とも言う。   FIG. 4 is a diagram showing an example of the overlapping area of the imaging ranges of the plurality of imaging devices Cam1, ..., Cam4 in the video synthesizing apparatus 1 according to the first embodiment. Usually, when creating a panoramic composite image as shown in FIG. 4, a superimposed region exists in the imaging range of the adjacent imaging devices Cam1, ..., Cam4. Blending is applied to the superimposed region, but the pixel values of different imaging devices Cam1, ..., Cam4 are referred to, weighting is performed by multiplying the pixel value by the weighting coefficient α, and the weighted pixel values are combined. Since substitution (blending) is performed as the pixel value of the corresponding pixel of the video, processing waiting time occurs for the video data output from the imaging devices Cam1, ..., Cam4. Note that, since blending processing is performed in the overlapping region, the overlapping region is also referred to as a blending region.

図5は、実施の形態1に係る映像合成装置1において参照テーブル(第1の参照テーブル)に含まれる撮像装置Cam1,…,Cam4の画素の範囲を示す図である。また、図6は、実施の形態1に係る映像合成装置1において他の参照テーブル(第2の参照テーブル)に含まれる撮像装置Cam1,…,Cam4の画素の範囲を示す図である。実施の形態1に係る映像合成装置1では、映像処理部6は、撮像装置Cam1,…,CamNの参照テーブルから映像合成用の参照テーブルを作成する。この映像合成用の参照テーブルは、ブレンド領域の上側(左側の撮像装置)とブレンド領域の下側(右側の撮像装置)の情報を保持した2枚の参照テーブル、すなわち、図5に示される第1の参照テーブルと図6に示される第2の参照テーブルとから構成される。   FIG. 5 is a diagram showing the range of pixels of the imaging devices Cam1, ..., Cam4 included in the reference table (first reference table) in the video compositing device 1 according to the first embodiment. Further, FIG. 6 is a diagram showing the range of the pixels of the imaging devices Cam1, ..., Cam4 included in another reference table (second reference table) in the video combining apparatus 1 according to the first embodiment. In the video combining apparatus 1 according to the first embodiment, the video processing unit 6 creates a reference table for video combining from the reference tables of the imaging devices Cam1, ..., CamN. The reference table for image composition is a two reference table holding information on the upper side of the blend area (the image pickup device on the left side) and the lower side of the blend region (the image pickup device on the right side). It consists of one reference table and the second reference table shown in FIG.

映像合成用の第1の参照テーブルは、第1の撮像装置特定情報としてのカメラ番号iと、対応する撮像装置Camiの画素(x_cami,y_cami)と、対応する撮像装置Camiの画素のα値とを保持する。なお、重畳領域以外の画素のα値は1とする。図5の例では、撮像装置Cam1,…,Cam4が4台である場合を示す。図5は、一例を示すものであり、第1の参照テーブルに含まれる撮像装置Cam1,…,Cam4の画素の範囲は、図5の例に限定されない。   The first reference table for image composition includes the camera number i as the first imaging device specifying information, the pixel (x_cami, y_cami) of the corresponding imaging device Cami, and the α value of the pixel of the corresponding imaging device Cami Hold. The α value of the pixels other than the overlapping region is 1. The example of FIG. 5 shows the case where there are four imaging devices Cam1, ..., Cam4. FIG. 5 shows an example, and the range of the pixels of the imaging devices Cam1, ..., Cam4 included in the first reference table is not limited to the example of FIG.

映像合成用の第2の参照テーブルは、複数の撮像装置Cam1,…,CamNによって撮像される複数の撮像範囲のうちの、重畳領域を持つ撮像装置を特定する第2の撮像装置特定情報としてのカメラ番号iと、対応する撮像装置Camiの画素(x_cami,y_cami)と、対応する撮像装置Camiの重畳領域の画素のα値とを保持する。図6は、一例を示すものであり、第2の参照テーブルに含まれる撮像装置Cam1,…,Cam4の画素の範囲は、図6の例に限定されない。   The second reference table for image composition is used as second imaging device identification information for identifying an imaging device having a superimposed region among a plurality of imaging ranges imaged by a plurality of imaging devices Cam1, ..., CamN. The camera number i, the corresponding pixel (x_cami, y_cami) of the imaging device Cami, and the α value of the pixel of the overlapping region of the corresponding imaging device Cami are held. FIG. 6 shows an example, and the range of the pixels of the imaging devices Cam1, ..., Cam4 included in the second reference table is not limited to the example of FIG.

撮像装置Cam1,…,CamNの撮像範囲の重畳領域以外の画素と重畳領域の左側の撮像装置(又は、右側の撮像装置)に対応する画素とは、合成映像の画素に同時に代入することができる。これらの画素の情報を保持したものは、図5に示される上側の参照テーブル(第1の参照テーブル)である。撮像装置Cam1,…,CamNの撮像範囲の重畳領域の右側の撮像装置(又は、左側の撮像装置)に対応する画素の情報を保持したものは、図6に示される下側の参照テーブル(第2の参照テーブル)である。   The pixels other than the overlapping region of the imaging range of the imaging devices Cam1, ..., CamN and the pixels corresponding to the imaging device on the left side of the overlapping region (or the imaging device on the right side) can be simultaneously substituted into the pixels of the composite image. . What holds the information of these pixels is the upper lookup table (first lookup table) shown in FIG. The lower side reference table shown in FIG. 6 holds information of pixels corresponding to the imaging device (or the imaging device on the left side) on the right side of the overlapping region of the imaging ranges of the imaging devices Cam1, ..., CamN. 2 reference table).

例えば、図5に示される撮像装置Cam1、Cam2、Cam3、及びCam4の撮像範囲の画素の画素値は、第1の参照テーブルを用いて、合成映像の画素に同時に代入することができる。また、図6に示される撮像装置Cam2、Cam3、及びCam4の撮像範囲の重畳領域の画素の画素値は、第2の参照テーブルを用いて、合成映像の画素に同時に代入することができる。実施の形態1においては、GPU等の並列演算装置である映像処理プロセッサを使用し、第1及び第2の参照テーブルを用いることで、映像合成処理に処理待ちが発生せず、撮像装置Cam1,…,CamNの台数に関わらず、2つのステップ、すなわち、第1の参照テーブルを用いた代入処理と第2の参照テーブルを用いた代入処理とで、合成映像を生成することができる。   For example, the pixel values of the pixels in the imaging ranges of the imaging devices Cam1, Cam2, Cam3 and Cam4 shown in FIG. 5 can be simultaneously substituted into the pixels of the composite image using the first reference table. Further, the pixel values of the pixels in the overlap region of the imaging ranges of the imaging devices Cam2, Cam3 and Cam4 shown in FIG. 6 can be simultaneously substituted into the pixels of the composite image using the second reference table. In the first embodiment, by using the video processing processor, which is a parallel computing device such as a GPU, and using the first and second reference tables, no processing waiting occurs in the video combining process, and the imaging devices Cam1, Cam1, The combined video can be generated in two steps, that is, substitution processing using the first reference table and substitution processing using the second reference table, regardless of the number of ..., CamN.

[映像入力処理]
映像受信部4における映像入力インタフェース18は、撮像装置Cam1,…,CamNの1フレーム分の映像データを取得しメインメモリ11に格納される。取得された映像データは、メインメモリ11から映像処理メモリ14に転送される。
[Video input processing]
The video input interface 18 in the video receiving unit 4 acquires video data of one frame of the imaging devices Cam1, ..., CamN, and stores the video data in the main memory 11. The acquired video data is transferred from the main memory 11 to the video processing memory 14.

[映像合成処理]
映像処理部6における映像処理プロセッサ13は、映像処理メモリ14に転送された入力映像の画素値を、第1の参照テーブルと第2の参照テーブルとを用いて、入力映像の画素に対応する合成映像の画素の画素値として代入する。この処理手順を以下に説明する。
[Video composition processing]
The video processing processor 13 in the video processing unit 6 combines the pixel values of the input video transferred to the video processing memory 14 with the first reference table and the second reference table to correspond to the pixels of the input video. It substitutes as the pixel value of the pixel of the image. This processing procedure is described below.

以下の映像合成処理は、映像処理プロセッサ13によって、メインプロセッサ10の処理と並列に実行される。
〈1〉先ず、第1の処理として、映像処理プロセッサ13は、第1の参照テーブルから、合成映像における各画素(x_synth,y_synth)に対応するカメラ番号i、カメラ番号iの撮像装置Camiにおける対応する画素位置(x_cami,y_cami)、及び重み付き係数αを取り出す。
〈2〉次に、第2の処理として、映像処理プロセッサ13は、映像処理メモリ14上のカメラ番号iの入力映像(x_cami,y_cami)の画素値を参照し、この画素値に重み付き係数αを乗算して、映像処理メモリ14上の合成映像(x_synth,y_synth)の画素に代入する。
The following video synthesis processing is executed by the video processing processor 13 in parallel with the processing of the main processor 10.
<1> First, as the first process, the video processing processor 13 determines from the first reference table the camera number i corresponding to each pixel (x_synth, y_synth) in the composite video and the camera number i in the imaging device Cami The pixel position (x_cami, y_cami) and the weighting coefficient α are extracted.
<2> Next, as the second process, the video processing processor 13 refers to the pixel value of the input video (x_cami, y_cami) of the camera number i on the video processing memory 14, and assigns a weighting factor α to this pixel value. And is substituted for the pixel of the composite video (x_synth, y_synth) on the video processing memory 14.

次に、映像処理プロセッサ13は、以下の映像合成処理を、メインプロセッサ10の処理と並列に実行する。
〈3〉先ず、第3の処理として、映像処理プロセッサ13は、第2の参照テーブルから、合成映像における各画素(x_synth,y_synth)に対応するカメラ番号i、カメラ番号iの撮像装置Camiにおける対応する画素位置(x_cami,y_cami)、及び重み付き係数αを取り出す。
〈4〉次に、第4の処理として、映像処理プロセッサ13は、映像処理メモリ14上のカメラ番号iの入力映像(x_cami,y_cami)の画素値を参照し、この画素値に重み付き係数αを乗算して、映像処理メモリ14上の合成映像(x_synth,y_synth)の画素に代入する。これによって、合成映像の重畳領域の画素にブレンド処理が行われる。
Next, the video processing processor 13 executes the following video synthesis processing in parallel with the processing of the main processor 10.
<3> First, as the third process, the video processing processor 13 determines from the second reference table that the imaging device Cami corresponds to the camera number i and the camera number i corresponding to each pixel (x_synth, y_synth) in the composite video. The pixel position (x_cami, y_cami) and the weighting coefficient α are extracted.
<4> Next, as the fourth process, the video processing processor 13 refers to the pixel value of the input video (x_cami, y_cami) of the camera number i on the video processing memory 14, and assigns a weighting factor α to this pixel value. And is substituted for the pixel of the composite video (x_synth, y_synth) on the video processing memory 14. As a result, blending processing is performed on the pixels in the superimposed area of the composite image.

図7は、実施の形態1に係る映像合成装置の動作(すなわち、実施の形態1に係る映像合成方法)を示すフローチャートである。映像処理部6は、初期化処理(ステップS1)にて参照テーブルを作成した後は、映像入力処理(ステップS2)と映像合成処理(ステップS4)を、映像入力が終了するまで(ステップS4)、繰り返し実行する。映像処理部6は、撮像装置Cam1,…,CamNの位置がずれた場合は、映像上の特徴点等を利用して、位置ズレを補正して新たな参照テーブルをバックグラウンドで作成した後、現在使用している参照テーブルを新たな参照テーブルと入れ替えることで、位置合わせされた合成映像を作成することができる。   FIG. 7 is a flowchart showing the operation of the video compositing apparatus according to the first embodiment (that is, the video compositing method according to the first embodiment). After creating the reference table in the initialization process (step S1), the video processing unit 6 continues the video input process (step S2) and the video combining process (step S4) until the video input is completed (step S4) , Repeat. When the positions of the imaging devices Cam1, ..., CamN shift, the video processing unit 6 corrects the positional shift using the feature points on the video and the like, and creates a new reference table in the background, By replacing the currently used reference table with a new reference table, it is possible to create an aligned composite image.

表示処理部7は、映像処理部6で作成された合成映像データとしてのパノラマ合成映像データを表示装置2に送信する。表示装置2は、受信したパノラマ合成映像データに基づく映像を表示する。なお、表示装置2は、パノラマ合成映像を、1枚のディスプレイ画面に表示してもよく、又は、複数枚のディスプレイ画面に渡って表示してもよい。また、表示装置2は、パノラマ合成映像の一部の領域のみを切り出して表示してもよい。   The display processing unit 7 transmits panoramic composite video data as composite video data created by the video processing unit 6 to the display device 2. The display device 2 displays a video based on the received panoramic composite video data. The display device 2 may display the panoramic composite video on one display screen, or may display the panoramic composite video over a plurality of display screens. Further, the display device 2 may cut out and display only a partial area of the panoramic composite video.

《1−3》効果
以上に説明したように、実施の形態1に係る映像合成装置1及び映像合成方法によれば、撮像装置Cam1,…,CamNの台数に応じて、入力映像データのデコード負荷は増大するが、撮像装置Cam1,…,CamNが取得した映像の映像合成処理の負荷はほとんど増加しない。
<< 1-3 >> Effects As described above, according to the video compositing device 1 and the video compositing method according to the first embodiment, the decoding load of input video data according to the number of imaging devices Cam1, ..., CamN. However, the load on the video synthesis processing of the video acquired by the imaging devices Cam1, ..., CamN hardly increases.

また、撮像装置Cam1,…,CamN毎の入力映像にレンズ歪補正処理、視点変換処理、投影変換処理を適用した場合、撮像装置Cam1,…,CamNの台数の増加に伴って処理時間が増加する。また、撮像装置Cam1,…,CamN毎の参照テーブルを用意してレンズ歪補正処理、視点変換処理、投影変換処理をひとまとめにした場合においても、撮像装置Cam1,…,CamN境界の重畳領域における処理待ちが発生するため、撮像装置Cam1,…,CamNの台数の増加に伴って処理時間が増加する。
実施の形態1に係る映像合成装置1及び映像合成方法では、隣り合って重畳領域を持つ撮像装置の映像間の処理待ちに着目し、第1の参照テーブルを同時に画素代入できるデータのみで構成することで、重畳領域に係る撮像装置Cam1,…,CamNの最大台数のステップ数で映像合成処理を実現することができる。つまり、実施の形態1においては、重畳領域に係る撮像装置Cam1,…,CamNの最大台数は2台であるパノラマ合成映像であるため、第1の参照テーブルを用いたステップと第2の参照テーブルを用いたステップとからなる2つのステップで合成処理が実行可能である。
Furthermore, when lens distortion correction processing, viewpoint conversion processing, and projection conversion processing are applied to input images for each of the imaging devices Cam1, ..., CamN, the processing time increases as the number of imaging devices Cam1, ..., CamN increases. . Also, even in the case where lens distortion correction processing, viewpoint conversion processing, and projection conversion processing are collectively performed by preparing a reference table for each of the imaging devices Cam1, ..., CamN, processing in the overlapping region of the imaging devices Cam1, ..., CamN boundary Since waiting occurs, the processing time increases as the number of imaging devices Cam1, ..., CamN increases.
In the video combining apparatus 1 and the video combining method according to the first embodiment, the first reference table is configured with only data that can be substituted into pixels at the same time, paying attention to processing waiting between videos of imaging devices having overlapping regions adjacent to each other. As a result, it is possible to realize the video composition processing with the number of steps of the maximum number of imaging devices Cam1, ..., CamN related to the superimposed region. That is, in the first embodiment, since the maximum number of imaging devices Cam1, ..., CamN relating to the superimposed area is a panoramic composite image having two units, the step using the first reference table and the second reference table The combining process can be performed in two steps consisting of steps using

《2》実施の形態2
《2−1》構成
上記実施の形態1においては、左右方向に並ぶ複数の映像から1つの合成映像(パノラマ映像)を生成するための映像合成装置及び映像合成方法を説明した。これに対し、本発明の実施の形態2では、上下左右方向に並ぶ複数の映像から1つの合成映像(俯瞰映像)を生成するための映像合成装置及び映像合成方法を説明する。
<< 2 >> Second Embodiment
<< 2-1 >> Configuration In the first embodiment, the video combining apparatus and the video combining method for generating one composite video (panoramic video) from a plurality of videos arranged in the left and right direction have been described. On the other hand, in a second embodiment of the present invention, a video combining apparatus and a video combining method for generating one composite video (overview video) from a plurality of videos arranged in the vertical and horizontal directions will be described.

実施の形態2は、複数の撮像装置Cam1,…,CamNの配置の点、及び図1の映像処理部6(又は図2の映像処理プロセッサ)が参照テーブル(第1の参照テーブル)と他の参照テーブル(第2から第4の参照テーブル)を使用して映像合成処理を行う点において、実施の形態1と相違する。これらの点を除き、実施の形態2は、実施の形態1と同じである。したがって、実施の形態2の説明に際しては、実施の形態1の説明で用いた図1、図2及び図7をも参照する。   In the second embodiment, the arrangement of the plurality of imaging devices Cam1, ..., CamN, and the video processing unit 6 (or the video processing processor of FIG. 2) in FIG. 1 are the reference table (first reference table) and others. The second embodiment differs from the first embodiment in that video synthesis processing is performed using reference tables (second to fourth reference tables). Except for these points, the second embodiment is the same as the first embodiment. Therefore, in the description of the second embodiment, reference is also made to FIGS. 1, 2 and 7 used in the description of the first embodiment.

《2−2》動作
図8は、実施の形態2に係る映像合成装置における複数の撮像装置Cam1,…,Cam9の台形状の撮像範囲の重畳領域の例を示す図である。図8に示されるように、俯瞰合成映像を作成する場合、複数の撮像装置Cam1,…,Cam9が取得する映像を視点変換及び投影変換することで、大きな1枚の俯瞰映像を作成することができる。図8は、複数の撮像装置Cam1,…,Cam9の配置の一例を示すものであり、複数の撮像装置の配置方法を限定するものではない。
<< 2-2 >> Operation FIG. 8 is a diagram showing an example of a superimposed region of trapezoidal imaging ranges of a plurality of imaging devices Cam1, ..., Cam9 in the video combining apparatus according to the second embodiment. As shown in FIG. 8, when creating a bird's-eye view composite video, it is possible to create one large bird's-eye view video by performing viewpoint conversion and projection conversion on the images acquired by the plurality of imaging devices Cam1, ..., Cam9. it can. FIG. 8 shows an example of the arrangement of the plurality of imaging devices Cam1, ..., Cam9, and the arrangement method of the plurality of imaging devices is not limited.

図8に示されるように、複数の撮像装置Cam1,…,Cam9を配置した場合、合成映像の重畳領域の同一画素(図8における41)に対応する撮像装置の台数は、上下左右の最大4台となる。パノラマ合成画像の生成と同様に、合成映像の画素に同時に代入可能な画素のみで構成した参照テーブルとして4種類の参照テーブル、すなわち、第1から第4の参照テーブルを作成することで、撮像装置の台数に関わらず、4回のステップで映像合成処理を実行することができる。   As shown in FIG. 8, when a plurality of imaging devices Cam 1,..., Cam 9 are arranged, the number of imaging devices corresponding to the same pixel (41 in FIG. It becomes a stand. Similar to the generation of a panoramic composite image, the imaging device is configured by creating four types of reference tables, that is, first to fourth reference tables, as reference tables configured with only pixels that can be substituted simultaneously into pixels of the composite video. The video composition processing can be executed in four steps regardless of the number of the video signal.

図9は、実施の形態2に係る映像合成装置における複数の撮像装置Cam1,…,Cam9の撮像範囲の重畳領域の例を示す図である。図9では、図8の例を簡素化するために、撮影範囲を長方形に描いている。図10は、実施の形態2に係る映像合成装置における撮像範囲についての第1の参照テーブルを示す図である。図11から図13は、実施の形態2に係る映像合成装置における撮像範囲(重畳領域)についての他の参照テーブルである第2の参照テーブル、第3の参照テーブル、及び第4の参照テーブルを示す図である。図9から図13は、説明を簡単にするため、撮像装置Cam1,…,CamNの投影変換後の映像を長方形で示すが、台形又は他の形状であっても処理は同様である。また、図9から図13に示される第1から第4の参照テーブルは一例であり、参照テーブルの形状及び個数は図9から図13の例に限定されない。   FIG. 9 is a diagram showing an example of the overlapping area of the imaging ranges of the plurality of imaging devices Cam1, ..., Cam9 in the video synthesizing apparatus according to the second embodiment. In FIG. 9, in order to simplify the example of FIG. 8, the imaging range is drawn in a rectangle. FIG. 10 is a diagram showing a first reference table for an imaging range in the video compositing apparatus according to the second embodiment. 11 to 13 are a second reference table, a third reference table, and a fourth reference table, which are other reference tables for the imaging range (superimposed area) in the video compositing apparatus according to the second embodiment. FIG. FIGS. 9 to 13 illustrate rectangular images after projection conversion of the imaging devices Cam 1,..., Cam N in order to simplify the description, but the process is the same even if it has a trapezoidal shape or another shape. The first to fourth reference tables shown in FIGS. 9 to 13 are merely examples, and the shape and number of reference tables are not limited to the examples of FIGS. 9 to 13.

[映像入力処理]
映像受信部4が撮像装置Cam1,…,CamNの1フレーム分の入力映像を取得完了したら、メインメモリ11から映像処理メモリ14に入力映像データを転送する。
[Video input processing]
When the video reception unit 4 completes acquisition of one frame of input video of the imaging devices Cam1, ..., CamN, the input video data is transferred from the main memory 11 to the video processing memory 14.

[映像合成処理]
映像処理メモリ14上に転送された入力映像の画素値を、上記の第1から第4の参照テーブルを用いて合成映像に代入する。処理手順を以下に示す。
[Video composition processing]
The pixel values of the input video transferred to the video processing memory 14 are substituted into the composite video using the first to fourth reference tables. The procedure is shown below.

以下の操作を、映像処理部6の映像処理プロセッサ13が、並列に実行する。
〈11〉第1の処理では、映像処理プロセッサ13は、図10に示される第1の参照テーブルから合成映像における各画素(x_synth,y_synth)に対応するカメラ番号i、カメラ番号iの撮像装置Camiにおける対応する画素位置(x_cami,y_cami)、及び重み付き係数αを取り出す。
〈12〉第2の処理では、映像処理プロセッサ13は、映像処理メモリ14上のカメラ番号iの撮像装置Camiの入力映像の画素(x_cami,y_cami)の画素値を参照し、この画素値に重み付き係数αを乗算して、映像処理メモリ14上の合成映像(x_synth,y_synth)の画素に代入する。
〈13〉第3の処理では、映像処理プロセッサ13は、第2の参照テーブルについて第11の処理と第12の処理と同様の処理を実行する。
〈14〉第4の処理では、映像処理プロセッサ13は、第3の参照テーブルについても、第11の処理と第12の処理と同様の処理を実行する。
〈15〉第5の処理では、映像処理プロセッサ13は、第4の参照テーブルについても、第11の処理と第12の処理と同様の処理を実行する。
また、映像処理部全体の処理手順は図7と同じである。また、表示処理部の動作も実施の形態1のものと同じである。
The video processing processor 13 of the video processing unit 6 executes the following operations in parallel.
<11> In the first process, the video processing processor 13 detects the camera number i corresponding to each pixel (x_synth, y_synth) in the composite video from the first reference table shown in FIG. The corresponding pixel position (x_cami, y_cami) in, and the weighting coefficient α are extracted.
<12> In the second process, the video processing processor 13 refers to the pixel value of the pixel (x_cami, y_cami) of the input video of the imaging device Cami of the camera number i on the video processing memory 14 and weights this pixel value. The coefficient is multiplied and attached to the pixel of the composite video (x_synth, y_synth) on the video processing memory 14.
<13> In the third process, the video processing processor 13 executes the same process as the eleventh process and the twelfth process on the second reference table.
<14> In the fourth process, the video processing processor 13 executes the same process as the eleventh process and the twelfth process on the third reference table.
<15> In the fifth process, the video processing processor 13 executes the same process as the eleventh process and the twelfth process on the fourth reference table.
Further, the processing procedure of the entire video processing unit is the same as that of FIG. Further, the operation of the display processing unit is also the same as that of the first embodiment.

《2−3》効果
実施の形態2に係る映像合成装置及び映像合成方法によれば、撮像装置Cam1,…,CamNの台数に応じて、入力映像データのデコード負荷は増大するが、撮像装置Cam1,…,CamNが取得した映像の映像合成処理の負荷はほとんど増加しない。
<2-3> Effects According to the video compositing apparatus and the video compositing method according to the second embodiment, the decoding load of input video data increases according to the number of imaging devices Cam1, ..., CamN. ,... The load of the video synthesis processing of the video acquired by CamN hardly increases.

また、実施の形態2に係る映像合成装置及び映像合成方法では、隣り合って重畳領域を持つ撮像装置の映像間の処理待ちに着目し、第1の参照テーブルを同時に画素代入できるデータのみで構成することで、重畳領域に係る撮像装置Cam1,…,CamNの最大台数のステップ数のみで映像合成処理を実現することができる。これにより、撮像装置Cam1,…,CamNの台数が増加しても、同一処理時間での合成映像が作成可能となる。例えば、俯瞰合成映像の場合、4回のステップで処理が実行可能である。   Further, in the video combining apparatus and the video combining method according to the second embodiment, attention is paid to processing waiting between videos of imaging devices having overlapping regions adjacent to each other, and only data that can simultaneously substitute the first reference table is used. By doing this, it is possible to realize the video composition processing only with the maximum number of steps of the imaging devices Cam1, ..., CamN related to the overlapping area. As a result, even if the number of imaging devices Cam1, ..., CamN increases, it becomes possible to create a composite image in the same processing time. For example, in the case of a bird's eye synthetic video, the process can be performed in four steps.

俯瞰合成映像の場合、図7のように個別カメラの配置を行った場合は、最大4ステップで処理が実行可能となる。   In the case of the bird's-eye synthetic image, when the individual cameras are arranged as shown in FIG. 7, the processing can be performed in up to four steps.

1 映像合成装置、 2 表示装置、 4 映像受信部、 5 パラメータ入力部、 6 映像処理部、 6a 記憶部、 7 表示処理部、 10 メインプロセッサ、 11 メインメモリ、 12 補助メモリ、 13 映像処理プロセッサ、 14 映像処理メモリ、 15 入力インタフェース、 16 ファイルインタフェース、 17 表示インタフェース、 18 映像入力インタフェース、 Cam1,…,Cami,…,CamN 撮像装置(カメラ)。   DESCRIPTION OF SYMBOLS 1 video synthesizing device, 2 display device, 4 video receiving unit, 5 parameter input unit, 6 video processing unit, 6a storage unit, 7 display processing unit, 10 main processor, 11 main memory, 12 auxiliary memory, 13 video processing processor, 14 image processing memory, 15 input interfaces, 16 file interfaces, 17 display interfaces, 18 image input interfaces, Cam1, ..., Cami, ..., CamN Imaging devices (cameras).

Claims (4)

複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成装置であって、
前記複数の映像を受信する映像受信部と、
前記複数の撮像装置のカメラパラメータが入力されるパラメータ入力部と、
前記複数の映像から前記合成映像を生成する映像処理部と、
を備え、
前記映像処理部は、
予め入力された前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む参照テーブルを作成し、
前記参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成し、
前記映像処理部は、
前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む他の参照テーブルを作成し、
前記他の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成する
ことを特徴とする映像合成装置。
A video combining apparatus that generates one composite video from a plurality of videos acquired by a plurality of imaging devices, the video combining apparatus comprising:
A video receiving unit that receives the plurality of videos;
A parameter input unit to which camera parameters of the plurality of imaging devices are input;
A video processing unit that generates the composite video from the plurality of videos;
Equipped with
The video processing unit
First imaging device identification information for identifying a corresponding imaging device among the plurality of imaging devices for each pixel of the composite video using the camera parameters input in advance, and the first imaging device identification Creating a lookup table including corresponding first pixel locations in the imaging device identified by the information and first weighted coefficients at the corresponding first pixel locations;
With reference to the reference table, for each pixel of the composite video, the first weighted coefficient is applied to the pixel value of the corresponding first pixel position in the imaging device specified by the first imaging device specification information. The composite image is generated by substituting the first value obtained by multiplication .
The video processing unit
Among the plurality of imaging ranges imaged by the plurality of imaging devices, one of the imaging devices having a superimposed region which is an overlapping imaging range is specified for each pixel of the composite video using the camera parameter Second imaging device identification information, a second pixel position corresponding to the overlapping region in the imaging device identified by the second imaging device identification information, and a second pixel position corresponding to the overlapping region Create another lookup table that contains the second weighting factor,
In the image pickup apparatus specified by the second image pickup apparatus specifying information for each pixel corresponding to the second pixel position of the superimposed area among the pixels of the composite video with reference to the other reference table The second value obtained by multiplying the second weighted coefficient by the pixel value of the corresponding pixel position is substituted to perform blending processing, thereby corresponding to the superimposed region of the composite video An image synthesizing apparatus characterized by generating a part .
前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲は、左右方向に重畳し、前記合成映像は、パノラマ映像であり、
前記他の参照テーブルは1つのテーブルである
ことを特徴とする請求項に記載の映像合成装置。
Of the plurality of imaging ranges imaged by the plurality of imaging devices, imaging ranges to be superimposed on each other are superimposed in the left-right direction, and the composite video is a panoramic video,
The video compositing apparatus according to claim 1 , wherein the other reference table is one table.
前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲は、上下左右方向に重畳し、前記合成映像は、俯瞰映像であり、
前記他の参照テーブルは3つのテーブルである
ことを特徴とする請求項に記載の映像合成装置。
Of the plurality of imaging ranges imaged by the plurality of imaging devices, imaging ranges to be superimposed on each other are superimposed in the vertical and horizontal directions, and the composite video is a bird's-eye view video,
The video compositing apparatus according to claim 1 , wherein the other reference table is three tables.
複数の撮像装置で取得された複数の映像から1つの合成映像を生成する映像合成方法であって、
前記複数の撮像装置について予め入力されたカメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置のうちの対応する撮像装置を特定する第1の撮像装置特定情報と、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置と、前記対応する第1の画素位置における第1の重み付き係数とを含む第1の参照テーブルを作成するステップと、
前記第1の参照テーブルを参照して、前記合成映像の画素毎に、前記第1の撮像装置特定情報によって特定された撮像装置における対応する第1の画素位置の画素値に前記第1の重み付き係数を乗算することで得られた第1の値を代入することで、前記合成映像を生成するステップと
前記カメラパラメータを用いて、前記合成映像の画素毎に、前記複数の撮像装置によって撮像される複数の撮像範囲のうちの、互いに重畳する撮像範囲である重畳領域を持つ撮像装置の一つを特定する第2の撮像装置特定情報と、前記第2の撮像装置特定情報によって特定された撮像装置における前記重畳領域に対応する第2の画素位置と、前記重畳領域に対応する第2の画素位置における第2の重み付き係数とを含む第2の参照テーブルを作成するステップと、
前記第2の参照テーブルを参照して、前記合成映像の画素のうちの、前記重畳領域の第2の画素位置に対応する画素毎に、前記第2の撮像装置特定情報によって特定された撮像装置における対応する画素位置の画素値に前記第2の重み付き係数を乗算することで得られた第2の値を代入してブレンド処理を行うことによって、前記合成映像のうちの前記重畳領域に対応する部分を生成するステップと
を有することを特徴とする映像合成方法。
A video combining method for generating one composite video from a plurality of videos acquired by a plurality of imaging devices, comprising:
First imaging device identification information for identifying a corresponding imaging device of the plurality of imaging devices for each pixel of the composite image using camera parameters input in advance for the plurality of imaging devices; Creating a first reference table including a corresponding first pixel position in the image pickup device specified by the image pickup device identification information of 1 and a first weighted coefficient at the corresponding first pixel position; ,
With reference to the first reference table, the first weight is assigned to the pixel value of the corresponding first pixel position in the imaging device identified by the first imaging device identification information for each pixel of the composite video Generating the composite image by substituting a first value obtained by multiplying an attached coefficient ;
Among the plurality of imaging ranges imaged by the plurality of imaging devices, one of the imaging devices having a superimposed region which is an overlapping imaging range is specified for each pixel of the composite video using the camera parameter Second imaging device identification information, a second pixel position corresponding to the overlapping region in the imaging device identified by the second imaging device identification information, and a second pixel position corresponding to the overlapping region Creating a second lookup table including a second weighting factor;
An imaging device specified by the second imaging device specifying information for each pixel corresponding to a second pixel position of the overlapping area among the pixels of the composite video with reference to the second reference table The second value obtained by multiplying the pixel value of the corresponding pixel position in the second by the second weighting factor is substituted for the blending processing, thereby corresponding to the superimposed region in the composite video. And V. generating an image portion.
JP2018549688A 2016-11-10 2016-11-10 Video combining apparatus and video combining method Active JP6513305B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/083316 WO2018087856A1 (en) 2016-11-10 2016-11-10 Image synthesis device and image synthesis method

Publications (2)

Publication Number Publication Date
JPWO2018087856A1 JPWO2018087856A1 (en) 2019-04-11
JP6513305B2 true JP6513305B2 (en) 2019-05-15

Family

ID=62109506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018549688A Active JP6513305B2 (en) 2016-11-10 2016-11-10 Video combining apparatus and video combining method

Country Status (2)

Country Link
JP (1) JP6513305B2 (en)
WO (1) WO2018087856A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833110B2 (en) * 2018-05-21 2021-02-24 富士フイルム株式会社 Image correction device, image correction method, and image correction program
KR102297683B1 (en) * 2019-07-01 2021-09-07 (주)베이다스 Method and apparatus for calibrating a plurality of cameras
JP7038935B2 (en) * 2020-03-25 2022-03-18 三菱電機株式会社 Image processing device, image processing method, and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5013773B2 (en) * 2006-08-18 2012-08-29 パナソニック株式会社 In-vehicle image processing apparatus and viewpoint conversion information generation method thereof
WO2015029934A1 (en) * 2013-08-30 2015-03-05 クラリオン株式会社 Camera calibration device, camera calibration system, and camera calibration method

Also Published As

Publication number Publication date
WO2018087856A1 (en) 2018-05-17
JPWO2018087856A1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
US11195253B2 (en) Equatorial stitching of hemispherical images in a spherical image capture system
US9196022B2 (en) Image transformation and multi-view output systems and methods
JP5906028B2 (en) Image processing apparatus and image processing method
JP6882868B2 (en) Image processing equipment, image processing method, system
JP2009124685A (en) Method and system for combining videos for display in real-time
AU2017317839B2 (en) Panoramic video compression method and device
CN111161660A (en) Data processing system
JP6513305B2 (en) Video combining apparatus and video combining method
US20150109408A1 (en) System and method for capturing and rendering a landscape image or video
JP2020173529A (en) Information processing device, information processing method, and program
JP6708444B2 (en) Image processing apparatus and image processing method
JP5847610B2 (en) Computer graphics image processing system and method using AR technology
JP2021140458A5 (en)
JP2019146155A (en) Image processing device, image processing method, and program
JP2019532319A (en) Composite user interface
Shete et al. Real-time panorama composition for video surveillance using GPU
KR20170139816A (en) Image synthesis method in real time
JP2020187529A (en) Image processing apparatus, image processing system, control method, and program
JP2019213164A (en) Image processing apparatus and image processing method
KR102074072B1 (en) A focus-context display techinique and apparatus using a mobile device with a dual camera
JP2023550764A (en) Methods, devices, smart terminals and media for creating panoramic images based on large displays
JP6716019B2 (en) IMAGE CORRECTION DEVICE, IMAGE CORRECTION METHOD, AND PROGRAM
JP2012150614A (en) Free viewpoint image generation device
WO2019163449A1 (en) Image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181228

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190409

R150 Certificate of patent or registration of utility model

Ref document number: 6513305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250