JP2019008582A - Video processing device, video processing method, and video processing program - Google Patents

Video processing device, video processing method, and video processing program Download PDF

Info

Publication number
JP2019008582A
JP2019008582A JP2017124153A JP2017124153A JP2019008582A JP 2019008582 A JP2019008582 A JP 2019008582A JP 2017124153 A JP2017124153 A JP 2017124153A JP 2017124153 A JP2017124153 A JP 2017124153A JP 2019008582 A JP2019008582 A JP 2019008582A
Authority
JP
Japan
Prior art keywords
frame data
joint
seam
overlap
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017124153A
Other languages
Japanese (ja)
Other versions
JP6715217B2 (en
Inventor
由実 菊地
Yumi Kikuchi
由実 菊地
大樹 千石
Daiki Sengoku
大樹 千石
山田 智一
Tomokazu Yamada
智一 山田
佐藤 孝子
Takako Sato
孝子 佐藤
山口 徹也
Tetsuya Yamaguchi
徹也 山口
知之 兼清
Tomoyuki Kanekiyo
知之 兼清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017124153A priority Critical patent/JP6715217B2/en
Publication of JP2019008582A publication Critical patent/JP2019008582A/en
Application granted granted Critical
Publication of JP6715217B2 publication Critical patent/JP6715217B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To realize speed processing of connecting a plurality of video data in a vertical direction and a horizontal direction.SOLUTION: A video processing device 1 includes frame acquiring means 22 for acquiring a plurality of frame data shot simultaneously from a plurality of video data; a region setting unit 23 for setting a longitudinally overlapping region where frame data adjacent only in a longitudinal direction overlaps from overlapping frame data where a plurality of frame data are overlapped with each other by matching feature points with respect to adjacent frame data, a transversely overlapping region where frame data adjacent only in a transverse direction overlaps, and a cross overlapping region where frame data adjacent in the longitudinal direction and the transverse direction overlap; seam calculating means 24 for calculating joints between frame data adjacent to each other in respective overlapping regions of the longitudinally overlapping region, the transversely overlapping region, and the cross overlapping region; and connected frame outputting means 26 for connecting each piece of frame data according to the joint calculated by the seam calculating means 24 and outputting the connected frame data without overlap.SELECTED DRAWING: Figure 1

Description

本発明は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置、映像処理方法および映像処理プログラムに関する。   The present invention relates to a video processing apparatus, a video processing method, and a video processing program that connect a plurality of video data that are captured by overlapping a part of a shooting area adjacent to each other in the vertical and horizontal directions.

近年、複数のカメラで撮影した映像データをつなぎ合わせて、一つのパノラマ映像や全天球型の映像として再構成する画像処理が普及している。このような技術において、大きいスクリーンで迫力のある映像を出力することが可能になるため、映像の品質の向上が求められる(例えば非特許文献1参照)。非特許文献1は、画像のパノラマ合成の技術に関して、被写体を多層平面で表現する信頼度マッピング法と2次元画像処理を施して、映像の美しさは向上することを開示する。   In recent years, image processing in which video data captured by a plurality of cameras is connected and reconstructed as one panoramic video or omnidirectional video has become widespread. In such a technique, it is possible to output a powerful video on a large screen, and thus improvement in video quality is required (see, for example, Non-Patent Document 1). Non-Patent Document 1 discloses that the beauty of a video is improved by applying a reliability mapping method for representing a subject in a multilayer plane and two-dimensional image processing, regarding a technique for panoramic synthesis of images.

しかしながら、映像品質の向上に伴い、画像処理における計算コストが負担となり、計算コストの削減が期待されている。非特許文献1に記載の技術では、計算機負荷が非常に高くなり処理速度が低下してしまう場合がある。   However, with the improvement of video quality, calculation cost in image processing becomes a burden, and reduction of calculation cost is expected. In the technique described in Non-Patent Document 1, the computer load may become very high and the processing speed may decrease.

具体的には、複数の4K映像(3840×2160p、60fps)を処理する場合、1映像につき1秒間に処理しなければならないデータ量は、6Gbitsに及ぶ。複数のカメラで撮影した映像を繋ぎ合せてライブ配信したいと考えた場合、その画像処理システムには大きな負荷がかかり、ライブ配信が実現できないような処理時間がかかってしまう場合が考えられる。   Specifically, when processing a plurality of 4K videos (3840 × 2160p, 60 fps), the amount of data that must be processed per second per video reaches 6 Gbits. If it is desired to connect video shot by a plurality of cameras and perform live distribution, the image processing system may be heavily loaded, and processing time may be required so that live distribution cannot be realized.

そこで、ライブ配信可能な実用性を担保するために、繋ぎ目の自然さに加えて高速処理(ライブ配信用の実時間処理)を実現する技術が開示されている(非特許文献2参照。)。   Therefore, in order to ensure the practicality of live distribution, a technique for realizing high-speed processing (real-time processing for live distribution) in addition to the naturalness of joints is disclosed (see Non-Patent Document 2). .

磯貝 愛、國田 豊、木全 英明、“画像領域に適応したパノラマ映像生成技術の提案”、IPSJ SIG Technical report Vol. 2009-AVM-66 No.9 2009/9/24Ai Isogai, Yutaka Kunida, Hideaki Kizen, “Proposal of panoramic video generation technology adapted to image areas”, IPSJ SIG Technical report Vol. 2009-AVM-66 No.9 2009/9/24 菊地 由実、小野 朗、“4K×N パノラマコンテンツのリアルタイム生成および評価”、信学技報, vol. 116, no. 73, MVE2016-2, pp. 23-28, 2016年6月Yumi Kikuchi, Akira Ono, “Real-time generation and evaluation of 4K × N panorama content”, IEICE Technical Report, vol. 116, no. 73, MVE2016-2, pp. 23-28, June 2016

しかしながら、上述の非特許文献1および2は、映像データを横方向のみにつなげたパノラマ映像について言及するものの、映像データを横方向のみならず縦方向にもつなげた場合の映像処理については充分に検討されていない。   However, although the above-mentioned Non-Patent Documents 1 and 2 refer to panoramic video in which video data is connected only in the horizontal direction, the video processing when the video data is connected not only in the horizontal direction but also in the vertical direction is sufficient. Not considered.

そこで本発明は、複数の映像データを縦方向および横方向に連結する処理の高速化を実現することが可能な映像処理装置、映像処理方法および映像処理プログラムを提供することである。   Therefore, the present invention is to provide a video processing apparatus, a video processing method, and a video processing program capable of realizing high-speed processing for connecting a plurality of video data in the vertical direction and the horizontal direction.

上記課題を解決するために、本発明の第1の特徴は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置に関する。本発明の第1の特徴に係る映像処理装置は、複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得手段と、互いに隣接するフレームデータについて特徴点を一致させて、複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定手段と、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出手段と、シーム算出手段が算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力手段を備える。   In order to solve the above-described problem, a first feature of the present invention relates to a video processing apparatus that connects a plurality of video data that are adjacent to each other in a vertical direction and a horizontal direction and that are captured by overlapping a part of a shooting area. A video processing apparatus according to a first feature of the present invention includes a frame acquisition unit that acquires a plurality of frame data shot simultaneously from a plurality of video data, and a plurality of feature points that coincide with each other in adjacent frame data. From the overlapped frame data that overlaps the frame data, the vertical overlap area where the frame data adjacent in the vertical direction only overlaps, the horizontal overlap area where the frame data adjacent only in the horizontal direction overlaps, and the vertical and horizontal adjacent Area setting means for setting a cross overlap area where frame data to be overlapped, and a seam calculation means for calculating a joint between frame data adjacent to each other in each overlap area of a vertical overlap area, a horizontal overlap area, and a cross overlap area; Connected frame data according to the joint calculated by the seam calculation means, and connected frames without duplication It comprises a connecting frame output means for outputting over data.

シーム算出手段は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、フレームデータとの隣接方向のラインから一つのつなぎ目を決定する処理を、隣接方向に直交する方向に繰り返し、隣接方向のラインの検索範囲の各画素のうち、直前に算出されたつなぎ目の画素との特徴値の差分が最も少ない画素を、ラインにおけるつなぎ目として算出しても良い。   The seam calculation means repeats the process of determining one joint from the line in the adjacent direction to the frame data in each of the vertical overlap region, the horizontal overlap region, and the cross overlap region in the direction orthogonal to the adjacent direction, Of the pixels in the direction line search range, the pixel with the smallest feature value difference from the last calculated joint pixel may be calculated as the joint in the line.

縦重複領域および横重複領域の各重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の縦方向および横方向にそれぞれ隣接する各重複領域の終端のつなぎ目に対応する位置を起点として、クロス重複領域のつなぎ目を算出し、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行っても良い。   Starting from the center of each overlap area of the vertical overlap area and the horizontal overlap area, a joint is calculated in a predetermined direction, and the position corresponding to the end joint of each overlap area adjacent in the vertical and horizontal directions of the cross overlap area is calculated. As a starting point, a process of calculating a joint of cross overlap areas and calculating a joint in each of the overlap areas of the vertical overlap area and the horizontal overlap area may be performed in parallel.

クロス重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の終端まで到着すると、所定方向に隣接する他の重複領域において、クロス重複領域の終端におけるつなぎ目に対応する位置を起点として、それぞれつなぎ目を算出し、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行っても良い。   Calculate the joint in the specified direction starting from the center of the cross overlap area, and when it reaches the end of the cross overlap area, in the other overlap areas adjacent in the predetermined direction, the position corresponding to the joint at the end of the cross overlap area is the start As described above, the process of calculating the joints and calculating the joints in the overlapping areas of the vertical overlapping area and the horizontal overlapping area may be performed in parallel.

連結フレーム出力手段が出力する連結フレームデータについて遅延が生じていない場合、シーム算出手段は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行い、連結フレーム出力手段が出力する連結フレームデータについて遅延が生じている場合、シーム算出手段は、縦重複領域、横重複領域、およびクロス重複領域において、それぞれつなぎ目を算出する処理を並列に行っても良い。   When there is no delay in the concatenated frame data output by the concatenated frame output means, the seam calculating means performs processing for calculating joints in parallel areas in the vertical overlap area and the horizontal overlap area in parallel, and the concatenated frame output means When there is a delay with respect to the connected frame data output by, the seam calculation means may perform the process of calculating the joints in the vertical overlap region, the horizontal overlap region, and the cross overlap region in parallel.

重複される各フレームデータにおける対応する各画素について、輝度差の大きい画素を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。   For each corresponding pixel in each overlapped frame data, a connected frame output unit is provided that includes a seam correction unit that corrects a joint calculated by the seam calculation unit based on a correction element that avoids a pixel having a large luminance difference from the joint. May connect the frame data according to the joint corrected by the seam correction means, and output connected frame data without duplication.

エッジ部分を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。   Seam correction means for correcting the joint calculated by the seam calculation means based on a correction element that avoids the edge portion from the joint, and the connected frame output means outputs each frame data according to the joint corrected by the seam correction means. It is also possible to output concatenated frame data that does not overlap.

処理対象のフレームデータの一つ前のフレームデータにおけるつなぎ目から遠い画素を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。   The connected frame output means comprises seam correction means for correcting the joint calculated by the seam calculation means based on a correction element for avoiding a pixel far from the joint in the frame data immediately before the frame data to be processed from the joint. The frame data may be connected in accordance with the joint corrected by the seam correction means, and connected frame data without duplication may be output.

予め設定された禁止画素を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。   Based on a correction element that avoids a preset prohibited pixel from the joint, the seam calculation unit includes a seam correction unit that corrects the joint calculated by the seam calculation unit, and the connected frame output unit follows the joint corrected by the seam correction unit. Each frame data may be connected and connected frame data without duplication may be output.

本発明の第2の特徴は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理方法に関する。本発明の第2の特徴に係る映像処理方法は、複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得ステップと、互いに隣接するフレームデータについて特徴点を一致させて、複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定ステップと、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出ステップと、シーム算出ステップで算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力ステップを備える。   The second feature of the present invention relates to a video processing method for connecting a plurality of video data that are photographed by overlapping a part of a photographing region adjacent to each other in the vertical direction and the horizontal direction. A video processing method according to a second feature of the present invention includes a frame acquisition step of acquiring a plurality of frame data shot simultaneously from a plurality of video data, and a plurality of feature points that are coincident with each other in adjacent frame data. From the overlapped frame data that overlaps the frame data, the vertical overlap area where the frame data adjacent in the vertical direction only overlaps, the horizontal overlap area where the frame data adjacent only in the horizontal direction overlaps, and the vertical and horizontal adjacent An area setting step for setting a cross-overlapping area in which frame data to be overlapped, a seam calculation step for calculating a joint between frame data adjacent to each other in each of the vertical overlapping area, the horizontal overlapping area, and the cross-overlapping area; Connect each frame data according to the joint calculated in the seam calculation step, It comprises a connecting frame output step of outputting have connecting frame data.

本発明の第3の特徴は、コンピュータに、本発明の第1の特徴に記載の映像処理装置として機能させるための映像処理装置プログラムに関する。   A third feature of the present invention relates to a video processing device program for causing a computer to function as the video processing device according to the first feature of the present invention.

本発明によれば、複数の映像データを縦方向および横方向に連結する処理の高速化を実現することが可能な映像処理装置、映像処理方法および映像処理プログラムを提供することができる。   According to the present invention, it is possible to provide a video processing apparatus, a video processing method, and a video processing program capable of realizing high-speed processing for connecting a plurality of video data in the vertical direction and the horizontal direction.

本発明の実施の形態に係る映像処理装置のハードウエア構成および機能ブロックを説明する図である。It is a figure explaining the hardware constitutions and functional block of the video processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る映像処理装置の処理を説明するフローチャートである。It is a flowchart explaining the process of the video processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る映像処理装置における重複フレームデータを説明する図である。It is a figure explaining the overlap frame data in the video processing device concerning an embodiment of the invention. 本発明の実施の形態に係る映像処理装置がつなぎ目を算出する際に用いる重複領域を説明する図である。It is a figure explaining the overlapping area | region used when the video processing apparatus which concerns on embodiment of this invention calculates a joint. 本発明の実施の形態に係る映像処理装置が算出するつなぎ目を説明する図である。It is a figure explaining the joint calculated by the video processing device concerning an embodiment of the invention. 本発明の実施の形態に係る映像処理装置が各ラインのつなぎ目を算出する処理を説明する図である。It is a figure explaining the process which the video processing apparatus which concerns on embodiment of this invention calculates the joint of each line. 本発明の実施の形態に係る映像処理装置が経路パスを設定する処理を説明する図である。It is a figure explaining the process which the image processing apparatus which concerns on embodiment of this invention sets a path | route path. 本発明の実施の形態に係るシーム算出手段によるシーム算出処理において、周辺から中央方向につなぎ目を算出する処理を説明するフローチャートである。It is a flowchart explaining the process which calculates the joint from the periphery to a center direction in the seam calculation process by the seam calculation means which concerns on embodiment of this invention. 本発明の実施の形態に係るシーム算出手段によるシーム算出処理において、周辺から中央方向につなぎ目を算出する処理を説明する図である。It is a figure explaining the process which calculates a joint from the periphery to a center direction in the seam calculation process by the seam calculation means which concerns on embodiment of this invention. 本発明の実施の形態に係るシーム算出手段によるシーム算出処理において、中央から周辺方向につなぎ目を算出する処理を説明するフローチャートである。It is a flowchart explaining the process which calculates the joint from the center to the peripheral direction in the seam calculation process by the seam calculation unit according to the embodiment of the present invention. 本発明の実施の形態に係るシーム算出手段によるシーム算出処理において、中央から周辺方向につなぎ目を算出する処理を説明する図である。It is a figure explaining the process which calculates the joint from the center to the peripheral direction in the seam calculation process by the seam calculation means according to the embodiment of the present invention. 本発明の実施の形態に係るシーム補正手段によるシーム補正処理を説明するフローチャートである。It is a flowchart explaining the seam correction process by the seam correction means according to the embodiment of the present invention.

次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。   Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

(概要)
図1に示す本発明の実施の形態に係る映像処理装置1は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ。映像処理装置1は、各映像データから同時に撮影されたフレームデータにおいて、適切なつなぎ目(シーム)を探索して、探索されたつなぎ目で各フレームデータを繋いで、映像データを再構成する。
(Overview)
The video processing apparatus 1 according to the embodiment of the present invention shown in FIG. 1 connects a plurality of video data that are shot adjacent to each other in the vertical direction and the horizontal direction and overlap a part of the shooting area. The video processing device 1 searches for appropriate joints (seams) in the frame data simultaneously captured from the video data, and reconstructs the video data by connecting the frame data at the searched joints.

ここで、「縦方向および横方向に互いに隣接」は、ある映像データが、他の映像データと縦方向に隣接して、撮影領域の一部を重ねて撮影されるとともに、さらに他の映像データと横方向に隣接して、撮影領域の一部を重ねて撮影されることを意味する。また「縦方向および横方向に互いに隣接」は、ある映像データが、他の映像データと縦方向および横方向、すなわち斜め方向にも隣接して、撮影領域の一部を重ねて撮影される場合も含む。本発明の実施の形態に係る映像処理装置1は、縦M行および横N列に配列された複数のカメラから得られる映像データを再構成する。なお、各映像データおよび各映像データを出力するカメラは、厳密な意味で、縦方向または横方向に隣接していなくとも良い。   Here, “adjacent to each other in the vertical direction and horizontal direction” means that certain video data is photographed by overlapping a part of the photographing area adjacent to other video data in the vertical direction, and other video data. It is meant that a part of the photographing area is overlapped and photographed adjacent to each other in the horizontal direction. Also, “adjacent to each other in the vertical and horizontal directions” means that certain video data is shot with a part of the shooting area overlapping with other video data in the vertical and horizontal directions, that is, diagonally. Including. The video processing apparatus 1 according to the embodiment of the present invention reconstructs video data obtained from a plurality of cameras arranged in vertical M rows and horizontal N columns. Note that the video data and the camera that outputs the video data do not have to be adjacent in the vertical direction or the horizontal direction in a strict sense.

図1に示す映像処理装置1は、複数のカメラC1、C2、C3およびC4から入力される複数の映像データを連結して、一つの映像データを出力する。本発明の実施の形態においては、複数のカメラC1、C2、C3およびC4が、それぞれ縦2行および横2列に配列される場合を説明するが、これに限るものではない。映像処理装置1に入力される映像データを撮影するカメラの数は、例えば6個で、縦2行および横3列に配列されるなど、任意のカメラの数に適用することができる。   The video processing apparatus 1 shown in FIG. 1 connects a plurality of video data input from a plurality of cameras C1, C2, C3, and C4, and outputs one video data. In the embodiment of the present invention, a case will be described in which a plurality of cameras C1, C2, C3, and C4 are arranged in two vertical rows and two horizontal columns, respectively, but the present invention is not limited to this. The number of cameras that shoot video data input to the video processing device 1 is six, for example, and can be applied to any number of cameras, such as being arranged in two rows and three columns.

図2を参照して、本発明の実施の形態に係る映像処理装置1による映像処理方法を説明する。映像処理方法は、複数のカメラC1、C2、C3およびC4のそれぞれから出力される映像データのうち、同時に撮影された各フレームデータについて、ステップS1ないしステップS8の処理を繰り返す。   With reference to FIG. 2, the video processing method by the video processing apparatus 1 according to the embodiment of the present invention will be described. In the video processing method, the processing in steps S1 to S8 is repeated for each piece of frame data captured simultaneously from video data output from each of the plurality of cameras C1, C2, C3, and C4.

まずステップS1において映像処理装置1は、複数のカメラC1、C2、C3およびC4のそれぞれから出力される映像データから、同時刻に撮影された各フレームデータを取得する。   First, in step S1, the video processing apparatus 1 acquires each frame data photographed at the same time from video data output from each of the plurality of cameras C1, C2, C3, and C4.

ステップS2において映像処理装置1は、ステップS1で取得した各フレームデータから、特徴点を対応づけて、図3に示す重複フレームデータF0を生成する。   In step S2, the video processing apparatus 1 associates feature points with each frame data acquired in step S1, and generates overlapping frame data F0 shown in FIG.

例えば図3に示すように、同時に撮影された左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4を考える。左上フレームデータF1の撮影領域の右上側と、右上フレームデータF2の撮影領域の左上側は、重複する。左下フレームデータF3の撮影領域の右下側と、右下フレームデータF4の撮影領域の左下側は、重複する。左上フレームデータF1の撮影領域の左下側と、左下フレームデータF3の撮影領域の左上側は、重複する。右上フレームデータF2の撮影領域の右下側と、右下フレームデータF4の撮影領域の右上側は、重複する。また、左上フレームデータF1の撮影領域の右下側と、右上フレームデータF2の撮影領域の左下側と、左下フレームデータF3の撮影領域の右上側と、右下フレームデータF4の撮影領域の左上側は、重複する。   For example, as shown in FIG. 3, consider the upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data F4 that are simultaneously captured. The upper right side of the shooting area of the upper left frame data F1 overlaps the upper left side of the shooting area of the upper right frame data F2. The lower right side of the shooting area of the lower left frame data F3 and the lower left side of the shooting area of the lower right frame data F4 overlap. The lower left side of the shooting area of the upper left frame data F1 and the upper left side of the shooting area of the lower left frame data F3 overlap. The lower right side of the shooting area of the upper right frame data F2 and the upper right side of the shooting area of the lower right frame data F4 overlap. Also, the lower right side of the shooting area of the upper left frame data F1, the lower left side of the shooting area of the upper right frame data F2, the upper right side of the shooting area of the lower left frame data F3, and the upper left side of the shooting area of the lower right frame data F4. Are overlapping.

左上フレームデータF1の撮影領域の右上側で撮影された特徴点と、右上フレームデータF2の撮影領域の左上側で撮影された特徴点とが一致するように、左上フレームデータF1と右上フレームデータF2とを重ねる。同様に、左下フレームデータF3の撮影領域の右下側で撮影された特徴点と、右下フレームデータF4の撮影領域の左下側で撮影された特徴点とが一致するように、左下フレームデータF3と右下フレームデータF4とを重ねる。左上フレームデータF1の撮影領域の左下側で撮影された特徴点と、左下フレームデータF3の撮影領域の左上側で撮影された特徴点とが一致するように、左上フレームデータF1と左下フレームデータF3とを重ねる。右上フレームデータF2の撮影領域の右下側で撮影された特徴点と、右下フレームデータF4の撮影領域の右上側で撮影された特徴点とが一致するように、右上フレームデータF2と右下フレームデータF4とを重ねる。さらに、左上フレームデータF1の撮影領域の右下側で撮影された特徴点と、右上フレームデータF2の撮影領域の左下側で撮影された特徴点と、左下フレームデータF3の撮影領域の右上側で撮影された特徴点と、右下フレームデータF4の撮影領域の左上側で撮影された特徴点とが一致するように、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4とを重ねる。   The upper left frame data F1 and the upper right frame data F2 are such that the feature point photographed on the upper right side of the photographing area of the upper left frame data F1 and the feature point photographed on the upper left side of the photographing area of the upper right frame data F2 match. And repeat. Similarly, the lower left frame data F3 so that the feature point photographed at the lower right side of the photographing area of the lower left frame data F3 matches the feature point photographed at the lower left side of the photographing area of the lower right frame data F4. And lower right frame data F4. The upper left frame data F1 and the lower left frame data F3 are set so that the feature point photographed at the lower left side of the photographing area of the upper left frame data F1 matches the feature point photographed at the upper left side of the photographing area of the lower left frame data F3. And repeat. Upper right frame data F2 and lower right so that the feature point imaged on the lower right side of the imaging area of upper right frame data F2 matches the feature point imaged on the upper right side of the imaging area of lower right frame data F4. The frame data F4 is overlapped. Furthermore, the feature point imaged at the lower right side of the imaging area of the upper left frame data F1, the feature point imaged at the lower left side of the imaging area of the upper right frame data F2, and the upper right side of the imaging area of the lower left frame data F3. The upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data are set so that the photographed feature points coincide with the feature points photographed on the upper left side of the photographing area of the lower right frame data F4. Overlay with F4.

この結果、図3の中央に記載するように、十字状に重複部分が形成される重複フレームデータF0が得られる。なお図2に示す各フレームデータは、重複フレームデータF0が矩形になるように模式的に示しているが、各カメラの角度が異なるなど場合、一部のフレームデータが斜めに配設される場合もある。   As a result, as described in the center of FIG. 3, overlapping frame data F0 in which overlapping portions are formed in a cross shape is obtained. The frame data shown in FIG. 2 is schematically shown so that the overlapping frame data F0 is rectangular. However, when the angles of the cameras are different, some frame data are arranged obliquely. There is also.

図2のステップS3において映像処理装置1は、ステップS2で生成した重複フレームデータF0において、縦重複領域、横重複領域およびクロス重複領域を設定する。   In step S3 of FIG. 2, the video processing device 1 sets a vertical overlap region, a horizontal overlap region, and a cross overlap region in the overlap frame data F0 generated in step S2.

図4を参照して、重複フレームデータF0の各重複領域を説明する。映像処理装置1は、図4に示すように、左上フレームデータF1および左下フレームデータF3が縦方向にのみ重複する重複領域を、左側縦重複領域R1と定義する。映像処理装置1は、左側縦重複領域R1の位置情報を、領域設定データ13に設定する。映像処理装置1は、右上フレームデータF2および右下フレームデータF4が縦方向にのみ重複する重複領域を、右側縦重複領域R2と定義する。映像処理装置1は、右側縦重複領域R2の位置情報を、領域設定データ13に設定する。映像処理装置1は、左上フレームデータF1および右上フレームデータF2が横方向にのみ重複する重複領域を、上側横重複領域R3と定義する。映像処理装置1は、上側横重複領域R3の位置情報を、領域設定データ13に設定する。映像処理装置1は、左下フレームデータF3および右下フレームデータF4が横方向にのみ重複する重複領域を、下側横重複領域R4と定義する。映像処理装置1は、下側横重複領域R4の位置情報を、領域設定データ13に設定する。映像処理装置1は、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4が縦方向および横方向に重複する重複領域を、クロス重複領域R5と定義する。映像処理装置1は、クロス重複領域R5の位置情報を、領域設定データ13に設定する。   With reference to FIG. 4, each overlapping area of the overlapping frame data F0 will be described. As shown in FIG. 4, the video processing device 1 defines an overlapping area in which the upper left frame data F1 and the lower left frame data F3 overlap only in the vertical direction as a left vertical overlapping area R1. The video processing device 1 sets the position information of the left vertical overlap region R1 in the region setting data 13. The video processing device 1 defines an overlapping area where the upper right frame data F2 and the lower right frame data F4 overlap only in the vertical direction as a right vertical overlapping area R2. The video processing device 1 sets the position information of the right vertical overlap region R2 in the region setting data 13. The video processing device 1 defines an overlapping region in which the upper left frame data F1 and the upper right frame data F2 overlap only in the horizontal direction as an upper horizontal overlapping region R3. The video processing device 1 sets the position information of the upper lateral overlap region R3 in the region setting data 13. The video processing apparatus 1 defines an overlapping region where the lower left frame data F3 and the lower right frame data F4 overlap only in the horizontal direction as a lower horizontal overlapping region R4. The video processing device 1 sets the position information of the lower horizontal overlap region R4 in the region setting data 13. The video processing apparatus 1 defines an overlapping region in which the upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data F4 overlap in the vertical direction and the horizontal direction as a cross overlapping region R5. The video processing device 1 sets the position information of the cross overlap region R5 in the region setting data 13.

なお、縦にN台のカメラを配設し、横にM台のカメラを配設した場合、縦重複領域の数は、M(N−1)となり、横重複領域の数は、N(M−1)となる。またクロス重複領域のかずは、(N+1)(M+1)−2(M+N)となる。   When N cameras are arranged vertically and M cameras are arranged horizontally, the number of vertically overlapping areas is M (N−1), and the number of horizontally overlapping areas is N (M -1). The cross overlap area is (N + 1) (M + 1) -2 (M + N).

図2のステップS4において映像処理装置1は、図4に示す横つなぎ目SEWおよび縦つなぎ目SELを算出する。横つなぎ目SEWおよび縦つなぎ目SELは、各フレームデータをつないだフレームデータを作成する際のつなぎ目である。   In step S4 of FIG. 2, the video processing apparatus 1 calculates the horizontal joint SEW and the vertical joint SEL shown in FIG. The horizontal seam SEW and the vertical seam SEL are seams when creating frame data by connecting the frame data.

ステップS5においてシーム補正指示がないと判定された場合、ステップS7に進む。一方ステップS5においてシーム補正指示があると判定された場合、ステップS6において、ステップS4で算出した横つなぎ目SEWおよび縦つなぎ目SELを補正し、ステップS7に進む。   If it is determined in step S5 that there is no seam correction instruction, the process proceeds to step S7. On the other hand, when it is determined in step S5 that there is a seam correction instruction, in step S6, the horizontal seam SEW and vertical seam SEL calculated in step S4 are corrected, and the process proceeds to step S7.

ステップS7において映像処理装置1は、つなぎ目に従って、各フレームデータを連結する。具体的に映像処理装置1は、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4をそれぞれ横つなぎ目SEWおよび縦つなぎ目SELで切断して、左上フレームデータf1、右上フレームデータf2、左下フレームデータf3および右下フレームデータf4を生成する。映像処理装置1は、左上フレームデータf1、右上フレームデータf2、左下フレームデータf3および右下フレームデータf4をつなぎ合わせて、連結フレームデータ16を生成する。   In step S7, the video processing apparatus 1 connects the frame data according to the joints. Specifically, the video processing apparatus 1 cuts the upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data F4 at the horizontal joint SEW and the vertical joint SEL, respectively, to thereby obtain the upper left frame data f1 and the upper right frame. Data f2, lower left frame data f3, and lower right frame data f4 are generated. The video processing apparatus 1 connects the upper left frame data f1, the upper right frame data f2, the lower left frame data f3, and the lower right frame data f4 to generate the concatenated frame data 16.

ステップS8において映像処理装置1は、ステップS7で生成した連結フレームデータ16を出力する。この連結フレームデータ16は、映像処理装置1が出力する映像データのフレームデータとなる。   In step S8, the video processing apparatus 1 outputs the concatenated frame data 16 generated in step S7. The concatenated frame data 16 is frame data of video data output from the video processing device 1.

(映像処理装置)
図1に示す映像処理装置1は、記憶装置10、処理装置20および入出力インタフェース30を備える一般的なコンピュータである。一般的なコンピュータが映像処理プログラムを実行することにより、図1に示す機能を実現する。
(Video processing device)
A video processing apparatus 1 shown in FIG. 1 is a general computer including a storage device 10, a processing device 20, and an input / output interface 30. The functions shown in FIG. 1 are realized by a general computer executing a video processing program.

記憶装置10は、ROM(Read Only Memory)、RAM(Random access memory)、ハードディスク等であって、処理装置20が処理を実行するための入力データ、出力データおよび中間データなどの各種データを記憶する。処理装置20は、CPU(Central Processing Unit)であって、記憶装置10に記憶されたデータを読み書きしたり、入出力インタフェース30とデータを入出力したりして、映像処理装置1における処理を実行する。   The storage device 10 is a ROM (Read Only Memory), a RAM (Random access memory), a hard disk or the like, and stores various data such as input data, output data, and intermediate data for the processing device 20 to execute processing. . The processing device 20 is a CPU (Central Processing Unit), and reads / writes data stored in the storage device 10 and inputs / outputs data to / from the input / output interface 30 to execute processing in the video processing device 1. To do.

入出力インタフェース30は、キーボード、マウスなどの入力装置I、および複数のカメラC1、C2、C3およびC4からの入力を受付、入力されたデータを処理装置20に入力する。入出力インタフェース30は、さらに、処理装置20による処理結果をディスプレイなどの出力装置Oに出力する。入力装置I、複数のカメラC1、C2、C3、C4、および出力装置Oは、通信インタフェースおよび通信ネットワークを介して、映像処理装置1に接続されても良い。また複数のカメラC1、C2、C3およびC4に代わって、予め撮影された複数の撮影データを記憶した録画機や記憶装置を、映像処理装置1に接続して、映像処理データを処理させても良い。   The input / output interface 30 receives input from the input device I such as a keyboard and a mouse, and a plurality of cameras C 1, C 2, C 3 and C 4, and inputs the input data to the processing device 20. The input / output interface 30 further outputs the processing result by the processing device 20 to an output device O such as a display. The input device I, the plurality of cameras C1, C2, C3, C4, and the output device O may be connected to the video processing device 1 via a communication interface and a communication network. Alternatively, instead of the plurality of cameras C1, C2, C3 and C4, a video recorder or storage device storing a plurality of pre-captured shooting data may be connected to the video processing device 1 to process the video processing data. good.

記憶装置10は、映像処理プログラムを記憶するとともに、設定データ11、フレーム情報データ12、領域設定データ13、シームデータ14、補正シームデータ15および連結フレームデータ16を記憶する。   The storage device 10 stores a video processing program and stores setting data 11, frame information data 12, region setting data 13, seam data 14, correction seam data 15, and linked frame data 16.

設定データ11は、本発明の実施の形態に係る映像処理装置1が処理するために必要なパラメータを記憶する。設定データ11は、例えば、映像処理装置1に入力される映像データの数およびその配列、高品質なつなぎ目を算出するか否かなどの各パラメータを含む。   The setting data 11 stores parameters necessary for processing by the video processing apparatus 1 according to the embodiment of the present invention. The setting data 11 includes, for example, parameters such as the number and arrangement of video data input to the video processing device 1 and whether to calculate a high-quality joint.

フレーム情報データ12は、複数のカメラC1、C2、C3およびC4が出力する複数の映像データにおいて、同時に撮影された各フレームデータの情報である。フレーム情報データ12は、カメラの識別子に、画素値、フレームレート、輝度値などの情報を対応づけたデータである。   The frame information data 12 is information of each frame data photographed simultaneously in a plurality of video data output from the plurality of cameras C1, C2, C3, and C4. The frame information data 12 is data in which information such as a pixel value, a frame rate, and a luminance value is associated with a camera identifier.

領域設定データ13は、重複フレームデータにおける各フレームデータの重複状態に応じて、縦重複領域、横重複領域およびクロス重複領域を設定した際の、各重複領域の位置情報を定義するデータである。図4に示す例の場合、領域設定データ13は、左側縦重複領域R1、右側縦重複領域R2、上側横重複領域R3、下側横重複領域R4およびクロス重複領域R5の各重複領域の一を定義する。   The area setting data 13 is data defining position information of each overlapping area when a vertical overlapping area, a horizontal overlapping area, and a cross overlapping area are set according to the overlapping state of each frame data in the overlapping frame data. In the case of the example shown in FIG. 4, the area setting data 13 includes one of the overlapping areas of the left vertical overlapping area R1, the right vertical overlapping area R2, the upper horizontal overlapping area R3, the lower horizontal overlapping area R4, and the cross overlapping area R5. Define.

シームデータ14は、領域設定データ13およびフレーム情報データ12に基づいて、各フレームデータのつなぎ目を算出した結果のデータである。   The seam data 14 is data obtained as a result of calculating the joint of each frame data based on the area setting data 13 and the frame information data 12.

補正シームデータ15は、シームデータ14を、種々の観点から補正をしたものである。補正シームデータ15は、シームデータ14よりもより高精度な映像データを得るために用いられる。   The corrected seam data 15 is obtained by correcting the seam data 14 from various viewpoints. The corrected seam data 15 is used to obtain video data with higher accuracy than the seam data 14.

連結フレームデータ16は、複数のカメラC1、C2、C3およびC4が出力する複数の映像データのそれぞれから、同時に撮影された複数のフレームデータを、シームデータ14または補正シームデータ15に従ってつないで生成される。連結フレームデータ16は、映像処理装置1が出力する映像データを構成する一つのフレームデータとなる。   The concatenated frame data 16 is generated by connecting a plurality of frame data captured simultaneously from each of a plurality of video data output from the plurality of cameras C1, C2, C3, and C4 according to the seam data 14 or the corrected seam data 15. The The concatenated frame data 16 becomes one frame data constituting the video data output from the video processing device 1.

処理装置20は、設定取得手段21、フレーム取得手段22、領域設定手段23、シーム算出手段24、シーム補正手段25および連結フレーム出力手段26を備える。   The processing device 20 includes setting acquisition means 21, frame acquisition means 22, area setting means 23, seam calculation means 24, seam correction means 25, and connected frame output means 26.

(設定取得手段)
設定取得手段21は、本発明の実施の形態に係る映像処理装置1が処理するために必要なパラメータを取得して、取得したパラメータを含む設定データ11を記憶する。設定取得手段21は、ユーザが、入力装置Iから入力した情報に従ってパラメータを取得する。或いは設定取得手段21は、複数のカメラC1、C2、C3およびC4から入力された各映像データ等を解析することによって、映像処理装置1が処理するために必要なパラメータを取得する。
(Setting acquisition means)
The setting acquisition unit 21 acquires parameters necessary for processing by the video processing apparatus 1 according to the embodiment of the present invention, and stores setting data 11 including the acquired parameters. The setting acquisition unit 21 acquires parameters according to information input from the input device I by the user. Alternatively, the setting acquisition unit 21 acquires parameters necessary for processing by the video processing apparatus 1 by analyzing each video data input from the plurality of cameras C1, C2, C3, and C4.

(フレーム取得手段)
フレーム取得手段22は、複数のカメラC1、C2、C3およびC4から入力された各映像データから、同時に撮影された複数のフレームデータを取得する。フレーム取得手段22は、取得した複数の各フレームデータについて、フレーム情報データ12を生成して記憶する。
(Frame acquisition means)
The frame acquisition means 22 acquires a plurality of frame data photographed simultaneously from the video data input from the plurality of cameras C1, C2, C3, and C4. The frame acquisition unit 22 generates and stores frame information data 12 for each of a plurality of acquired frame data.

(領域設定手段)
領域設定手段23は、同時に撮影された複数のフレームデータにおいて、互いに隣接するフレームデータについて特徴点を一致させて、同時に撮影された複数のフレームデータを重ねた重複フレームデータを生成する。図3および図4に示す例において領域設定手段23は、生成した重複フレームデータに基づいて、縦方向にのみ隣接するフレームデータが重複する縦重複領域R1およびR2と、横方向にのみ隣接するフレームデータが重複する横重複領域R3およびR4と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域R5を設定する。領域設定手段23は、各重複領域の位置情報を、領域設定データ13に記憶する。
(Area setting means)
The region setting unit 23 matches the feature points of the frame data adjacent to each other in the plurality of frame data photographed at the same time, and generates overlapping frame data by superimposing the plurality of frame data photographed at the same time. In the example shown in FIG. 3 and FIG. 4, the area setting means 23 is based on the generated overlapping frame data, and the vertical overlapping areas R1 and R2 in which the frame data adjacent only in the vertical direction overlap, and the frames adjacent only in the horizontal direction. The horizontal overlap areas R3 and R4 where data overlap and the cross overlap area R5 where frame data adjacent in the vertical and horizontal directions overlap are set. The area setting unit 23 stores the position information of each overlapping area in the area setting data 13.

(シーム算出手段)
シーム算出手段24は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、フレームデータとの隣接方向のラインから一つのつなぎ目を決定する処理を、隣接方向に直交する方向に繰り返す。シーム算出手段24は、縦重複領域において横方向にフレームデータのつなぎ目を探索し、横重複領域において縦方向にフレームデータのつなぎ目を探索し、クロス重複領域において縦方向および横方向の各方向にフレームデータのつなぎ目を探索する。シーム算出手段24は、隣接方向のラインの検索範囲の各画素のうち、直前に算出されたつなぎ目の画素との特徴値の差分が最も少ない画素を、このラインにおけるつなぎ目として算出する。
(Seam calculation means)
The seam calculation unit 24 repeats the process of determining one joint from the line in the adjacent direction to the frame data in each overlapping area of the vertical overlapping area, the horizontal overlapping area, and the cross overlapping area in a direction orthogonal to the adjacent direction. The seam calculation means 24 searches for a frame data joint in the horizontal direction in the vertical overlap region, searches for a frame data joint in the vertical direction in the horizontal overlap region, and frames in the vertical and horizontal directions in the cross overlap region. Search for data joints. The seam calculation unit 24 calculates, as a joint in this line, a pixel having the smallest difference in feature value from the pixel of the joint calculated immediately before among the pixels in the search range of the line in the adjacent direction.

図4に示すように、シーム算出手段24は、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4の各フレームを滑らかに接続するための、横つなぎ目SEWおよび縦つなぎ目SELを算出する。横つなぎ目SEWは、左側縦重複領域R1、クロス重複領域R5および右側縦重複領域R2において略水平方向(図4に示す紙面の左右方向)に設けられる。縦つなぎ目SELは、上側横重複領域R3、クロス重複領域R5および下側横重複領域R4において略垂直方向(図4に示す紙面の上下方向)に設けられる。   As shown in FIG. 4, the seam calculation means 24 has a horizontal seam SEW and a vertical seam for smoothly connecting the upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data F4. SEL is calculated. The horizontal joint SEW is provided in a substantially horizontal direction (left and right direction of the paper surface shown in FIG. 4) in the left vertical overlap region R1, the cross overlap region R5, and the right vertical overlap region R2. The vertical joints SEL are provided in a substantially vertical direction (up and down direction on the paper surface shown in FIG. 4) in the upper lateral overlap region R3, the cross overlap region R5, and the lower lateral overlap region R4.

(シーム算出処理)
シーム算出手段24は、フレームデータの隣接方向のラインから一つのつなぎ目を決定し、隣接方向に直交する方向に順次つなぎ目を決定する。例えば、左側縦重複領域R1は、フレームデータが縦方向に隣接するので、シーム算出手段24は、左側縦重複領域R1の縦のラインから一つの画素をつなぎ目として決定する。さらにシーム算出手段24は、横方向に順次つなぎ目を算出して、横つなぎ目SEWを形成する画素を特定する。同様に、上側横重複領域R3は、フレームデータが横方向に隣接するので、シーム算出手段24は、上側横重複領域R3の横のラインから一つの画素をつなぎ目として決定する。さらにシーム算出手段24は、縦方向に順次つなぎ目を算出して、縦つなぎ目SELを形成する画素を特定する。またクロス重複領域R5においては、横方向につなぎ目を検索して横つなぎ目SEWを形成する画素を特定するとともに、縦方向につなぎ目を検索して縦つなぎ目SELを形成する画素を特定する。
(Seam calculation process)
The seam calculation unit 24 determines one joint from the lines in the adjacent direction of the frame data, and sequentially determines joints in a direction orthogonal to the adjacent direction. For example, since the frame data is adjacent to the left vertical overlap region R1 in the vertical direction, the seam calculation unit 24 determines one pixel as a joint from the vertical lines of the left vertical overlap region R1. Further, the seam calculation means 24 sequentially calculates the joints in the horizontal direction, and identifies the pixels that form the horizontal joint SEW. Similarly, since the frame data is adjacent in the horizontal direction in the upper horizontal overlap region R3, the seam calculation unit 24 determines one pixel from the horizontal line of the upper horizontal overlap region R3 as a joint. Further, the seam calculation means 24 sequentially calculates the joints in the vertical direction, and identifies the pixels forming the vertical joint SEL. Further, in the cross overlap region R5, a pixel that forms a horizontal seam SEW is specified by searching for a horizontal seam, and a pixel that forms a vertical seam SEL is specified by searching for a seam in the vertical direction.

図6および図7を参照して、シーム算出手段24がつなぎ目を特定する処理を説明する。図6および図7に示す例は、フレームデータが横方向に重複する横重複領域において、下のラインから上のラインへとつなぎ目を探索する。   With reference to FIG. 6 and FIG. 7, the process by which the seam calculation means 24 specifies the joint will be described. The example shown in FIGS. 6 and 7 searches for a joint from the lower line to the upper line in the horizontal overlap region where the frame data overlaps in the horizontal direction.

シーム算出手段24は、横重複領域において、横方向に検索範囲を決定する。この検索範囲は、5画素や7画素等の奇数の画素により構成される。つなぎ目の検索範囲を限定することにより、処理の高速化が期待できる。また他の例として、横重複領域の横方向の一ライン全ての画素を、検索範囲としても良い。   The seam calculation unit 24 determines a search range in the horizontal direction in the horizontal overlap region. This search range is composed of an odd number of pixels such as 5 pixels and 7 pixels. By limiting the search range of the joint, it can be expected to speed up the processing. As another example, all the pixels in one horizontal line of the horizontal overlap region may be set as the search range.

シーム算出手段24は、検索範囲の各画素について、累積コストを算出し、最も累積コストの低い画素を、その検索範囲におけるつなぎ目の画素と決定する。具体的には、図6に示す前のラインの検索範囲において、最も累積コストの低い画素が、前のラインのつなぎ目の最適な経路として記録される。注目ラインにおけるつなぎ目を探索する際、注目ラインの検索範囲の各画素のうち、その前のラインのつなぎ目の特徴量と最も近い特徴量を有する画素が、注目ラインのつなぎ目の最適な経路として記録される。   The seam calculation unit 24 calculates the accumulated cost for each pixel in the search range, and determines the pixel with the lowest accumulated cost as the joint pixel in the search range. Specifically, in the search range of the previous line shown in FIG. 6, the pixel with the lowest accumulated cost is recorded as the optimum path at the joint of the previous line. When searching for a joint on the target line, among the pixels in the search range of the target line, the pixel having the closest feature to the joint of the previous line is recorded as the optimum path of the joint of the target line. The

ここで、注目ラインにおける注目画素p(n)の累積コストCp(n)を説明する。注目画素p(n)の累積コストCp(n)は、直前に決定されたつなぎ目の画素P(n−1)と注目画素p(n)との特徴値の差分Dと、直前に決定されたつなぎ目の画素における累積コストCP(n−1)の和である。ここで特徴値は、画素の特徴量に基づいて算出され、例えば色差であっても良いし、輝度差であっても良いし、色差および輝度差を混合した値であっても良い。   Here, the accumulated cost Cp (n) of the target pixel p (n) in the target line will be described. The accumulated cost Cp (n) of the target pixel p (n) is determined immediately before the difference D between the feature values of the joint pixel P (n−1) and the target pixel p (n) determined immediately before. This is the sum of the accumulated cost CP (n−1) at the joint pixel. Here, the feature value is calculated based on the feature amount of the pixel, and may be a color difference, a luminance difference, or a value obtained by mixing the color difference and the luminance difference, for example.

各ラインにおいて、つなぎ目を構成する画素を特定すると、図7に示すように、つなぎ目を構成する画素を辿って、つなぎ目を構成する。図6に示すように、下から上方向に累積コストが最小となるつなぎ目を特定した場合、図7に示すように、上から下につなぎ目を構成しても良い。   When the pixels constituting the joint are specified in each line, the joint is constructed by tracing the pixels constituting the joint as shown in FIG. As shown in FIG. 6, when a joint having a minimum accumulated cost is specified from the bottom to the top, the joint may be configured from the top to the bottom as shown in FIG. 7.

さらに処理を簡略化するために、前のラインで特定されたつなぎ目の画素と、注目ラインの検索範囲を構成する各画素について、特徴値の差分を算出し、最も差分の小さい検索範囲に属する画素を、そのラインのつなぎ目の画素と特定しても良い。また、各ラインでつなぎ目を特定する度に、直前に特定したつなぎ目と連結して、つなぎ目を構成するようにしても良い。なお、縦重複領域においてつなぎ目を探索する場合の処理も同様である。   In order to further simplify the processing, a difference between feature values is calculated for each pixel constituting the search range of the line of interest and the joint pixel specified in the previous line, and the pixels belonging to the search range with the smallest difference May be identified as a pixel at the joint of the line. Further, each time a joint is specified in each line, it may be connected to the joint specified immediately before to form a joint. The process when searching for a joint in the vertical overlap region is the same.

図8ないし図11を参照して、本発明の実施の形態において、処理の高速化および映像の品質向上を実現するための処理順序を説明する。   With reference to FIGS. 8 to 11, a processing order for realizing high-speed processing and video quality improvement in the embodiment of the present invention will be described.

(周辺から中心に向かって処理する場合)
まず図8および図9を参照して、クロス重複領域以外の重複領域においてつなぎ目を算出し、その後、クロス重複領域においてつなぎ目を算出する処理を説明する。シーム算出手段24は、縦重複領域および横重複領域の各重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の縦方向および横方向にそれぞれ隣接する各重複領域の終端のつなぎ目に対応する位置を起点として、クロス重複領域のつなぎ目を算出する。シーム算出手段24は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行う。
(When processing from the periphery to the center)
First, with reference to FIG. 8 and FIG. 9, processing for calculating a joint in an overlapping region other than the cross overlapping region and then calculating a joint in the cross overlapping region will be described. The seam calculation means 24 calculates a joint in a predetermined direction starting from the center of each overlap region of the vertical overlap region and the horizontal overlap region, and ends the overlap regions adjacent to each other in the vertical direction and the horizontal direction of the cross overlap region. Starting from the position corresponding to the joint, the joint of the cross overlap area is calculated. The seam calculation unit 24 performs processing for calculating the joints in parallel in each of the vertical overlap area and the horizontal overlap area.

図8に示すように、シーム算出手段24は、ステップS101において縦重複領域の中心を起点として、横方向に累積コストを算出してつなぎ目を構成する画素を探索する。ステップS101の処理は、ステップS102に示すように、縦重複領域の端部に到達するまで繰り返される。   As shown in FIG. 8, the seam calculation unit 24 searches for pixels constituting the joint by calculating the accumulated cost in the horizontal direction starting from the center of the vertical overlap region in step S <b> 101. The process in step S101 is repeated until the end of the vertical overlap region is reached, as shown in step S102.

またステップS101およびステップS102の処理に並行して、シーム算出手段24は、ステップS103において横重複領域の中心を起点として、縦方向に累積コストを算出してつなぎ目を構成する画素を探索する。ステップS103の処理は、ステップS104に示すように、横重複領域の端部に到達するまで繰り返される。   In parallel with the processing of step S101 and step S102, the seam calculation means 24 searches the pixels constituting the joint by calculating the accumulated cost in the vertical direction starting from the center of the horizontal overlap region in step S103. The process in step S103 is repeated until the end of the horizontal overlap region is reached, as shown in step S104.

縦重複領域および横重複領域においてそれぞれ端部までつなぎ目が探索されると、より具体的には、縦重複領域および横重複領域におけるつなぎ目の探索処理が、クロス重複領域との境界まで達すると、ステップS105に進む。   When the joint is searched to the end in each of the vertical overlap region and the horizontal overlap region, more specifically, when the joint search process in the vertical overlap region and the horizontal overlap region reaches the boundary with the cross overlap region, The process proceeds to S105.

ステップS105においてシーム算出手段24は、縦重複領域および横重複領域のクロス重複領域と接する各端部の累積コストを、クロス重複領域の各端部の累積コストに設定する。シーム算出手段24は、縦重複領域および横重複領域の算出結果から設定された累積コストに基づいて、クロス重複領域の中心方向に向かってつなぎ目を探索する。   In step S105, the seam calculation unit 24 sets the accumulated cost of each end portion in contact with the cross overlap region of the vertical overlap region and the horizontal overlap region to the accumulated cost of each end portion of the cross overlap region. The seam calculation unit 24 searches for a joint toward the center of the cross overlap area based on the accumulated cost set from the calculation results of the vertical overlap area and the horizontal overlap area.

ステップS105において、クロス重複領域の中心方向に累積コストが算出され、各ラインについてつなぎ目が決定すると、ステップS106において、各ラインにおいて算出されたコストが最小の画素を選択してつなぎ目を決定する。   In step S105, the accumulated cost is calculated in the center direction of the cross-overlapping region, and when the joint is determined for each line, in step S106, the pixel having the smallest cost calculated in each line is selected to determine the joint.

具体的には図9の(1)に示すようにシーム算出手段24は、左側縦重複領域R1および右側縦重複領域R2のそれぞれの中心を起点として、左右方向につなぎ目を探索する。またこれに並列してシーム算出手段24は、上側横重複領域R3および下側横重複領域R4のそれぞれの中心を起点として、上下方向につなぎ目を探索する。   Specifically, as shown in (1) of FIG. 9, the seam calculation unit 24 searches for a joint in the left-right direction starting from the respective centers of the left vertical overlap region R1 and the right vertical overlap region R2. In parallel with this, the seam calculation means 24 searches for a joint in the vertical direction starting from the center of each of the upper lateral overlap region R3 and the lower lateral overlap region R4.

左右上下の重複領域において、クロス重複領域R5に接する端部まで探索されると、図9の(2)に示すように、クロス重複領域R5においてつなぎ目を探索する。左側縦重複領域R1において右端までつなぎ目が探索されると、左側縦重複領域R1の右端のつなぎ目の累積コストを、クロス重複領域R5の左端の累積コストに設定して、中心方向につなぎ目を探索する。右側縦重複領域R2において左端までつなぎ目が探索されると、右側縦重複領域R2の左端のつなぎ目の累積コストを、クロス重複領域R5の右端の累積コストに設定して、中心方向につなぎ目を探索する。上側横重複領域R3において下端までつなぎ目が探索されると、上側横重複領域R3の下端のつなぎ目の累積コストを、クロス重複領域R5の上端の累積コストに設定して、中心方向につなぎ目を探索する。下側横重複領域R4において上端までつなぎ目が探索されると、下側横重複領域R4の上端のつなぎ目の累積コストを、クロス重複領域R5の下端の累積コストに設定して、中心方向につなぎ目を探索する。   When a search is made up to the end in contact with the cross overlap region R5 in the left and right overlap regions, a joint is searched in the cross overlap region R5 as shown in (2) of FIG. When the joint is searched to the right end in the left vertical overlap region R1, the cumulative cost at the right end of the left vertical overlap region R1 is set to the cumulative cost at the left end of the cross overlap region R5, and the joint is searched in the center direction. . When the joint is searched to the left end in the right vertical overlap region R2, the joint cost at the left end of the right vertical overlap region R2 is set to the cumulative cost at the right end of the cross overlap region R5, and the joint is searched in the center direction. . When the joint is searched to the lower end in the upper lateral overlap region R3, the joint cost at the lower end of the upper lateral overlap region R3 is set to the cumulative cost at the upper end of the cross overlap region R5, and the joint is searched in the center direction. . When the joint is searched to the upper end in the lower lateral overlap region R4, the cumulative cost at the upper end of the lower lateral overlap region R4 is set to the cumulative cost at the lower end of the cross overlap region R5, and the joint is formed in the center direction. Explore.

図8および図9に示す例によれば、縦重複領域および横重複領域の各重複領域においてつなぎ目の探索を並列して処理することができるので、処理の高速化が期待できる。またクロス重複領域において、縦重複領域および横重複領域の計算結果の制約を受けるので、クロス重複領域において単独でつなぎ目を探索する場合と比べて、他の領域との関連を考慮して、なめらかなつなぎ目を設定することが可能になる。   According to the example shown in FIGS. 8 and 9, the search for the joint can be processed in parallel in each of the overlapping regions of the vertical overlapping region and the horizontal overlapping region, so that high-speed processing can be expected. Also, in the cross overlap area, the calculation results of the vertical overlap area and the horizontal overlap area are limited, so it is smoother considering the relation with other areas compared to searching for joints in the cross overlap area alone. It becomes possible to set a joint.

(中心から周辺に向かって処理する場合)
次に図10および図11を参照して、クロス重複領域においてつなぎ目を算出し、その後、クロス重複領域以外の重複領域においてつなぎ目を算出する処理を説明する。シーム算出手段24は、クロス重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の終端まで到着すると、所定方向に隣接する他の重複領域において、クロス重複領域の終端におけるつなぎ目に対応する位置を起点として、それぞれつなぎ目を算出する。シーム算出手段24は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行う。
(When processing from the center to the periphery)
Next, with reference to FIG. 10 and FIG. 11, a process for calculating a joint in a cross overlap area and then calculating a joint in an overlap area other than the cross overlap area will be described. The seam calculation means 24 calculates a joint in a predetermined direction starting from the center of the cross overlap area, and when it reaches the end of the cross overlap area, in another overlap area adjacent in the predetermined direction, the seam at the end of the cross overlap area Each joint is calculated starting from the position corresponding to. The seam calculation unit 24 performs processing for calculating the joints in parallel in each of the vertical overlap area and the horizontal overlap area.

図9に示すように、シーム算出手段24は、ステップS201においてクロス重複領域の中心を起点として、縦方向および横方向に累積コストを算出してつなぎ目を構成する画素を探索する。ステップS201の処理は、ステップS202に示すように、クロス重複領域の端部に到達するまで繰り返される。   As shown in FIG. 9, the seam calculation means 24 searches for pixels constituting the joint by calculating the accumulated cost in the vertical and horizontal directions starting from the center of the cross overlap region in step S201. The process in step S201 is repeated until the end of the cross overlap area is reached, as shown in step S202.

クロス重複領域において端部までつなぎ目が探索されると、より具体的には、クロス重複領域に置けるつなぎ目の探索処理が、縦重複領域との境界まで達すると、ステップS203に進む。   When the joint is searched to the end in the cross overlap region, more specifically, when the search process for the joint that can be placed in the cross overlap region reaches the boundary with the vertical overlap region, the process proceeds to step S203.

ステップS203においてシーム算出手段24は、クロス重複領域の縦重複領域と接する各端部の累積コストを、縦重複領域の各端部の累積コストに設定する。シーム算出手段24は、クロス重複領域の算出結果から設定された累積コストに基づいて、左右の周辺方向に向かってつなぎ目を探索する。ステップS203の処理は、ステップS204に示すように、縦重複領域の端部に到達するまで繰り返される。   In step S203, the seam calculation unit 24 sets the accumulated cost of each end portion in contact with the vertical overlap region of the cross overlap region to the accumulated cost of each end portion of the vertical overlap region. The seam calculation unit 24 searches for a joint in the left and right peripheral directions based on the accumulated cost set from the calculation result of the cross overlap area. The process of step S203 is repeated until the end of the vertical overlap region is reached, as shown in step S204.

またステップS203およびステップS204の処理に並行して、シーム算出手段24は、ステップS205において、クロス重複領域の横重複領域と接する各端部の累積コストを、横重複領域の各端部の累積コストに設定する。シーム算出手段24は、クロス重複領域の算出結果から設定された累積コストに基づいて、上下の周辺方向に向かってつなぎ目を探索する。ステップS205の処理は、ステップS206に示すように、横重複領域の端部に到達するまで繰り返される。   In parallel with the processing of step S203 and step S204, the seam calculation means 24 calculates the accumulated cost of each end in contact with the horizontal overlap area of the cross overlap area in step S205 as the accumulated cost of each end of the horizontal overlap area. Set to. The seam calculation unit 24 searches for a joint in the upper and lower peripheral directions based on the accumulated cost set from the calculation result of the cross overlap area. The process in step S205 is repeated until the end of the lateral overlap region is reached, as shown in step S206.

ステップS105において、クロス重複領域の端部まで累積コストが算出されると、ステップS106において、各ラインにおいて算出されたコストが最小の画素を選択してつなぎ目を決定する。   In step S105, when the accumulated cost is calculated up to the end of the cross overlap area, in step S106, a pixel having the smallest cost calculated in each line is selected to determine a joint.

具体的には図11の(1)に示すようにシーム算出手段24は、クロス重複領域R5の中心を起点として、上下左右方向につなぎ目を探索する。   Specifically, as shown in (1) of FIG. 11, the seam calculation unit 24 searches for a joint in the vertical and horizontal directions starting from the center of the cross overlap region R5.

クロス重複領域R5において、左右上下の重複領域に接する端部まで探索されると、図11の(2)に示すように、左右上下の重複領域においてつなぎ目を探索する。クロス重複領域R5において左端までつなぎ目が探索されると、クロス重複領域R5の左端のつなぎ目の累積コストを、左側縦重複領域R1の右端の累積コストに設定して、左方向につなぎ目を探索する。クロス重複領域R5において右端までつなぎ目が探索されると、クロス重複領域R5の右端のつなぎ目の累積コストを、右側縦重複領域R2の左端の累積コストに設定して、右方向につなぎ目を探索する。クロス重複領域R5において上端までつなぎ目が探索されると、クロス重複領域R5の上端のつなぎ目の累積コストを、上側横重複領域R3の下端の累積コストに設定して、上方向につなぎ目を探索する。クロス重複領域R5において下端までつなぎ目が探索されると、クロス重複領域R5の下端のつなぎ目の累積コストを、下側横重複領域R4の上端の累積コストに設定して、下方向につなぎ目を探索する。   In the cross overlap area R5, when the search is made up to the ends contacting the left and right and upper and lower overlap areas, as shown in (2) of FIG. 11, a joint is searched in the left and right and upper and lower overlap areas. When the joint is searched to the left end in the cross overlap region R5, the joint cost at the left end of the cross overlap region R5 is set to the cumulative cost at the right end of the left vertical overlap region R1, and the joint is searched in the left direction. When the joint is searched to the right end in the cross overlap region R5, the joint cost at the right end of the cross overlap region R5 is set to the cumulative cost at the left end of the right vertical overlap region R2, and the joint is searched in the right direction. When the joint is searched to the upper end in the cross overlap region R5, the joint cost at the upper end of the cross overlap region R5 is set to the cumulative cost at the lower end of the upper lateral overlap region R3, and the joint is searched upward. When the joint is searched to the lower end in the cross overlap area R5, the cumulative cost of the lower end of the cross overlap area R5 is set to the accumulated cost of the upper end of the lower horizontal overlap area R4, and the joint is searched downward. .

図10および図11に示す例によれば、縦重複領域および横重複領域の各重複領域においてつなぎ目の探索を並列して処理することができるので、処理の高速化が期待できる。また縦重複領域および横重複領域の各重複領域において、クロス重複領域の計算結果の制約を受けるので、縦重複領域および横重複領域において単独でつなぎ目を探索する場合と比べて、他の領域との関連を考慮してなめらかなつなぎ目を設定することが可能になる。   According to the example shown in FIG. 10 and FIG. 11, the joint search can be processed in parallel in each of the vertical overlap region and the horizontal overlap region, so that the processing speed can be expected to be increased. In addition, in each overlap area of the vertical overlap area and the horizontal overlap area, the calculation result of the cross overlap area is limited, so compared with the case of searching for a joint in the vertical overlap area and the horizontal overlap area alone, It becomes possible to set a smooth joint in consideration of the relationship.

(並列に処理する場合)
上記の「周辺から中心に向かって処理する場合」および「中心から周辺に向かって処理する場合」では、既に処理したつなぎ目の情報を伝播させて、後続の処理で参照する場合を説明した。このような処理は、各重複領域における処理順序を拘束するため、ライブ配信するシステムにおいて映像処理装置1における処理量が増えると、映像処理装置1が出力する映像データにコマ落ちが生じ、画質が乱れる場合がある。
(When processing in parallel)
In the case of “processing from the periphery to the center” and “processing from the center to the periphery”, the case has been described in which the information of the joints already processed is propagated and referred to in subsequent processing. Since such processing restricts the processing order in each overlapping area, if the processing amount in the video processing device 1 increases in a live distribution system, frame loss occurs in the video data output from the video processing device 1, and the image quality is reduced. May be disturbed.

例えば、静止している風景の映像を複数のカメラで撮影してつなぐ場合を考える。この風景内で突風が吹き、映像中に枯葉や桜の花びらなどの多くのオブジェクトが早い速度で飛び交い始めると、映像処理装置1の処理量は突然に増えることになる。従って、映像処理装置1の処理が、元の映像のフレームレートに追いつかず、遅延が生じる場合がある。   For example, consider a case where still images of a landscape are captured and connected by a plurality of cameras. When a gust of wind blows in this landscape and many objects such as dead leaves and cherry blossom petals begin to fly at high speed in the video, the processing amount of the video processing device 1 suddenly increases. Therefore, the processing of the video processing device 1 may not catch up with the frame rate of the original video and may cause a delay.

そこで、連結フレーム出力手段26が出力する連結フレームデータについて遅延が生じていない場合、シーム算出手段24は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行う。ここで、遅延が生じていない場合とは、連結フレーム出力手段26が出力する連結フレームデータによって構成される映像データの周波数が、フレーム取得手段22が取得する映像データの周波数と同じ場合である。   Therefore, when there is no delay in the concatenated frame data output from the concatenated frame output unit 26, the seam calculation unit 24 performs a process of calculating a joint in each overlap region of the vertical overlap region and the horizontal overlap region in parallel. Here, the case where there is no delay is a case where the frequency of the video data constituted by the concatenated frame data output from the concatenated frame output unit 26 is the same as the frequency of the video data acquired by the frame acquisition unit 22.

映像処理装置1における負荷が高くなく、入力映像と同じ周波数で映像を出力出来る場合、縦重複領域および横重複領域の各重複領域においてのみ、つなぎ目を算出する処理を並列に行い、その前後で、クロス重複領域においてつなぎ目を算出して、先行する処理の計算結果を、後の処理の計算結果に反映させる。具体的には、周辺から中心に向かって処理する場合、シーム算出手段24は、縦重複領域および横重複領域におけるつなぎ目の算出処理を並列して行い、縦重複領域および横重複領域の端部のつなぎ目の情報を、クロス重複領域に伝播させる。中心から周辺に向かって処理する場合、クロス重複領域におけるつなぎ目の算出処理を行い、クロス重複領域の端部のつなぎ目の情報を、縦重複領域および横重複領域に伝播させる。これにより、映像処理装置1における負荷が低い場合に、映像の品質を向上させることができる。   When the load on the video processing device 1 is not high and the video can be output at the same frequency as the input video, only the overlapping areas of the vertical overlap area and the horizontal overlap area are processed in parallel, and before and after that, A joint is calculated in the cross overlap region, and the calculation result of the preceding process is reflected in the calculation result of the subsequent process. Specifically, in the case of processing from the periphery toward the center, the seam calculation unit 24 performs joint calculation processing in the vertical overlap region and the horizontal overlap region in parallel, and calculates the end portions of the vertical overlap region and the horizontal overlap region. The joint information is propagated to the cross overlap region. In the case of processing from the center toward the periphery, a joint calculation process is performed in the cross overlap area, and the joint information at the end of the cross overlap area is propagated to the vertical overlap area and the horizontal overlap area. Thereby, when the load in the video processing device 1 is low, the quality of the video can be improved.

一方、連結フレーム出力手段26が出力する連結フレームデータについて遅延が生じている場合、シーム算出手段24は、縦重複領域、横重複領域、およびクロス重複領域において、それぞれつなぎ目を算出する処理を並列に行う。ここで、遅延が生じている場合とは、連結フレーム出力手段26が出力する連結フレームデータによって構成される映像データの周波数が、フレーム取得手段22が取得する元の映像データの周波数よりも低い場合である。   On the other hand, when there is a delay with respect to the concatenated frame data output from the concatenated frame output unit 26, the seam calculation unit 24 performs processing for calculating joints in parallel in the vertical overlap region, the horizontal overlap region, and the cross overlap region in parallel. Do. Here, the case where there is a delay is a case where the frequency of the video data constituted by the concatenated frame data output from the concatenated frame output unit 26 is lower than the frequency of the original video data acquired by the frame acquisition unit 22. It is.

映像処理装置1における負荷が高く、入力映像の周波数よりも低い周波数で映像を出力している場合、シーム算出手段24は、縦重複領域、横重複領域、およびクロス重複領域の各重複領域において、一斉につなぎ目を算出する処理を行い、他の重複領域に処理結果を伝播させない。つなぎ目を他の重複領域に伝播させないので、つなぎ目の滑らかさは劣る可能性があるものの、映像処理装置1における処理負荷を軽減できるので、遅延が生じることなく、映像データを出力することが可能になる。   When the load on the video processing device 1 is high and the video is output at a frequency lower than the frequency of the input video, the seam calculation unit 24 performs the following processing on each overlapping region of the vertical overlapping region, the horizontal overlapping region, and the cross overlapping region. Performs processing to calculate joints all at once and does not propagate processing results to other overlapping areas. Since the joints are not propagated to other overlapping regions, the smoothness of the joints may be inferior, but the processing load on the video processing device 1 can be reduced, so that video data can be output without delay. Become.

なお、映像処理装置1における負荷は逐次変化するので、シーム算出手段24は、映像処理装置1の負荷に応じて、つなぎ目の情報を他の重複領域に伝播させたり伝播させなかったりして、映像処理装置1の負荷を調整することも可能である。また、映像処理装置1の処理量が突然増えない映像データであることがわかっている場合、その情報を設定データ11に設定することにより、映像処理の負荷に応じてシーム算出手段24の処理の変更を適用しないようにしても良い。   In addition, since the load in the video processing apparatus 1 changes sequentially, the seam calculation unit 24 transmits or does not propagate the joint information to other overlapping areas according to the load on the video processing apparatus 1. It is also possible to adjust the load of the processing apparatus 1. If it is known that the video processing apparatus 1 is video data whose processing amount does not increase suddenly, the information is set in the setting data 11 so that the processing of the seam calculation means 24 is performed according to the video processing load. The change may not be applied.

(シーム補正手段)
シーム補正手段25は、シーム算出手段24が算出したつなぎ目を補正して、さらに高精細な映像出力を可能にする。シーム補正手段25は、いくつかの補正要素に基づいて、つなぎ目を補正するが、本発明の実施の形態においては、以下の4つの補正要素を対応する。なおシーム補正手段25は、4つの補正要素の全ての要素を用いてつなぎ目を補正しても良いし、任意の補正要素を用いてつなぎ目を補正しても良いし、さらに、下記に示す他の要素を用いてつなぎ目を補正しても良い。
(Seam correction means)
The seam correction unit 25 corrects the joint calculated by the seam calculation unit 24 to enable higher-definition video output. The seam correction means 25 corrects the joints based on several correction elements. In the embodiment of the present invention, the following four correction elements correspond. The seam correction means 25 may correct the joints using all of the four correction elements, may correct the joints using any correction element, and further, other seams shown below. You may correct a joint using an element.

本発明の実施の形態において、各補正要素は、0から1の値を取り、1に近いほど、つなぎ目として選択されにくいように設計される。   In the embodiment of the present invention, each correction element takes a value from 0 to 1 and is designed so that the closer to 1, the less likely it is to be selected as a joint.

(1)重複される各フレームデータにおける対応する各画素について、輝度差の大きい画素を、つなぎ目から回避する第1の補正要素
第1の補正要素は、例えば、左側縦重複領域R1において、結合対象の左上フレームデータF1および左下フレームデータF3について、対応する画素のペアで輝度が大きく異なるような画素のペアを避けて、つなぎ目を設定するための補正要素である。第1の補正要素は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において重複される各フレームデータの対応する各画素の輝度差に着目する。
(1) First correction element that avoids a pixel having a large luminance difference from a joint for each corresponding pixel in each overlapped frame data The first correction element is, for example, a combination target in the left vertical overlap region R1 The upper left frame data F1 and the lower left frame data F3 are correction elements for setting a joint while avoiding a pixel pair whose luminance differs greatly between corresponding pixel pairs. The first correction element focuses on the luminance difference between the corresponding pixels of the frame data that are overlapped in the overlapping regions of the vertical overlapping region, the horizontal overlapping region, and the cross overlapping region.

シーム補正手段25は、つなぐ対象となる各画素のペアについてローパスフィルタを適用し、その結果得られる画素のペアの輝度差の絶対値を算出する。シーム補正手段25は、輝度差の絶対値を累積し、その結果の最大が1.0になるように正規化して、各画素ペアについて、第1の補正要素を算出する。   The seam correction means 25 applies a low-pass filter to each pixel pair to be connected, and calculates the absolute value of the luminance difference of the pixel pair obtained as a result. The seam correction unit 25 accumulates the absolute value of the luminance difference, normalizes the result so that the maximum is 1.0, and calculates a first correction element for each pixel pair.

(2)エッジ部分を、つなぎ目から回避する第2の補正要素
第2の補正要素は、画像にエッジ領域が含まれている場合に、このエッジ領域を避けてつなぎ目を設定するための補正要素である。第2の補正要素は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において重複される各フレームデータの色差の大きいエッジ部分に着目する。
(2) Second correction element for avoiding the edge portion from the joint The second correction element is a correction element for setting the joint by avoiding the edge area when the edge area is included in the image. is there. The second correction element focuses on an edge portion having a large color difference of each frame data that is overlapped in each overlap region of the vertical overlap region, the horizontal overlap region, and the cross overlap region.

シーム補正手段25は、画像に対して、横方向および縦方向にScharrフィルタなどのエッジ検出フィルタを適用し、その結果の対応する画素のペアのL1ノルムを算出する。シーム補正手段25は、画素のペア毎に算出されたL1ノルムを累積し、結果の最大が1.0になるように正規化して、各画素ペアについて、第2の補正要素を算出する。   The seam correction means 25 applies an edge detection filter such as a Scherr filter to the image in the horizontal and vertical directions, and calculates the L1 norm of the corresponding pixel pair as a result. The seam correction unit 25 accumulates the L1 norm calculated for each pixel pair, normalizes the maximum result to be 1.0, and calculates a second correction element for each pixel pair.

(3)処理対象のフレームデータの一つ前のフレームデータにおけるつなぎ目から遠い画素を、つなぎ目から回避する第3の補正要素
第3の補正要素は、シーム算出手段24によって得られたつなぎ目を、時間方向にローパスフィルタを適用したものであり、時間経過に伴うつなぎ目の変動を抑制し、滑らかに変化するための補正要素である。
(3) Third correction element for avoiding pixels far from the joint in the frame data immediately before the frame data to be processed from the joint. The third correction element is the joint obtained by the seam calculation means 24. A low-pass filter is applied in the direction, and is a correction element for suppressing a change in joints over time and changing smoothly.

シーム算出手段24によって得られたつなぎ目により生成された画像をWとし、任意のラインにおけるつなぎ目の位置をSeam(y)とした場合、シーム補正手段25は、Seam(y)から任意の距離Ws以上離れた画素の第3の補正要素を1.0と設定して、Seam(y)の第3の補正要素を0.0と設定し、Wsが1.0となるように、重み付けをする。さらに、シーム算出手段24によって得られたつなぎ目により生成された画像Wが時系列で式(1)となるようにローパルフィルタを適用して、第3の補正要素Wlpfを算出する。   When the image generated by the joint obtained by the seam calculation unit 24 is W and the position of the joint in an arbitrary line is Seam (y), the seam correction unit 25 is more than an arbitrary distance Ws from Seam (y). The third correction element of the separated pixels is set to 1.0, the third correction element of Seam (y) is set to 0.0, and weighting is performed so that Ws becomes 1.0. Further, the third correction element Wlpf is calculated by applying a low-pass filter so that the image W generated by the joint obtained by the seam calculation unit 24 is expressed by the equation (1) in time series.

Wlpf(n)=W(n-1)×a+Wlpf×(1-a) ・・・・式(1)
Wlpf(n):つなぎ目を算出する対象のフレームデータにおける第3の補正要素
W:シーム算出手段24によって得られたつなぎ目により生成された画像
Wlpf:直前のフレームデータにおける第3の補正要素
a:任意の係数
Wlpf (n) = W (n-1) × a + Wlpf × (1-a) ・ ・ ・ ・ Equation (1)
Wlpf (n): third correction element in the frame data to be calculated for the joint
W: an image generated by the joint obtained by the seam calculation means 24
Wlpf: Third correction element in the immediately preceding frame data
a: Arbitrary coefficient

(4)予め設定された禁止領域を、つなぎ目から回避する第4の補正要素
第4の補正要素は、フレームデータ内の目立つ場所などを予め禁止領域に設定し、この禁止領域がつなぎ目として選択されないようにする補正要素である。
(4) Fourth correction element for avoiding preset prohibited area from joints The fourth correction element sets a conspicuous place in the frame data as a prohibited area in advance, and this prohibited area is not selected as a joint. It is a correction element to do.

シーム補正手段25は、禁止領域の画素の第4の補正要素を1.0に設定し、禁止領域以外の画素の第4の補正要素を0.0に設定して、各画素について第4の補正要素を設定する。禁止領域は、任意の画素に対して設定することができる。   The seam correction means 25 sets the fourth correction element of the pixels in the prohibited area to 1.0, sets the fourth correction element of the pixels other than the prohibited area to 0.0, and sets the fourth correction element for each pixel to the fourth correction element. Set the correction factor. The prohibited area can be set for any pixel.

図12を参照して、シーム補正手段25によるシーム補正処理を説明する。   With reference to FIG. 12, the seam correction process by the seam correction means 25 will be described.

まずステップS301においてシーム補正手段25は、各画素について、輝度差の大きい画素を回避する第1の補正要素を算出する。ステップS302においてシーム補正手段25は、各画素について、エッジ部分を回避する第2の補正要素を算出する。ステップS303においてシーム補正手段25は、各画素について、一つ前のフレームデータのつなぎ目と遠い画素を回避する第3の補正要素を算出する。ステップS304においてシーム補正手段25は、各画素について、予め設定された禁止領域を回避する第4の補正要素を算出する。   First, in step S301, the seam correction unit 25 calculates, for each pixel, a first correction element that avoids a pixel having a large luminance difference. In step S302, the seam correction unit 25 calculates a second correction element that avoids the edge portion for each pixel. In step S303, the seam correction unit 25 calculates, for each pixel, a third correction element that avoids a pixel far from the joint of the previous frame data. In step S304, the seam correction unit 25 calculates a fourth correction element for avoiding a preset prohibited area for each pixel.

ステップS305においてシーム補正手段25は、ステップS301ないしステップS304において算出した第1ないし第4の補正要素のいずれか一つ以上を用いて、つなぎ目を補正する。   In step S305, the seam correction unit 25 corrects the joint using any one or more of the first to fourth correction elements calculated in steps S301 to S304.

ステップS301ないしステップS304において、各補正要素は、各ラインの検索対象を構成する各画素について、算出される。また他の実施例として、各重複領域で、各ラインを構成する全ての画素について算出されても良い。なお、ステップS305で参照しない補正要素については、算出されなくとも良い。   In step S301 to step S304, each correction element is calculated for each pixel constituting the search target of each line. As another example, the calculation may be performed for all pixels constituting each line in each overlapping region. Note that correction elements that are not referred to in step S305 need not be calculated.

(連結フレーム出力手段)
連結フレーム出力手段26は、シーム算出手段24が算出したつなぎ目、またはシーム補正手段25が補正したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータ16を出力する。連結フレーム出力手段26は、連結フレームデータ16を断続的に出力し、映像データとして出力装置Oに出力する。
(Connected frame output means)
The connected frame output means 26 connects the respective frame data according to the joint calculated by the seam calculating means 24 or the joint corrected by the seam correcting means 25, and outputs the connected frame data 16 having no overlap. The concatenated frame output means 26 intermittently outputs the concatenated frame data 16 and outputs it to the output device O as video data.

このように本発明の実施の形態に係る映像処理装置1は、処理の高速化を実現しつつ、同時に、つなぎ合わせを行うフレームデータ対のつなぎ目を適正に算出し画像の品質を向上させることができるので、「速くて美しい合成映像」を生成することができる。   As described above, the video processing apparatus 1 according to the embodiment of the present invention can improve the image quality by appropriately calculating the joint of the frame data pair to be joined at the same time while realizing high-speed processing. Since it is possible, a “fast and beautiful composite video” can be generated.

(その他の実施の形態)
上記のように、本発明の実施の形態によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例および運用技術が明らかとなる。
(Other embodiments)
As described above, the embodiments of the present invention have been described. However, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.

例えば、本発明の実施の形態に記載した映像処理装置は、図1に示すように一つのハードウエア上に構成されても良いし、その機能や処理数に応じて複数のハードウエア上に構成されても良い。また、既存の映像処理システム上に実現されても良い。   For example, the video processing apparatus described in the embodiment of the present invention may be configured on one piece of hardware as shown in FIG. 1, or may be configured on a plurality of pieces of hardware according to the functions and the number of processes. May be. Further, it may be realized on an existing video processing system.

また本発明の実施の形態に係る映像処理方法は、非特許文献2で提案されたように、縮小フレームデータを用いて、各フレームデータのつなぎ目を算出して、連結フレームデータを出力しても良い。これにより、処理の高速化が期待できる。   In addition, as proposed in Non-Patent Document 2, the video processing method according to the embodiment of the present invention calculates the joint of each frame data using the reduced frame data and outputs the concatenated frame data. good. This can be expected to speed up the processing.

本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   It goes without saying that the present invention includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

1 映像処理装置
10 記憶装置
11 設定データ
12 フレーム情報データ
13 領域設定データ
14 シームデータ
15 補正シームデータ
16 連結フレームデータ
20 処理装置
21 設定取得手段
22 フレーム取得手段
23 領域設定手段
24 シーム算出手段
25 シーム補正手段
26 連結フレーム出力手段
30 入出力インタフェース
C1、C2、C3、C4 カメラ
I 入力装置
O 出力装置
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10 Storage apparatus 11 Setting data 12 Frame information data 13 Area setting data 14 Seam data 15 Correction seam data 16 Concatenated frame data 20 Processing apparatus 21 Setting acquisition means 22 Frame acquisition means 23 Area setting means 24 Seam calculation means 25 Seam Correction means 26 Connection frame output means 30 Input / output interface C1, C2, C3, C4 Camera I Input device O Output device

Claims (11)

縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置であって、
前記複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得手段と、
互いに隣接するフレームデータについて特徴点を一致させて、前記複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定手段と、
前記縦重複領域、前記横重複領域および前記クロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出手段と、
前記シーム算出手段が算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力手段
を備えることを特徴とする映像処理装置。
A video processing device that connects a plurality of video data that are photographed by overlapping a part of a photographing region adjacent to each other in a vertical direction and a horizontal direction,
Frame acquisition means for acquiring a plurality of frame data captured simultaneously from the plurality of video data;
Frame data adjacent to each other only in the horizontal direction from the overlapping frame data obtained by matching the feature points of the adjacent frame data and overlapping the plurality of frame data, and overlapping in the frame data adjacent in the vertical direction only An area setting means for setting a horizontal overlap area in which overlaps with each other and a cross overlap area in which frame data adjacent in the vertical direction and the horizontal direction overlap,
Seam calculation means for calculating a joint between frame data adjacent to each other in each overlap region of the vertical overlap region, the horizontal overlap region, and the cross overlap region;
A video processing apparatus comprising: connected frame output means for connecting the respective frame data according to the joint calculated by the seam calculating means and outputting connected frame data having no overlap.
前記シーム算出手段は、
前記縦重複領域、前記横重複領域および前記クロス重複領域の各重複領域において、フレームデータとの隣接方向のラインから一つのつなぎ目を決定する処理を、前記隣接方向に直交する方向に繰り返し、
前記隣接方向のラインの検索範囲の各画素のうち、直前に算出されたつなぎ目の画素との特徴値の差分が最も少ない画素を、前記ラインにおけるつなぎ目として算出する
ことを特徴とする請求項1に記載の映像処理装置。
The seam calculating means includes
In each overlap region of the vertical overlap region, the horizontal overlap region and the cross overlap region, the process of determining one joint from the line in the adjacent direction with the frame data is repeated in a direction orthogonal to the adjacent direction,
The pixel having the smallest feature value difference from the pixel of the joint calculated immediately before among the pixels in the search range of the line in the adjacent direction is calculated as the joint in the line. The video processing apparatus described.
前記縦重複領域および前記横重複領域の各重複領域の中心を起点として、所定方向に前記つなぎ目を算出し、前記クロス重複領域の前記縦方向および横方向にそれぞれ隣接する各重複領域の終端のつなぎ目に対応する位置を起点として、前記クロス重複領域のつなぎ目を算出し、
前記縦重複領域および前記横重複領域の各重複領域において、前記つなぎ目を算出する処理を並列に行う
ことを特徴とする請求項2に記載の映像処理装置。
Starting from the center of each overlap region of the vertical overlap region and the horizontal overlap region, the joint is calculated in a predetermined direction, and the end joint of each overlap region adjacent to the cross overlap region in the vertical direction and the horizontal direction, respectively. Starting from the position corresponding to, the joint of the cross overlap region is calculated,
The video processing apparatus according to claim 2, wherein the process of calculating the joint is performed in parallel in each of the overlapping areas of the vertical overlapping area and the horizontal overlapping area.
前記クロス重複領域の中心を起点として、所定方向に前記つなぎ目を算出し、前記クロス重複領域の終端まで到着すると、前記所定方向に隣接する他の重複領域において、前記クロス重複領域の終端におけるつなぎ目に対応する位置を起点として、それぞれつなぎ目を算出し、
前記縦重複領域および前記横重複領域の各重複領域において、前記つなぎ目を算出する処理を並列に行う
ことを特徴とする請求項2に記載の映像処理装置。
Starting from the center of the cross overlap area, the joint is calculated in a predetermined direction, and when reaching the end of the cross overlap area, in another overlap area adjacent to the predetermined direction, the joint at the end of the cross overlap area Calculate the joints starting from the corresponding positions,
The video processing apparatus according to claim 2, wherein the process of calculating the joint is performed in parallel in each of the overlapping areas of the vertical overlapping area and the horizontal overlapping area.
前記連結フレーム出力手段が出力する連結フレームデータについて遅延が生じていない場合、
前記シーム算出手段は、前記縦重複領域および前記横重複領域の各重複領域において、前記つなぎ目を算出する処理を並列に行い、
前記連結フレーム出力手段が出力する連結フレームデータについて遅延が生じている場合、
前記シーム算出手段は、前記縦重複領域、前記横重複領域、および前記クロス重複領域において、それぞれつなぎ目を算出する処理を並列に行う
ことを特徴とする請求項3または4に記載の映像処理装置。
When there is no delay for the concatenated frame data output by the concatenated frame output means,
The seam calculation means performs the process of calculating the joint in parallel in each of the vertical overlap area and the horizontal overlap area,
When there is a delay for the concatenated frame data output by the concatenated frame output means,
5. The video processing apparatus according to claim 3, wherein the seam calculation unit performs a process of calculating joints in the vertical overlap region, the horizontal overlap region, and the cross overlap region in parallel.
重複される各フレームデータにおける対応する各画素について、輝度差の大きい画素を、つなぎ目から回避する補正要素に基づいて、前記シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。
Seam correction means for correcting the joint calculated by the seam calculation means based on a correction element for avoiding pixels having a large luminance difference from the joint for each corresponding pixel in each overlapping frame data,
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
エッジ部分を、つなぎ目から回避する補正要素に基づいて、前記シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。
Seam correction means for correcting the joint calculated by the seam calculation means based on a correction element for avoiding the edge portion from the joint,
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
処理対象のフレームデータの一つ前のフレームデータにおけるつなぎ目から遠い画素を、つなぎ目から回避する補正要素に基づいて、前記シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。
A seam correction unit that corrects the joint calculated by the seam calculation unit based on a correction element that avoids a pixel far from the joint in the frame data immediately before the frame data to be processed from the joint,
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
予め設定された禁止画素を、つなぎ目から回避する補正要素に基づいて、前記シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。
A seam correction unit that corrects a joint calculated by the seam calculation unit based on a correction element that avoids a preset prohibited pixel from the joint;
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理方法であって、
前記複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得ステップと、
互いに隣接するフレームデータについて特徴点を一致させて、前記複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定ステップと、
前記縦重複領域、前記横重複領域および前記クロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出ステップと、
前記シーム算出ステップで算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力ステップ
を備えることを特徴とする映像処理方法。
A video processing method for connecting a plurality of video data shot by overlapping a part of a shooting area adjacent to each other in a vertical direction and a horizontal direction,
A frame acquisition step of acquiring a plurality of frame data shot simultaneously from the plurality of video data;
Frame data adjacent to each other only in the horizontal direction from the overlapping frame data obtained by matching the feature points of the adjacent frame data and overlapping the plurality of frame data, and overlapping in the frame data adjacent in the vertical direction only A region setting step for setting a horizontal overlap region where the frame data overlaps and a cross overlap region where the frame data adjacent in the vertical direction and the horizontal direction overlap,
A seam calculating step for calculating a joint between adjacent frame data in each of the overlapping regions of the vertical overlapping region, the horizontal overlapping region, and the cross overlapping region;
A video processing method comprising: a connected frame output step of connecting each frame data according to the joint calculated in the seam calculating step and outputting connected frame data without duplication.
コンピュータに、請求項1ないし請求項9のいずれか1項に記載の映像処理装置として機能させるための映像処理プログラム。   A video processing program for causing a computer to function as the video processing device according to any one of claims 1 to 9.
JP2017124153A 2017-06-26 2017-06-26 Video processing device, video processing method, and video processing program Active JP6715217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017124153A JP6715217B2 (en) 2017-06-26 2017-06-26 Video processing device, video processing method, and video processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017124153A JP6715217B2 (en) 2017-06-26 2017-06-26 Video processing device, video processing method, and video processing program

Publications (2)

Publication Number Publication Date
JP2019008582A true JP2019008582A (en) 2019-01-17
JP6715217B2 JP6715217B2 (en) 2020-07-01

Family

ID=65026213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017124153A Active JP6715217B2 (en) 2017-06-26 2017-06-26 Video processing device, video processing method, and video processing program

Country Status (1)

Country Link
JP (1) JP6715217B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113711580A (en) * 2019-04-18 2021-11-26 日本电信电话株式会社 Video processing device, video processing method, and video processing program
WO2022118434A1 (en) 2020-12-03 2022-06-09 日本電信電話株式会社 Processing device, processing method, and program
WO2022237687A1 (en) * 2021-05-13 2022-11-17 影石创新科技股份有限公司 Video processing method and apparatus, computer device, and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113711580A (en) * 2019-04-18 2021-11-26 日本电信电话株式会社 Video processing device, video processing method, and video processing program
WO2022118434A1 (en) 2020-12-03 2022-06-09 日本電信電話株式会社 Processing device, processing method, and program
WO2022237687A1 (en) * 2021-05-13 2022-11-17 影石创新科技股份有限公司 Video processing method and apparatus, computer device, and storage medium

Also Published As

Publication number Publication date
JP6715217B2 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
JP7002056B2 (en) 3D model generator and 3D model generation method
JP4658223B2 (en) Image generating method, apparatus, program thereof, and recording medium recording program
TWI533675B (en) Optimal dynamic seam adjustment system and method for images stitching
JP6682559B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
US9313473B2 (en) Depth video filtering method and apparatus
JP6020471B2 (en) Image processing method, image processing apparatus, and image processing program
US9070223B2 (en) Image processing device, image processing method, and image processing program
JP6715217B2 (en) Video processing device, video processing method, and video processing program
CN110517304B (en) Method and device for generating depth map, electronic equipment and storage medium
JP5158262B2 (en) Image processing method and image processing apparatus
JP2020182045A (en) Panorama video composition device, panorama video composition method, and panorama video composition program
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP2017050857A (en) Image processor, image processing method and program
JP6758265B2 (en) Video processing equipment, video processing method and video processing program
JP6600335B2 (en) Video processing apparatus, video processing method, and video processing program
KR20170139816A (en) Image synthesis method in real time
JP6857104B2 (en) Video processing equipment, video processing methods and video processing programs
JP6332864B2 (en) Image processing apparatus, image processing method, and program
JP6336856B2 (en) Multi-view video expression device and program thereof
JP2018148513A (en) Image processing system, image processing method, and program
KR101544156B1 (en) Video retargeting method
JP7003342B2 (en) Video separator, program and video separation method
WO2022118434A1 (en) Processing device, processing method, and program
JP2017216634A (en) Video synthesizing device, video synthesizing method, and program
JP5539561B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6715217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150