JP2019008582A - Video processing device, video processing method, and video processing program - Google Patents
Video processing device, video processing method, and video processing program Download PDFInfo
- Publication number
- JP2019008582A JP2019008582A JP2017124153A JP2017124153A JP2019008582A JP 2019008582 A JP2019008582 A JP 2019008582A JP 2017124153 A JP2017124153 A JP 2017124153A JP 2017124153 A JP2017124153 A JP 2017124153A JP 2019008582 A JP2019008582 A JP 2019008582A
- Authority
- JP
- Japan
- Prior art keywords
- frame data
- joint
- seam
- overlap
- overlapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置、映像処理方法および映像処理プログラムに関する。 The present invention relates to a video processing apparatus, a video processing method, and a video processing program that connect a plurality of video data that are captured by overlapping a part of a shooting area adjacent to each other in the vertical and horizontal directions.
近年、複数のカメラで撮影した映像データをつなぎ合わせて、一つのパノラマ映像や全天球型の映像として再構成する画像処理が普及している。このような技術において、大きいスクリーンで迫力のある映像を出力することが可能になるため、映像の品質の向上が求められる(例えば非特許文献1参照)。非特許文献1は、画像のパノラマ合成の技術に関して、被写体を多層平面で表現する信頼度マッピング法と2次元画像処理を施して、映像の美しさは向上することを開示する。
In recent years, image processing in which video data captured by a plurality of cameras is connected and reconstructed as one panoramic video or omnidirectional video has become widespread. In such a technique, it is possible to output a powerful video on a large screen, and thus improvement in video quality is required (see, for example, Non-Patent Document 1). Non-Patent
しかしながら、映像品質の向上に伴い、画像処理における計算コストが負担となり、計算コストの削減が期待されている。非特許文献1に記載の技術では、計算機負荷が非常に高くなり処理速度が低下してしまう場合がある。
However, with the improvement of video quality, calculation cost in image processing becomes a burden, and reduction of calculation cost is expected. In the technique described in Non-Patent
具体的には、複数の4K映像(3840×2160p、60fps)を処理する場合、1映像につき1秒間に処理しなければならないデータ量は、6Gbitsに及ぶ。複数のカメラで撮影した映像を繋ぎ合せてライブ配信したいと考えた場合、その画像処理システムには大きな負荷がかかり、ライブ配信が実現できないような処理時間がかかってしまう場合が考えられる。 Specifically, when processing a plurality of 4K videos (3840 × 2160p, 60 fps), the amount of data that must be processed per second per video reaches 6 Gbits. If it is desired to connect video shot by a plurality of cameras and perform live distribution, the image processing system may be heavily loaded, and processing time may be required so that live distribution cannot be realized.
そこで、ライブ配信可能な実用性を担保するために、繋ぎ目の自然さに加えて高速処理(ライブ配信用の実時間処理)を実現する技術が開示されている(非特許文献2参照。)。 Therefore, in order to ensure the practicality of live distribution, a technique for realizing high-speed processing (real-time processing for live distribution) in addition to the naturalness of joints is disclosed (see Non-Patent Document 2). .
しかしながら、上述の非特許文献1および2は、映像データを横方向のみにつなげたパノラマ映像について言及するものの、映像データを横方向のみならず縦方向にもつなげた場合の映像処理については充分に検討されていない。
However, although the above-mentioned
そこで本発明は、複数の映像データを縦方向および横方向に連結する処理の高速化を実現することが可能な映像処理装置、映像処理方法および映像処理プログラムを提供することである。 Therefore, the present invention is to provide a video processing apparatus, a video processing method, and a video processing program capable of realizing high-speed processing for connecting a plurality of video data in the vertical direction and the horizontal direction.
上記課題を解決するために、本発明の第1の特徴は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置に関する。本発明の第1の特徴に係る映像処理装置は、複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得手段と、互いに隣接するフレームデータについて特徴点を一致させて、複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定手段と、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出手段と、シーム算出手段が算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力手段を備える。 In order to solve the above-described problem, a first feature of the present invention relates to a video processing apparatus that connects a plurality of video data that are adjacent to each other in a vertical direction and a horizontal direction and that are captured by overlapping a part of a shooting area. A video processing apparatus according to a first feature of the present invention includes a frame acquisition unit that acquires a plurality of frame data shot simultaneously from a plurality of video data, and a plurality of feature points that coincide with each other in adjacent frame data. From the overlapped frame data that overlaps the frame data, the vertical overlap area where the frame data adjacent in the vertical direction only overlaps, the horizontal overlap area where the frame data adjacent only in the horizontal direction overlaps, and the vertical and horizontal adjacent Area setting means for setting a cross overlap area where frame data to be overlapped, and a seam calculation means for calculating a joint between frame data adjacent to each other in each overlap area of a vertical overlap area, a horizontal overlap area, and a cross overlap area; Connected frame data according to the joint calculated by the seam calculation means, and connected frames without duplication It comprises a connecting frame output means for outputting over data.
シーム算出手段は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、フレームデータとの隣接方向のラインから一つのつなぎ目を決定する処理を、隣接方向に直交する方向に繰り返し、隣接方向のラインの検索範囲の各画素のうち、直前に算出されたつなぎ目の画素との特徴値の差分が最も少ない画素を、ラインにおけるつなぎ目として算出しても良い。 The seam calculation means repeats the process of determining one joint from the line in the adjacent direction to the frame data in each of the vertical overlap region, the horizontal overlap region, and the cross overlap region in the direction orthogonal to the adjacent direction, Of the pixels in the direction line search range, the pixel with the smallest feature value difference from the last calculated joint pixel may be calculated as the joint in the line.
縦重複領域および横重複領域の各重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の縦方向および横方向にそれぞれ隣接する各重複領域の終端のつなぎ目に対応する位置を起点として、クロス重複領域のつなぎ目を算出し、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行っても良い。 Starting from the center of each overlap area of the vertical overlap area and the horizontal overlap area, a joint is calculated in a predetermined direction, and the position corresponding to the end joint of each overlap area adjacent in the vertical and horizontal directions of the cross overlap area is calculated. As a starting point, a process of calculating a joint of cross overlap areas and calculating a joint in each of the overlap areas of the vertical overlap area and the horizontal overlap area may be performed in parallel.
クロス重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の終端まで到着すると、所定方向に隣接する他の重複領域において、クロス重複領域の終端におけるつなぎ目に対応する位置を起点として、それぞれつなぎ目を算出し、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行っても良い。 Calculate the joint in the specified direction starting from the center of the cross overlap area, and when it reaches the end of the cross overlap area, in the other overlap areas adjacent in the predetermined direction, the position corresponding to the joint at the end of the cross overlap area is the start As described above, the process of calculating the joints and calculating the joints in the overlapping areas of the vertical overlapping area and the horizontal overlapping area may be performed in parallel.
連結フレーム出力手段が出力する連結フレームデータについて遅延が生じていない場合、シーム算出手段は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行い、連結フレーム出力手段が出力する連結フレームデータについて遅延が生じている場合、シーム算出手段は、縦重複領域、横重複領域、およびクロス重複領域において、それぞれつなぎ目を算出する処理を並列に行っても良い。 When there is no delay in the concatenated frame data output by the concatenated frame output means, the seam calculating means performs processing for calculating joints in parallel areas in the vertical overlap area and the horizontal overlap area in parallel, and the concatenated frame output means When there is a delay with respect to the connected frame data output by, the seam calculation means may perform the process of calculating the joints in the vertical overlap region, the horizontal overlap region, and the cross overlap region in parallel.
重複される各フレームデータにおける対応する各画素について、輝度差の大きい画素を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。 For each corresponding pixel in each overlapped frame data, a connected frame output unit is provided that includes a seam correction unit that corrects a joint calculated by the seam calculation unit based on a correction element that avoids a pixel having a large luminance difference from the joint. May connect the frame data according to the joint corrected by the seam correction means, and output connected frame data without duplication.
エッジ部分を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。 Seam correction means for correcting the joint calculated by the seam calculation means based on a correction element that avoids the edge portion from the joint, and the connected frame output means outputs each frame data according to the joint corrected by the seam correction means. It is also possible to output concatenated frame data that does not overlap.
処理対象のフレームデータの一つ前のフレームデータにおけるつなぎ目から遠い画素を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。 The connected frame output means comprises seam correction means for correcting the joint calculated by the seam calculation means based on a correction element for avoiding a pixel far from the joint in the frame data immediately before the frame data to be processed from the joint. The frame data may be connected in accordance with the joint corrected by the seam correction means, and connected frame data without duplication may be output.
予め設定された禁止画素を、つなぎ目から回避する補正要素に基づいて、シーム算出手段が算出したつなぎ目を補正するシーム補正手段を備え、連結フレーム出力手段は、シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力しても良い。 Based on a correction element that avoids a preset prohibited pixel from the joint, the seam calculation unit includes a seam correction unit that corrects the joint calculated by the seam calculation unit, and the connected frame output unit follows the joint corrected by the seam correction unit. Each frame data may be connected and connected frame data without duplication may be output.
本発明の第2の特徴は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理方法に関する。本発明の第2の特徴に係る映像処理方法は、複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得ステップと、互いに隣接するフレームデータについて特徴点を一致させて、複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定ステップと、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出ステップと、シーム算出ステップで算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力ステップを備える。 The second feature of the present invention relates to a video processing method for connecting a plurality of video data that are photographed by overlapping a part of a photographing region adjacent to each other in the vertical direction and the horizontal direction. A video processing method according to a second feature of the present invention includes a frame acquisition step of acquiring a plurality of frame data shot simultaneously from a plurality of video data, and a plurality of feature points that are coincident with each other in adjacent frame data. From the overlapped frame data that overlaps the frame data, the vertical overlap area where the frame data adjacent in the vertical direction only overlaps, the horizontal overlap area where the frame data adjacent only in the horizontal direction overlaps, and the vertical and horizontal adjacent An area setting step for setting a cross-overlapping area in which frame data to be overlapped, a seam calculation step for calculating a joint between frame data adjacent to each other in each of the vertical overlapping area, the horizontal overlapping area, and the cross-overlapping area; Connect each frame data according to the joint calculated in the seam calculation step, It comprises a connecting frame output step of outputting have connecting frame data.
本発明の第3の特徴は、コンピュータに、本発明の第1の特徴に記載の映像処理装置として機能させるための映像処理装置プログラムに関する。 A third feature of the present invention relates to a video processing device program for causing a computer to function as the video processing device according to the first feature of the present invention.
本発明によれば、複数の映像データを縦方向および横方向に連結する処理の高速化を実現することが可能な映像処理装置、映像処理方法および映像処理プログラムを提供することができる。 According to the present invention, it is possible to provide a video processing apparatus, a video processing method, and a video processing program capable of realizing high-speed processing for connecting a plurality of video data in the vertical direction and the horizontal direction.
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。 Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.
(概要)
図1に示す本発明の実施の形態に係る映像処理装置1は、縦方向および横方向に互いに隣接して、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ。映像処理装置1は、各映像データから同時に撮影されたフレームデータにおいて、適切なつなぎ目(シーム)を探索して、探索されたつなぎ目で各フレームデータを繋いで、映像データを再構成する。
(Overview)
The
ここで、「縦方向および横方向に互いに隣接」は、ある映像データが、他の映像データと縦方向に隣接して、撮影領域の一部を重ねて撮影されるとともに、さらに他の映像データと横方向に隣接して、撮影領域の一部を重ねて撮影されることを意味する。また「縦方向および横方向に互いに隣接」は、ある映像データが、他の映像データと縦方向および横方向、すなわち斜め方向にも隣接して、撮影領域の一部を重ねて撮影される場合も含む。本発明の実施の形態に係る映像処理装置1は、縦M行および横N列に配列された複数のカメラから得られる映像データを再構成する。なお、各映像データおよび各映像データを出力するカメラは、厳密な意味で、縦方向または横方向に隣接していなくとも良い。
Here, “adjacent to each other in the vertical direction and horizontal direction” means that certain video data is photographed by overlapping a part of the photographing area adjacent to other video data in the vertical direction, and other video data. It is meant that a part of the photographing area is overlapped and photographed adjacent to each other in the horizontal direction. Also, “adjacent to each other in the vertical and horizontal directions” means that certain video data is shot with a part of the shooting area overlapping with other video data in the vertical and horizontal directions, that is, diagonally. Including. The
図1に示す映像処理装置1は、複数のカメラC1、C2、C3およびC4から入力される複数の映像データを連結して、一つの映像データを出力する。本発明の実施の形態においては、複数のカメラC1、C2、C3およびC4が、それぞれ縦2行および横2列に配列される場合を説明するが、これに限るものではない。映像処理装置1に入力される映像データを撮影するカメラの数は、例えば6個で、縦2行および横3列に配列されるなど、任意のカメラの数に適用することができる。
The
図2を参照して、本発明の実施の形態に係る映像処理装置1による映像処理方法を説明する。映像処理方法は、複数のカメラC1、C2、C3およびC4のそれぞれから出力される映像データのうち、同時に撮影された各フレームデータについて、ステップS1ないしステップS8の処理を繰り返す。
With reference to FIG. 2, the video processing method by the
まずステップS1において映像処理装置1は、複数のカメラC1、C2、C3およびC4のそれぞれから出力される映像データから、同時刻に撮影された各フレームデータを取得する。
First, in step S1, the
ステップS2において映像処理装置1は、ステップS1で取得した各フレームデータから、特徴点を対応づけて、図3に示す重複フレームデータF0を生成する。
In step S2, the
例えば図3に示すように、同時に撮影された左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4を考える。左上フレームデータF1の撮影領域の右上側と、右上フレームデータF2の撮影領域の左上側は、重複する。左下フレームデータF3の撮影領域の右下側と、右下フレームデータF4の撮影領域の左下側は、重複する。左上フレームデータF1の撮影領域の左下側と、左下フレームデータF3の撮影領域の左上側は、重複する。右上フレームデータF2の撮影領域の右下側と、右下フレームデータF4の撮影領域の右上側は、重複する。また、左上フレームデータF1の撮影領域の右下側と、右上フレームデータF2の撮影領域の左下側と、左下フレームデータF3の撮影領域の右上側と、右下フレームデータF4の撮影領域の左上側は、重複する。 For example, as shown in FIG. 3, consider the upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data F4 that are simultaneously captured. The upper right side of the shooting area of the upper left frame data F1 overlaps the upper left side of the shooting area of the upper right frame data F2. The lower right side of the shooting area of the lower left frame data F3 and the lower left side of the shooting area of the lower right frame data F4 overlap. The lower left side of the shooting area of the upper left frame data F1 and the upper left side of the shooting area of the lower left frame data F3 overlap. The lower right side of the shooting area of the upper right frame data F2 and the upper right side of the shooting area of the lower right frame data F4 overlap. Also, the lower right side of the shooting area of the upper left frame data F1, the lower left side of the shooting area of the upper right frame data F2, the upper right side of the shooting area of the lower left frame data F3, and the upper left side of the shooting area of the lower right frame data F4. Are overlapping.
左上フレームデータF1の撮影領域の右上側で撮影された特徴点と、右上フレームデータF2の撮影領域の左上側で撮影された特徴点とが一致するように、左上フレームデータF1と右上フレームデータF2とを重ねる。同様に、左下フレームデータF3の撮影領域の右下側で撮影された特徴点と、右下フレームデータF4の撮影領域の左下側で撮影された特徴点とが一致するように、左下フレームデータF3と右下フレームデータF4とを重ねる。左上フレームデータF1の撮影領域の左下側で撮影された特徴点と、左下フレームデータF3の撮影領域の左上側で撮影された特徴点とが一致するように、左上フレームデータF1と左下フレームデータF3とを重ねる。右上フレームデータF2の撮影領域の右下側で撮影された特徴点と、右下フレームデータF4の撮影領域の右上側で撮影された特徴点とが一致するように、右上フレームデータF2と右下フレームデータF4とを重ねる。さらに、左上フレームデータF1の撮影領域の右下側で撮影された特徴点と、右上フレームデータF2の撮影領域の左下側で撮影された特徴点と、左下フレームデータF3の撮影領域の右上側で撮影された特徴点と、右下フレームデータF4の撮影領域の左上側で撮影された特徴点とが一致するように、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4とを重ねる。 The upper left frame data F1 and the upper right frame data F2 are such that the feature point photographed on the upper right side of the photographing area of the upper left frame data F1 and the feature point photographed on the upper left side of the photographing area of the upper right frame data F2 match. And repeat. Similarly, the lower left frame data F3 so that the feature point photographed at the lower right side of the photographing area of the lower left frame data F3 matches the feature point photographed at the lower left side of the photographing area of the lower right frame data F4. And lower right frame data F4. The upper left frame data F1 and the lower left frame data F3 are set so that the feature point photographed at the lower left side of the photographing area of the upper left frame data F1 matches the feature point photographed at the upper left side of the photographing area of the lower left frame data F3. And repeat. Upper right frame data F2 and lower right so that the feature point imaged on the lower right side of the imaging area of upper right frame data F2 matches the feature point imaged on the upper right side of the imaging area of lower right frame data F4. The frame data F4 is overlapped. Furthermore, the feature point imaged at the lower right side of the imaging area of the upper left frame data F1, the feature point imaged at the lower left side of the imaging area of the upper right frame data F2, and the upper right side of the imaging area of the lower left frame data F3. The upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data are set so that the photographed feature points coincide with the feature points photographed on the upper left side of the photographing area of the lower right frame data F4. Overlay with F4.
この結果、図3の中央に記載するように、十字状に重複部分が形成される重複フレームデータF0が得られる。なお図2に示す各フレームデータは、重複フレームデータF0が矩形になるように模式的に示しているが、各カメラの角度が異なるなど場合、一部のフレームデータが斜めに配設される場合もある。 As a result, as described in the center of FIG. 3, overlapping frame data F0 in which overlapping portions are formed in a cross shape is obtained. The frame data shown in FIG. 2 is schematically shown so that the overlapping frame data F0 is rectangular. However, when the angles of the cameras are different, some frame data are arranged obliquely. There is also.
図2のステップS3において映像処理装置1は、ステップS2で生成した重複フレームデータF0において、縦重複領域、横重複領域およびクロス重複領域を設定する。
In step S3 of FIG. 2, the
図4を参照して、重複フレームデータF0の各重複領域を説明する。映像処理装置1は、図4に示すように、左上フレームデータF1および左下フレームデータF3が縦方向にのみ重複する重複領域を、左側縦重複領域R1と定義する。映像処理装置1は、左側縦重複領域R1の位置情報を、領域設定データ13に設定する。映像処理装置1は、右上フレームデータF2および右下フレームデータF4が縦方向にのみ重複する重複領域を、右側縦重複領域R2と定義する。映像処理装置1は、右側縦重複領域R2の位置情報を、領域設定データ13に設定する。映像処理装置1は、左上フレームデータF1および右上フレームデータF2が横方向にのみ重複する重複領域を、上側横重複領域R3と定義する。映像処理装置1は、上側横重複領域R3の位置情報を、領域設定データ13に設定する。映像処理装置1は、左下フレームデータF3および右下フレームデータF4が横方向にのみ重複する重複領域を、下側横重複領域R4と定義する。映像処理装置1は、下側横重複領域R4の位置情報を、領域設定データ13に設定する。映像処理装置1は、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4が縦方向および横方向に重複する重複領域を、クロス重複領域R5と定義する。映像処理装置1は、クロス重複領域R5の位置情報を、領域設定データ13に設定する。
With reference to FIG. 4, each overlapping area of the overlapping frame data F0 will be described. As shown in FIG. 4, the
なお、縦にN台のカメラを配設し、横にM台のカメラを配設した場合、縦重複領域の数は、M(N−1)となり、横重複領域の数は、N(M−1)となる。またクロス重複領域のかずは、(N+1)(M+1)−2(M+N)となる。 When N cameras are arranged vertically and M cameras are arranged horizontally, the number of vertically overlapping areas is M (N−1), and the number of horizontally overlapping areas is N (M -1). The cross overlap area is (N + 1) (M + 1) -2 (M + N).
図2のステップS4において映像処理装置1は、図4に示す横つなぎ目SEWおよび縦つなぎ目SELを算出する。横つなぎ目SEWおよび縦つなぎ目SELは、各フレームデータをつないだフレームデータを作成する際のつなぎ目である。
In step S4 of FIG. 2, the
ステップS5においてシーム補正指示がないと判定された場合、ステップS7に進む。一方ステップS5においてシーム補正指示があると判定された場合、ステップS6において、ステップS4で算出した横つなぎ目SEWおよび縦つなぎ目SELを補正し、ステップS7に進む。 If it is determined in step S5 that there is no seam correction instruction, the process proceeds to step S7. On the other hand, when it is determined in step S5 that there is a seam correction instruction, in step S6, the horizontal seam SEW and vertical seam SEL calculated in step S4 are corrected, and the process proceeds to step S7.
ステップS7において映像処理装置1は、つなぎ目に従って、各フレームデータを連結する。具体的に映像処理装置1は、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4をそれぞれ横つなぎ目SEWおよび縦つなぎ目SELで切断して、左上フレームデータf1、右上フレームデータf2、左下フレームデータf3および右下フレームデータf4を生成する。映像処理装置1は、左上フレームデータf1、右上フレームデータf2、左下フレームデータf3および右下フレームデータf4をつなぎ合わせて、連結フレームデータ16を生成する。
In step S7, the
ステップS8において映像処理装置1は、ステップS7で生成した連結フレームデータ16を出力する。この連結フレームデータ16は、映像処理装置1が出力する映像データのフレームデータとなる。
In step S8, the
(映像処理装置)
図1に示す映像処理装置1は、記憶装置10、処理装置20および入出力インタフェース30を備える一般的なコンピュータである。一般的なコンピュータが映像処理プログラムを実行することにより、図1に示す機能を実現する。
(Video processing device)
A
記憶装置10は、ROM(Read Only Memory)、RAM(Random access memory)、ハードディスク等であって、処理装置20が処理を実行するための入力データ、出力データおよび中間データなどの各種データを記憶する。処理装置20は、CPU(Central Processing Unit)であって、記憶装置10に記憶されたデータを読み書きしたり、入出力インタフェース30とデータを入出力したりして、映像処理装置1における処理を実行する。
The
入出力インタフェース30は、キーボード、マウスなどの入力装置I、および複数のカメラC1、C2、C3およびC4からの入力を受付、入力されたデータを処理装置20に入力する。入出力インタフェース30は、さらに、処理装置20による処理結果をディスプレイなどの出力装置Oに出力する。入力装置I、複数のカメラC1、C2、C3、C4、および出力装置Oは、通信インタフェースおよび通信ネットワークを介して、映像処理装置1に接続されても良い。また複数のカメラC1、C2、C3およびC4に代わって、予め撮影された複数の撮影データを記憶した録画機や記憶装置を、映像処理装置1に接続して、映像処理データを処理させても良い。
The input /
記憶装置10は、映像処理プログラムを記憶するとともに、設定データ11、フレーム情報データ12、領域設定データ13、シームデータ14、補正シームデータ15および連結フレームデータ16を記憶する。
The
設定データ11は、本発明の実施の形態に係る映像処理装置1が処理するために必要なパラメータを記憶する。設定データ11は、例えば、映像処理装置1に入力される映像データの数およびその配列、高品質なつなぎ目を算出するか否かなどの各パラメータを含む。
The setting
フレーム情報データ12は、複数のカメラC1、C2、C3およびC4が出力する複数の映像データにおいて、同時に撮影された各フレームデータの情報である。フレーム情報データ12は、カメラの識別子に、画素値、フレームレート、輝度値などの情報を対応づけたデータである。
The
領域設定データ13は、重複フレームデータにおける各フレームデータの重複状態に応じて、縦重複領域、横重複領域およびクロス重複領域を設定した際の、各重複領域の位置情報を定義するデータである。図4に示す例の場合、領域設定データ13は、左側縦重複領域R1、右側縦重複領域R2、上側横重複領域R3、下側横重複領域R4およびクロス重複領域R5の各重複領域の一を定義する。
The
シームデータ14は、領域設定データ13およびフレーム情報データ12に基づいて、各フレームデータのつなぎ目を算出した結果のデータである。
The
補正シームデータ15は、シームデータ14を、種々の観点から補正をしたものである。補正シームデータ15は、シームデータ14よりもより高精度な映像データを得るために用いられる。
The corrected
連結フレームデータ16は、複数のカメラC1、C2、C3およびC4が出力する複数の映像データのそれぞれから、同時に撮影された複数のフレームデータを、シームデータ14または補正シームデータ15に従ってつないで生成される。連結フレームデータ16は、映像処理装置1が出力する映像データを構成する一つのフレームデータとなる。
The concatenated
処理装置20は、設定取得手段21、フレーム取得手段22、領域設定手段23、シーム算出手段24、シーム補正手段25および連結フレーム出力手段26を備える。
The
(設定取得手段)
設定取得手段21は、本発明の実施の形態に係る映像処理装置1が処理するために必要なパラメータを取得して、取得したパラメータを含む設定データ11を記憶する。設定取得手段21は、ユーザが、入力装置Iから入力した情報に従ってパラメータを取得する。或いは設定取得手段21は、複数のカメラC1、C2、C3およびC4から入力された各映像データ等を解析することによって、映像処理装置1が処理するために必要なパラメータを取得する。
(Setting acquisition means)
The setting
(フレーム取得手段)
フレーム取得手段22は、複数のカメラC1、C2、C3およびC4から入力された各映像データから、同時に撮影された複数のフレームデータを取得する。フレーム取得手段22は、取得した複数の各フレームデータについて、フレーム情報データ12を生成して記憶する。
(Frame acquisition means)
The frame acquisition means 22 acquires a plurality of frame data photographed simultaneously from the video data input from the plurality of cameras C1, C2, C3, and C4. The
(領域設定手段)
領域設定手段23は、同時に撮影された複数のフレームデータにおいて、互いに隣接するフレームデータについて特徴点を一致させて、同時に撮影された複数のフレームデータを重ねた重複フレームデータを生成する。図3および図4に示す例において領域設定手段23は、生成した重複フレームデータに基づいて、縦方向にのみ隣接するフレームデータが重複する縦重複領域R1およびR2と、横方向にのみ隣接するフレームデータが重複する横重複領域R3およびR4と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域R5を設定する。領域設定手段23は、各重複領域の位置情報を、領域設定データ13に記憶する。
(Area setting means)
The
(シーム算出手段)
シーム算出手段24は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において、フレームデータとの隣接方向のラインから一つのつなぎ目を決定する処理を、隣接方向に直交する方向に繰り返す。シーム算出手段24は、縦重複領域において横方向にフレームデータのつなぎ目を探索し、横重複領域において縦方向にフレームデータのつなぎ目を探索し、クロス重複領域において縦方向および横方向の各方向にフレームデータのつなぎ目を探索する。シーム算出手段24は、隣接方向のラインの検索範囲の各画素のうち、直前に算出されたつなぎ目の画素との特徴値の差分が最も少ない画素を、このラインにおけるつなぎ目として算出する。
(Seam calculation means)
The
図4に示すように、シーム算出手段24は、左上フレームデータF1、右上フレームデータF2、左下フレームデータF3および右下フレームデータF4の各フレームを滑らかに接続するための、横つなぎ目SEWおよび縦つなぎ目SELを算出する。横つなぎ目SEWは、左側縦重複領域R1、クロス重複領域R5および右側縦重複領域R2において略水平方向(図4に示す紙面の左右方向)に設けられる。縦つなぎ目SELは、上側横重複領域R3、クロス重複領域R5および下側横重複領域R4において略垂直方向(図4に示す紙面の上下方向)に設けられる。 As shown in FIG. 4, the seam calculation means 24 has a horizontal seam SEW and a vertical seam for smoothly connecting the upper left frame data F1, the upper right frame data F2, the lower left frame data F3, and the lower right frame data F4. SEL is calculated. The horizontal joint SEW is provided in a substantially horizontal direction (left and right direction of the paper surface shown in FIG. 4) in the left vertical overlap region R1, the cross overlap region R5, and the right vertical overlap region R2. The vertical joints SEL are provided in a substantially vertical direction (up and down direction on the paper surface shown in FIG. 4) in the upper lateral overlap region R3, the cross overlap region R5, and the lower lateral overlap region R4.
(シーム算出処理)
シーム算出手段24は、フレームデータの隣接方向のラインから一つのつなぎ目を決定し、隣接方向に直交する方向に順次つなぎ目を決定する。例えば、左側縦重複領域R1は、フレームデータが縦方向に隣接するので、シーム算出手段24は、左側縦重複領域R1の縦のラインから一つの画素をつなぎ目として決定する。さらにシーム算出手段24は、横方向に順次つなぎ目を算出して、横つなぎ目SEWを形成する画素を特定する。同様に、上側横重複領域R3は、フレームデータが横方向に隣接するので、シーム算出手段24は、上側横重複領域R3の横のラインから一つの画素をつなぎ目として決定する。さらにシーム算出手段24は、縦方向に順次つなぎ目を算出して、縦つなぎ目SELを形成する画素を特定する。またクロス重複領域R5においては、横方向につなぎ目を検索して横つなぎ目SEWを形成する画素を特定するとともに、縦方向につなぎ目を検索して縦つなぎ目SELを形成する画素を特定する。
(Seam calculation process)
The
図6および図7を参照して、シーム算出手段24がつなぎ目を特定する処理を説明する。図6および図7に示す例は、フレームデータが横方向に重複する横重複領域において、下のラインから上のラインへとつなぎ目を探索する。 With reference to FIG. 6 and FIG. 7, the process by which the seam calculation means 24 specifies the joint will be described. The example shown in FIGS. 6 and 7 searches for a joint from the lower line to the upper line in the horizontal overlap region where the frame data overlaps in the horizontal direction.
シーム算出手段24は、横重複領域において、横方向に検索範囲を決定する。この検索範囲は、5画素や7画素等の奇数の画素により構成される。つなぎ目の検索範囲を限定することにより、処理の高速化が期待できる。また他の例として、横重複領域の横方向の一ライン全ての画素を、検索範囲としても良い。
The
シーム算出手段24は、検索範囲の各画素について、累積コストを算出し、最も累積コストの低い画素を、その検索範囲におけるつなぎ目の画素と決定する。具体的には、図6に示す前のラインの検索範囲において、最も累積コストの低い画素が、前のラインのつなぎ目の最適な経路として記録される。注目ラインにおけるつなぎ目を探索する際、注目ラインの検索範囲の各画素のうち、その前のラインのつなぎ目の特徴量と最も近い特徴量を有する画素が、注目ラインのつなぎ目の最適な経路として記録される。
The
ここで、注目ラインにおける注目画素p(n)の累積コストCp(n)を説明する。注目画素p(n)の累積コストCp(n)は、直前に決定されたつなぎ目の画素P(n−1)と注目画素p(n)との特徴値の差分Dと、直前に決定されたつなぎ目の画素における累積コストCP(n−1)の和である。ここで特徴値は、画素の特徴量に基づいて算出され、例えば色差であっても良いし、輝度差であっても良いし、色差および輝度差を混合した値であっても良い。 Here, the accumulated cost Cp (n) of the target pixel p (n) in the target line will be described. The accumulated cost Cp (n) of the target pixel p (n) is determined immediately before the difference D between the feature values of the joint pixel P (n−1) and the target pixel p (n) determined immediately before. This is the sum of the accumulated cost CP (n−1) at the joint pixel. Here, the feature value is calculated based on the feature amount of the pixel, and may be a color difference, a luminance difference, or a value obtained by mixing the color difference and the luminance difference, for example.
各ラインにおいて、つなぎ目を構成する画素を特定すると、図7に示すように、つなぎ目を構成する画素を辿って、つなぎ目を構成する。図6に示すように、下から上方向に累積コストが最小となるつなぎ目を特定した場合、図7に示すように、上から下につなぎ目を構成しても良い。 When the pixels constituting the joint are specified in each line, the joint is constructed by tracing the pixels constituting the joint as shown in FIG. As shown in FIG. 6, when a joint having a minimum accumulated cost is specified from the bottom to the top, the joint may be configured from the top to the bottom as shown in FIG. 7.
さらに処理を簡略化するために、前のラインで特定されたつなぎ目の画素と、注目ラインの検索範囲を構成する各画素について、特徴値の差分を算出し、最も差分の小さい検索範囲に属する画素を、そのラインのつなぎ目の画素と特定しても良い。また、各ラインでつなぎ目を特定する度に、直前に特定したつなぎ目と連結して、つなぎ目を構成するようにしても良い。なお、縦重複領域においてつなぎ目を探索する場合の処理も同様である。 In order to further simplify the processing, a difference between feature values is calculated for each pixel constituting the search range of the line of interest and the joint pixel specified in the previous line, and the pixels belonging to the search range with the smallest difference May be identified as a pixel at the joint of the line. Further, each time a joint is specified in each line, it may be connected to the joint specified immediately before to form a joint. The process when searching for a joint in the vertical overlap region is the same.
図8ないし図11を参照して、本発明の実施の形態において、処理の高速化および映像の品質向上を実現するための処理順序を説明する。 With reference to FIGS. 8 to 11, a processing order for realizing high-speed processing and video quality improvement in the embodiment of the present invention will be described.
(周辺から中心に向かって処理する場合)
まず図8および図9を参照して、クロス重複領域以外の重複領域においてつなぎ目を算出し、その後、クロス重複領域においてつなぎ目を算出する処理を説明する。シーム算出手段24は、縦重複領域および横重複領域の各重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の縦方向および横方向にそれぞれ隣接する各重複領域の終端のつなぎ目に対応する位置を起点として、クロス重複領域のつなぎ目を算出する。シーム算出手段24は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行う。
(When processing from the periphery to the center)
First, with reference to FIG. 8 and FIG. 9, processing for calculating a joint in an overlapping region other than the cross overlapping region and then calculating a joint in the cross overlapping region will be described. The seam calculation means 24 calculates a joint in a predetermined direction starting from the center of each overlap region of the vertical overlap region and the horizontal overlap region, and ends the overlap regions adjacent to each other in the vertical direction and the horizontal direction of the cross overlap region. Starting from the position corresponding to the joint, the joint of the cross overlap area is calculated. The
図8に示すように、シーム算出手段24は、ステップS101において縦重複領域の中心を起点として、横方向に累積コストを算出してつなぎ目を構成する画素を探索する。ステップS101の処理は、ステップS102に示すように、縦重複領域の端部に到達するまで繰り返される。
As shown in FIG. 8, the
またステップS101およびステップS102の処理に並行して、シーム算出手段24は、ステップS103において横重複領域の中心を起点として、縦方向に累積コストを算出してつなぎ目を構成する画素を探索する。ステップS103の処理は、ステップS104に示すように、横重複領域の端部に到達するまで繰り返される。 In parallel with the processing of step S101 and step S102, the seam calculation means 24 searches the pixels constituting the joint by calculating the accumulated cost in the vertical direction starting from the center of the horizontal overlap region in step S103. The process in step S103 is repeated until the end of the horizontal overlap region is reached, as shown in step S104.
縦重複領域および横重複領域においてそれぞれ端部までつなぎ目が探索されると、より具体的には、縦重複領域および横重複領域におけるつなぎ目の探索処理が、クロス重複領域との境界まで達すると、ステップS105に進む。 When the joint is searched to the end in each of the vertical overlap region and the horizontal overlap region, more specifically, when the joint search process in the vertical overlap region and the horizontal overlap region reaches the boundary with the cross overlap region, The process proceeds to S105.
ステップS105においてシーム算出手段24は、縦重複領域および横重複領域のクロス重複領域と接する各端部の累積コストを、クロス重複領域の各端部の累積コストに設定する。シーム算出手段24は、縦重複領域および横重複領域の算出結果から設定された累積コストに基づいて、クロス重複領域の中心方向に向かってつなぎ目を探索する。
In step S105, the
ステップS105において、クロス重複領域の中心方向に累積コストが算出され、各ラインについてつなぎ目が決定すると、ステップS106において、各ラインにおいて算出されたコストが最小の画素を選択してつなぎ目を決定する。 In step S105, the accumulated cost is calculated in the center direction of the cross-overlapping region, and when the joint is determined for each line, in step S106, the pixel having the smallest cost calculated in each line is selected to determine the joint.
具体的には図9の(1)に示すようにシーム算出手段24は、左側縦重複領域R1および右側縦重複領域R2のそれぞれの中心を起点として、左右方向につなぎ目を探索する。またこれに並列してシーム算出手段24は、上側横重複領域R3および下側横重複領域R4のそれぞれの中心を起点として、上下方向につなぎ目を探索する。
Specifically, as shown in (1) of FIG. 9, the
左右上下の重複領域において、クロス重複領域R5に接する端部まで探索されると、図9の(2)に示すように、クロス重複領域R5においてつなぎ目を探索する。左側縦重複領域R1において右端までつなぎ目が探索されると、左側縦重複領域R1の右端のつなぎ目の累積コストを、クロス重複領域R5の左端の累積コストに設定して、中心方向につなぎ目を探索する。右側縦重複領域R2において左端までつなぎ目が探索されると、右側縦重複領域R2の左端のつなぎ目の累積コストを、クロス重複領域R5の右端の累積コストに設定して、中心方向につなぎ目を探索する。上側横重複領域R3において下端までつなぎ目が探索されると、上側横重複領域R3の下端のつなぎ目の累積コストを、クロス重複領域R5の上端の累積コストに設定して、中心方向につなぎ目を探索する。下側横重複領域R4において上端までつなぎ目が探索されると、下側横重複領域R4の上端のつなぎ目の累積コストを、クロス重複領域R5の下端の累積コストに設定して、中心方向につなぎ目を探索する。 When a search is made up to the end in contact with the cross overlap region R5 in the left and right overlap regions, a joint is searched in the cross overlap region R5 as shown in (2) of FIG. When the joint is searched to the right end in the left vertical overlap region R1, the cumulative cost at the right end of the left vertical overlap region R1 is set to the cumulative cost at the left end of the cross overlap region R5, and the joint is searched in the center direction. . When the joint is searched to the left end in the right vertical overlap region R2, the joint cost at the left end of the right vertical overlap region R2 is set to the cumulative cost at the right end of the cross overlap region R5, and the joint is searched in the center direction. . When the joint is searched to the lower end in the upper lateral overlap region R3, the joint cost at the lower end of the upper lateral overlap region R3 is set to the cumulative cost at the upper end of the cross overlap region R5, and the joint is searched in the center direction. . When the joint is searched to the upper end in the lower lateral overlap region R4, the cumulative cost at the upper end of the lower lateral overlap region R4 is set to the cumulative cost at the lower end of the cross overlap region R5, and the joint is formed in the center direction. Explore.
図8および図9に示す例によれば、縦重複領域および横重複領域の各重複領域においてつなぎ目の探索を並列して処理することができるので、処理の高速化が期待できる。またクロス重複領域において、縦重複領域および横重複領域の計算結果の制約を受けるので、クロス重複領域において単独でつなぎ目を探索する場合と比べて、他の領域との関連を考慮して、なめらかなつなぎ目を設定することが可能になる。 According to the example shown in FIGS. 8 and 9, the search for the joint can be processed in parallel in each of the overlapping regions of the vertical overlapping region and the horizontal overlapping region, so that high-speed processing can be expected. Also, in the cross overlap area, the calculation results of the vertical overlap area and the horizontal overlap area are limited, so it is smoother considering the relation with other areas compared to searching for joints in the cross overlap area alone. It becomes possible to set a joint.
(中心から周辺に向かって処理する場合)
次に図10および図11を参照して、クロス重複領域においてつなぎ目を算出し、その後、クロス重複領域以外の重複領域においてつなぎ目を算出する処理を説明する。シーム算出手段24は、クロス重複領域の中心を起点として、所定方向につなぎ目を算出し、クロス重複領域の終端まで到着すると、所定方向に隣接する他の重複領域において、クロス重複領域の終端におけるつなぎ目に対応する位置を起点として、それぞれつなぎ目を算出する。シーム算出手段24は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行う。
(When processing from the center to the periphery)
Next, with reference to FIG. 10 and FIG. 11, a process for calculating a joint in a cross overlap area and then calculating a joint in an overlap area other than the cross overlap area will be described. The seam calculation means 24 calculates a joint in a predetermined direction starting from the center of the cross overlap area, and when it reaches the end of the cross overlap area, in another overlap area adjacent in the predetermined direction, the seam at the end of the cross overlap area Each joint is calculated starting from the position corresponding to. The
図9に示すように、シーム算出手段24は、ステップS201においてクロス重複領域の中心を起点として、縦方向および横方向に累積コストを算出してつなぎ目を構成する画素を探索する。ステップS201の処理は、ステップS202に示すように、クロス重複領域の端部に到達するまで繰り返される。 As shown in FIG. 9, the seam calculation means 24 searches for pixels constituting the joint by calculating the accumulated cost in the vertical and horizontal directions starting from the center of the cross overlap region in step S201. The process in step S201 is repeated until the end of the cross overlap area is reached, as shown in step S202.
クロス重複領域において端部までつなぎ目が探索されると、より具体的には、クロス重複領域に置けるつなぎ目の探索処理が、縦重複領域との境界まで達すると、ステップS203に進む。 When the joint is searched to the end in the cross overlap region, more specifically, when the search process for the joint that can be placed in the cross overlap region reaches the boundary with the vertical overlap region, the process proceeds to step S203.
ステップS203においてシーム算出手段24は、クロス重複領域の縦重複領域と接する各端部の累積コストを、縦重複領域の各端部の累積コストに設定する。シーム算出手段24は、クロス重複領域の算出結果から設定された累積コストに基づいて、左右の周辺方向に向かってつなぎ目を探索する。ステップS203の処理は、ステップS204に示すように、縦重複領域の端部に到達するまで繰り返される。
In step S203, the
またステップS203およびステップS204の処理に並行して、シーム算出手段24は、ステップS205において、クロス重複領域の横重複領域と接する各端部の累積コストを、横重複領域の各端部の累積コストに設定する。シーム算出手段24は、クロス重複領域の算出結果から設定された累積コストに基づいて、上下の周辺方向に向かってつなぎ目を探索する。ステップS205の処理は、ステップS206に示すように、横重複領域の端部に到達するまで繰り返される。
In parallel with the processing of step S203 and step S204, the seam calculation means 24 calculates the accumulated cost of each end in contact with the horizontal overlap area of the cross overlap area in step S205 as the accumulated cost of each end of the horizontal overlap area. Set to. The
ステップS105において、クロス重複領域の端部まで累積コストが算出されると、ステップS106において、各ラインにおいて算出されたコストが最小の画素を選択してつなぎ目を決定する。 In step S105, when the accumulated cost is calculated up to the end of the cross overlap area, in step S106, a pixel having the smallest cost calculated in each line is selected to determine a joint.
具体的には図11の(1)に示すようにシーム算出手段24は、クロス重複領域R5の中心を起点として、上下左右方向につなぎ目を探索する。
Specifically, as shown in (1) of FIG. 11, the
クロス重複領域R5において、左右上下の重複領域に接する端部まで探索されると、図11の(2)に示すように、左右上下の重複領域においてつなぎ目を探索する。クロス重複領域R5において左端までつなぎ目が探索されると、クロス重複領域R5の左端のつなぎ目の累積コストを、左側縦重複領域R1の右端の累積コストに設定して、左方向につなぎ目を探索する。クロス重複領域R5において右端までつなぎ目が探索されると、クロス重複領域R5の右端のつなぎ目の累積コストを、右側縦重複領域R2の左端の累積コストに設定して、右方向につなぎ目を探索する。クロス重複領域R5において上端までつなぎ目が探索されると、クロス重複領域R5の上端のつなぎ目の累積コストを、上側横重複領域R3の下端の累積コストに設定して、上方向につなぎ目を探索する。クロス重複領域R5において下端までつなぎ目が探索されると、クロス重複領域R5の下端のつなぎ目の累積コストを、下側横重複領域R4の上端の累積コストに設定して、下方向につなぎ目を探索する。 In the cross overlap area R5, when the search is made up to the ends contacting the left and right and upper and lower overlap areas, as shown in (2) of FIG. 11, a joint is searched in the left and right and upper and lower overlap areas. When the joint is searched to the left end in the cross overlap region R5, the joint cost at the left end of the cross overlap region R5 is set to the cumulative cost at the right end of the left vertical overlap region R1, and the joint is searched in the left direction. When the joint is searched to the right end in the cross overlap region R5, the joint cost at the right end of the cross overlap region R5 is set to the cumulative cost at the left end of the right vertical overlap region R2, and the joint is searched in the right direction. When the joint is searched to the upper end in the cross overlap region R5, the joint cost at the upper end of the cross overlap region R5 is set to the cumulative cost at the lower end of the upper lateral overlap region R3, and the joint is searched upward. When the joint is searched to the lower end in the cross overlap area R5, the cumulative cost of the lower end of the cross overlap area R5 is set to the accumulated cost of the upper end of the lower horizontal overlap area R4, and the joint is searched downward. .
図10および図11に示す例によれば、縦重複領域および横重複領域の各重複領域においてつなぎ目の探索を並列して処理することができるので、処理の高速化が期待できる。また縦重複領域および横重複領域の各重複領域において、クロス重複領域の計算結果の制約を受けるので、縦重複領域および横重複領域において単独でつなぎ目を探索する場合と比べて、他の領域との関連を考慮してなめらかなつなぎ目を設定することが可能になる。 According to the example shown in FIG. 10 and FIG. 11, the joint search can be processed in parallel in each of the vertical overlap region and the horizontal overlap region, so that the processing speed can be expected to be increased. In addition, in each overlap area of the vertical overlap area and the horizontal overlap area, the calculation result of the cross overlap area is limited, so compared with the case of searching for a joint in the vertical overlap area and the horizontal overlap area alone, It becomes possible to set a smooth joint in consideration of the relationship.
(並列に処理する場合)
上記の「周辺から中心に向かって処理する場合」および「中心から周辺に向かって処理する場合」では、既に処理したつなぎ目の情報を伝播させて、後続の処理で参照する場合を説明した。このような処理は、各重複領域における処理順序を拘束するため、ライブ配信するシステムにおいて映像処理装置1における処理量が増えると、映像処理装置1が出力する映像データにコマ落ちが生じ、画質が乱れる場合がある。
(When processing in parallel)
In the case of “processing from the periphery to the center” and “processing from the center to the periphery”, the case has been described in which the information of the joints already processed is propagated and referred to in subsequent processing. Since such processing restricts the processing order in each overlapping area, if the processing amount in the
例えば、静止している風景の映像を複数のカメラで撮影してつなぐ場合を考える。この風景内で突風が吹き、映像中に枯葉や桜の花びらなどの多くのオブジェクトが早い速度で飛び交い始めると、映像処理装置1の処理量は突然に増えることになる。従って、映像処理装置1の処理が、元の映像のフレームレートに追いつかず、遅延が生じる場合がある。
For example, consider a case where still images of a landscape are captured and connected by a plurality of cameras. When a gust of wind blows in this landscape and many objects such as dead leaves and cherry blossom petals begin to fly at high speed in the video, the processing amount of the
そこで、連結フレーム出力手段26が出力する連結フレームデータについて遅延が生じていない場合、シーム算出手段24は、縦重複領域および横重複領域の各重複領域において、つなぎ目を算出する処理を並列に行う。ここで、遅延が生じていない場合とは、連結フレーム出力手段26が出力する連結フレームデータによって構成される映像データの周波数が、フレーム取得手段22が取得する映像データの周波数と同じ場合である。
Therefore, when there is no delay in the concatenated frame data output from the concatenated
映像処理装置1における負荷が高くなく、入力映像と同じ周波数で映像を出力出来る場合、縦重複領域および横重複領域の各重複領域においてのみ、つなぎ目を算出する処理を並列に行い、その前後で、クロス重複領域においてつなぎ目を算出して、先行する処理の計算結果を、後の処理の計算結果に反映させる。具体的には、周辺から中心に向かって処理する場合、シーム算出手段24は、縦重複領域および横重複領域におけるつなぎ目の算出処理を並列して行い、縦重複領域および横重複領域の端部のつなぎ目の情報を、クロス重複領域に伝播させる。中心から周辺に向かって処理する場合、クロス重複領域におけるつなぎ目の算出処理を行い、クロス重複領域の端部のつなぎ目の情報を、縦重複領域および横重複領域に伝播させる。これにより、映像処理装置1における負荷が低い場合に、映像の品質を向上させることができる。
When the load on the
一方、連結フレーム出力手段26が出力する連結フレームデータについて遅延が生じている場合、シーム算出手段24は、縦重複領域、横重複領域、およびクロス重複領域において、それぞれつなぎ目を算出する処理を並列に行う。ここで、遅延が生じている場合とは、連結フレーム出力手段26が出力する連結フレームデータによって構成される映像データの周波数が、フレーム取得手段22が取得する元の映像データの周波数よりも低い場合である。
On the other hand, when there is a delay with respect to the concatenated frame data output from the concatenated
映像処理装置1における負荷が高く、入力映像の周波数よりも低い周波数で映像を出力している場合、シーム算出手段24は、縦重複領域、横重複領域、およびクロス重複領域の各重複領域において、一斉につなぎ目を算出する処理を行い、他の重複領域に処理結果を伝播させない。つなぎ目を他の重複領域に伝播させないので、つなぎ目の滑らかさは劣る可能性があるものの、映像処理装置1における処理負荷を軽減できるので、遅延が生じることなく、映像データを出力することが可能になる。
When the load on the
なお、映像処理装置1における負荷は逐次変化するので、シーム算出手段24は、映像処理装置1の負荷に応じて、つなぎ目の情報を他の重複領域に伝播させたり伝播させなかったりして、映像処理装置1の負荷を調整することも可能である。また、映像処理装置1の処理量が突然増えない映像データであることがわかっている場合、その情報を設定データ11に設定することにより、映像処理の負荷に応じてシーム算出手段24の処理の変更を適用しないようにしても良い。
In addition, since the load in the
(シーム補正手段)
シーム補正手段25は、シーム算出手段24が算出したつなぎ目を補正して、さらに高精細な映像出力を可能にする。シーム補正手段25は、いくつかの補正要素に基づいて、つなぎ目を補正するが、本発明の実施の形態においては、以下の4つの補正要素を対応する。なおシーム補正手段25は、4つの補正要素の全ての要素を用いてつなぎ目を補正しても良いし、任意の補正要素を用いてつなぎ目を補正しても良いし、さらに、下記に示す他の要素を用いてつなぎ目を補正しても良い。
(Seam correction means)
The
本発明の実施の形態において、各補正要素は、0から1の値を取り、1に近いほど、つなぎ目として選択されにくいように設計される。 In the embodiment of the present invention, each correction element takes a value from 0 to 1 and is designed so that the closer to 1, the less likely it is to be selected as a joint.
(1)重複される各フレームデータにおける対応する各画素について、輝度差の大きい画素を、つなぎ目から回避する第1の補正要素
第1の補正要素は、例えば、左側縦重複領域R1において、結合対象の左上フレームデータF1および左下フレームデータF3について、対応する画素のペアで輝度が大きく異なるような画素のペアを避けて、つなぎ目を設定するための補正要素である。第1の補正要素は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において重複される各フレームデータの対応する各画素の輝度差に着目する。
(1) First correction element that avoids a pixel having a large luminance difference from a joint for each corresponding pixel in each overlapped frame data The first correction element is, for example, a combination target in the left vertical overlap region R1 The upper left frame data F1 and the lower left frame data F3 are correction elements for setting a joint while avoiding a pixel pair whose luminance differs greatly between corresponding pixel pairs. The first correction element focuses on the luminance difference between the corresponding pixels of the frame data that are overlapped in the overlapping regions of the vertical overlapping region, the horizontal overlapping region, and the cross overlapping region.
シーム補正手段25は、つなぐ対象となる各画素のペアについてローパスフィルタを適用し、その結果得られる画素のペアの輝度差の絶対値を算出する。シーム補正手段25は、輝度差の絶対値を累積し、その結果の最大が1.0になるように正規化して、各画素ペアについて、第1の補正要素を算出する。
The seam correction means 25 applies a low-pass filter to each pixel pair to be connected, and calculates the absolute value of the luminance difference of the pixel pair obtained as a result. The
(2)エッジ部分を、つなぎ目から回避する第2の補正要素
第2の補正要素は、画像にエッジ領域が含まれている場合に、このエッジ領域を避けてつなぎ目を設定するための補正要素である。第2の補正要素は、縦重複領域、横重複領域およびクロス重複領域の各重複領域において重複される各フレームデータの色差の大きいエッジ部分に着目する。
(2) Second correction element for avoiding the edge portion from the joint The second correction element is a correction element for setting the joint by avoiding the edge area when the edge area is included in the image. is there. The second correction element focuses on an edge portion having a large color difference of each frame data that is overlapped in each overlap region of the vertical overlap region, the horizontal overlap region, and the cross overlap region.
シーム補正手段25は、画像に対して、横方向および縦方向にScharrフィルタなどのエッジ検出フィルタを適用し、その結果の対応する画素のペアのL1ノルムを算出する。シーム補正手段25は、画素のペア毎に算出されたL1ノルムを累積し、結果の最大が1.0になるように正規化して、各画素ペアについて、第2の補正要素を算出する。
The seam correction means 25 applies an edge detection filter such as a Scherr filter to the image in the horizontal and vertical directions, and calculates the L1 norm of the corresponding pixel pair as a result. The
(3)処理対象のフレームデータの一つ前のフレームデータにおけるつなぎ目から遠い画素を、つなぎ目から回避する第3の補正要素
第3の補正要素は、シーム算出手段24によって得られたつなぎ目を、時間方向にローパスフィルタを適用したものであり、時間経過に伴うつなぎ目の変動を抑制し、滑らかに変化するための補正要素である。
(3) Third correction element for avoiding pixels far from the joint in the frame data immediately before the frame data to be processed from the joint. The third correction element is the joint obtained by the seam calculation means 24. A low-pass filter is applied in the direction, and is a correction element for suppressing a change in joints over time and changing smoothly.
シーム算出手段24によって得られたつなぎ目により生成された画像をWとし、任意のラインにおけるつなぎ目の位置をSeam(y)とした場合、シーム補正手段25は、Seam(y)から任意の距離Ws以上離れた画素の第3の補正要素を1.0と設定して、Seam(y)の第3の補正要素を0.0と設定し、Wsが1.0となるように、重み付けをする。さらに、シーム算出手段24によって得られたつなぎ目により生成された画像Wが時系列で式(1)となるようにローパルフィルタを適用して、第3の補正要素Wlpfを算出する。
When the image generated by the joint obtained by the
Wlpf(n)=W(n-1)×a+Wlpf×(1-a) ・・・・式(1)
Wlpf(n):つなぎ目を算出する対象のフレームデータにおける第3の補正要素
W:シーム算出手段24によって得られたつなぎ目により生成された画像
Wlpf:直前のフレームデータにおける第3の補正要素
a:任意の係数
Wlpf (n) = W (n-1) × a + Wlpf × (1-a) ・ ・ ・ ・ Equation (1)
Wlpf (n): third correction element in the frame data to be calculated for the joint
W: an image generated by the joint obtained by the seam calculation means 24
Wlpf: Third correction element in the immediately preceding frame data
a: Arbitrary coefficient
(4)予め設定された禁止領域を、つなぎ目から回避する第4の補正要素
第4の補正要素は、フレームデータ内の目立つ場所などを予め禁止領域に設定し、この禁止領域がつなぎ目として選択されないようにする補正要素である。
(4) Fourth correction element for avoiding preset prohibited area from joints The fourth correction element sets a conspicuous place in the frame data as a prohibited area in advance, and this prohibited area is not selected as a joint. It is a correction element to do.
シーム補正手段25は、禁止領域の画素の第4の補正要素を1.0に設定し、禁止領域以外の画素の第4の補正要素を0.0に設定して、各画素について第4の補正要素を設定する。禁止領域は、任意の画素に対して設定することができる。 The seam correction means 25 sets the fourth correction element of the pixels in the prohibited area to 1.0, sets the fourth correction element of the pixels other than the prohibited area to 0.0, and sets the fourth correction element for each pixel to the fourth correction element. Set the correction factor. The prohibited area can be set for any pixel.
図12を参照して、シーム補正手段25によるシーム補正処理を説明する。 With reference to FIG. 12, the seam correction process by the seam correction means 25 will be described.
まずステップS301においてシーム補正手段25は、各画素について、輝度差の大きい画素を回避する第1の補正要素を算出する。ステップS302においてシーム補正手段25は、各画素について、エッジ部分を回避する第2の補正要素を算出する。ステップS303においてシーム補正手段25は、各画素について、一つ前のフレームデータのつなぎ目と遠い画素を回避する第3の補正要素を算出する。ステップS304においてシーム補正手段25は、各画素について、予め設定された禁止領域を回避する第4の補正要素を算出する。
First, in step S301, the
ステップS305においてシーム補正手段25は、ステップS301ないしステップS304において算出した第1ないし第4の補正要素のいずれか一つ以上を用いて、つなぎ目を補正する。
In step S305, the
ステップS301ないしステップS304において、各補正要素は、各ラインの検索対象を構成する各画素について、算出される。また他の実施例として、各重複領域で、各ラインを構成する全ての画素について算出されても良い。なお、ステップS305で参照しない補正要素については、算出されなくとも良い。 In step S301 to step S304, each correction element is calculated for each pixel constituting the search target of each line. As another example, the calculation may be performed for all pixels constituting each line in each overlapping region. Note that correction elements that are not referred to in step S305 need not be calculated.
(連結フレーム出力手段)
連結フレーム出力手段26は、シーム算出手段24が算出したつなぎ目、またはシーム補正手段25が補正したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータ16を出力する。連結フレーム出力手段26は、連結フレームデータ16を断続的に出力し、映像データとして出力装置Oに出力する。
(Connected frame output means)
The connected frame output means 26 connects the respective frame data according to the joint calculated by the seam calculating means 24 or the joint corrected by the
このように本発明の実施の形態に係る映像処理装置1は、処理の高速化を実現しつつ、同時に、つなぎ合わせを行うフレームデータ対のつなぎ目を適正に算出し画像の品質を向上させることができるので、「速くて美しい合成映像」を生成することができる。
As described above, the
(その他の実施の形態)
上記のように、本発明の実施の形態によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例および運用技術が明らかとなる。
(Other embodiments)
As described above, the embodiments of the present invention have been described. However, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.
例えば、本発明の実施の形態に記載した映像処理装置は、図1に示すように一つのハードウエア上に構成されても良いし、その機能や処理数に応じて複数のハードウエア上に構成されても良い。また、既存の映像処理システム上に実現されても良い。 For example, the video processing apparatus described in the embodiment of the present invention may be configured on one piece of hardware as shown in FIG. 1, or may be configured on a plurality of pieces of hardware according to the functions and the number of processes. May be. Further, it may be realized on an existing video processing system.
また本発明の実施の形態に係る映像処理方法は、非特許文献2で提案されたように、縮小フレームデータを用いて、各フレームデータのつなぎ目を算出して、連結フレームデータを出力しても良い。これにより、処理の高速化が期待できる。
In addition, as proposed in
本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 It goes without saying that the present invention includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.
1 映像処理装置
10 記憶装置
11 設定データ
12 フレーム情報データ
13 領域設定データ
14 シームデータ
15 補正シームデータ
16 連結フレームデータ
20 処理装置
21 設定取得手段
22 フレーム取得手段
23 領域設定手段
24 シーム算出手段
25 シーム補正手段
26 連結フレーム出力手段
30 入出力インタフェース
C1、C2、C3、C4 カメラ
I 入力装置
O 出力装置
DESCRIPTION OF
Claims (11)
前記複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得手段と、
互いに隣接するフレームデータについて特徴点を一致させて、前記複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定手段と、
前記縦重複領域、前記横重複領域および前記クロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出手段と、
前記シーム算出手段が算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力手段
を備えることを特徴とする映像処理装置。 A video processing device that connects a plurality of video data that are photographed by overlapping a part of a photographing region adjacent to each other in a vertical direction and a horizontal direction,
Frame acquisition means for acquiring a plurality of frame data captured simultaneously from the plurality of video data;
Frame data adjacent to each other only in the horizontal direction from the overlapping frame data obtained by matching the feature points of the adjacent frame data and overlapping the plurality of frame data, and overlapping in the frame data adjacent in the vertical direction only An area setting means for setting a horizontal overlap area in which overlaps with each other and a cross overlap area in which frame data adjacent in the vertical direction and the horizontal direction overlap,
Seam calculation means for calculating a joint between frame data adjacent to each other in each overlap region of the vertical overlap region, the horizontal overlap region, and the cross overlap region;
A video processing apparatus comprising: connected frame output means for connecting the respective frame data according to the joint calculated by the seam calculating means and outputting connected frame data having no overlap.
前記縦重複領域、前記横重複領域および前記クロス重複領域の各重複領域において、フレームデータとの隣接方向のラインから一つのつなぎ目を決定する処理を、前記隣接方向に直交する方向に繰り返し、
前記隣接方向のラインの検索範囲の各画素のうち、直前に算出されたつなぎ目の画素との特徴値の差分が最も少ない画素を、前記ラインにおけるつなぎ目として算出する
ことを特徴とする請求項1に記載の映像処理装置。 The seam calculating means includes
In each overlap region of the vertical overlap region, the horizontal overlap region and the cross overlap region, the process of determining one joint from the line in the adjacent direction with the frame data is repeated in a direction orthogonal to the adjacent direction,
The pixel having the smallest feature value difference from the pixel of the joint calculated immediately before among the pixels in the search range of the line in the adjacent direction is calculated as the joint in the line. The video processing apparatus described.
前記縦重複領域および前記横重複領域の各重複領域において、前記つなぎ目を算出する処理を並列に行う
ことを特徴とする請求項2に記載の映像処理装置。 Starting from the center of each overlap region of the vertical overlap region and the horizontal overlap region, the joint is calculated in a predetermined direction, and the end joint of each overlap region adjacent to the cross overlap region in the vertical direction and the horizontal direction, respectively. Starting from the position corresponding to, the joint of the cross overlap region is calculated,
The video processing apparatus according to claim 2, wherein the process of calculating the joint is performed in parallel in each of the overlapping areas of the vertical overlapping area and the horizontal overlapping area.
前記縦重複領域および前記横重複領域の各重複領域において、前記つなぎ目を算出する処理を並列に行う
ことを特徴とする請求項2に記載の映像処理装置。 Starting from the center of the cross overlap area, the joint is calculated in a predetermined direction, and when reaching the end of the cross overlap area, in another overlap area adjacent to the predetermined direction, the joint at the end of the cross overlap area Calculate the joints starting from the corresponding positions,
The video processing apparatus according to claim 2, wherein the process of calculating the joint is performed in parallel in each of the overlapping areas of the vertical overlapping area and the horizontal overlapping area.
前記シーム算出手段は、前記縦重複領域および前記横重複領域の各重複領域において、前記つなぎ目を算出する処理を並列に行い、
前記連結フレーム出力手段が出力する連結フレームデータについて遅延が生じている場合、
前記シーム算出手段は、前記縦重複領域、前記横重複領域、および前記クロス重複領域において、それぞれつなぎ目を算出する処理を並列に行う
ことを特徴とする請求項3または4に記載の映像処理装置。 When there is no delay for the concatenated frame data output by the concatenated frame output means,
The seam calculation means performs the process of calculating the joint in parallel in each of the vertical overlap area and the horizontal overlap area,
When there is a delay for the concatenated frame data output by the concatenated frame output means,
5. The video processing apparatus according to claim 3, wherein the seam calculation unit performs a process of calculating joints in the vertical overlap region, the horizontal overlap region, and the cross overlap region in parallel.
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。 Seam correction means for correcting the joint calculated by the seam calculation means based on a correction element for avoiding pixels having a large luminance difference from the joint for each corresponding pixel in each overlapping frame data,
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。 Seam correction means for correcting the joint calculated by the seam calculation means based on a correction element for avoiding the edge portion from the joint,
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。 A seam correction unit that corrects the joint calculated by the seam calculation unit based on a correction element that avoids a pixel far from the joint in the frame data immediately before the frame data to be processed from the joint,
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
前記連結フレーム出力手段は、前記シーム補正手段によって補正されたつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する
ことを特徴とする請求項1に記載の映像処理装置。 A seam correction unit that corrects a joint calculated by the seam calculation unit based on a correction element that avoids a preset prohibited pixel from the joint;
The video processing apparatus according to claim 1, wherein the connected frame output unit connects the frame data according to the joint corrected by the seam correction unit, and outputs connected frame data having no overlap.
前記複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得ステップと、
互いに隣接するフレームデータについて特徴点を一致させて、前記複数のフレームデータを重ねた重複フレームデータから、縦方向にのみ隣接するフレームデータが重複する縦重複領域と、横方向にのみ隣接するフレームデータが重複する横重複領域と、縦方向および横方向に隣接するフレームデータが重複するクロス重複領域を設定する領域設定ステップと、
前記縦重複領域、前記横重複領域および前記クロス重複領域の各重複領域において、互いに隣接するフレームデータとのつなぎ目を算出するシーム算出ステップと、
前記シーム算出ステップで算出したつなぎ目に従って、各フレームデータを繋いで、重複のない連結フレームデータを出力する連結フレーム出力ステップ
を備えることを特徴とする映像処理方法。 A video processing method for connecting a plurality of video data shot by overlapping a part of a shooting area adjacent to each other in a vertical direction and a horizontal direction,
A frame acquisition step of acquiring a plurality of frame data shot simultaneously from the plurality of video data;
Frame data adjacent to each other only in the horizontal direction from the overlapping frame data obtained by matching the feature points of the adjacent frame data and overlapping the plurality of frame data, and overlapping in the frame data adjacent in the vertical direction only A region setting step for setting a horizontal overlap region where the frame data overlaps and a cross overlap region where the frame data adjacent in the vertical direction and the horizontal direction overlap,
A seam calculating step for calculating a joint between adjacent frame data in each of the overlapping regions of the vertical overlapping region, the horizontal overlapping region, and the cross overlapping region;
A video processing method comprising: a connected frame output step of connecting each frame data according to the joint calculated in the seam calculating step and outputting connected frame data without duplication.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017124153A JP6715217B2 (en) | 2017-06-26 | 2017-06-26 | Video processing device, video processing method, and video processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017124153A JP6715217B2 (en) | 2017-06-26 | 2017-06-26 | Video processing device, video processing method, and video processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019008582A true JP2019008582A (en) | 2019-01-17 |
JP6715217B2 JP6715217B2 (en) | 2020-07-01 |
Family
ID=65026213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017124153A Active JP6715217B2 (en) | 2017-06-26 | 2017-06-26 | Video processing device, video processing method, and video processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6715217B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113711580A (en) * | 2019-04-18 | 2021-11-26 | 日本电信电话株式会社 | Video processing device, video processing method, and video processing program |
WO2022118434A1 (en) | 2020-12-03 | 2022-06-09 | 日本電信電話株式会社 | Processing device, processing method, and program |
WO2022237687A1 (en) * | 2021-05-13 | 2022-11-17 | 影石创新科技股份有限公司 | Video processing method and apparatus, computer device, and storage medium |
-
2017
- 2017-06-26 JP JP2017124153A patent/JP6715217B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113711580A (en) * | 2019-04-18 | 2021-11-26 | 日本电信电话株式会社 | Video processing device, video processing method, and video processing program |
WO2022118434A1 (en) | 2020-12-03 | 2022-06-09 | 日本電信電話株式会社 | Processing device, processing method, and program |
WO2022237687A1 (en) * | 2021-05-13 | 2022-11-17 | 影石创新科技股份有限公司 | Video processing method and apparatus, computer device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6715217B2 (en) | 2020-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7002056B2 (en) | 3D model generator and 3D model generation method | |
JP4658223B2 (en) | Image generating method, apparatus, program thereof, and recording medium recording program | |
TWI533675B (en) | Optimal dynamic seam adjustment system and method for images stitching | |
JP6682559B2 (en) | Image processing apparatus, image processing method, image processing program, and storage medium | |
US9313473B2 (en) | Depth video filtering method and apparatus | |
JP6020471B2 (en) | Image processing method, image processing apparatus, and image processing program | |
US9070223B2 (en) | Image processing device, image processing method, and image processing program | |
JP6715217B2 (en) | Video processing device, video processing method, and video processing program | |
CN110517304B (en) | Method and device for generating depth map, electronic equipment and storage medium | |
JP5158262B2 (en) | Image processing method and image processing apparatus | |
JP2020182045A (en) | Panorama video composition device, panorama video composition method, and panorama video composition program | |
JP5504990B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP2017050857A (en) | Image processor, image processing method and program | |
JP6758265B2 (en) | Video processing equipment, video processing method and video processing program | |
JP6600335B2 (en) | Video processing apparatus, video processing method, and video processing program | |
KR20170139816A (en) | Image synthesis method in real time | |
JP6857104B2 (en) | Video processing equipment, video processing methods and video processing programs | |
JP6332864B2 (en) | Image processing apparatus, image processing method, and program | |
JP6336856B2 (en) | Multi-view video expression device and program thereof | |
JP2018148513A (en) | Image processing system, image processing method, and program | |
KR101544156B1 (en) | Video retargeting method | |
JP7003342B2 (en) | Video separator, program and video separation method | |
WO2022118434A1 (en) | Processing device, processing method, and program | |
JP2017216634A (en) | Video synthesizing device, video synthesizing method, and program | |
JP5539561B2 (en) | Image processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6715217 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |