JP2010278813A - Video synthesizing method, video synthesis system - Google Patents
Video synthesizing method, video synthesis system Download PDFInfo
- Publication number
- JP2010278813A JP2010278813A JP2009129857A JP2009129857A JP2010278813A JP 2010278813 A JP2010278813 A JP 2010278813A JP 2009129857 A JP2009129857 A JP 2009129857A JP 2009129857 A JP2009129857 A JP 2009129857A JP 2010278813 A JP2010278813 A JP 2010278813A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- background
- video
- angle
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 163
- 230000015572 biosynthetic process Effects 0.000 title abstract description 16
- 238000003786 synthesis reaction Methods 0.000 title abstract description 16
- 230000002194 synthesizing effect Effects 0.000 title abstract description 9
- 239000000463 material Substances 0.000 claims abstract description 86
- 238000004364 calculation method Methods 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 48
- 239000000203 mixture Substances 0.000 claims description 90
- 230000008569 process Effects 0.000 claims description 85
- 238000012937 correction Methods 0.000 claims description 44
- 239000002131 composite material Substances 0.000 claims description 35
- 230000003287 optical effect Effects 0.000 claims description 25
- 238000004091 panning Methods 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 18
- 230000000052 comparative effect Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 14
- 238000013507 mapping Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 4
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 241000195955 Equisetum hyemale Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 241000722921 Tulipa gesneriana Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229920002994 synthetic fiber Polymers 0.000 description 1
Images
Abstract
Description
本発明は、背景にブルーバックなどの特別な背景を使用することなく撮影した映像から、合成用素材のみを切り出して合成用映像を生成する技術に関する。 The present invention relates to a technique for generating a composite video by cutting out only a composite material from a video shot without using a special background such as a blue background.
従来、映画などの映像作品の制作において、合成技術は欠かすことのできないものとなっている。合成用に用いる映像は、ブルーバック合成技術を用いて撮影されることが多い。 Conventionally, composition techniques are indispensable in the production of video works such as movies. Images used for composition are often shot using a blue-back composition technique.
ブルーバック合成とは、合成に用いる映像を撮影する際に、青い布などの背景(以下、ブルーバックとする)を用いる技術である。撮影された映像に対して、ブルーバック部分を透明として扱う映像特殊処理を適用して合成用映像を生成し、そこに別の背景映像を合成する。例えば人物と背景を合成する場合は、ブルーバックの前で、合成用素材となる人物を撮影し、撮影した映像のブルーバックの部分に対して、別に用意した背景映像を合成する(例えば、特許文献1または2参照)。
The blue back composition is a technique that uses a background such as a blue cloth (hereinafter referred to as a blue back) when shooting an image used for composition. An image special process that treats the blue back portion as transparent is applied to the captured image to generate an image for synthesis, and another background image is synthesized there. For example, when composing a person and a background, a person as a composition material is photographed before the blue background, and a separately prepared background image is synthesized with the blue background portion of the captured image (for example,
このブルーバック合成は、ブルーバックを使って撮影された合成用映像を用いる。そのためブルーバック合成には、仮背景となるブルーバックを用意する必要がある。しかし、ブルーバックは、一部の撮影スタジオにしか用意されていない上、撮影スタジオやブルーバックの使用、準備などに多くの費用と手間がかかるという問題があった。 In this blue background composition, a composition image photographed using a blue background is used. For this reason, it is necessary to prepare a blue background as a temporary background for blue background synthesis. However, there is a problem that the blue back is prepared only in a part of the shooting studios, and that the use and preparation of the shooting studio and the blue back are costly and troublesome.
また、撮影スタジオが限られているため、撮り直し等により、急遽、再撮影が必要となった場合、撮影スタジオの確保が難しいという問題もあった。さらに、撮影可能範囲が撮影スタジオやブルーバックの大きさに限られてしまうため、カメラのパンおよびチルトを多用した動きのある映像を撮影するのが難しいという問題もあった。 In addition, since the number of shooting studios is limited, there is a problem that it is difficult to secure a shooting studio when re-shooting is required suddenly due to re-shooting or the like. Furthermore, since the shootable range is limited to the size of the shooting studio or the blue background, there is a problem that it is difficult to shoot a moving image that uses a lot of camera pan and tilt.
また、撮影スタジオという人工光の下で撮影された映像と、太陽光の下で撮影された背景映像を合成しようとすると、光の微妙な違いで合成処理後の映像が不自然になってしまうこともあった。 Also, if you try to synthesize an image shot under artificial light called a shooting studio and a background image shot under sunlight, the image after the composition process will become unnatural due to subtle differences in light. There was also.
なお、ブルーバックを使わずに合成用映像を生成する方法としては、通常の方法で撮影した映像から、デジタルコンピューター上で動作する画像加工ソフトウェアを用いて、手動で合成用素材を切り出すことも考えられる。しかし、手動では時間と人件費がかかる上、細かい部分を精密に切り出すことができず、微細なニュアンスが失われた不自然な合成用映像になってしまうという問題があった。 In addition, as a method of generating a composite video without using a blue background, it is also possible to manually cut out a composite material from video shot by a normal method using image processing software that operates on a digital computer. It is done. However, manual operation takes time and labor costs, and details cannot be cut out precisely, resulting in an unnatural composite image in which fine nuances are lost.
また、合成用素材を含む映像から、自動的に合成用素材の輪郭等を検出して、合成用素材を切りだすソフトウェアも考えられるが、動的に変化していく輪郭を検出し、切り出していくという工程において、情報処理が複雑かつ膨大になってしまうという問題があった。 In addition, software that automatically detects the outline of the composition material from the video containing the composition material and cuts out the composition material is also conceivable, but it detects and cuts out the dynamically changing outline. In the process of going, there is a problem that information processing becomes complicated and enormous.
本発明は、上記の問題に鑑みてなされたものであり、合成に用いる合成用映像を生成する際において、ブルーバックで撮影された映像を用いることなく、任意の背景で撮影された映像から合成用素材のみが抽出された合成用映像を得ることが可能な映像合成方法および映像合成システムを提供することを目的とする。 The present invention has been made in view of the above-described problems. When generating a composite image used for composition, the present invention combines the image captured with an arbitrary background without using the image captured with the blue background. It is an object of the present invention to provide a video composition method and a video composition system capable of obtaining a composite image in which only a material for use is extracted.
本発明は、パンおよびチルト可能に配置された背景用カメラによって撮影可能な多方向の背景を前記背景用カメラによって撮影した背景側映像と、前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像と、を用意し、前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出処理と、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択処理と、選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較処理と、を行うことを特徴とする、映像合成方法である。 The present invention provides a background-side image in which a multi-directional background that can be photographed by a background camera arranged so as to be capable of panning and tilting is photographed by the background camera, and is arranged so as to be able to pan and tilt at the same position as the background camera. A material-side image captured so that the composition material is included under the background by the prepared material camera, and the position of the index point indicating the same background position in a plurality of frames of the background-side image is prepared Based on the comparison, an angle calculation process for calculating a pan angle and a tilt angle for each frame of the background-side video for each frame, and a pan angle and a tilt angle for the frame of the material-side video at the time of shooting. A background selection process for selecting a comparison frame from the frame group of the background side video for each frame of the material side video, and the selected comparison frame. By comparing each frame of over arm and the material-side image, and background comparison process of generating a composition image of the composition material is extracted, and performing a video composition method.
本発明はまた、上記映像合成方法において、前記角度算出処理は、前記背景用カメラ位置を中心とする仮想球体を設定し、比較する2つのフレームのうち、一方の基準フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した基準投射指標点、および他方の対比フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した対比投射指標点を求め、前記基準投射指標点および前記対比投射指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度を算出することを特徴とする。 According to the present invention, in the video composition method, the angle calculation processing sets a virtual sphere centered on the background camera position, and sets the index point on one reference frame of two frames to be compared. The reference projection index point projected on the surface of the virtual sphere toward the radial direction of the virtual sphere, and the index point on the other comparison frame are directed on the surface of the virtual sphere toward the radial direction of the virtual sphere. A projected projection index point is obtained, and a pan angle and a tilt angle at the time of shooting each frame of the background side image are calculated by comparing the positions of the reference projection index point and the contrast projection index point. And
本発明はまた、上記映像合成方法において、前記角度算出処理は、前記背景用カメラの画角および前記背景側映像のフレームの寸法に基づいて前記仮想球体の半径を設定することを特徴とする。 The present invention is also characterized in that, in the video composition method, the angle calculation processing sets a radius of the virtual sphere based on a field angle of the background camera and a frame size of the background side video.
本発明はまた、上記映像合成方法において、前記角度算出処理は、前記仮想球体の中心を、前記背景用カメラのレンズの主点に設定し、前記仮想球体の半径を、前記背景用カメラのレンズの焦点距離と同一に設定することを特徴とする。 According to the present invention, in the video composition method, in the angle calculation processing, the center of the virtual sphere is set as a principal point of the lens of the background camera, and the radius of the virtual sphere is set as the lens of the background camera. The focal length is set to be the same.
本発明はまた、上記映像合成方法において、前記指標点は、前記基準フレームの光学中心に対応する点であることを特徴とする。 The present invention is also characterized in that, in the video composition method, the index point is a point corresponding to the optical center of the reference frame.
本発明はまた、上記映像合成方法において、前記角度算出処理は、前記基準フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、基準投射フレームを生成し、前記対比フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、対比投射フレームを生成し、前記基準投射フレームおよび前記対比投射フレームについてパターンマッチングを行うことで、前記指標点以外の同一の背景位置を示す投射特定点を複数求め、前記基準投射フレーム上の前記投射特定点を基準投射特定点に設定すると共に、前記対比投射フレーム上の前記投射特定点を対比投射特定点に設定し、前記基準投射特定点および前記対比投射特定点の位置に基づいて、前記対比投射指標点の位置を算出することを特徴とする。 According to the present invention, in the video composition method, the angle calculation process generates a reference projection frame by projecting the reference frame on a surface of the virtual sphere in a radial direction of the virtual sphere, By projecting the contrast frame onto the surface of the virtual sphere in the radial direction of the virtual sphere, generating a contrast projection frame, and performing pattern matching on the reference projection frame and the contrast projection frame, the index A plurality of projection specific points indicating the same background position other than the points are obtained, and the projection specific point on the reference projection frame is set as a reference projection specific point, and the projection specific point on the contrast projection frame is contrasted and specified. And calculating the position of the contrast projection index point based on the positions of the reference projection specific point and the contrast projection specific point. To.
本発明はまた、上記映像合成方法において、前記角度算出処理は、前記基準投射特定点および前記基準投射指標点の相対的な位置関係に基づいて、前記対比投射指標点の位置を算出することを特徴とする。 According to the present invention, in the video composition method, the angle calculation process calculates a position of the contrast projection index point based on a relative positional relationship between the reference projection specific point and the reference projection index point. Features.
本発明はまた、上記映像合成方法において、前記角度算出処理は、前記投射特定点として第1の投射特定点および第2の投射特定点を設定し、前記第1の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第1の距離、および前記第2の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第2の距離を求め、前記第1の投射特定点の前記対比投射特定点から前記第1の距離、且つ前記第2の投射特定点の前記対比投射特定点から前記第2の距離に位置する前記仮想球体の表面上の点を前記対比投射指標点とすることを特徴とする。 According to the present invention, in the video composition method, the angle calculation processing sets a first projection specific point and a second projection specific point as the projection specific point, and the reference projection of the first projection specific point. A first distance between a specific point and the reference projection index point, and a second distance between the reference projection specific point and the reference projection index point of the second projection specific point are obtained, and the first distance The point on the surface of the virtual sphere located at the first distance from the contrast projection specific point of the projection specific point and the second distance from the contrast projection specific point of the second projection specific point is the contrast. A projection index point is used.
本発明はまた、上記映像合成方法において、前記角度算出処理は、前記背景側映像の各フレームの撮影時のロール角度を前記背景側映像のフレームごとに算出し、前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。 According to the present invention, in the video composition method, the angle calculation processing calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video, and the background comparison processing includes the background comparison The correction is performed based on the roll angle at the time of photographing each frame of the side image.
本発明はまた、上記映像合成方法において、前記角度算出処理は、所定の前記投射特定点の前記基準投射特定点と前記基準投射指標点を結ぶ直線と、所定の前記投射特定点の前記対比投射特定点と前記対比投射指標点を結ぶ直線とがなす角度に基づいて、前記背景側映像の各フレームの撮影時のロール角度を求め、前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。 The present invention is also the video composition method, wherein the angle calculation process includes a straight line connecting the reference projection specific point of the predetermined projection specific point and the reference projection index point, and the contrast projection of the predetermined projection specific point. Based on an angle formed by a specific point and a straight line connecting the contrast projection index points, a roll angle at the time of shooting each frame of the background side image is obtained, and the background comparison processing is performed by shooting each frame of the background side image. The correction is performed based on the current roll angle.
本発明はまた、上記映像合成方法において、前記背景選択処理は、前記背景側映像のフレームと前記素材側映像のフレームにおいて同一の背景位置を示す選択用指標点の位置を比較することにより、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出することを特徴とする。 The present invention is also the video composition method, wherein the background selection processing includes comparing the positions of index points for selection indicating the same background position in the frame of the background side video and the frame of the material side video. A pan angle and a tilt angle at the time of photographing each frame of the material side image are calculated for each frame.
本発明はまた、上記映像合成方法において、前記背景選択処理は、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と同一のパン角度およびチルト角度の比較用フレームを選択できない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度に近いパン角度およびチルト角度の比較用フレームを複数選択することを特徴とする。 According to the present invention, in the video composition method, when the background selection process cannot select a pan angle and a tilt angle comparison frame that are the same as the pan angle and the tilt angle at the time of shooting the frame of the material side video, A plurality of frames for comparison of pan angle and tilt angle close to the pan angle and tilt angle at the time of photographing the frame of the material side image are selected.
本発明はまた、上記映像合成方法において、前記背景選択処理は、前記素材側映像の各フレームの撮影時のロール角度を前記素材側映像のフレームごとに算出し、前記背景比較処理は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。 According to the present invention, in the video composition method, the background selection processing calculates a roll angle at the time of shooting each frame of the material-side video for each frame of the material-side video, and the background comparison processing includes the material comparison The correction is performed based on the roll angle at the time of photographing each frame of the side image.
本発明はまた、上記映像合成方法において、前記背景比較処理は、比較する前記素材側映像のフレームと前記比較用フレームの撮影時のパン角度またはチルト角度が同一でない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と一致するように前記比較用フレームを修正した比較用修正フレームを生成し、前記比較用修正フレームと前記素材側映像のフレームを比較することを特徴とする。 According to the present invention, in the video composition method, in the background comparison process, if the pan angle or the tilt angle at the time of shooting of the material side video frame to be compared and the comparison frame are not the same, the frame of the material side video A comparison correction frame is generated by correcting the comparison frame so as to coincide with the pan angle and tilt angle at the time of shooting, and the comparison correction frame and the frame of the material side image are compared.
本発明はまた、上記映像合成方法において、前記背景比較処理は、前記素材側映像のフレームの撮影時のロール角度と一致するように前記比較用フレームを修正した前記比較用修正フレームを生成することを特徴とする。 According to the present invention, in the video composition method, the background comparison processing generates the comparative correction frame in which the comparison frame is corrected so as to coincide with a roll angle at the time of shooting the frame of the material side video. It is characterized by.
本発明はまた、上記映像合成方法において、前記背景比較処理は、前記比較用フレームの各画素を、仮想球体の半径方向に向けて前記素材側映像のフレームと同一平面上に投射することによって、前記比較用修正フレームを生成することを特徴とする。 According to the present invention, in the video composition method, the background comparison process projects each pixel of the comparison frame on the same plane as the frame of the material-side video in the radial direction of the virtual sphere, The modification frame for comparison is generated.
本発明はまた、パンおよびチルト可能に配置された背景用カメラによって撮影可能な多方向の背景を前記背景用カメラによって撮影した背景側映像を記憶する背景側映像記憶手段と、前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像を記憶する素材側映像記憶手段と、前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出手段と、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択手段と、選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較手段と、を備えることを特徴とする、映像合成システムである。 The present invention also provides background-side image storage means for storing a background-side image in which a multi-directional background that can be photographed by a background camera arranged so as to be capable of panning and tilting is photographed by the background camera, and the background camera. Material-side video storage means for storing a material-side image shot so that the material for composition is included under the background by a material camera arranged so as to be capable of panning and tilting at the same position; and a plurality of background-side images By comparing the positions of index points indicating the same background position in the frame, angle calculation means for calculating the pan angle and the tilt angle at the time of shooting of each frame of the background side image for each frame, and the material side image Based on the pan angle and tilt angle at the time of shooting each frame, the frame for comparison is extracted from the frame group of the background side image for each frame of the material side image. A background selection means for selecting an image, and a background comparison means for generating a composition image from which the composition material is extracted by comparing the selected comparison frame and each frame of the material side image. This is a video composition system.
本発明はまた、上記映像合成システムにおいて、前記角度算出手段は、前記背景側映像の各フレームの撮影時のロール角度を前記背景側映像のフレームごとに算出し、前記背景比較手段は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。 According to the present invention, in the video composition system, the angle calculation unit calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video, and the background comparison unit includes the background comparison unit. The correction is performed based on the roll angle at the time of photographing each frame of the side image.
本発明はまた、上記映像合成システムにおいて、前記背景選択手段は、前記背景側映像のフレームと前記素材側映像のフレームにおいて同一の背景位置を示す選択用指標点の位置を比較することにより、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出することを特徴とする。 The present invention also provides the video composition system, wherein the background selection means compares the position of the index point for selection indicating the same background position in the frame of the background side video and the frame of the material side video. A pan angle and a tilt angle at the time of photographing each frame of the material side image are calculated for each frame.
本発明はまた、上記映像合成システムにおいて、前記背景選択手段は、前記素材側映像の各フレームの撮影時のロール角度を前記素材側映像のフレームごとに算出し、前記背景比較手段は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。 According to the present invention, in the video composition system, the background selection unit calculates a roll angle at the time of shooting each frame of the material side video for each frame of the material side video, and the background comparison unit includes the material comparison unit. The correction is performed based on the roll angle at the time of photographing each frame of the side image.
本発明はまた、上記映像合成システムにおいて、前記背景比較手段は、比較する前記素材側映像のフレームと前記比較用フレームの撮影時のパン角度またはチルト角度が同一でない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と一致するように前記比較用フレームを修正した比較用修正フレームを生成し、前記比較用修正フレームと前記素材側映像のフレームを比較することを特徴とする。 According to the present invention, in the video composition system, the background comparison unit is configured such that when the pan angle or the tilt angle at the time of photographing of the material side video to be compared and the comparison frame are not the same, the frame of the material side video A comparison correction frame is generated by correcting the comparison frame so as to coincide with the pan angle and tilt angle at the time of shooting, and the comparison correction frame and the frame of the material side image are compared.
本発明はまた、上記映像合成システムにおいて、前記背景比較手段は、前記素材側映像のフレームの撮影時のロール角度と一致するように前記比較用フレームを修正した前記比較用修正フレームを生成することを特徴とする。 According to the present invention, in the video composition system, the background comparison unit generates the comparative correction frame in which the comparison frame is corrected so as to coincide with a roll angle at the time of shooting the frame of the material side video. It is characterized by.
本発明の映像合成方法または映像合成システムによれば、いかなる背景環境であっても、合成用映像を生成することができる。この結果、ブルーバック用の撮影スタジオの使用料の負担や、事前準備等の手間が軽減される。さらに、カメラをパンまたはチルトさせながら合成用素材を撮影し、背景に対する合成用素材の位置が大きく変化する場合であっても、合成用映像を効率的に生成することができる。 According to the video composition method or the video composition system of the present invention, it is possible to generate a composite image in any background environment. As a result, it is possible to reduce the burden of the usage fee for the shooting studio for the blue background and the time and effort for advance preparation. Furthermore, even when the composition material is photographed while panning or tilting the camera, and the position of the composition material with respect to the background changes greatly, the composition image can be generated efficiently.
以下に、本発明の実施形態について図面を用いて説明する。なお、本発明はこれらの図面に限定されるものではないことは予め言及しておく。 Embodiments of the present invention will be described below with reference to the drawings. It should be noted in advance that the present invention is not limited to these drawings.
<基本思想>
まず、本実施形態の全般に亘る基本思想について説明する。図1は、本実施形態の映像合成方法の概念を示した図である。
<Basic idea>
First, the basic idea throughout the present embodiment will be described. FIG. 1 is a diagram showing the concept of the video composition method of the present embodiment.
同図に示されるように、本実施形態では、まず、任意背景を撮影して生成した背景側映像10を準備する。そして、同じ背景下で合成用素材(例えば、人物)20が含まれるように撮影した素材側映像12と、この合成用素材20の背景として事後的に挿入する例えば梅22およびつくし24を撮影した挿入用背景映像14を準備する。
As shown in the figure, in this embodiment, first, a
次に、素材側映像12の各フレームと(例えば、チューリップ26が撮影された背景)と同じ背景である比較用フレーム10aを、背景側映像10のフレーム群から素材側映像12のフレームごとに選択し、抽出する(背景選択処理)。これにより、合成用素材20が映っているかいないかのみ異なる二つの映像(フレーム)12、10aが用意されたこととなる。そして、この素材側映像12の各フレームおよび比較用フレーム10aを比較し、異なっている部分を抽出することで、合成用素材20のみが切り取られた合成用映像14を得る(背景比較処理)。この合成用映像14に挿入用背景映像16を合成することによって、例えば梅22およびつくし24を背景とした合成用素材(人物)20の最終映像18が完成する。
Next, a
なお、これらの背景側映像10および素材側映像12は、同一の位置に配置されたカメラ(ビデオカメラ)をパンまたはチルトさせることによって撮影する。このように、カメラ位置を固定することによって、背景部分の映像を処理する場合に、カメラから一定の距離に存在する背景、すなわち任意の半径の天球上に存在する背景として扱うことが可能となる。背景側映像10を撮影するカメラ、および素材側映像12を撮影するカメラは、同一の位置に配置されるものであれば、同一のカメラまたは異なるカメラのいずれであってもよい。
The
<映像合成システム>
次に、本発明の実施形態に係る映像合成システムについて説明する。図2は、この映像合成システム100の概略構成図である。
<Video composition system>
Next, a video composition system according to an embodiment of the present invention will be described. FIG. 2 is a schematic configuration diagram of the
図2において、101は、ビデオカメラで撮影した背景側映像であり、102は、ビデオカメラで撮影した素材側映像である。104は、背景側映像101が記憶されるハードディスク(背景側映像保存手段)であり、105は、素材側映像102が記憶されるハードディスク(素材側映像保存手段)である。そして、106は、背景側映像101を構成するフレームであり、107は、背景側映像103を構成するフレームである。
In FIG. 2,
また、108は、CPU(中央演算装置)やメモリ、通信バス、複数の入出力インターフェース等を備えたコンピュータであり、109は、このコンピュータ108で実行されるプログラムが保存されているハードディスク(プログラム保存手段)である。110は、このコンピュータ108によって背景比較処理を行った後に生成される合成用フレーム(合成用素材のみが切り取られたフレーム)であり、111は、この合成用フレーム110を記憶したハードディスク(合成用映像保存手段)である。そして、112は、この合成用フレーム110によって構成される合成用映像である。
図3は、コンピュータ108が備える内部構成を示した図である。なお、この内部構成は、コンピュータ108のメモリ121に上記プログラムが一旦格納され、このプログラムがCPU(中央演算処理装置)120で実行されることで得られる各種機能も含んでいる。
FIG. 3 is a diagram showing an internal configuration of the
コンピュータ108は、自身の全体を制御するCPU120と、RAM等からなるメモリ121を備えていると共に、背景側映像保存手段104、素材側映像保存手段105、プログラム保存手段109、および合成用映像保存手段111にそれぞれ接続される入出力インターフェース(I/O)122、123、124、125を備えている。また、プログラムをCPU120で実行することで得られる機能構成として、角度算出手段130、背景側映像角度データベース生成手段132、選択用三次元画像生成手段134、背景選択手段136、および背景比較手段138を備えている。
The
<角度算出手段>
次に、角度算出手段130の機能について説明する。角度算出手段130は、後述する角度算出処理を実行し、背景側映像101を構成する各フレーム106の撮影時におけるパン角度θおよびチルト角度φを算出するものである。図4は、本実施形態におけるパン角度θおよびチルト角度φを示した図である。同図に示されるように、本実施形態では、撮影スタジオ内または屋外等の任意の位置に配置したビデオカメラ200によって背景側映像の撮影を行う。
<Angle calculation means>
Next, the function of the
このビデオカメラ200は、雲台300の上に載置されており、パンおよびチルトさせることによって任意の撮影方向にビデオカメラ200を向けることが可能となっている。なお、本実施形態では、垂直方向の軸を中心にビデオカメラ200を回転させ、撮影方向を水平面内で変化させる動作を「パン」、水平方向の軸を中心にビデオカメラ200を回転させ、撮影方向を垂直面内で変化させる動作を「チルト」と呼んでいる。各フレーム106の撮影時のパン角度θおよびチルト角度φを求めることにより、各フレーム106の撮影時の撮影方向を特定することができる。
The
ビデオカメラ200を所定の位置に固定し、パンおよびチルトさせながら撮影を行う場合、ビデオカメラ200と背景の距離が変化しないため、全ての背景がビデオカメラ200を中心とする任意の半径の天球400上(天球400の表面上)にあるものと見なすことができる。従って、各フレーム106撮影時のパン角度θおよびチルト角度φを算出して撮影方向を特定することにより、背景側映像101の各フレーム106の撮影領域402が天球400上のどこに位置しているかを特定することができる。
When shooting with the
また、角度算出手段130は、背景側映像101を構成する各フレーム106の撮影時におけるロール角度ψを算出する。図5(a)および(b)は、本実施形態におけるロール角度ψを示した図である。同図(a)に示されるように、ビデオカメラ200を所定の角度にチルトさせた状態でパンさせた場合、ビデオカメラ200は、背景に対して光学中心を軸にしてロール回転することとなる。従って、例えば同図(a)における撮影領域402a、402b、402cを撮影したときにビデオカメラ200に映し出される映像をそれぞれ502a、502b、502cとした場合、これらの映像502a〜502cは、同図(b)に示されるように、背景に対して円弧状に移動すると共に光学中心Oを中心として回転するように映し出されることとなる。角度算出手段130は、この光学中心0を中心とするロール回転の角度をロール角度ψとして算出する。
In addition, the
次に、本実施形態の角度算出手段130による、上述のパン角度θ、チルト角度φおよびロール角度ψの算出方法について説明する。まず、図6〜10を用いて、各角度θ、φ、ψの算出方法の原理について説明する。
Next, a method for calculating the above-described pan angle θ, tilt angle φ, and roll angle ψ by the
図6は、ビデオカメラ200による撮影を模式的に示した図である。同図においては、ビデオカメラ200が備えている複数のレンズを1つのレンズとみなした仮想レンズ202として示し、その中心を主点204としている。そして、この仮想レンズ202の焦点位置に、例えばCCD等からなる撮像素子206が配置され、仮想レンズ202を通過した光を受光するものとしている。
FIG. 6 is a diagram schematically showing shooting by the
同図では、ビデオカメラ200を主点204を中心に回転させてパンまたはチルトさせることにより、撮像素子206に映し出される映像が、撮影領域402dから撮影領域402eに変化した場合を示している。背景の一部である物体404は、主点204を中心とする天球400上に制止しており、物体404から仮想レンズ202の主点204に入射する光の方向は、ビデオカメラ200の位置が固定されているため一定となる。このため、撮像素子206が受光する物体404の写像504の位置は、ビデオカメラ200の回転による撮像素子206の移動に応じて変化する。具体的にこの例では、撮像素子200の端部側(図の左端部側)に向けて写像504の位置が変化する。
This figure shows a case where the video displayed on the
背景とビデオカメラ200の位置関係は相対的なものであるため、ビデオカメラ200の回転は、天球400上に沿った背景の移動に置き換えることができる。図7は、ビデオカメラ200の回転を天球400上に沿った背景の移動に置き換えて示した模式図である。
Since the positional relationship between the background and the
同図に示されるように、ビデオカメラ200の回転に伴って、物体404は撮影領域402内の天球400上を移動する。そして、この物体404の移動に応じて、撮像素子206が受光する物体404の写像504の位置が変化することとなる。但し、撮像素子206上の写像504の移動は、物体404の球面上の移動を平面上の移動に変換したものとなっている。このため、写像504は、同一のビデオカメラ200の回転に対し、撮像素子206上の位置に応じた異なる態様で移動することとなる。さらに、ビデオカメラ200がロール回転する場合には、写像504の移動は、光学中心からの距離に比例した回転移動が加わったさらに複雑なものとなる。
As shown in the figure, the
そこで、本実施形態では、仮想レンズ202の主点204を中心とし、撮像素子206の光学中心Oに接する仮想球体600を設定し、この仮想球体600上(仮想球体600の表面上)における写像504に対応する点(投射点)604の移動に基づいて、各角度θ、φ、ψを算出する。この仮想球体600上の投射点604の移動は、ビデオカメラ200をパンまたはチルトさせることによる天球400上の物体404の相対移動に相似した移動(経路が天球400と仮想球体600の半径の比だけ縮小された移動)に、ロール回転による回転移動が加わったものとなる。
Therefore, in the present embodiment, a
図8は、仮想球体600上の投射点の求め方を示した図である。上述のように、仮想球体600は、仮想レンズ202の主点204を中心とし、撮像素子206の光学中心Oに接する球体である。従って、仮想球体600の半径は、仮想レンズ202の焦点距離と等しいとみなすことができる。また、ビデオカメラ200の対角画角をα、撮像素子206の対角線の長さをLとした場合、仮想球体600の半径dは、例えば次の式によって求められる。
例えば、同図において、撮像素子206上の点506aの投射点は仮想球体600上の点606aであり、撮像素子206上の点506bの投射点は仮想球体600上の点606bである。このように、撮像素子206上の点を仮想球体600の半径方向に向けて仮想球体600の表面上に投射した点を投射点とすることにより、例えば、天球400上の点406aの写像が点506aである場合、点406a、主点204、および点506aを結ぶ直線状に点606aが位置することとなるため、点606aは、仮想球体600上において正確に点406aの位置を示す点となっている。同様に、点606bは、仮想球体600上において正確に点406bの位置を示す点となっている。
For example, in the figure, the projection point of the
撮像素子206上のその他の各点、例えば点506c、506d、506eの投射点はそれぞれ点606c、606d、606eとなる。また、撮像素子206の光学中心Oに対応する点506fとその投射点606fは、同一点に位置することとなる。
Projection points of other points on the
また、本実施形態では、主点204を原点とし、水平方向をx方向、垂直方向をy方向、ビデオカメラ200の光学中心の軸方向をz方向として空間座標(x,y,z)を設定している。従って、仮想球体600の半径をdとすると、撮像素子206上における座標(x,y,z)の点に対応する仮想球体600上の投射点の座標(x',y',z')は、例えば次の数式によって求められる。
同図(c)は、三角形OPQから三角形O'P'Q'への移動を1つのフレーム上において示した図である。上述のように、天球400上から平面上の移動への変換、およびビデオカメラ200のロール回転の影響により、フレーム上における点Oから点O'への移動、点Pから点P'への移動、および点Qから点Q'への移動は、それぞれ異なる態様となる。すなわち、フレーム上では、同図(c)に示されるように、各点が映し出されている位置に応じて移動距離および移動方向が変化するため、三角形OPQおよび三角形O'P'Q'は異なる形状となる。
FIG. 4C shows the movement from the triangle OPQ to the triangle O′P′Q ′ on one frame. As described above, due to the conversion from the
三角形OPQおよび三角形O'P'Q'は、同一の背景が映し出されたものであるため、両フレーム106a、106bにおいて同一の形状に映し出されると一般的には認識されている。しかし、実際には、フレーム106aおよびフレーム106bにおける位置が異なっている場合、三角形OPQおよび三角形O'P'Q'は、異なる形状に映し出されることとなる。すなわち、本実施形態のように、所定の位置にビデオカメラ200を配置し、パンおよびチルトさせて背景側映像101または素材側映像102を撮影する場合、撮影方向が異なるフレーム上においては、同一の背景であっても異なる形状に映し出されるようになっている。このため、背景側映像101を構成する各フレーム106または素材側映像102を構成する各フレーム107から2つのフレームを抽出してパターンマッチングを行い、これにより2つのフレームにおいて同一の背景位置を示す点を求めることは、困難である。
Since the triangle OPQ and the triangle O′P′Q ′ are the same background, it is generally recognized that the triangle OPQ and the triangle O′P′Q ′ are projected in the same shape in both
図10(a)および(b)は、図9に示したフレーム106aおよびフレーム106b上の各点を、図8等で示した仮想球体600上に投射した場合を示した図である。これらの図では、点oが点Oの投射点であり、点pが点Pの投射点であり、点qが点Qの投射点である。また、点o'が点O'の投射点であり、点p'が点P'の投射点であり、点q'が点Q'の投射点である。
FIGS. 10A and 10B are diagrams showing a case where each point on the
仮想球体600上に投射された三角形opqおよび三角形o'p'q'は、それぞれ天球400上の背景における同一の三角形と相似する形状(天球400と仮想球体600の半径の比だけ縮小された形状)となる。このため、三角形opqおよび三角形o'p'q'は、同図(a)に示されるように、仮想球体600上の位置によらず、互いに同一な形状(合同)となる。すなわち、本実施形態のような撮影を行う場合、フレーム上の点(画素)を仮想球体600上に投射して得られる部分球面状の投射フレームにおいては、撮影方向が異なるフレームであっても、同一の背景であれば同一の形状に映し出されるようになっている。従って、2つの投射フレームについてパターンマッチングを行うようにすれば、2つのフレームにおいて同一の背景位置を示す点を比較的容易に特定することができる。
A triangle opq and a triangle o′p′q ′ projected onto the
また、同図(a)において、点oはフレーム106aの光学中心に対応する点である。このため、仮想球体600上における点oから点o'への移動はビデオカメラ200の光学中心の移動、すなわちパン角度θおよびチルト角度φに応じた撮影方向の移動を示している。従って、仮想球体600上の点oから点o'への移動に基づいて、フレーム106aとフレーム106bの間のパン角度θおよびチルト角度φを求めることができる。
In FIG. 9A, point o corresponds to the optical center of the
点oの座標は、フレーム106a上の点Oと同一であり、仮想球体600の半径をdとした場合、座標(0,0,d)となる。従って、点o'の座標が(xs,ys,zs)である場合、例えば次の式でパン角度θおよびチルト角度φを求めることができる。
次に、コンピュータ108の備えるその他の機能構成について説明する。
The coordinates of the point o are the same as the point O on the
Next, other functional configurations included in the
背景側映像角度データベース生成手段132は、後述する背景側映像角度データベース生成処理を実行することで、角度算出手段130が算出した各角度θ、φ、ψと背景側映像の各フレーム106を対応付けた背景側映像角度データベースを生成するものである。後述する背景選択手段136は、この背景側映像角度データベースを参照して、背景側映像101を構成する複数のフレーム106の中から比較用フレームを選択する。
The background side video angle
選択用三次元画像生成手段134は、後述する選択用三次元画像生成処理を実行することで、背景側映像角度データベースに基づいて背景側映像101の各フレーム106を仮想球体600上にマッピングした選択用三次元画像を生成するものである。
The selection three-dimensional
図11(a)〜(c)は、選択用三次元画像の例を示した概略図である。なお、同図(a)および(c)では、三択用三次元画像の一部の断面を示している。同図(a)に示されるように、選択用三次元画像生成手段134は、各フレーム106のパン角度θおよびチルト角度φを仮想球体600上の球座標(θ,φ)として、背景側映像101の各フレーム106を仮想球体上に配置して構成した選択用三次元画像700を生成する。詳細には、同図(b)に示されるように、仮想球体600上のパン角度θおよびチルト角度φに対応する座標点に各フレーム106の光学中心に対応する点Oが位置した状態で各フレーム106が仮想球体600に接するように、各フレーム106を配置する。さらに、各フレーム106を、点Oを中心にロール角度ψだけ回転し、各フレーム106の背景を天球400上の背景に対応する位置に一致させる補正を行う。従って、選択用三次元画像700は、二次元の各フレーム106を三次元状に配置することで、天球400上の背景を模した画像データとして生成される。
FIGS. 11A to 11C are schematic diagrams illustrating examples of a selection three-dimensional image. In addition, the same figure (a) and (c) has shown the one part cross section of the three-dimensional image for three choices. As shown in FIG. 6A, the selection three-dimensional image generation means 134 uses the pan angle θ and the tilt angle φ of each
このように、背景側映像101の各フレーム106をパン角度θおよびチルト角度φに基づいて仮想球体600上にマッピングすることにより、背景側映像101の各フレーム106上の各点(画素)に対応する球座標を特定することが可能となる。
In this way, by mapping each
なお、同図(c)に示されるように、マッピングされた各フレーム106の画素を仮想球体600上に投射することで球体状のパノラマ画像を合成し、これを選択用三次元画像700としてもよい。各フレーム106の画素の仮想球体600上への投射は、仮想球体600の半径方向に向けて行う。このように、球体状のパノラマ画像として構成した選択用三次元画像700は、背景を含む天球400(または天球400の一部)の相似形の画像データとなる。
As shown in FIG. 6C, a spherical panoramic image is synthesized by projecting the mapped pixels of each
背景選択手段136は、後述する背景選択処理を実行し、素材側映像102のフレーム107ごとに、同一の背景部分を含む比較用フレームを背景側映像101を構成する複数のフレーム106の中から選択して抽出するものである。背景選択手段136が実行する処理の詳細については、後述する。
The
背景比較手段138は、後述する背景比較処理を実行し、素材側映像102の各フレーム107から背景部分を抜き出し、合成用素材のみが切り取られた合成用フレーム110を生成するものである。背景比較手段138が実行する処理の詳細については、後述する。
The
<合成用映像生成処理>
次に、背景側映像101および素材側映像102から合成用映像112を生成する合成用映像生成処理の手順について説明する。図12は、合成用映像生成処理の手順を示したフローチャートである。
<Synthesis video generation processing>
Next, the procedure of the synthesis video generation process for generating the
まず、ステップS101では、角度算出手段130が背景側映像101のフレーム106について角度算出処理を実行し、背景側映像101のフレーム106ごとに各角度θ、φ、ψを算出する。角度算出処理の詳細な手順については、後述する。
First, in step S <b> 101, the
ステップS102では、背景側映像101の全てのフレーム106について各角度θ、φ、ψを算出したか否かを判定する。全てのフレーム106について各角度θ、φ、ψを算出していない場合はステップS101に戻り、所定の順番で残りのフレーム106について角度算出処理を実行する。全てのフレーム106について各角度θ、φ、ψを算出した場合は、ステップS103に進む。
In step S102, it is determined whether or not the angles θ, φ, and ψ have been calculated for all the
ステップS103では、背景側映像角度データベース生成手段132が背景側映像角度データベース生成処理を実行し、背景側映像角度データベースを生成する。生成した背景側映像角度データベースは、背景側映像保存手段104に記憶する。ステップS104では、選択用三次元画像生成手段が選択用三次元画像生成処理を実行し、選択用三次元画像700を生成する。生成した選択用三次元画像700は、背景側映像保存手段104に記憶する。なお、背景側映像角度データベースおよび選択用三次元画像700を、背景側映像保存手段104以外の専用保存手段に記憶するようにしてもよい。
In step S103, the background side video angle
ステップS105では、背景選択手段136が素材側映像102のフレーム107について背景選択処理を実行し、素材側映像102のフレーム107ごとに比較用フレームを選択する。背景選択処理の詳細な手順については、後述する。
In step S <b> 105, the
ステップS106では、背景比較手段が、素材側映像102のフレーム107について背景比較処理を実行し、合成用フレーム110を生成する。ここでは、ステップS105で選択した比較用フレームを使用して背景比較処理を実行する。また、生成した合成用フレーム110は、合成用映像保存手段111に記憶する。背景比較処理の詳細な手順については、後述する。
In step S <b> 106, the background comparison unit performs background comparison processing on the
ステップS107では、素材側映像102の全てのフレーム107について背景比較処理を実行したか否かを判定する。全てのフレーム107について背景比較処理を実行していない場合はステップS105に戻り、所定の順番で残りのフレーム106について背景選択処理および背景比較処理を実行する。全てのフレーム106について背景比較処理を実行した場合は、処理を終了する。
In step S107, it is determined whether background comparison processing has been executed for all
以上の手順により、合成用映像保存手段111に記憶された複数の合成用フレーム110によって構成される合成用映像112が生成される。そして、この合成用映像112の各合成用フレーム11にそれぞれ挿入用背景映像を合成することにより、最終映像が完成する。
Through the above procedure, a
<角度算出処理>
次に、上記合成用映像生成処理のステップS101における角度算出処理の手順の詳細について説明する。図13は、角度算出処理の手順を示したフローチャートであり、図14および15は、各角度θ、φ、ψを算出する具体的な方法を示した図である。
<Angle calculation processing>
Next, the details of the procedure of the angle calculation process in step S101 of the composition video generation process will be described. FIG. 13 is a flowchart showing the procedure of angle calculation processing, and FIGS. 14 and 15 are diagrams showing a specific method for calculating the angles θ, φ, and ψ.
まず、ステップS201では、背景側映像101を構成する複数のフレーム106から各角度θ、φ、ψの基準とする基準フレーム106S(図14(a)参照)と、この基準フレーム106Sと比較する対比フレーム106C(図14(b)参照)を抽出する。本実施形態では、基準フレーム106Sに対する対比フレーム106Cの各角度θ、φ、ψを求めることにより、対比フレーム106Cの撮影時の各角度θ、φ、ψを求める。
First, in step S201, a
本実施形態では、まず、最初の1番目のフレーム106の撮影時の各角度θ、φ、ψを基準角度と定義し(例えば、全て0と設定する)、1番目のフレーム106を基準フレーム106S、次の2番目のフレーム106を対比フレーム106Cとし、以下のステップで、2番目のフレーム106の各角度θ、φ、ψを算出する。そして、次回のステップS201では、2番目のフレーム106を基準フレーム106S、次の3番目のフレーム106を対比フレーム106Cとし、3番目のフレーム106の各角度θ、φ、ψを算出する。これを最後のフレーム106まで繰り返すことにより、背景側映像101の全てのフレーム106について各角度θ、φ、ψを算出する。
In this embodiment, first, the angles θ, φ, and ψ at the time of shooting of the first
ステップS202では、基準フレーム106Sの光学中心に対応する点Oをパン角度θおよびチルト角度φを求めるための指標点Sに設定する(図14(a)参照)。さらに、基準フレーム106S上の指標点Sを仮想球体600上に投射した投射点を基準投射指標点sに設定する。なお、基準投射指標点sは基準フレーム106Sの光学中心に対応する点Oの投射点である点oと同一点となるため、基準フレーム106S上の指標点Sの座標と基準投射指標点sの座標は同一の座標となる。
In step S202, the point O corresponding to the optical center of the
ステップS203では、基準フレーム106Sの全画素を半径方向に向けて仮想球体600上に投射して得られる球面状の基準投射フレーム607S(図14(a)参照)と、対比フレーム106Cの全画素を半径方向に向けて仮想球体600上に投射して得られる球面状の対比投射フレーム607C(図14(b)参照)を生成する。そして、基準投射フレーム607Sおよび対比投射フレーム607Cについて、所定の大きさの比較領域(例えば、画素数が64×64の領域)ごとにパターンマッチングを行い、基準投射フレーム607Sおよび対比投射フレーム607Cにおいて同一のパターン(例えば色情報のパターン)を示す特定比較領域を少なくとも2つ抽出する。このパターンマッチングの手法は、種々の既知の手法を採用することができるが、ロール回転を考慮したパターンマッチング手法を採用する必要がある。
In step S203, the spherical reference projection frame 607S (see FIG. 14A) obtained by projecting all the pixels of the
図14(a)および(b)では、同一のパターンを示す特定比較領域AaおよびAa'、ならびに特定比較領域AbおよびAb'を抽出した例を示している。同一のパターンを示す基準投射フレーム607Sの特定比較領域Aaと対比投射フレーム607Cの特定比較領域Aa'は、天球400上の同一の背景部分を示していることとなる。同様に、特定比較領域Abと特定比較領域Ab'は、天球400上の同一の背景部分を示していることとなる。
FIGS. 14A and 14B show an example in which specific comparison areas Aa and Aa ′ showing the same pattern and specific comparison areas Ab and Ab ′ are extracted. The specific comparison area Aa of the reference projection frame 607S showing the same pattern and the specific comparison area Aa ′ of the
ステップS204では、各特定比較領域Aa、Aa'、Ab、Ab'の各領域中心の座標を求め、特定比較領域Aaの領域中心を第1の基準投射特定点a、特定比較領域Aa'の領域中心を第1の対比投射特定点a'、特定比較領域Abの領域中心を第2の基準投射特定点b、特定比較領域Ab'の領域中心を第2の対比投射特定点b'と設定する(図15(a)参照)。このように設定した第1の基準投射特定点aおよび第1の対比投射特定点a'は、同一の背景位置を示す仮想球体600上の点となる。同様に、第2の基準投射特定点bおよび第2の対比投射特定点b'は、同一の背景位置を示す仮想球体600上の点となる。
In step S204, the coordinates of the center of each specific comparison area Aa, Aa ′, Ab, Ab ′ are obtained, and the area center of the specific comparison area Aa is the first reference projection specific point a, the area of the specific comparison area Aa ′. The center is set as the first contrast projection specific point a ′, the region center of the specific comparison region Ab is set as the second reference projection specific point b, and the region center of the specific comparison region Ab ′ is set as the second contrast projection specific point b ′. (See FIG. 15 (a)). The first reference projection specific point a and the first contrast projection specific point a ′ set in this way are points on the
ステップS205では、これらの第1の基準投射特定点a、第1の対比投射特定点a'、第2の基準投射特定点bおよび第2の対比投射特定点b'に基づいて、対比フレーム106C上の指標点(基準フレーム106Sの点Sと同一の背景位置を示す点)S'を仮想球体600上に投射した対比投射指標点s'の座標を算出する。
In step S205, the comparison frame 106C is based on the first reference projection specific point a, the first contrast projection specific point a ′, the second reference projection specific point b, and the second contrast projection specific point b ′. The coordinates of the contrast projection index point s ′ obtained by projecting the upper index point (a point indicating the same background position as the point S of the
この対比投射指標点s'の座標の算出では、まず、図15(a)に示されるように、基準投射指標点s、第1の基準投射特定点aおよび第2の基準投射特定点bからなる三角形sabと、対比投射指標点s'、第1の対比投射特定点a'および第2の対比投射特定点b'からなる三角形s'a'b'を設定する。そして、三角形sabと三角形s'a'b'が合同となることに基づいて、対比投射指標点s'の座標を算出する。 In calculating the coordinates of the contrast projection index point s ′, first, as shown in FIG. 15A, from the reference projection index point s, the first reference projection specific point a, and the second reference projection specific point b. And a triangle s′a′b ′ composed of a contrast projection index point s ′, a first contrast projection specific point a ′, and a second contrast projection specific point b ′. Then, based on the fact that the triangle sab and the triangle s′a′b ′ are congruent, the coordinates of the contrast projection index point s ′ are calculated.
具体的には、図15(a)に示されるように、基準投射指標点sと第1の基準投射特定点aの間の距離がsa、基準投射指標点sと第2の基準投射特定点bの間の距離がsbである場合、対比投射指標点s'と第1の対比投射特定点a'の間の距離はsaとなり、対比投射指標点s'と第2の対比投射特定点b'の間の距離はsbとなる。従って、例えば図15(b)に示されるように、第1の対比投射特定点a'を中心として半径をsaとする球体800、第2の対比投射特定点b'を中心として半径をsbとする球体802、および仮想球体600の3つの球体の交点を幾何学的に求めることによって、対比投射特定点s'の座標を求めることができる。
Specifically, as shown in FIG. 15A, the distance between the reference projection index point s and the first reference projection specific point a is sa, the reference projection index point s and the second reference projection specific point. When the distance between b is sb, the distance between the contrast projection index point s ′ and the first contrast projection specific point a ′ is sa, and the contrast projection index point s ′ and the second contrast projection specific point b. The distance between 'is sb. Therefore, for example, as shown in FIG. 15B, a
ステップS206では、対比投射特定点s'、第1の基準投射特定点aおよび第1の対比投射特定点a'の座標に基づいて、基準フレーム106Sに対する対比フレーム106Cの各角度θ、φ、ψを算出する。ここでは、例えば上記した数式3および数式4を使用する。
In step S206, based on the coordinates of the contrast projection specific point s ′, the first reference projection specific point a, and the first contrast projection specific point a ′, each angle θ, φ, ψ of the contrast frame 106C with respect to the
ステップS207では、基準フレーム106Sの各角度θ、φ、ψに基づいてステップS206で求めた各角度θ、φ、ψを修正し、対比フレーム撮影時の各角度θ、φ、ψを求める。
In step S207, the angles θ, φ, and ψ obtained in step S206 are corrected based on the angles θ, φ, and ψ of the
なお、角度算出処理においては、1つの基準フレーム106Sに対して複数の対比フレーム106Cを比較するようにしてもよい。すなわち、本実施形態では、n番目のフレーム106を基準フレーム106Sとした場合はn+1番目のフレーム106のみを対比フレーム106Cとするが、例えば、n番目のフレーム106の基準フレーム106Sに対してn+1〜n+3番目の3つのフレーム106を対比フレーム106Cとして比較するようにしてもよい。
In the angle calculation process, a plurality of comparison frames 106C may be compared with one
また、第1の基準投射特定点aおよび第1の対比投射特定点a'、ならびに第2の基準投射特定点bおよび第2の対比投射特定点b'を複数セット設定し、セットごとに対比投射指標点s'の座標を算出するようにしてもよい。この場合、各セットによる算出結果を比較することで、パターンマッチングの誤差やレンズディストーション(歪曲収差)等の影響を排除した、より正確な対比投射指標点s'の座標を求めることができる。 Also, a plurality of first reference projection specific points a and first contrast projection specific points a ′, and second reference projection specific points b and second contrast projection specific points b ′ are set, and a comparison is made for each set. The coordinates of the projection index point s ′ may be calculated. In this case, by comparing the calculation results of the respective sets, it is possible to obtain a more accurate coordinate of the contrast projection index point s ′ that eliminates the effects of pattern matching errors, lens distortion (distortion aberration), and the like.
また、背景に特徴物がある等、条件によっては、基準フレーム106Sと対比フレーム106Cについて直接パターンマッチングを行うようにしてもよい。このようにすることで、角度算出手段130の処理負荷を低減できる可能性がある。なお、この場合、抽出した特定比較領域の領域中心を仮想球体600上に投射することによって基準投射特定点および対比投射特定点を求めることができる。
Further, depending on conditions such as the presence of a feature in the background, pattern matching may be directly performed on the
また、パターンマッチングにより、基準投射指標点sと同一の背景位置を示す点を抽出することができる場合には、この抽出した点の座標を対比投射指標点s'の座標として求めるようにしてもよい。 If a point indicating the same background position as the reference projection index point s can be extracted by pattern matching, the coordinates of the extracted point may be obtained as the coordinates of the contrast projection index point s ′. Good.
<背景選択処理>
次に、上記合成用映像生成処理のステップS105における背景選択処理の手順の詳細について説明する。図16は、背景選択処理の手順を示したフローチャートであり、図17(a)および(b)は、背景選択処理の具体的な方法を示した図である。
<Background selection processing>
Next, the details of the procedure of the background selection process in step S105 of the composition video generation process will be described. FIG. 16 is a flowchart showing the procedure of the background selection process, and FIGS. 17A and 17B are diagrams showing a specific method of the background selection process.
まず、ステップS301では、素材側映像102のフレーム107の全画素を半径方向に向けて仮想球体600上に投射して得られる球面状の素材側投射フレーム608を生成する(図17(a)参照)。
First, in step S301, a spherical material-
ステップS302では、ステップS301で生成した素材側投射フレーム608および選択用三次元画像700について、所定の大きさの比較領域ごとにパターンマッチングを行い、素材側投射フレームおよび選択用三次元画像700において同一のパターンを示す特定比較領域Acを抽出する(図17(a)参照)。ここでは、まず、選択用三次元画像700においてマッピングされた背景用画像101のフレーム106を仮想球体600上に投射した背景側投射フレーム609を生成する(図17(a)参照)。そして、この背景側投射フレーム609および素材側投射フレーム608について上記角度算出処理のステップS203と同様の手法によってパターンマッチングを行う。なお、選択用三次元画像700をパノラマ画像として構成した場合には、選択用三次元画像700をそのままパターンマッチングに使用することができる。特定比較領域Acを抽出したならば、特定比較領域Acの領域中心を選択用指標点cとし、背景側投射フレーム609の光学中心に対応する点oの球座標(θ,φ)から選択用指標点cの仮想球体600上における球座標(θ,φ)を求める。
In step S302, the material-
ステップS303では、選択用指標点cと素材側投射フレーム608の光学中心に対応する点o'の位置関係から、素材側投射フレーム608の光学中心に対応する点o'の球座標(θ,φ)を幾何学的に算出する。算出した素材側投射フレーム608の光学中心に対応する点o'の球座標(θ,φ)の各成分は、それぞれ素材側フレーム107の撮影時のパン角度θ、チルト角度φとなる。
In step S303, the spherical coordinates (θ, φ) of the point o ′ corresponding to the optical center of the material-
ステップS304では、背景側投射フレーム609に対する素材側投射フレーム608の傾き、および背景側投射フレーム609のロール角度ψから、素材側フレーム107の撮影時のロール角度ψを算出する。
In step S304, the roll angle ψ at the time of photographing the
ステップS305では、ステップS303で求めた素材側フレーム107撮影時のパン角度θおよびチルト角度φに基づいて背景側映像角度データベースを参照し、素材側フレーム107撮影時のパン角度θおよびチルト角度φに近いパン角度θおよびチルト角度φである背景側映像101のフレーム106を比較用フレーム113として複数選択する(図17(b)参照)。具体的には、素材側映像102のフレーム107の撮影領域を全てカバーするだけの数の背景側映像101のフレーム106を比較用フレーム113として選択する。
In step S305, the background side video angle database is referred to based on the pan angle θ and tilt angle φ at the time of photographing the
また、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φと同一のパン角度θおよびチルト角度φの背景側映像101のフレーム106がある場合には、このフレーム106を比較用フレーム113として選択する。そして、フレーム106とフレーム107のサイズが異なるためにカバーしていない領域がある場合には、カバーしていない領域をカバーするためのフレーム106を比較用フレーム113としてさらに選択する。
Further, when there is a
なお、条件によっては、背景側映像101のフレーム106と素材側映像102のフレーム107について直接パターンマッチングを行うようにしてもよい。このようにすることで、角度算出手段130の処理負荷を低減できる可能性がある。
Depending on the conditions, pattern matching may be directly performed on the
また、背景側映像101のフレーム106を基準フレーム、素材側映像102のフレーム107を対比フレームとして、上述の角度算出処理と同様の処理を行うことにより、素材側映像102のフレーム107の各角度θ、φ、ψを求めるようにしてもよい。
Further, by performing the same process as the angle calculation process described above using the
<背景比較処理>
次に、上記合成用映像生成処理のステップS106における背景比較処理の手順の詳細について説明する。図18は、背景比較処理の手順を示したフローチャートであり、図19(a)および(b)、ならびに図20(a)および(b)は、背景比較処理の具体的な方法を示した図である。
<Background comparison processing>
Next, details of the procedure of the background comparison process in step S106 of the composition video generation process will be described. FIG. 18 is a flowchart showing the procedure of the background comparison process. FIGS. 19A and 19B and FIGS. 20A and 20B show a specific method of the background comparison process. It is.
まず、ステップS401では、素材側映像102のフレーム107および選択した比較用フレーム113を、それぞれのパン角度θおよびチルト角度φに対応する球座標(θ,φ)に基づいて仮想球体600上にマッピングする(図19(a)参照)。このマッピングにおいては、比較用フレーム113の背景が天球400上の背景に対応する位置と一致するように、比較用フレーム113を自身のロール角度ψだけ光学中心に対応する点を中心にロール回転させる補正を行う。同様に、素材側映像102のフレーム107についても、背景が天球400上の背景に対応する位置と一致するように、フレーム107を自身のロール角度ψだけ光学中心に対応する点を中心にロール回転させる補正を行う。
First, in step S401, the
ステップS402では、仮想球体600上にマッピングした比較用フレーム113の画素を、仮想球体600上にマッピングしたフレーム107と同一平面上に投射することで、比較用修正フレーム113Mを生成する(図19(b)参照)。この比較用フレーム113の画素の投射は、仮想球体600の半径方向に向けて行う。このため、比較用フレーム113の各画素は、天球400上の背景位置に対応する位置からずれることなく、フレーム107と同一平面上に投射されることとなる。
In Step S402, the
以上の処理により、素材側映像102のフレーム107と同一の各角度θ、φ、ψとなる比較用フレーム113Mを生成することができる。すなわち、素材側映像102のフレーム107と比較用フレーム113Mは、図20(a)に示されるように、素材側映像102のフレーム107に含まれる合成用素材20を除いた背景部分が一致するものとなっている。
With the above processing, the
ステップS403では、素材側映像102のフレーム107と比較用修正フレーム113Mを比較して合成用フレーム110を生成する。具体的には、まず、図20(a)に示されるように、フレーム107および比較用修正フレーム113Mを、1画素以上の領域である比較領域CAおよびCA'にそれぞれ分割し、同一の位置にある比較領域CAおよびCA'における色の値の差分を算出する。なお、ここで、同一の位置にあるとは、上述の空間座標系ではなく、フレーム上の平面座標系において同一座標となることを示している。
In step S403, the
全ての比較領域CAおよびCA'について色の値の差分を算出したら、次に、各比較領域CAおよびCA'における差分の値が所定の閾値を超えるか否かを判定し、差分の値が所定の閾値以下である場合は、その部分は同一の背景部分を映し出しているとして予め定めた特定色(例えば、青色)の色情報を設定し、差分の値が所定の閾値を超えている場合は、その部分は合成用素材20部分を映し出しているとしてフレーム107の色情報を設定する。上記判定を各比較領域について順に実行し、判定結果に応じた色情報を設定していくことで、合成用素材20のみが切り取られた合成用フレーム110を生成することができる。
After the color value difference is calculated for all the comparison areas CA and CA ′, it is next determined whether or not the difference value in each comparison area CA and CA ′ exceeds a predetermined threshold value. If the color information of a specific color (for example, blue) that is set in advance is assumed to be the same background part, and the difference value exceeds a predetermined threshold value. The color information of the
なお、比較用修正フレーム113Mは、図20(a)に示されるように、素材側映像102のフレーム107と同サイズのフレームを1つ生成するのではなく、図20(b)に示されるように、選択した複数の比較用フレーム113ごとに複数の比較用修正フレーム113Mを生成するようにしてもよい。この場合、例えば図20(b)に示されるように、4つの比較用フレーム113Ma〜113Mdを生成したとすると、比較用修正フレーム113Maがカバーするフレーム107の領域Taについてはフレーム107と比較用修正フレーム113Maについて比較領域CAおよびCA'の色の値の差分を算出し、同様に、フレーム107の領域Tbについてはフレーム107と比較用修正フレーム113Mbについて比較領域CAおよびCA'の色の値の差分を算出し、フレーム107の領域Tcについてはフレーム107と比較用修正フレーム113Mcについて比較領域CAおよびCA'の色の値の差分を算出し、フレーム107の領域Tdについてはフレーム107と比較用修正フレーム113Mdについて比較領域CAおよびCA'の色の値の差分を算出することで、合成用フレーム110を生成することができる。
As shown in FIG. 20A, the
以上説明したように、本実施形態に係る映像合成方法および映像合成システム100は、パンおよびチルト可能に配置された背景用カメラ(ビデオカメラ200)によって撮影可能な多方向の背景を背景用カメラによって撮影した背景側映像101と、背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラ(ビデオカメラ200)によって同じ背景の下で合成用素材20が含まれるように撮影した素材側映像102と、を用意し、背景側映像101の複数のフレーム106において同一の背景位置を示す指標点Sの位置を比較することにより、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φをフレーム106ごとに算出する角度算出処理と、素材側映像102の各フレーム107の撮影時のパン角度θおよびチルト角度φに基づいて、素材側映像102のフレーム107ごとに背景側映像101のフレーム106群から比較用フレーム113を選択する背景選択処理と、選択した比較用フレーム113と素材側映像102の各フレーム107を比較することにより、合成用素材20が抽出された(合成用素材20のみが切り取られた)合成用映像112を生成する背景比較処理と、を行う。
As described above, the video composition method and
このため、ビデオカメラ200にパン角度θおよびチルト角度φを測定するためのエンコーダ等を取り付けたり、モーションコントロールカメラ等の高価で複雑な機材を使用したりすることなく、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φを求めることができる。従って、任意に撮影した背景側映像101を使用しながらも、従来よりも効率的に合成用映像112を生成することができる。
Therefore, each frame of the background-
なお、本実施形態では、ビデオカメラ200仮想レンズ202の主点204を中心に、ビデオカメラ200がパンおよびチルトする例を示したが、これに限定されるものではない。ビデオカメラ200のパンおよびチルトの回転中心が主点204からずれている場合であっても、例えば背景側映像101の各フレーム106および素材側映像102の各フレーム107について適宜に画像処理を施すことによって、ずれを修正することができる。
In the present embodiment, an example in which the
また、角度算出処理は、ビデオカメラ200の位置(詳細には、仮想レンズ202の主点204)を中心とする仮想球体600を設定し、基準フレーム106S上の指標点Sを仮想球体600の半径方向に向けて仮想球体600の表面上に投射した基準投射指標点s、および対比フレーム106C上の指標点S'を仮想球体600の半径方向に向けて仮想球体600の表面上に投射した対比投射指標点s'を求め、基準投射指標点sおよび対比投射指標点s'の位置を比較することにより、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φを算出する。
In the angle calculation process, a
このため、フレーム106上における映像の歪みに影響されることなく、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φを容易且つ正確に求めることができる。
Therefore, the pan angle θ and the tilt angle φ at the time of shooting each
また、角度算出処理は、ビデオカメラ200の画角および背景側映像101のフレーム106の寸法に基づいて仮想球体600の半径を設定する。より詳細には、仮想球体600の中心を、ビデオカメラ200の仮想レンズ202の主点204に設定し、仮想球体600の半径を、ビデオカメラ200の仮想レンズ202の焦点距離と同一に設定する。このようにすることで、フレーム106上の点を仮想球体600上に投射した場合に、天球400上の背景の相似形とすることができる。
In the angle calculation process, the radius of the
また、指標点Sは、基準フレーム106Sの光学中心に対応する点Oであるため、ロール回転の影響を排除することが可能となり、パン角度θおよびチルト角度φの算出を容易にすることができる。
In addition, since the index point S is a point O corresponding to the optical center of the
なお、ビデオカメラ200のチルト角度を水平方向に固定した状態でパンのみさせて背景側映像101を撮影した場合、またはビデオカメラ200をチルトのみさせて背景側映像101を撮影した場合にはロール回転が生じないため、光学中心に対応する点O以外の点を指標点Sとすることができる。
Note that when the
また、角度算出処理は、基準フレーム106Sを仮想球体600の半径方向に向けて仮想球体600の表面上に投射することで、基準投射フレーム607Sを生成し、対比フレーム106Cを仮想球体600の半径方向に向けて仮想球体600の表面上に投射することで、対比投射フレーム607Cを生成し、基準投射フレーム607Sおよび対比投射フレーム607Cについてパターンマッチングを行うことで、指標点S以外の同一の背景位置を示す投射特定点(特定比較領域の領域中心)を複数求め、基準投射フレーム607S上の投射特定点を基準投射特定点a、bに設定すると共に、対比投射フレーム607C上の投射特定点を対比投射特定点a'、b'に設定し、基準投射特定点a、bおよび対比投射特定点a'、b'の位置に基づいて、対比投射指標点s'の位置を算出する。より詳細には、基準投射特定点a、bおよび基準投射指標点sの相対的な位置関係に基づいて、対比投射指標点s'の位置を算出する。
In addition, the angle calculation process projects the
このため、パターンマッチングにより指標点Sと同一の背景位置を示す点を対比投射フレーム607C上に発見することが困難であるような場合であっても、対比投射指標点s'の位置を算出することができる。
For this reason, even if it is difficult to find a point indicating the same background position as the index point S on the
また、角度算出処理は、投射特定点として第1の投射特定点および第2の投射特定点を設定し、第1の投射特定点の基準投射特定点aと基準投射指標点sの間の第1の距離sa、および第2の投射特定点の基準投射特定点bと基準投射指標点sの間の第2の距離sbを求め、第1の投射特定点の対比投射特定点a'から第1の距離sa、且つ第2の投射特定点の対比投射特定点b'から第2の距離sbに位置する仮想球体600の表面上の点を対比投射指標点s'とする。
In addition, the angle calculation process sets the first projection specific point and the second projection specific point as the projection specific points, and sets the first projection specific point a between the reference projection specific point a and the reference projection index point s. The first distance sa and the second distance sb between the reference projection specific point b of the second projection specific point and the reference projection index point s are obtained, and the second projection s is determined from the contrast projection specific point a ′ of the first projection specific point. A point on the surface of the
このため、幾何学的な計算手法により、正確に対比投射指標点s'の位置を算出することができる。但し、これに限定されるものではなく、近似解法によって対比投射指標点s'の位置を算出するようにしてもよい。 For this reason, the position of the contrast projection index point s ′ can be accurately calculated by a geometric calculation method. However, the present invention is not limited to this, and the position of the contrast projection index point s ′ may be calculated by an approximate solution method.
また、角度算出処理は、背景側映像101の各フレーム106の撮影時のロール角度ψを背景側映像101のフレーム106ごとに算出し、背景比較処理は、背景側映像101の各フレーム106の撮影時のロール角度ψに基づく補正を行う。
In addition, the angle calculation processing calculates the roll angle ψ at the time of shooting each
このため、背景側映像101撮影時のビデオカメラ200のパンまたはチルトに伴ってロール回転が生じるような場合であっても、比較用フレーム113(または比較用修正フレーム113M)を素材側映像102のフレーム107の背景部分に一致させ、高精度に背景比較処理を行うことができる。
For this reason, even if roll rotation occurs with panning or tilting of the
また、角度算出処理は、所定の投射特定点の基準投射特定点aと基準投射指標点sを結ぶ直線と、所定の投射特定点の対比投射特定点a'と対比投射指標点s'を結ぶ直線とがなす角度に基づいて、背景側映像101の各フレーム106の撮影時のロール角度ψを求める。
Further, the angle calculation process connects a straight line connecting the reference projection specific point a of the predetermined projection specific point and the reference projection index point s, and the contrast projection specific point a ′ of the predetermined projection specific point and the contrast projection index point s ′. Based on the angle formed by the straight line, the roll angle ψ at the time of shooting each
このため、パン角度θおよびチルト角度φを算出するための各点を利用してロール角度ψを算出することができるため、角度算出処理の処理負荷を低減することができる。 For this reason, since the roll angle ψ can be calculated using the points for calculating the pan angle θ and the tilt angle φ, the processing load of the angle calculation process can be reduced.
また、背景選択処理は、背景側映像101のフレーム106と素材側映像102のフレーム107において同一の背景位置を示す選択用指標点cの位置を比較することにより、素材側映像102の各フレーム107の撮影時のパン角度θおよびチルト角度φをフレーム107ごとに算出する。
Further, the background selection process compares the positions of the selection index points c indicating the same background position in the
このため、ビデオカメラ200にパン角度θおよびチルト角度φを測定するためのエンコーダ等を取り付けたりすることなく、素材側映像102の各フレーム107の撮影時のパン角度θおよびチルト角度φを求めることができる。そして、このパン角度θおよびチルト角度φに基づいて効率的に比較用フレーム113を選択することができる。
Therefore, the pan angle θ and the tilt angle φ at the time of shooting each
また、背景選択処理は、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φと同一のパン角度θおよびチルト角度φの比較用フレーム113を選択できない場合、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φに近いパン角度θおよびチルト角度φの比較用フレーム113を複数選択する。
Further, in the background selection process, when the
このため、背景側映像101および素材側映像102がどのようなフレーム構成であっても、比較用フレーム113を選択して背景比較処理を行うことができる。
Therefore, regardless of the frame configuration of the
また、背景選択処理は、素材側映像102の各フレーム107の撮影時のロール角度ψを素材側映像102のフレーム107ごとに算出し、背景比較処理は、素材側映像102の各フレーム107の撮影時のロール角度ψに基づく補正を行う。
The background selection process calculates the roll angle ψ at the time of shooting each
このため、素材側映像102撮影時のビデオカメラ200のパンまたはチルトに伴ってロール回転が生じるような場合であっても、高精度に背景比較処理を行うことができる。
Therefore, the background comparison process can be performed with high accuracy even in the case where roll rotation occurs with panning or tilting of the
また、背景比較処理は、比較する素材側映像102のフレーム107と比較用フレーム113の撮影時のパン角度θまたはチルト角度φが同一でない場合、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φと一致するように比較用フレーム113を修正した比較用修正フレーム113Mを生成し、比較用修正フレーム113Mと素材側映像102のフレーム107を比較する。
Further, in the background comparison process, when the pan angle θ or the tilt angle φ at the time of shooting of the
このため、背景側映像101および素材側映像102がどのようなフレーム構成であっても、素材側映像102のフレーム107の背景部分と一致する比較用修正フレーム113Mを生成して高精度に背景比較処理を行うことができる。
Therefore, regardless of the frame configuration of the
また、背景比較処理は、比較用フレーム113の各画素を、仮想球体600の半径方向に向けて素材側映像102のフレーム107と同一平面上に投射することによって、比較用修正フレーム113Mを生成する。
In the background comparison process, each pixel of the
このため、比較用修正フレーム113Mを素材側映像102のフレーム107の背景部分と正確に一致させることができる。
Therefore, the
以上、本発明の実施の形態について説明したが、本発明の映像合成方法および映像合成システムは、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。 Although the embodiments of the present invention have been described above, the video composition method and the video composition system of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. Of course, can be added.
本発明の映像合成方法および映像合成システムは、各種映像の生成の分野で利用することができる。 The video composition method and video composition system of the present invention can be used in the field of various video generation.
10、101 背景側映像
10a、113 比較用フレーム
12、102 素材側映像
14、112 合成用映像
20 合成用素材
100 映像合成システム
104 背景側映像記憶手段
105 素材側映像記憶手段
106 背景側映像のフレーム
106C 対比フレーム
106S 基準フレーム
107 素材側映像のフレーム
113M 比較用修正フレーム
130 角度算出手段
136 背景選択手段
138 背景比較手段
200 ビデオカメラ
202 仮想レンズ
204 仮想レンズの主点
600 仮想球体
607C 対比投射フレーム
607S 基準投射フレーム
O フレームの光学中心に対応する点
a 第1の基準投射特定点
a' 第1の対比投射特定点
b 第2の基準投射特定点
b' 第2の対比投射特定点
c 選択用指標点
S、S' 指標点
s 基準投射指標点
s' 対比投射指標点
sa 基準投射指標点sと第1の基準投射特定点aの間の距離
sb 基準投射指標点sと第2の基準投射特定点bの間の距離
θ パン角度
φ チルト角度
ψ ロール角度
DESCRIPTION OF SYMBOLS 10,101
Claims (22)
前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像と、を用意し、
前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出処理と、
前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択処理と、
選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較処理と、を行うことを特徴とする、
映像合成方法。 A background side image obtained by photographing a multidirectional background that can be photographed by a background camera arranged so as to be capable of panning and tilting, and the background camera;
A material-side image shot so that the composition material is included under the background by a material camera arranged so as to be able to pan and tilt at the same position as the background camera; and
An angle calculation process for calculating a pan angle and a tilt angle for each frame of the background side video at the time of shooting by comparing the positions of index points indicating the same background position in a plurality of frames of the background side video. When,
A background selection process for selecting a comparison frame from a frame group of the background-side video for each frame of the material-side video based on a pan angle and a tilt angle at the time of shooting each frame of the material-side video;
A background comparison process for generating a composition image from which the composition material is extracted is performed by comparing the selected comparison frame and each frame of the material-side image.
Video composition method.
前記背景用カメラ位置を中心とする仮想球体を設定し、
比較する2つのフレームのうち、一方の基準フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した基準投射指標点、および他方の対比フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した対比投射指標点を求め、
前記基準投射指標点および前記対比投射指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度を算出することを特徴とする、
請求項1に記載の映像合成方法。 The angle calculation process includes:
Set a virtual sphere centered on the background camera position,
Of the two frames to be compared, the reference projection index point projected on the surface of the virtual sphere with the index point on one reference frame directed in the radial direction of the virtual sphere, and the index on the other contrast frame Find a contrast projection index point projected on the surface of the virtual sphere with the point in the radial direction of the virtual sphere,
By comparing the positions of the reference projection index point and the contrast projection index point, a pan angle and a tilt angle at the time of shooting each frame of the background side image are calculated.
The video composition method according to claim 1.
前記背景用カメラの画角および前記背景側映像のフレームの寸法に基づいて前記仮想球体の半径を設定することを特徴とする、
請求項2に記載の映像合成方法。 The angle calculation process includes:
The radius of the virtual sphere is set based on the angle of view of the background camera and the frame size of the background side image,
The video composition method according to claim 2.
前記仮想球体の中心を、前記背景用カメラのレンズの主点に設定し、
前記仮想球体の半径を、前記背景用カメラのレンズの焦点距離と同一に設定することを特徴とする、
請求項3に記載の映像合成方法。 The angle calculation process includes:
Set the center of the virtual sphere as the principal point of the lens of the background camera,
The radius of the virtual sphere is set equal to the focal length of the lens of the background camera,
The video composition method according to claim 3.
請求項2乃至4のいずれかに記載の映像合成方法。 The index point is a point corresponding to the optical center of the reference frame,
The video composition method according to claim 2.
前記基準フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、基準投射フレームを生成し、
前記対比フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、対比投射フレームを生成し、
前記基準投射フレームおよび前記対比投射フレームについてパターンマッチングを行うことで、前記指標点以外の同一の背景位置を示す投射特定点を複数求め、
前記基準投射フレーム上の前記投射特定点を基準投射特定点に設定すると共に、前記対比投射フレーム上の前記投射特定点を対比投射特定点に設定し、
前記基準投射特定点および前記対比投射特定点の位置に基づいて、前記対比投射指標点の位置を算出することを特徴とする、
請求項5に記載の映像合成方法。 The angle calculation process includes:
By projecting the reference frame on the surface of the virtual sphere in the radial direction of the virtual sphere, a reference projection frame is generated,
By projecting the contrast frame on the surface of the virtual sphere in the radial direction of the virtual sphere, a contrast projection frame is generated,
By performing pattern matching for the reference projection frame and the contrast projection frame, a plurality of projection specific points indicating the same background position other than the index point are obtained,
While setting the projection specific point on the reference projection frame as a reference projection specific point, setting the projection specific point on the contrast projection frame as a contrast projection specific point,
Based on the position of the reference projection specific point and the contrast projection specific point, the position of the contrast projection index point is calculated,
The video composition method according to claim 5.
請求項6に記載の映像合成方法。 The angle calculation process calculates a position of the contrast projection index point based on a relative positional relationship between the reference projection specific point and the reference projection index point.
The video composition method according to claim 6.
前記投射特定点として第1の投射特定点および第2の投射特定点を設定し、
前記第1の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第1の距離、および前記第2の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第2の距離を求め、
前記第1の投射特定点の前記対比投射特定点から前記第1の距離、且つ前記第2の投射特定点の前記対比投射特定点から前記第2の距離に位置する前記仮想球体の表面上の点を前記対比投射指標点とすることを特徴とする、
請求項7に記載の映像合成方法。 The angle calculation process includes:
Set the first projection specific point and the second projection specific point as the projection specific point,
A first distance between the reference projection specific point of the first projection specific point and the reference projection index point, and between the reference projection specific point of the second projection specific point and the reference projection index point Find the second distance,
On the surface of the virtual sphere located at the first distance from the contrast projection specific point of the first projection specific point and the second distance from the contrast projection specific point of the second projection specific point. A point is the contrast projection index point,
The video composition method according to claim 7.
前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項1乃至8のいずれかに記載の映像合成方法。 The angle calculation process calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video,
The background comparison process is characterized by performing correction based on a roll angle at the time of shooting each frame of the background side video,
The video composition method according to claim 1.
前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項6乃至8のいずれかに記載の映像合成方法。 The angle calculation process includes a straight line connecting the reference projection specific point of the predetermined projection specific point and the reference projection index point, and a straight line connecting the contrast projection specific point of the predetermined projection specific point and the contrast projection index point. Based on the angle formed by and, obtain the roll angle at the time of shooting each frame of the background side video,
The background comparison process is characterized by performing correction based on a roll angle at the time of shooting each frame of the background side video,
The video composition method according to claim 6.
請求項1乃至10のいずれかに記載の映像合成方法。 The background selection process compares the position of the index point for selection indicating the same background position in the frame of the background side video and the frame of the material side video, thereby panning at the time of shooting each frame of the material side video. The angle and tilt angle are calculated for each frame,
The video composition method according to claim 1.
請求項11に記載の映像合成方法。 When the background selection process cannot select a pan angle and tilt angle comparison frame that is the same as the pan angle and tilt angle at the time of capturing the material-side image frame, the pan angle at the time of capturing the material-side image frame And selecting a plurality of pan and tilt angle comparison frames close to the tilt angle.
The video composition method according to claim 11.
前記背景比較処理は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項11または12に記載の映像合成方法。 The background selection process calculates a roll angle for each frame of the material-side video for each frame of the material-side video,
The background comparison process is characterized by performing correction based on a roll angle at the time of shooting each frame of the material side video.
The video composition method according to claim 11 or 12.
請求項1乃至13のいずれかに記載の映像合成方法。 In the background comparison process, when the pan angle or tilt angle at the time of shooting the material side video frame and the comparison frame are not the same, the background comparison processing matches the pan angle and tilt angle at the time of shooting the material side video frame. Generating a comparative correction frame in which the comparison frame is corrected, and comparing the comparative correction frame and the frame of the material side video,
The video composition method according to claim 1.
請求項14に記載の映像合成方法。 In the background comparison process, the comparison correction frame is generated by correcting the comparison frame so as to coincide with a roll angle at the time of shooting the frame of the material side image.
The video composition method according to claim 14.
請求項14または15に記載の映像合成方法。 The background comparison process generates the comparison correction frame by projecting each pixel of the comparison frame on the same plane as the frame of the material side image in the radial direction of the virtual sphere. And
The video composition method according to claim 14 or 15.
前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像を記憶する素材側映像記憶手段と、
前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出手段と、
前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択手段と、
選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較手段と、を備えることを特徴とする、
映像合成システム。 Background-side image storage means for storing a background-side image obtained by photographing the multi-directional background that can be photographed by the background camera arranged so as to be capable of panning and tilting;
Material-side video storage means for storing a material-side video shot so that a material for composition is included under the background by a material camera arranged so as to be capable of panning and tilting at the same position as the background camera;
An angle calculation means for calculating the pan angle and the tilt angle for each frame of the background-side video for each frame by comparing the positions of index points indicating the same background position in the plurality of frames of the background-side video. When,
Background selection means for selecting a comparison frame from a frame group of the background-side video for each frame of the material-side video based on a pan angle and a tilt angle at the time of shooting each frame of the material-side video;
A background comparison unit that generates a composition image in which the composition material is extracted by comparing the selected comparison frame and each frame of the material-side image,
Video composition system.
前記背景比較手段は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項17に記載の映像合成システム。 The angle calculation means calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video,
The background comparison means performs correction based on a roll angle at the time of shooting each frame of the background side video,
The video composition system according to claim 17.
請求項17または18に記載の映像合成システム。 The background selection means compares the position of the index point for selection indicating the same background position in the frame of the background side video and the frame of the material side video, thereby panning at the time of shooting each frame of the material side video. The angle and tilt angle are calculated for each frame,
The video composition system according to claim 17 or 18.
前記背景比較手段は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項19に記載の映像合成システム。 The background selection means calculates a roll angle at the time of shooting each frame of the material side video for each frame of the material side video,
The background comparison means performs correction based on a roll angle at the time of shooting each frame of the material side video,
The video composition system according to claim 19.
請求項17乃至20のいずれかに記載の映像合成システム。 The background comparing means matches the pan angle and tilt angle at the time of shooting the frame of the material side image when the frame of the material side image to be compared and the pan angle or tilt angle at the time of shooting of the comparison frame are not the same. Generating a comparative correction frame in which the comparison frame is corrected, and comparing the comparative correction frame and the frame of the material side video,
The video composition system according to any one of claims 17 to 20.
請求項21に記載の映像合成システム。 The background comparison means generates the comparison correction frame in which the comparison frame is corrected so as to coincide with a roll angle at the time of shooting the frame of the material-side video.
The video composition system according to claim 21.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009129857A JP5231331B2 (en) | 2009-05-29 | 2009-05-29 | Video composition method, video composition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009129857A JP5231331B2 (en) | 2009-05-29 | 2009-05-29 | Video composition method, video composition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010278813A true JP2010278813A (en) | 2010-12-09 |
JP5231331B2 JP5231331B2 (en) | 2013-07-10 |
Family
ID=43425350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009129857A Expired - Fee Related JP5231331B2 (en) | 2009-05-29 | 2009-05-29 | Video composition method, video composition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5231331B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113422914A (en) * | 2021-06-24 | 2021-09-21 | 脸萌有限公司 | Video generation method, device, equipment and medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5843033B1 (en) | 2014-05-15 | 2016-01-13 | 株式会社リコー | Imaging system, imaging apparatus, program, and system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06213661A (en) * | 1992-02-14 | 1994-08-05 | Res Dev Corp Of Japan | Image analysing method for fluid phenomenon |
JPH1118008A (en) * | 1997-06-24 | 1999-01-22 | Sony Corp | Image-processing unit and image-processing method |
JP2002063572A (en) * | 2000-08-23 | 2002-02-28 | For-A Co Ltd | Image compositing system having camera parameter detecting means |
JP2006059202A (en) * | 2004-08-20 | 2006-03-02 | Iwate Univ | Imaging device and image correction method |
WO2007097431A1 (en) * | 2006-02-23 | 2007-08-30 | Matsushita Electric Industrial Co., Ltd. | Image correction device, method, program, integrated circuit, and system |
WO2008126371A1 (en) * | 2007-04-02 | 2008-10-23 | M.Soft Co., Ltd. | Image synthesizing method and image synthesizing system |
JP2008263270A (en) * | 2007-04-10 | 2008-10-30 | Matsushita Electric Ind Co Ltd | Camera device |
-
2009
- 2009-05-29 JP JP2009129857A patent/JP5231331B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06213661A (en) * | 1992-02-14 | 1994-08-05 | Res Dev Corp Of Japan | Image analysing method for fluid phenomenon |
JPH1118008A (en) * | 1997-06-24 | 1999-01-22 | Sony Corp | Image-processing unit and image-processing method |
JP2002063572A (en) * | 2000-08-23 | 2002-02-28 | For-A Co Ltd | Image compositing system having camera parameter detecting means |
JP2006059202A (en) * | 2004-08-20 | 2006-03-02 | Iwate Univ | Imaging device and image correction method |
WO2007097431A1 (en) * | 2006-02-23 | 2007-08-30 | Matsushita Electric Industrial Co., Ltd. | Image correction device, method, program, integrated circuit, and system |
WO2008126371A1 (en) * | 2007-04-02 | 2008-10-23 | M.Soft Co., Ltd. | Image synthesizing method and image synthesizing system |
JP2008263270A (en) * | 2007-04-10 | 2008-10-30 | Matsushita Electric Ind Co Ltd | Camera device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113422914A (en) * | 2021-06-24 | 2021-09-21 | 脸萌有限公司 | Video generation method, device, equipment and medium |
CN113422914B (en) * | 2021-06-24 | 2023-11-21 | 脸萌有限公司 | Video generation method, device, equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP5231331B2 (en) | 2013-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6721065B2 (en) | Imaging device, image processing device and method | |
EP3356887B1 (en) | Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama | |
US10425638B2 (en) | Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device | |
JP6630176B2 (en) | Image processing apparatus and method | |
CN108600576B (en) | Image processing apparatus, method and system, and computer-readable recording medium | |
WO2019049421A1 (en) | Calibration device, calibration system, and calibration method | |
JP5596972B2 (en) | Control device and control method of imaging apparatus | |
JP2009177251A (en) | Generation method of orthophoto image and photographing device | |
JP2017208619A (en) | Image processing apparatus, image processing method, program and imaging system | |
JPWO2014208230A1 (en) | Coordinate calculation apparatus and method, and image processing apparatus and method | |
JP5846172B2 (en) | Image processing apparatus, image processing method, program, and imaging system | |
JP2019033344A (en) | Image processing apparatus, image processing method, and program | |
JP2011239207A (en) | Imaging apparatus, imaging control method, and imaging control program | |
JP6222205B2 (en) | Image processing device | |
JP5231331B2 (en) | Video composition method, video composition system | |
JP5796611B2 (en) | Image processing apparatus, image processing method, program, and imaging system | |
JP5248951B2 (en) | CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM | |
JP3282332B2 (en) | Image input system | |
JP2019053758A (en) | Image processing apparatus | |
JP6079838B2 (en) | Image processing apparatus, program, image processing method, and imaging system | |
JP2014165866A (en) | Image processing device, control method therefor and program | |
JP6439845B2 (en) | Image processing device | |
JP2004128588A (en) | Imaging unit | |
JP6679779B1 (en) | Information processing device, information processing method, and program | |
JP2008275542A (en) | Three-dimensional shape restoration processing apparatus, and method and program therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130321 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5231331 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |