JP2010278813A - Video synthesizing method, video synthesis system - Google Patents

Video synthesizing method, video synthesis system Download PDF

Info

Publication number
JP2010278813A
JP2010278813A JP2009129857A JP2009129857A JP2010278813A JP 2010278813 A JP2010278813 A JP 2010278813A JP 2009129857 A JP2009129857 A JP 2009129857A JP 2009129857 A JP2009129857 A JP 2009129857A JP 2010278813 A JP2010278813 A JP 2010278813A
Authority
JP
Japan
Prior art keywords
frame
background
video
angle
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009129857A
Other languages
Japanese (ja)
Other versions
JP5231331B2 (en
Inventor
Masaru Ehata
勝 江畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M Soft Co Ltd
Original Assignee
M Soft Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by M Soft Co Ltd filed Critical M Soft Co Ltd
Priority to JP2009129857A priority Critical patent/JP5231331B2/en
Publication of JP2010278813A publication Critical patent/JP2010278813A/en
Application granted granted Critical
Publication of JP5231331B2 publication Critical patent/JP5231331B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video synthesizing method and video synthesis system for obtaining synthesizing video obtained by extracting only material for synthesis from video photographed in an optional background when generating the synthesizing video to be used for synthesis. <P>SOLUTION: The video synthesizing method and the video synthesis system perform angle calculation processing for calculating a pan angle and a tilt angle during photographing each frame of background side video 10 by comparing the position of an index point showing the same background position in a plurality of frames of the background side video 10, background selection processing for selecting a comparing frame 10a from a frame group of the background side video 10 by frame of material side video 12 on the basis of a pan angle and a tilt angle during photographing each frame of the material side video 12, and background comparison processing for generating synthesizing video 14 obtained by extracting synthesizing material 20 by comparing the selected comparing frame 10a with each frame of the material side video 12. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、背景にブルーバックなどの特別な背景を使用することなく撮影した映像から、合成用素材のみを切り出して合成用映像を生成する技術に関する。   The present invention relates to a technique for generating a composite video by cutting out only a composite material from a video shot without using a special background such as a blue background.

従来、映画などの映像作品の制作において、合成技術は欠かすことのできないものとなっている。合成用に用いる映像は、ブルーバック合成技術を用いて撮影されることが多い。   Conventionally, composition techniques are indispensable in the production of video works such as movies. Images used for composition are often shot using a blue-back composition technique.

ブルーバック合成とは、合成に用いる映像を撮影する際に、青い布などの背景(以下、ブルーバックとする)を用いる技術である。撮影された映像に対して、ブルーバック部分を透明として扱う映像特殊処理を適用して合成用映像を生成し、そこに別の背景映像を合成する。例えば人物と背景を合成する場合は、ブルーバックの前で、合成用素材となる人物を撮影し、撮影した映像のブルーバックの部分に対して、別に用意した背景映像を合成する(例えば、特許文献1または2参照)。   The blue back composition is a technique that uses a background such as a blue cloth (hereinafter referred to as a blue back) when shooting an image used for composition. An image special process that treats the blue back portion as transparent is applied to the captured image to generate an image for synthesis, and another background image is synthesized there. For example, when composing a person and a background, a person as a composition material is photographed before the blue background, and a separately prepared background image is synthesized with the blue background portion of the captured image (for example, patent Reference 1 or 2).

特開平10−042307号公報Japanese Patent Laid-Open No. 10-042307 特開2007−142726号公報JP 2007-142726 A

このブルーバック合成は、ブルーバックを使って撮影された合成用映像を用いる。そのためブルーバック合成には、仮背景となるブルーバックを用意する必要がある。しかし、ブルーバックは、一部の撮影スタジオにしか用意されていない上、撮影スタジオやブルーバックの使用、準備などに多くの費用と手間がかかるという問題があった。   In this blue background composition, a composition image photographed using a blue background is used. For this reason, it is necessary to prepare a blue background as a temporary background for blue background synthesis. However, there is a problem that the blue back is prepared only in a part of the shooting studios, and that the use and preparation of the shooting studio and the blue back are costly and troublesome.

また、撮影スタジオが限られているため、撮り直し等により、急遽、再撮影が必要となった場合、撮影スタジオの確保が難しいという問題もあった。さらに、撮影可能範囲が撮影スタジオやブルーバックの大きさに限られてしまうため、カメラのパンおよびチルトを多用した動きのある映像を撮影するのが難しいという問題もあった。   In addition, since the number of shooting studios is limited, there is a problem that it is difficult to secure a shooting studio when re-shooting is required suddenly due to re-shooting or the like. Furthermore, since the shootable range is limited to the size of the shooting studio or the blue background, there is a problem that it is difficult to shoot a moving image that uses a lot of camera pan and tilt.

また、撮影スタジオという人工光の下で撮影された映像と、太陽光の下で撮影された背景映像を合成しようとすると、光の微妙な違いで合成処理後の映像が不自然になってしまうこともあった。   Also, if you try to synthesize an image shot under artificial light called a shooting studio and a background image shot under sunlight, the image after the composition process will become unnatural due to subtle differences in light. There was also.

なお、ブルーバックを使わずに合成用映像を生成する方法としては、通常の方法で撮影した映像から、デジタルコンピューター上で動作する画像加工ソフトウェアを用いて、手動で合成用素材を切り出すことも考えられる。しかし、手動では時間と人件費がかかる上、細かい部分を精密に切り出すことができず、微細なニュアンスが失われた不自然な合成用映像になってしまうという問題があった。   In addition, as a method of generating a composite video without using a blue background, it is also possible to manually cut out a composite material from video shot by a normal method using image processing software that operates on a digital computer. It is done. However, manual operation takes time and labor costs, and details cannot be cut out precisely, resulting in an unnatural composite image in which fine nuances are lost.

また、合成用素材を含む映像から、自動的に合成用素材の輪郭等を検出して、合成用素材を切りだすソフトウェアも考えられるが、動的に変化していく輪郭を検出し、切り出していくという工程において、情報処理が複雑かつ膨大になってしまうという問題があった。   In addition, software that automatically detects the outline of the composition material from the video containing the composition material and cuts out the composition material is also conceivable, but it detects and cuts out the dynamically changing outline. In the process of going, there is a problem that information processing becomes complicated and enormous.

本発明は、上記の問題に鑑みてなされたものであり、合成に用いる合成用映像を生成する際において、ブルーバックで撮影された映像を用いることなく、任意の背景で撮影された映像から合成用素材のみが抽出された合成用映像を得ることが可能な映像合成方法および映像合成システムを提供することを目的とする。   The present invention has been made in view of the above-described problems. When generating a composite image used for composition, the present invention combines the image captured with an arbitrary background without using the image captured with the blue background. It is an object of the present invention to provide a video composition method and a video composition system capable of obtaining a composite image in which only a material for use is extracted.

本発明は、パンおよびチルト可能に配置された背景用カメラによって撮影可能な多方向の背景を前記背景用カメラによって撮影した背景側映像と、前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像と、を用意し、前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出処理と、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択処理と、選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較処理と、を行うことを特徴とする、映像合成方法である。   The present invention provides a background-side image in which a multi-directional background that can be photographed by a background camera arranged so as to be capable of panning and tilting is photographed by the background camera, and is arranged so as to be able to pan and tilt at the same position as the background camera. A material-side image captured so that the composition material is included under the background by the prepared material camera, and the position of the index point indicating the same background position in a plurality of frames of the background-side image is prepared Based on the comparison, an angle calculation process for calculating a pan angle and a tilt angle for each frame of the background-side video for each frame, and a pan angle and a tilt angle for the frame of the material-side video at the time of shooting. A background selection process for selecting a comparison frame from the frame group of the background side video for each frame of the material side video, and the selected comparison frame. By comparing each frame of over arm and the material-side image, and background comparison process of generating a composition image of the composition material is extracted, and performing a video composition method.

本発明はまた、上記映像合成方法において、前記角度算出処理は、前記背景用カメラ位置を中心とする仮想球体を設定し、比較する2つのフレームのうち、一方の基準フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した基準投射指標点、および他方の対比フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した対比投射指標点を求め、前記基準投射指標点および前記対比投射指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度を算出することを特徴とする。   According to the present invention, in the video composition method, the angle calculation processing sets a virtual sphere centered on the background camera position, and sets the index point on one reference frame of two frames to be compared. The reference projection index point projected on the surface of the virtual sphere toward the radial direction of the virtual sphere, and the index point on the other comparison frame are directed on the surface of the virtual sphere toward the radial direction of the virtual sphere. A projected projection index point is obtained, and a pan angle and a tilt angle at the time of shooting each frame of the background side image are calculated by comparing the positions of the reference projection index point and the contrast projection index point. And

本発明はまた、上記映像合成方法において、前記角度算出処理は、前記背景用カメラの画角および前記背景側映像のフレームの寸法に基づいて前記仮想球体の半径を設定することを特徴とする。   The present invention is also characterized in that, in the video composition method, the angle calculation processing sets a radius of the virtual sphere based on a field angle of the background camera and a frame size of the background side video.

本発明はまた、上記映像合成方法において、前記角度算出処理は、前記仮想球体の中心を、前記背景用カメラのレンズの主点に設定し、前記仮想球体の半径を、前記背景用カメラのレンズの焦点距離と同一に設定することを特徴とする。   According to the present invention, in the video composition method, in the angle calculation processing, the center of the virtual sphere is set as a principal point of the lens of the background camera, and the radius of the virtual sphere is set as the lens of the background camera. The focal length is set to be the same.

本発明はまた、上記映像合成方法において、前記指標点は、前記基準フレームの光学中心に対応する点であることを特徴とする。   The present invention is also characterized in that, in the video composition method, the index point is a point corresponding to the optical center of the reference frame.

本発明はまた、上記映像合成方法において、前記角度算出処理は、前記基準フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、基準投射フレームを生成し、前記対比フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、対比投射フレームを生成し、前記基準投射フレームおよび前記対比投射フレームについてパターンマッチングを行うことで、前記指標点以外の同一の背景位置を示す投射特定点を複数求め、前記基準投射フレーム上の前記投射特定点を基準投射特定点に設定すると共に、前記対比投射フレーム上の前記投射特定点を対比投射特定点に設定し、前記基準投射特定点および前記対比投射特定点の位置に基づいて、前記対比投射指標点の位置を算出することを特徴とする。   According to the present invention, in the video composition method, the angle calculation process generates a reference projection frame by projecting the reference frame on a surface of the virtual sphere in a radial direction of the virtual sphere, By projecting the contrast frame onto the surface of the virtual sphere in the radial direction of the virtual sphere, generating a contrast projection frame, and performing pattern matching on the reference projection frame and the contrast projection frame, the index A plurality of projection specific points indicating the same background position other than the points are obtained, and the projection specific point on the reference projection frame is set as a reference projection specific point, and the projection specific point on the contrast projection frame is contrasted and specified. And calculating the position of the contrast projection index point based on the positions of the reference projection specific point and the contrast projection specific point. To.

本発明はまた、上記映像合成方法において、前記角度算出処理は、前記基準投射特定点および前記基準投射指標点の相対的な位置関係に基づいて、前記対比投射指標点の位置を算出することを特徴とする。   According to the present invention, in the video composition method, the angle calculation process calculates a position of the contrast projection index point based on a relative positional relationship between the reference projection specific point and the reference projection index point. Features.

本発明はまた、上記映像合成方法において、前記角度算出処理は、前記投射特定点として第1の投射特定点および第2の投射特定点を設定し、前記第1の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第1の距離、および前記第2の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第2の距離を求め、前記第1の投射特定点の前記対比投射特定点から前記第1の距離、且つ前記第2の投射特定点の前記対比投射特定点から前記第2の距離に位置する前記仮想球体の表面上の点を前記対比投射指標点とすることを特徴とする。   According to the present invention, in the video composition method, the angle calculation processing sets a first projection specific point and a second projection specific point as the projection specific point, and the reference projection of the first projection specific point. A first distance between a specific point and the reference projection index point, and a second distance between the reference projection specific point and the reference projection index point of the second projection specific point are obtained, and the first distance The point on the surface of the virtual sphere located at the first distance from the contrast projection specific point of the projection specific point and the second distance from the contrast projection specific point of the second projection specific point is the contrast. A projection index point is used.

本発明はまた、上記映像合成方法において、前記角度算出処理は、前記背景側映像の各フレームの撮影時のロール角度を前記背景側映像のフレームごとに算出し、前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。   According to the present invention, in the video composition method, the angle calculation processing calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video, and the background comparison processing includes the background comparison The correction is performed based on the roll angle at the time of photographing each frame of the side image.

本発明はまた、上記映像合成方法において、前記角度算出処理は、所定の前記投射特定点の前記基準投射特定点と前記基準投射指標点を結ぶ直線と、所定の前記投射特定点の前記対比投射特定点と前記対比投射指標点を結ぶ直線とがなす角度に基づいて、前記背景側映像の各フレームの撮影時のロール角度を求め、前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。   The present invention is also the video composition method, wherein the angle calculation process includes a straight line connecting the reference projection specific point of the predetermined projection specific point and the reference projection index point, and the contrast projection of the predetermined projection specific point. Based on an angle formed by a specific point and a straight line connecting the contrast projection index points, a roll angle at the time of shooting each frame of the background side image is obtained, and the background comparison processing is performed by shooting each frame of the background side image. The correction is performed based on the current roll angle.

本発明はまた、上記映像合成方法において、前記背景選択処理は、前記背景側映像のフレームと前記素材側映像のフレームにおいて同一の背景位置を示す選択用指標点の位置を比較することにより、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出することを特徴とする。   The present invention is also the video composition method, wherein the background selection processing includes comparing the positions of index points for selection indicating the same background position in the frame of the background side video and the frame of the material side video. A pan angle and a tilt angle at the time of photographing each frame of the material side image are calculated for each frame.

本発明はまた、上記映像合成方法において、前記背景選択処理は、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と同一のパン角度およびチルト角度の比較用フレームを選択できない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度に近いパン角度およびチルト角度の比較用フレームを複数選択することを特徴とする。   According to the present invention, in the video composition method, when the background selection process cannot select a pan angle and a tilt angle comparison frame that are the same as the pan angle and the tilt angle at the time of shooting the frame of the material side video, A plurality of frames for comparison of pan angle and tilt angle close to the pan angle and tilt angle at the time of photographing the frame of the material side image are selected.

本発明はまた、上記映像合成方法において、前記背景選択処理は、前記素材側映像の各フレームの撮影時のロール角度を前記素材側映像のフレームごとに算出し、前記背景比較処理は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。   According to the present invention, in the video composition method, the background selection processing calculates a roll angle at the time of shooting each frame of the material-side video for each frame of the material-side video, and the background comparison processing includes the material comparison The correction is performed based on the roll angle at the time of photographing each frame of the side image.

本発明はまた、上記映像合成方法において、前記背景比較処理は、比較する前記素材側映像のフレームと前記比較用フレームの撮影時のパン角度またはチルト角度が同一でない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と一致するように前記比較用フレームを修正した比較用修正フレームを生成し、前記比較用修正フレームと前記素材側映像のフレームを比較することを特徴とする。   According to the present invention, in the video composition method, in the background comparison process, if the pan angle or the tilt angle at the time of shooting of the material side video frame to be compared and the comparison frame are not the same, the frame of the material side video A comparison correction frame is generated by correcting the comparison frame so as to coincide with the pan angle and tilt angle at the time of shooting, and the comparison correction frame and the frame of the material side image are compared.

本発明はまた、上記映像合成方法において、前記背景比較処理は、前記素材側映像のフレームの撮影時のロール角度と一致するように前記比較用フレームを修正した前記比較用修正フレームを生成することを特徴とする。   According to the present invention, in the video composition method, the background comparison processing generates the comparative correction frame in which the comparison frame is corrected so as to coincide with a roll angle at the time of shooting the frame of the material side video. It is characterized by.

本発明はまた、上記映像合成方法において、前記背景比較処理は、前記比較用フレームの各画素を、仮想球体の半径方向に向けて前記素材側映像のフレームと同一平面上に投射することによって、前記比較用修正フレームを生成することを特徴とする。   According to the present invention, in the video composition method, the background comparison process projects each pixel of the comparison frame on the same plane as the frame of the material-side video in the radial direction of the virtual sphere, The modification frame for comparison is generated.

本発明はまた、パンおよびチルト可能に配置された背景用カメラによって撮影可能な多方向の背景を前記背景用カメラによって撮影した背景側映像を記憶する背景側映像記憶手段と、前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像を記憶する素材側映像記憶手段と、前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出手段と、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択手段と、選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較手段と、を備えることを特徴とする、映像合成システムである。   The present invention also provides background-side image storage means for storing a background-side image in which a multi-directional background that can be photographed by a background camera arranged so as to be capable of panning and tilting is photographed by the background camera, and the background camera. Material-side video storage means for storing a material-side image shot so that the material for composition is included under the background by a material camera arranged so as to be capable of panning and tilting at the same position; and a plurality of background-side images By comparing the positions of index points indicating the same background position in the frame, angle calculation means for calculating the pan angle and the tilt angle at the time of shooting of each frame of the background side image for each frame, and the material side image Based on the pan angle and tilt angle at the time of shooting each frame, the frame for comparison is extracted from the frame group of the background side image for each frame of the material side image. A background selection means for selecting an image, and a background comparison means for generating a composition image from which the composition material is extracted by comparing the selected comparison frame and each frame of the material side image. This is a video composition system.

本発明はまた、上記映像合成システムにおいて、前記角度算出手段は、前記背景側映像の各フレームの撮影時のロール角度を前記背景側映像のフレームごとに算出し、前記背景比較手段は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。   According to the present invention, in the video composition system, the angle calculation unit calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video, and the background comparison unit includes the background comparison unit. The correction is performed based on the roll angle at the time of photographing each frame of the side image.

本発明はまた、上記映像合成システムにおいて、前記背景選択手段は、前記背景側映像のフレームと前記素材側映像のフレームにおいて同一の背景位置を示す選択用指標点の位置を比較することにより、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出することを特徴とする。   The present invention also provides the video composition system, wherein the background selection means compares the position of the index point for selection indicating the same background position in the frame of the background side video and the frame of the material side video. A pan angle and a tilt angle at the time of photographing each frame of the material side image are calculated for each frame.

本発明はまた、上記映像合成システムにおいて、前記背景選択手段は、前記素材側映像の各フレームの撮影時のロール角度を前記素材側映像のフレームごとに算出し、前記背景比較手段は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする。   According to the present invention, in the video composition system, the background selection unit calculates a roll angle at the time of shooting each frame of the material side video for each frame of the material side video, and the background comparison unit includes the material comparison unit. The correction is performed based on the roll angle at the time of photographing each frame of the side image.

本発明はまた、上記映像合成システムにおいて、前記背景比較手段は、比較する前記素材側映像のフレームと前記比較用フレームの撮影時のパン角度またはチルト角度が同一でない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と一致するように前記比較用フレームを修正した比較用修正フレームを生成し、前記比較用修正フレームと前記素材側映像のフレームを比較することを特徴とする。   According to the present invention, in the video composition system, the background comparison unit is configured such that when the pan angle or the tilt angle at the time of photographing of the material side video to be compared and the comparison frame are not the same, the frame of the material side video A comparison correction frame is generated by correcting the comparison frame so as to coincide with the pan angle and tilt angle at the time of shooting, and the comparison correction frame and the frame of the material side image are compared.

本発明はまた、上記映像合成システムにおいて、前記背景比較手段は、前記素材側映像のフレームの撮影時のロール角度と一致するように前記比較用フレームを修正した前記比較用修正フレームを生成することを特徴とする。   According to the present invention, in the video composition system, the background comparison unit generates the comparative correction frame in which the comparison frame is corrected so as to coincide with a roll angle at the time of shooting the frame of the material side video. It is characterized by.

本発明の映像合成方法または映像合成システムによれば、いかなる背景環境であっても、合成用映像を生成することができる。この結果、ブルーバック用の撮影スタジオの使用料の負担や、事前準備等の手間が軽減される。さらに、カメラをパンまたはチルトさせながら合成用素材を撮影し、背景に対する合成用素材の位置が大きく変化する場合であっても、合成用映像を効率的に生成することができる。   According to the video composition method or the video composition system of the present invention, it is possible to generate a composite image in any background environment. As a result, it is possible to reduce the burden of the usage fee for the shooting studio for the blue background and the time and effort for advance preparation. Furthermore, even when the composition material is photographed while panning or tilting the camera, and the position of the composition material with respect to the background changes greatly, the composition image can be generated efficiently.

本発明の実施形態の映像合成方法の概念を示した図である。It is the figure which showed the concept of the image | video synthetic | combination method of embodiment of this invention. 本発明の実施形態の映像合成システムの概略構成図である。1 is a schematic configuration diagram of a video composition system according to an embodiment of the present invention. コンピュータが備える内部構成を示した図である。It is the figure which showed the internal structure with which a computer is provided. 本発明の実施形態におけるパン角度θおよびチルト角度φを示した図である。It is the figure which showed pan angle (theta) and tilt angle (phi) in embodiment of this invention. (a)および(b)本発明の実施形態におけるロール角度ψを示した図である。(A) And (b) It is the figure which showed roll angle (psi) in embodiment of this invention. ビデオカメラによる撮影を模式的に示した図である。It is the figure which showed typically imaging | photography with a video camera. ビデオカメラの回転を天球上に沿った背景の移動に置き換えて示した模式図である。It is the schematic diagram which replaced the rotation of the video camera with the movement of the background along a celestial sphere. 仮想球体上の投射点の求め方を示した図である。It is the figure which showed how to obtain | require the projection point on a virtual sphere. (a)〜(c)背景側映像のフレームの例を示した図である。(A)-(c) It is the figure which showed the example of the frame of the background side image | video. (a)および(b)図9に示したフレーム上の各点を仮想球体上に投射した場合を示した図である。(A) And (b) It is the figure which showed the case where each point on the flame | frame shown in FIG. 9 was projected on the virtual sphere. (a)〜(c)選択用三次元画像の例を示した概略図である。(A)-(c) It is the schematic which showed the example of the three-dimensional image for selection. 合成用映像生成処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the synthetic | combination video generation process. 角度算出処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the angle calculation process. 各角度θ、φ、ψを算出する具体的な方法を示した図である。It is the figure which showed the specific method of calculating each angle (theta), (phi), and (psi). 各角度θ、φ、ψを算出する具体的な方法を示した図である。It is the figure which showed the specific method of calculating each angle (theta), (phi), and (psi). 背景選択処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the background selection process. (a)および(b)背景選択処理の具体的な方法を示した図である。It is the figure which showed the specific method of (a) and (b) background selection processing. 背景比較処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the background comparison process. (a)および(b)背景比較処理の具体的な方法を示した図である。It is the figure which showed the specific method of (a) and (b) background comparison processing. (a)および(b)背景比較処理の具体的な方法を示した図である。It is the figure which showed the specific method of (a) and (b) background comparison processing.

以下に、本発明の実施形態について図面を用いて説明する。なお、本発明はこれらの図面に限定されるものではないことは予め言及しておく。   Embodiments of the present invention will be described below with reference to the drawings. It should be noted in advance that the present invention is not limited to these drawings.

<基本思想>
まず、本実施形態の全般に亘る基本思想について説明する。図1は、本実施形態の映像合成方法の概念を示した図である。
<Basic idea>
First, the basic idea throughout the present embodiment will be described. FIG. 1 is a diagram showing the concept of the video composition method of the present embodiment.

同図に示されるように、本実施形態では、まず、任意背景を撮影して生成した背景側映像10を準備する。そして、同じ背景下で合成用素材(例えば、人物)20が含まれるように撮影した素材側映像12と、この合成用素材20の背景として事後的に挿入する例えば梅22およびつくし24を撮影した挿入用背景映像14を準備する。   As shown in the figure, in this embodiment, first, a background side image 10 generated by photographing an arbitrary background is prepared. And the material side image | video 12 image | photographed so that the synthetic | combination material (for example, person) 20 may be included on the same background, and, for example, the plum 22 and the horsetail 24 inserted later as the background of the synthetic material 20 were photographed. A background image 14 for insertion is prepared.

次に、素材側映像12の各フレームと(例えば、チューリップ26が撮影された背景)と同じ背景である比較用フレーム10aを、背景側映像10のフレーム群から素材側映像12のフレームごとに選択し、抽出する(背景選択処理)。これにより、合成用素材20が映っているかいないかのみ異なる二つの映像(フレーム)12、10aが用意されたこととなる。そして、この素材側映像12の各フレームおよび比較用フレーム10aを比較し、異なっている部分を抽出することで、合成用素材20のみが切り取られた合成用映像14を得る(背景比較処理)。この合成用映像14に挿入用背景映像16を合成することによって、例えば梅22およびつくし24を背景とした合成用素材(人物)20の最終映像18が完成する。   Next, a comparison frame 10a having the same background as each frame of the material-side video 12 (for example, the background where the tulip 26 is photographed) is selected for each frame of the material-side video 12 from the frame group of the background-side video 10. And extract (background selection processing). As a result, two images (frames) 12 and 10a that differ only in whether the composition material 20 is shown are prepared. Then, each frame of the material-side image 12 and the comparison frame 10a are compared, and a different portion is extracted to obtain a composition image 14 in which only the composition material 20 is cut out (background comparison processing). By synthesizing the insertion background image 16 with the composition image 14, for example, the final image 18 of the composition material (person) 20 with the background of the plum 22 and the horsetail 24 is completed.

なお、これらの背景側映像10および素材側映像12は、同一の位置に配置されたカメラ(ビデオカメラ)をパンまたはチルトさせることによって撮影する。このように、カメラ位置を固定することによって、背景部分の映像を処理する場合に、カメラから一定の距離に存在する背景、すなわち任意の半径の天球上に存在する背景として扱うことが可能となる。背景側映像10を撮影するカメラ、および素材側映像12を撮影するカメラは、同一の位置に配置されるものであれば、同一のカメラまたは異なるカメラのいずれであってもよい。   The background side image 10 and the material side image 12 are shot by panning or tilting a camera (video camera) arranged at the same position. In this way, by fixing the camera position, when processing the image of the background portion, it is possible to treat it as a background that exists at a certain distance from the camera, that is, a background that exists on the celestial sphere of an arbitrary radius. . The camera that captures the background-side video 10 and the camera that captures the material-side video 12 may be either the same camera or different cameras as long as they are arranged at the same position.

<映像合成システム>
次に、本発明の実施形態に係る映像合成システムについて説明する。図2は、この映像合成システム100の概略構成図である。
<Video composition system>
Next, a video composition system according to an embodiment of the present invention will be described. FIG. 2 is a schematic configuration diagram of the video composition system 100.

図2において、101は、ビデオカメラで撮影した背景側映像であり、102は、ビデオカメラで撮影した素材側映像である。104は、背景側映像101が記憶されるハードディスク(背景側映像保存手段)であり、105は、素材側映像102が記憶されるハードディスク(素材側映像保存手段)である。そして、106は、背景側映像101を構成するフレームであり、107は、背景側映像103を構成するフレームである。   In FIG. 2, reference numeral 101 denotes a background side image taken by the video camera, and reference numeral 102 denotes a material side image taken by the video camera. Reference numeral 104 denotes a hard disk (background-side video storage unit) in which the background-side video 101 is stored, and reference numeral 105 denotes a hard disk (material-side video storage unit) in which the material-side video 102 is stored. Reference numeral 106 denotes a frame constituting the background side video 101, and 107 denotes a frame constituting the background side video 103.

また、108は、CPU(中央演算装置)やメモリ、通信バス、複数の入出力インターフェース等を備えたコンピュータであり、109は、このコンピュータ108で実行されるプログラムが保存されているハードディスク(プログラム保存手段)である。110は、このコンピュータ108によって背景比較処理を行った後に生成される合成用フレーム(合成用素材のみが切り取られたフレーム)であり、111は、この合成用フレーム110を記憶したハードディスク(合成用映像保存手段)である。そして、112は、この合成用フレーム110によって構成される合成用映像である。   Reference numeral 108 denotes a computer having a CPU (central processing unit), a memory, a communication bus, a plurality of input / output interfaces, and the like. Reference numeral 109 denotes a hard disk (program storage) in which a program executed by the computer 108 is stored. Means). Reference numeral 110 denotes a compositing frame (a frame in which only the compositing material is cut out) generated after the background comparison processing is performed by the computer 108, and 111 denotes a hard disk (compositing video) that stores the compositing frame 110. Storage means). Reference numeral 112 denotes a composition video composed of the composition frame 110.

図3は、コンピュータ108が備える内部構成を示した図である。なお、この内部構成は、コンピュータ108のメモリ121に上記プログラムが一旦格納され、このプログラムがCPU(中央演算処理装置)120で実行されることで得られる各種機能も含んでいる。   FIG. 3 is a diagram showing an internal configuration of the computer 108. This internal configuration also includes various functions obtained by temporarily storing the program in the memory 121 of the computer 108 and executing the program by a CPU (Central Processing Unit) 120.

コンピュータ108は、自身の全体を制御するCPU120と、RAM等からなるメモリ121を備えていると共に、背景側映像保存手段104、素材側映像保存手段105、プログラム保存手段109、および合成用映像保存手段111にそれぞれ接続される入出力インターフェース(I/O)122、123、124、125を備えている。また、プログラムをCPU120で実行することで得られる機能構成として、角度算出手段130、背景側映像角度データベース生成手段132、選択用三次元画像生成手段134、背景選択手段136、および背景比較手段138を備えている。   The computer 108 includes a CPU 120 that controls the entire computer and a memory 121 including a RAM and the like, and also includes a background-side image storage unit 104, a material-side image storage unit 105, a program storage unit 109, and a composition image storage unit. 111 are provided with input / output interfaces (I / O) 122, 123, 124, and 125 respectively connected to 111. Further, as a functional configuration obtained by executing the program by the CPU 120, an angle calculation unit 130, a background side video angle database generation unit 132, a selection three-dimensional image generation unit 134, a background selection unit 136, and a background comparison unit 138 are provided. I have.

<角度算出手段>
次に、角度算出手段130の機能について説明する。角度算出手段130は、後述する角度算出処理を実行し、背景側映像101を構成する各フレーム106の撮影時におけるパン角度θおよびチルト角度φを算出するものである。図4は、本実施形態におけるパン角度θおよびチルト角度φを示した図である。同図に示されるように、本実施形態では、撮影スタジオ内または屋外等の任意の位置に配置したビデオカメラ200によって背景側映像の撮影を行う。
<Angle calculation means>
Next, the function of the angle calculation unit 130 will be described. The angle calculation means 130 executes an angle calculation process to be described later, and calculates a pan angle θ and a tilt angle φ when each frame 106 constituting the background side image 101 is captured. FIG. 4 is a diagram showing the pan angle θ and the tilt angle φ in the present embodiment. As shown in the figure, in this embodiment, a background side image is shot by a video camera 200 arranged at an arbitrary position such as in a shooting studio or outdoors.

このビデオカメラ200は、雲台300の上に載置されており、パンおよびチルトさせることによって任意の撮影方向にビデオカメラ200を向けることが可能となっている。なお、本実施形態では、垂直方向の軸を中心にビデオカメラ200を回転させ、撮影方向を水平面内で変化させる動作を「パン」、水平方向の軸を中心にビデオカメラ200を回転させ、撮影方向を垂直面内で変化させる動作を「チルト」と呼んでいる。各フレーム106の撮影時のパン角度θおよびチルト角度φを求めることにより、各フレーム106の撮影時の撮影方向を特定することができる。   The video camera 200 is placed on a pan head 300, and the video camera 200 can be directed in an arbitrary shooting direction by panning and tilting. In this embodiment, the video camera 200 is rotated about the vertical axis and the operation of changing the shooting direction in the horizontal plane is “pan”, and the video camera 200 is rotated about the horizontal axis to perform shooting. The operation of changing the direction in the vertical plane is called “tilt”. By obtaining the pan angle θ and the tilt angle φ at the time of photographing each frame 106, the photographing direction at the time of photographing each frame 106 can be specified.

ビデオカメラ200を所定の位置に固定し、パンおよびチルトさせながら撮影を行う場合、ビデオカメラ200と背景の距離が変化しないため、全ての背景がビデオカメラ200を中心とする任意の半径の天球400上(天球400の表面上)にあるものと見なすことができる。従って、各フレーム106撮影時のパン角度θおよびチルト角度φを算出して撮影方向を特定することにより、背景側映像101の各フレーム106の撮影領域402が天球400上のどこに位置しているかを特定することができる。   When shooting with the video camera 200 fixed at a predetermined position and panning and tilting, the distance between the video camera 200 and the background does not change. It can be considered to be above (on the surface of the celestial sphere 400). Therefore, by calculating the pan angle θ and the tilt angle φ at the time of shooting each frame 106 and specifying the shooting direction, the position of the shooting area 402 of each frame 106 of the background side image 101 on the celestial sphere 400 is determined. Can be identified.

また、角度算出手段130は、背景側映像101を構成する各フレーム106の撮影時におけるロール角度ψを算出する。図5(a)および(b)は、本実施形態におけるロール角度ψを示した図である。同図(a)に示されるように、ビデオカメラ200を所定の角度にチルトさせた状態でパンさせた場合、ビデオカメラ200は、背景に対して光学中心を軸にしてロール回転することとなる。従って、例えば同図(a)における撮影領域402a、402b、402cを撮影したときにビデオカメラ200に映し出される映像をそれぞれ502a、502b、502cとした場合、これらの映像502a〜502cは、同図(b)に示されるように、背景に対して円弧状に移動すると共に光学中心Oを中心として回転するように映し出されることとなる。角度算出手段130は、この光学中心0を中心とするロール回転の角度をロール角度ψとして算出する。   In addition, the angle calculation unit 130 calculates a roll angle ψ at the time of shooting each frame 106 constituting the background side image 101. FIGS. 5A and 5B are views showing the roll angle ψ in the present embodiment. As shown in FIG. 5A, when the video camera 200 is panned while being tilted at a predetermined angle, the video camera 200 rolls around the optical center with respect to the background. . Therefore, for example, when the images displayed on the video camera 200 when shooting the shooting areas 402a, 402b, and 402c in FIG. 6A are 502a, 502b, and 502c, respectively, these images 502a to 502c are shown in FIG. As shown in b), the image is projected so as to move in an arc shape with respect to the background and to rotate about the optical center O. The angle calculation means 130 calculates the roll rotation angle around the optical center 0 as the roll angle ψ.

次に、本実施形態の角度算出手段130による、上述のパン角度θ、チルト角度φおよびロール角度ψの算出方法について説明する。まず、図6〜10を用いて、各角度θ、φ、ψの算出方法の原理について説明する。   Next, a method for calculating the above-described pan angle θ, tilt angle φ, and roll angle ψ by the angle calculation unit 130 of the present embodiment will be described. First, the principle of the calculation method of each angle θ, φ, ψ will be described with reference to FIGS.

図6は、ビデオカメラ200による撮影を模式的に示した図である。同図においては、ビデオカメラ200が備えている複数のレンズを1つのレンズとみなした仮想レンズ202として示し、その中心を主点204としている。そして、この仮想レンズ202の焦点位置に、例えばCCD等からなる撮像素子206が配置され、仮想レンズ202を通過した光を受光するものとしている。   FIG. 6 is a diagram schematically showing shooting by the video camera 200. In the figure, a plurality of lenses included in the video camera 200 is shown as a virtual lens 202 regarded as one lens, and the center thereof is a main point 204. An imaging element 206 made of, for example, a CCD is disposed at the focal position of the virtual lens 202, and receives light that has passed through the virtual lens 202.

同図では、ビデオカメラ200を主点204を中心に回転させてパンまたはチルトさせることにより、撮像素子206に映し出される映像が、撮影領域402dから撮影領域402eに変化した場合を示している。背景の一部である物体404は、主点204を中心とする天球400上に制止しており、物体404から仮想レンズ202の主点204に入射する光の方向は、ビデオカメラ200の位置が固定されているため一定となる。このため、撮像素子206が受光する物体404の写像504の位置は、ビデオカメラ200の回転による撮像素子206の移動に応じて変化する。具体的にこの例では、撮像素子200の端部側(図の左端部側)に向けて写像504の位置が変化する。   This figure shows a case where the video displayed on the image sensor 206 changes from the shooting area 402d to the shooting area 402e by rotating or panning the video camera 200 around the principal point 204. The object 404 that is a part of the background is stopped on the celestial sphere 400 centered on the principal point 204, and the direction of light incident from the object 404 to the principal point 204 of the virtual lens 202 is determined by the position of the video camera 200. It is constant because it is fixed. Therefore, the position of the mapping 504 of the object 404 received by the image sensor 206 changes according to the movement of the image sensor 206 due to the rotation of the video camera 200. Specifically, in this example, the position of the mapping 504 changes toward the end portion side (left end portion side in the figure) of the image sensor 200.

背景とビデオカメラ200の位置関係は相対的なものであるため、ビデオカメラ200の回転は、天球400上に沿った背景の移動に置き換えることができる。図7は、ビデオカメラ200の回転を天球400上に沿った背景の移動に置き換えて示した模式図である。   Since the positional relationship between the background and the video camera 200 is relative, rotation of the video camera 200 can be replaced by movement of the background along the celestial sphere 400. FIG. 7 is a schematic diagram showing the rotation of the video camera 200 replaced with the movement of the background along the celestial sphere 400.

同図に示されるように、ビデオカメラ200の回転に伴って、物体404は撮影領域402内の天球400上を移動する。そして、この物体404の移動に応じて、撮像素子206が受光する物体404の写像504の位置が変化することとなる。但し、撮像素子206上の写像504の移動は、物体404の球面上の移動を平面上の移動に変換したものとなっている。このため、写像504は、同一のビデオカメラ200の回転に対し、撮像素子206上の位置に応じた異なる態様で移動することとなる。さらに、ビデオカメラ200がロール回転する場合には、写像504の移動は、光学中心からの距離に比例した回転移動が加わったさらに複雑なものとなる。   As shown in the figure, the object 404 moves on the celestial sphere 400 in the imaging region 402 as the video camera 200 rotates. In accordance with the movement of the object 404, the position of the mapping 504 of the object 404 received by the image sensor 206 changes. However, the movement of the map 504 on the image sensor 206 is obtained by converting the movement of the object 404 on the spherical surface into the movement on the plane. For this reason, the mapping 504 moves in a different manner depending on the position on the image sensor 206 with respect to the rotation of the same video camera 200. Further, when the video camera 200 rotates in a roll, the movement of the map 504 is further complicated by adding a rotational movement proportional to the distance from the optical center.

そこで、本実施形態では、仮想レンズ202の主点204を中心とし、撮像素子206の光学中心Oに接する仮想球体600を設定し、この仮想球体600上(仮想球体600の表面上)における写像504に対応する点(投射点)604の移動に基づいて、各角度θ、φ、ψを算出する。この仮想球体600上の投射点604の移動は、ビデオカメラ200をパンまたはチルトさせることによる天球400上の物体404の相対移動に相似した移動(経路が天球400と仮想球体600の半径の比だけ縮小された移動)に、ロール回転による回転移動が加わったものとなる。   Therefore, in the present embodiment, a virtual sphere 600 that is in contact with the optical center O of the imaging element 206 with the principal point 204 of the virtual lens 202 as the center is set, and the mapping 504 on the virtual sphere 600 (on the surface of the virtual sphere 600). The angles θ, φ, and ψ are calculated based on the movement of the point (projection point) 604 corresponding to. The movement of the projection point 604 on the virtual sphere 600 is similar to the relative movement of the object 404 on the celestial sphere 400 by panning or tilting the video camera 200 (the path is the ratio of the radius of the celestial sphere 400 and the virtual sphere 600). This is the reduced movement) plus the rotational movement due to roll rotation.

図8は、仮想球体600上の投射点の求め方を示した図である。上述のように、仮想球体600は、仮想レンズ202の主点204を中心とし、撮像素子206の光学中心Oに接する球体である。従って、仮想球体600の半径は、仮想レンズ202の焦点距離と等しいとみなすことができる。また、ビデオカメラ200の対角画角をα、撮像素子206の対角線の長さをLとした場合、仮想球体600の半径dは、例えば次の式によって求められる。

Figure 2010278813
そして、本実施形態では、撮像素子206上(フレーム上)の各点(画素)を仮想球体600の半径方向、すなわち仮想球体600の中心である主点204に向けて仮想球体600の表面上に投射した点を、撮像素子206上(フレーム上)の各点に対応する投射点とする。 FIG. 8 is a diagram showing how to obtain the projection points on the virtual sphere 600. As described above, the virtual sphere 600 is a sphere centered on the principal point 204 of the virtual lens 202 and in contact with the optical center O of the image sensor 206. Accordingly, the radius of the virtual sphere 600 can be regarded as being equal to the focal length of the virtual lens 202. Further, when the diagonal angle of view of the video camera 200 is α and the length of the diagonal line of the image sensor 206 is L, the radius d of the virtual sphere 600 can be obtained by the following equation, for example.
Figure 2010278813
In this embodiment, each point (pixel) on the image sensor 206 (on the frame) is directed on the surface of the virtual sphere 600 in the radial direction of the virtual sphere 600, that is, toward the principal point 204 that is the center of the virtual sphere 600. Let the projected point be the projection point corresponding to each point on the image sensor 206 (on the frame).

例えば、同図において、撮像素子206上の点506aの投射点は仮想球体600上の点606aであり、撮像素子206上の点506bの投射点は仮想球体600上の点606bである。このように、撮像素子206上の点を仮想球体600の半径方向に向けて仮想球体600の表面上に投射した点を投射点とすることにより、例えば、天球400上の点406aの写像が点506aである場合、点406a、主点204、および点506aを結ぶ直線状に点606aが位置することとなるため、点606aは、仮想球体600上において正確に点406aの位置を示す点となっている。同様に、点606bは、仮想球体600上において正確に点406bの位置を示す点となっている。   For example, in the figure, the projection point of the point 506 a on the image sensor 206 is a point 606 a on the virtual sphere 600, and the projection point of the point 506 b on the image sensor 206 is a point 606 b on the virtual sphere 600. In this way, by setting the point projected on the surface of the virtual sphere 600 with the point on the image sensor 206 directed in the radial direction of the virtual sphere 600 as a projection point, for example, the mapping of the point 406a on the celestial sphere 400 is a point. In the case of 506a, since the point 606a is positioned in a straight line connecting the point 406a, the main point 204, and the point 506a, the point 606a is a point that accurately indicates the position of the point 406a on the virtual sphere 600. ing. Similarly, the point 606b is a point that accurately indicates the position of the point 406b on the virtual sphere 600.

撮像素子206上のその他の各点、例えば点506c、506d、506eの投射点はそれぞれ点606c、606d、606eとなる。また、撮像素子206の光学中心Oに対応する点506fとその投射点606fは、同一点に位置することとなる。   Projection points of other points on the image sensor 206, for example, points 506c, 506d, and 506e, are points 606c, 606d, and 606e, respectively. Further, the point 506f corresponding to the optical center O of the image sensor 206 and the projection point 606f are located at the same point.

また、本実施形態では、主点204を原点とし、水平方向をx方向、垂直方向をy方向、ビデオカメラ200の光学中心の軸方向をz方向として空間座標(x,y,z)を設定している。従って、仮想球体600の半径をdとすると、撮像素子206上における座標(x,y,z)の点に対応する仮想球体600上の投射点の座標(x',y',z')は、例えば次の数式によって求められる。

Figure 2010278813
図9(a)〜(c)は、背景側映像101のフレーム106の例を示した図である。この例では、同図(a)に示されるように、フレーム106aにおいて、光学中心に対応する点O、ならびに点Pおよび点Qから構成される三角形OPQが映し出されている。そして、フレーム106aの撮影方向からビデオカメラ200をパンおよびチルトさせて撮影したフレームがフレーム106bである。同図(b)に示されるように、フレーム106bでは、ビデオカメラ200のパンおよびチルトに伴って背景が相対的に移動することにより、点Oが点O'に移動し、点Pが点P'に移動し、点Qが点Q'に移動している。すなわち、フレーム106aにおける三角形OPQは、フレーム106bでは三角形O'P'Q'となって映し出されている。また、フレーム106bは、ビデオカメラ200がパンおよびチルトされた結果、背景である三角形O'P'Q'に対してロール回転した状態となっている。 In this embodiment, the spatial coordinates (x, y, z) are set with the principal point 204 as the origin, the horizontal direction as the x direction, the vertical direction as the y direction, and the axial direction of the optical center of the video camera 200 as the z direction. is doing. Therefore, assuming that the radius of the virtual sphere 600 is d, the coordinates (x ′, y ′, z ′) of the projection point on the virtual sphere 600 corresponding to the point of the coordinates (x, y, z) on the image sensor 206 are For example, it is calculated | required by the following numerical formula.
Figure 2010278813
FIGS. 9A to 9C are diagrams illustrating an example of the frame 106 of the background side image 101. FIG. In this example, as shown in FIG. 9A, a point O corresponding to the optical center and a triangle OPQ composed of points P and Q are displayed in the frame 106a. A frame 106b is obtained by panning and tilting the video camera 200 from the shooting direction of the frame 106a. As shown in FIG. 6B, in the frame 106b, the background moves relatively with the panning and tilting of the video camera 200, so that the point O moves to the point O ′, and the point P changes to the point P. Has moved to 'and point Q has moved to point Q'. That is, the triangle OPQ in the frame 106a is displayed as a triangle O′P′Q ′ in the frame 106b. Further, the frame 106b is in a state of being rolled with respect to the triangle O′P′Q ′ as a background as a result of the video camera 200 being panned and tilted.

同図(c)は、三角形OPQから三角形O'P'Q'への移動を1つのフレーム上において示した図である。上述のように、天球400上から平面上の移動への変換、およびビデオカメラ200のロール回転の影響により、フレーム上における点Oから点O'への移動、点Pから点P'への移動、および点Qから点Q'への移動は、それぞれ異なる態様となる。すなわち、フレーム上では、同図(c)に示されるように、各点が映し出されている位置に応じて移動距離および移動方向が変化するため、三角形OPQおよび三角形O'P'Q'は異なる形状となる。   FIG. 4C shows the movement from the triangle OPQ to the triangle O′P′Q ′ on one frame. As described above, due to the conversion from the celestial sphere 400 to the movement on the plane and the influence of the roll rotation of the video camera 200, the movement from the point O to the point O ′ on the frame, the movement from the point P to the point P ′. , And the movement from the point Q to the point Q ′ are different from each other. That is, on the frame, the triangle OPQ and the triangle O′P′Q ′ are different because the movement distance and the movement direction change according to the position where each point is projected, as shown in FIG. It becomes a shape.

三角形OPQおよび三角形O'P'Q'は、同一の背景が映し出されたものであるため、両フレーム106a、106bにおいて同一の形状に映し出されると一般的には認識されている。しかし、実際には、フレーム106aおよびフレーム106bにおける位置が異なっている場合、三角形OPQおよび三角形O'P'Q'は、異なる形状に映し出されることとなる。すなわち、本実施形態のように、所定の位置にビデオカメラ200を配置し、パンおよびチルトさせて背景側映像101または素材側映像102を撮影する場合、撮影方向が異なるフレーム上においては、同一の背景であっても異なる形状に映し出されるようになっている。このため、背景側映像101を構成する各フレーム106または素材側映像102を構成する各フレーム107から2つのフレームを抽出してパターンマッチングを行い、これにより2つのフレームにおいて同一の背景位置を示す点を求めることは、困難である。   Since the triangle OPQ and the triangle O′P′Q ′ are the same background, it is generally recognized that the triangle OPQ and the triangle O′P′Q ′ are projected in the same shape in both frames 106a and 106b. However, actually, when the positions in the frame 106a and the frame 106b are different, the triangle OPQ and the triangle O'P'Q 'are projected in different shapes. That is, when the video camera 200 is arranged at a predetermined position and the background side image 101 or the material side image 102 is shot by panning and tilting as in the present embodiment, the same image is taken on frames with different shooting directions. Even the background is projected in different shapes. For this reason, two frames are extracted from each frame 106 constituting the background side video 101 or each frame 107 constituting the material side video 102 and pattern matching is performed, thereby indicating the same background position in the two frames. It is difficult to seek.

図10(a)および(b)は、図9に示したフレーム106aおよびフレーム106b上の各点を、図8等で示した仮想球体600上に投射した場合を示した図である。これらの図では、点oが点Oの投射点であり、点pが点Pの投射点であり、点qが点Qの投射点である。また、点o'が点O'の投射点であり、点p'が点P'の投射点であり、点q'が点Q'の投射点である。   FIGS. 10A and 10B are diagrams showing a case where each point on the frame 106a and the frame 106b shown in FIG. 9 is projected onto the virtual sphere 600 shown in FIG. In these figures, point o is the projection point of point O, point p is the projection point of point P, and point q is the projection point of point Q. Further, the point o ′ is the projection point of the point O ′, the point p ′ is the projection point of the point P ′, and the point q ′ is the projection point of the point Q ′.

仮想球体600上に投射された三角形opqおよび三角形o'p'q'は、それぞれ天球400上の背景における同一の三角形と相似する形状(天球400と仮想球体600の半径の比だけ縮小された形状)となる。このため、三角形opqおよび三角形o'p'q'は、同図(a)に示されるように、仮想球体600上の位置によらず、互いに同一な形状(合同)となる。すなわち、本実施形態のような撮影を行う場合、フレーム上の点(画素)を仮想球体600上に投射して得られる部分球面状の投射フレームにおいては、撮影方向が異なるフレームであっても、同一の背景であれば同一の形状に映し出されるようになっている。従って、2つの投射フレームについてパターンマッチングを行うようにすれば、2つのフレームにおいて同一の背景位置を示す点を比較的容易に特定することができる。   A triangle opq and a triangle o′p′q ′ projected onto the virtual sphere 600 are similar to the same triangle in the background on the celestial sphere 400 (a shape reduced by the ratio of the radius of the celestial sphere 400 and the virtual sphere 600). ) Therefore, the triangle opq and the triangle o′p′q ′ have the same shape (congruent) regardless of the position on the virtual sphere 600, as shown in FIG. That is, in the case of shooting as in the present embodiment, in a partially spherical projection frame obtained by projecting a point (pixel) on the frame onto the virtual sphere 600, even if the shooting direction is different, If it is the same background, it is projected in the same shape. Therefore, if pattern matching is performed for two projection frames, a point indicating the same background position in the two frames can be identified relatively easily.

また、同図(a)において、点oはフレーム106aの光学中心に対応する点である。このため、仮想球体600上における点oから点o'への移動はビデオカメラ200の光学中心の移動、すなわちパン角度θおよびチルト角度φに応じた撮影方向の移動を示している。従って、仮想球体600上の点oから点o'への移動に基づいて、フレーム106aとフレーム106bの間のパン角度θおよびチルト角度φを求めることができる。   In FIG. 9A, point o corresponds to the optical center of the frame 106a. Therefore, the movement from the point o to the point o ′ on the virtual sphere 600 indicates the movement of the optical center of the video camera 200, that is, the movement in the photographing direction according to the pan angle θ and the tilt angle φ. Therefore, the pan angle θ and the tilt angle φ between the frame 106a and the frame 106b can be obtained based on the movement from the point o on the virtual sphere 600 to the point o ′.

点oの座標は、フレーム106a上の点Oと同一であり、仮想球体600の半径をdとした場合、座標(0,0,d)となる。従って、点o'の座標が(x,y,z)である場合、例えば次の式でパン角度θおよびチルト角度φを求めることができる。

Figure 2010278813
また、点pから点p'への移動および点qから点q'への移動は、フレーム106aからフレーム106bまでのパン角度θおよびチルト角度φに加え、ロール角度ψに応じたものとなっている。ロール回転は点oまたは点o'を中心に生じるため、同図(b)に示されるように、三角形o'p'q'を仮想球体600上で移動させて点oと点o'を一致させた場合、三角形opqおよび三角形o'p'q'はロール角度ψだけ傾いた状態で互いに重なる。点pの座標が(x,y,z)、同図(b)に示される移動後の点p'の座標が(x,y,z)である場合、例えば次の式でロール角度ψを求めることができる。
Figure 2010278813
<コンピュータの備えるその他の機能構成>
次に、コンピュータ108の備えるその他の機能構成について説明する。 The coordinates of the point o are the same as the point O on the frame 106a, and when the radius of the virtual sphere 600 is d, the coordinates are (0, 0, d). Therefore, when the coordinates of the point o ′ are (x s , y s , z s ), for example, the pan angle θ and the tilt angle φ can be obtained by the following equations.
Figure 2010278813
Further, the movement from the point p to the point p ′ and the movement from the point q to the point q ′ are in accordance with the roll angle ψ in addition to the pan angle θ and the tilt angle φ from the frame 106a to the frame 106b. Yes. Since the roll rotation occurs around the point o or the point o ′, the triangle o′p′q ′ is moved on the virtual sphere 600 to match the point o and the point o ′ as shown in FIG. In this case, the triangle opq and the triangle o′p′q ′ are overlapped with each other while being inclined by the roll angle ψ. When the coordinates of the point p are (x 1 , y 1 , z 1 ) and the coordinates of the point p ′ after the movement shown in FIG. 5B are (x 2 , y 2 , z 2 ), for example, The roll angle ψ can be obtained by the equation.
Figure 2010278813
<Other functional configurations of the computer>
Next, other functional configurations included in the computer 108 will be described.

背景側映像角度データベース生成手段132は、後述する背景側映像角度データベース生成処理を実行することで、角度算出手段130が算出した各角度θ、φ、ψと背景側映像の各フレーム106を対応付けた背景側映像角度データベースを生成するものである。後述する背景選択手段136は、この背景側映像角度データベースを参照して、背景側映像101を構成する複数のフレーム106の中から比較用フレームを選択する。   The background side video angle database generation unit 132 associates each angle θ, φ, ψ calculated by the angle calculation unit 130 with each frame 106 of the background side video by executing a background side video angle database generation process described later. A background side video angle database is generated. The background selection unit 136 (to be described later) refers to the background side video angle database and selects a comparison frame from the plurality of frames 106 constituting the background side video 101.

選択用三次元画像生成手段134は、後述する選択用三次元画像生成処理を実行することで、背景側映像角度データベースに基づいて背景側映像101の各フレーム106を仮想球体600上にマッピングした選択用三次元画像を生成するものである。   The selection three-dimensional image generation unit 134 executes selection three-dimensional image generation processing described later, thereby selecting each frame 106 of the background side video 101 mapped on the virtual sphere 600 based on the background side video angle database. A three-dimensional image is generated.

図11(a)〜(c)は、選択用三次元画像の例を示した概略図である。なお、同図(a)および(c)では、三択用三次元画像の一部の断面を示している。同図(a)に示されるように、選択用三次元画像生成手段134は、各フレーム106のパン角度θおよびチルト角度φを仮想球体600上の球座標(θ,φ)として、背景側映像101の各フレーム106を仮想球体上に配置して構成した選択用三次元画像700を生成する。詳細には、同図(b)に示されるように、仮想球体600上のパン角度θおよびチルト角度φに対応する座標点に各フレーム106の光学中心に対応する点Oが位置した状態で各フレーム106が仮想球体600に接するように、各フレーム106を配置する。さらに、各フレーム106を、点Oを中心にロール角度ψだけ回転し、各フレーム106の背景を天球400上の背景に対応する位置に一致させる補正を行う。従って、選択用三次元画像700は、二次元の各フレーム106を三次元状に配置することで、天球400上の背景を模した画像データとして生成される。   FIGS. 11A to 11C are schematic diagrams illustrating examples of a selection three-dimensional image. In addition, the same figure (a) and (c) has shown the one part cross section of the three-dimensional image for three choices. As shown in FIG. 6A, the selection three-dimensional image generation means 134 uses the pan angle θ and the tilt angle φ of each frame 106 as the spherical coordinates (θ, φ) on the virtual sphere 600, and the background side video. A three-dimensional image 700 for selection constituted by arranging 101 frames 106 on a virtual sphere is generated. Specifically, as shown in FIG. 4B, each point O corresponding to the optical center of each frame 106 is positioned at the coordinate point corresponding to the pan angle θ and the tilt angle φ on the virtual sphere 600. Each frame 106 is arranged so that the frame 106 contacts the virtual sphere 600. Further, each frame 106 is rotated about the point O by the roll angle ψ, and correction is performed so that the background of each frame 106 matches the position corresponding to the background on the celestial sphere 400. Accordingly, the selection three-dimensional image 700 is generated as image data imitating the background on the celestial sphere 400 by arranging the two-dimensional frames 106 in a three-dimensional manner.

このように、背景側映像101の各フレーム106をパン角度θおよびチルト角度φに基づいて仮想球体600上にマッピングすることにより、背景側映像101の各フレーム106上の各点(画素)に対応する球座標を特定することが可能となる。   In this way, by mapping each frame 106 of the background side image 101 on the virtual sphere 600 based on the pan angle θ and the tilt angle φ, it corresponds to each point (pixel) on each frame 106 of the background side image 101. It is possible to specify the spherical coordinates to be played.

なお、同図(c)に示されるように、マッピングされた各フレーム106の画素を仮想球体600上に投射することで球体状のパノラマ画像を合成し、これを選択用三次元画像700としてもよい。各フレーム106の画素の仮想球体600上への投射は、仮想球体600の半径方向に向けて行う。このように、球体状のパノラマ画像として構成した選択用三次元画像700は、背景を含む天球400(または天球400の一部)の相似形の画像データとなる。   As shown in FIG. 6C, a spherical panoramic image is synthesized by projecting the mapped pixels of each frame 106 onto the virtual sphere 600, and this is used as a selection three-dimensional image 700. Good. Projection of the pixels of each frame 106 onto the virtual sphere 600 is performed in the radial direction of the virtual sphere 600. As described above, the selection three-dimensional image 700 configured as a spherical panoramic image is image data having a similar shape to the celestial sphere 400 (or part of the celestial sphere 400) including the background.

背景選択手段136は、後述する背景選択処理を実行し、素材側映像102のフレーム107ごとに、同一の背景部分を含む比較用フレームを背景側映像101を構成する複数のフレーム106の中から選択して抽出するものである。背景選択手段136が実行する処理の詳細については、後述する。   The background selection unit 136 performs background selection processing described later, and selects a comparison frame including the same background portion from a plurality of frames 106 constituting the background side video 101 for each frame 107 of the material side video 102. To extract. Details of processing executed by the background selection unit 136 will be described later.

背景比較手段138は、後述する背景比較処理を実行し、素材側映像102の各フレーム107から背景部分を抜き出し、合成用素材のみが切り取られた合成用フレーム110を生成するものである。背景比較手段138が実行する処理の詳細については、後述する。   The background comparison unit 138 executes background comparison processing described later, extracts a background portion from each frame 107 of the material-side video 102, and generates a composition frame 110 in which only the composition material is cut out. Details of the processing executed by the background comparison unit 138 will be described later.

<合成用映像生成処理>
次に、背景側映像101および素材側映像102から合成用映像112を生成する合成用映像生成処理の手順について説明する。図12は、合成用映像生成処理の手順を示したフローチャートである。
<Synthesis video generation processing>
Next, the procedure of the synthesis video generation process for generating the synthesis video 112 from the background side video 101 and the material side video 102 will be described. FIG. 12 is a flowchart showing the procedure of the composition video generation process.

まず、ステップS101では、角度算出手段130が背景側映像101のフレーム106について角度算出処理を実行し、背景側映像101のフレーム106ごとに各角度θ、φ、ψを算出する。角度算出処理の詳細な手順については、後述する。   First, in step S <b> 101, the angle calculation unit 130 executes an angle calculation process for the frame 106 of the background side image 101, and calculates each angle θ, φ, ψ for each frame 106 of the background side image 101. The detailed procedure of the angle calculation process will be described later.

ステップS102では、背景側映像101の全てのフレーム106について各角度θ、φ、ψを算出したか否かを判定する。全てのフレーム106について各角度θ、φ、ψを算出していない場合はステップS101に戻り、所定の順番で残りのフレーム106について角度算出処理を実行する。全てのフレーム106について各角度θ、φ、ψを算出した場合は、ステップS103に進む。   In step S102, it is determined whether or not the angles θ, φ, and ψ have been calculated for all the frames 106 of the background side video 101. If the angles θ, φ, and ψ have not been calculated for all the frames 106, the process returns to step S101, and angle calculation processing is executed for the remaining frames 106 in a predetermined order. When the angles θ, φ, and ψ are calculated for all the frames 106, the process proceeds to step S103.

ステップS103では、背景側映像角度データベース生成手段132が背景側映像角度データベース生成処理を実行し、背景側映像角度データベースを生成する。生成した背景側映像角度データベースは、背景側映像保存手段104に記憶する。ステップS104では、選択用三次元画像生成手段が選択用三次元画像生成処理を実行し、選択用三次元画像700を生成する。生成した選択用三次元画像700は、背景側映像保存手段104に記憶する。なお、背景側映像角度データベースおよび選択用三次元画像700を、背景側映像保存手段104以外の専用保存手段に記憶するようにしてもよい。   In step S103, the background side video angle database generation unit 132 executes background side video angle database generation processing to generate a background side video angle database. The generated background side video angle database is stored in the background side video storage means 104. In step S104, the selection three-dimensional image generation means executes a selection three-dimensional image generation process to generate a selection three-dimensional image 700. The generated selection three-dimensional image 700 is stored in the background side image storage unit 104. The background side video angle database and the selection three-dimensional image 700 may be stored in a dedicated storage unit other than the background side video storage unit 104.

ステップS105では、背景選択手段136が素材側映像102のフレーム107について背景選択処理を実行し、素材側映像102のフレーム107ごとに比較用フレームを選択する。背景選択処理の詳細な手順については、後述する。   In step S <b> 105, the background selection unit 136 performs background selection processing for the frame 107 of the material side video 102 and selects a comparison frame for each frame 107 of the material side video 102. The detailed procedure of the background selection process will be described later.

ステップS106では、背景比較手段が、素材側映像102のフレーム107について背景比較処理を実行し、合成用フレーム110を生成する。ここでは、ステップS105で選択した比較用フレームを使用して背景比較処理を実行する。また、生成した合成用フレーム110は、合成用映像保存手段111に記憶する。背景比較処理の詳細な手順については、後述する。   In step S <b> 106, the background comparison unit performs background comparison processing on the frame 107 of the material-side video 102 to generate a composition frame 110. Here, the background comparison process is executed using the comparison frame selected in step S105. The generated synthesis frame 110 is stored in the synthesis video storage unit 111. The detailed procedure of the background comparison process will be described later.

ステップS107では、素材側映像102の全てのフレーム107について背景比較処理を実行したか否かを判定する。全てのフレーム107について背景比較処理を実行していない場合はステップS105に戻り、所定の順番で残りのフレーム106について背景選択処理および背景比較処理を実行する。全てのフレーム106について背景比較処理を実行した場合は、処理を終了する。   In step S107, it is determined whether background comparison processing has been executed for all frames 107 of the material-side video 102. When the background comparison process is not executed for all the frames 107, the process returns to step S105, and the background selection process and the background comparison process are executed for the remaining frames 106 in a predetermined order. If the background comparison process has been executed for all frames 106, the process ends.

以上の手順により、合成用映像保存手段111に記憶された複数の合成用フレーム110によって構成される合成用映像112が生成される。そして、この合成用映像112の各合成用フレーム11にそれぞれ挿入用背景映像を合成することにより、最終映像が完成する。   Through the above procedure, a composite video 112 composed of a plurality of composite frames 110 stored in the composite video storage unit 111 is generated. Then, the final image is completed by synthesizing the background image for insertion with each of the synthesis frames 11 of the synthesis video 112.

<角度算出処理>
次に、上記合成用映像生成処理のステップS101における角度算出処理の手順の詳細について説明する。図13は、角度算出処理の手順を示したフローチャートであり、図14および15は、各角度θ、φ、ψを算出する具体的な方法を示した図である。
<Angle calculation processing>
Next, the details of the procedure of the angle calculation process in step S101 of the composition video generation process will be described. FIG. 13 is a flowchart showing the procedure of angle calculation processing, and FIGS. 14 and 15 are diagrams showing a specific method for calculating the angles θ, φ, and ψ.

まず、ステップS201では、背景側映像101を構成する複数のフレーム106から各角度θ、φ、ψの基準とする基準フレーム106S(図14(a)参照)と、この基準フレーム106Sと比較する対比フレーム106C(図14(b)参照)を抽出する。本実施形態では、基準フレーム106Sに対する対比フレーム106Cの各角度θ、φ、ψを求めることにより、対比フレーム106Cの撮影時の各角度θ、φ、ψを求める。   First, in step S201, a reference frame 106S (see FIG. 14A) used as a reference for each angle θ, φ, ψ from a plurality of frames 106 constituting the background-side video 101 and a comparison to be made with this reference frame 106S. The frame 106C (see FIG. 14B) is extracted. In the present embodiment, the angles θ, φ, and ψ at the time of shooting the contrast frame 106C are obtained by obtaining the angles θ, φ, and ψ of the contrast frame 106C with respect to the reference frame 106S.

本実施形態では、まず、最初の1番目のフレーム106の撮影時の各角度θ、φ、ψを基準角度と定義し(例えば、全て0と設定する)、1番目のフレーム106を基準フレーム106S、次の2番目のフレーム106を対比フレーム106Cとし、以下のステップで、2番目のフレーム106の各角度θ、φ、ψを算出する。そして、次回のステップS201では、2番目のフレーム106を基準フレーム106S、次の3番目のフレーム106を対比フレーム106Cとし、3番目のフレーム106の各角度θ、φ、ψを算出する。これを最後のフレーム106まで繰り返すことにより、背景側映像101の全てのフレーム106について各角度θ、φ、ψを算出する。   In this embodiment, first, the angles θ, φ, and ψ at the time of shooting of the first first frame 106 are defined as reference angles (for example, all are set to 0), and the first frame 106 is set as the reference frame 106S. The next second frame 106 is set as a comparison frame 106C, and the angles θ, φ, and ψ of the second frame 106 are calculated in the following steps. In the next step S201, the second frame 106 is set as the reference frame 106S, the next third frame 106 is set as the comparison frame 106C, and the angles θ, φ, and ψ of the third frame 106 are calculated. By repeating this up to the last frame 106, the angles θ, φ, and ψ are calculated for all the frames 106 of the background side image 101.

ステップS202では、基準フレーム106Sの光学中心に対応する点Oをパン角度θおよびチルト角度φを求めるための指標点Sに設定する(図14(a)参照)。さらに、基準フレーム106S上の指標点Sを仮想球体600上に投射した投射点を基準投射指標点sに設定する。なお、基準投射指標点sは基準フレーム106Sの光学中心に対応する点Oの投射点である点oと同一点となるため、基準フレーム106S上の指標点Sの座標と基準投射指標点sの座標は同一の座標となる。   In step S202, the point O corresponding to the optical center of the reference frame 106S is set as an index point S for obtaining the pan angle θ and the tilt angle φ (see FIG. 14A). Further, the projection point obtained by projecting the index point S on the reference frame 106S onto the virtual sphere 600 is set as the reference projection index point s. Since the reference projection index point s is the same point as the point o that is the projection point of the point O corresponding to the optical center of the reference frame 106S, the coordinates of the index point S on the reference frame 106S and the reference projection index point s The coordinates are the same.

ステップS203では、基準フレーム106Sの全画素を半径方向に向けて仮想球体600上に投射して得られる球面状の基準投射フレーム607S(図14(a)参照)と、対比フレーム106Cの全画素を半径方向に向けて仮想球体600上に投射して得られる球面状の対比投射フレーム607C(図14(b)参照)を生成する。そして、基準投射フレーム607Sおよび対比投射フレーム607Cについて、所定の大きさの比較領域(例えば、画素数が64×64の領域)ごとにパターンマッチングを行い、基準投射フレーム607Sおよび対比投射フレーム607Cにおいて同一のパターン(例えば色情報のパターン)を示す特定比較領域を少なくとも2つ抽出する。このパターンマッチングの手法は、種々の既知の手法を採用することができるが、ロール回転を考慮したパターンマッチング手法を採用する必要がある。   In step S203, the spherical reference projection frame 607S (see FIG. 14A) obtained by projecting all the pixels of the reference frame 106S onto the virtual sphere 600 in the radial direction and all the pixels of the comparison frame 106C are obtained. A spherical contrast projection frame 607C (see FIG. 14B) obtained by projecting onto the virtual sphere 600 in the radial direction is generated. Then, for the reference projection frame 607S and the contrast projection frame 607C, pattern matching is performed for each comparison area having a predetermined size (for example, an area having 64 × 64 pixels), and the same in the reference projection frame 607S and the contrast projection frame 607C. At least two specific comparison areas indicating patterns (for example, color information patterns) are extracted. As this pattern matching method, various known methods can be adopted, but it is necessary to adopt a pattern matching method considering roll rotation.

図14(a)および(b)では、同一のパターンを示す特定比較領域AaおよびAa'、ならびに特定比較領域AbおよびAb'を抽出した例を示している。同一のパターンを示す基準投射フレーム607Sの特定比較領域Aaと対比投射フレーム607Cの特定比較領域Aa'は、天球400上の同一の背景部分を示していることとなる。同様に、特定比較領域Abと特定比較領域Ab'は、天球400上の同一の背景部分を示していることとなる。   FIGS. 14A and 14B show an example in which specific comparison areas Aa and Aa ′ showing the same pattern and specific comparison areas Ab and Ab ′ are extracted. The specific comparison area Aa of the reference projection frame 607S showing the same pattern and the specific comparison area Aa ′ of the contrast projection frame 607C indicate the same background portion on the celestial sphere 400. Similarly, the specific comparison area Ab and the specific comparison area Ab ′ indicate the same background portion on the celestial sphere 400.

ステップS204では、各特定比較領域Aa、Aa'、Ab、Ab'の各領域中心の座標を求め、特定比較領域Aaの領域中心を第1の基準投射特定点a、特定比較領域Aa'の領域中心を第1の対比投射特定点a'、特定比較領域Abの領域中心を第2の基準投射特定点b、特定比較領域Ab'の領域中心を第2の対比投射特定点b'と設定する(図15(a)参照)。このように設定した第1の基準投射特定点aおよび第1の対比投射特定点a'は、同一の背景位置を示す仮想球体600上の点となる。同様に、第2の基準投射特定点bおよび第2の対比投射特定点b'は、同一の背景位置を示す仮想球体600上の点となる。   In step S204, the coordinates of the center of each specific comparison area Aa, Aa ′, Ab, Ab ′ are obtained, and the area center of the specific comparison area Aa is the first reference projection specific point a, the area of the specific comparison area Aa ′. The center is set as the first contrast projection specific point a ′, the region center of the specific comparison region Ab is set as the second reference projection specific point b, and the region center of the specific comparison region Ab ′ is set as the second contrast projection specific point b ′. (See FIG. 15 (a)). The first reference projection specific point a and the first contrast projection specific point a ′ set in this way are points on the virtual sphere 600 indicating the same background position. Similarly, the second reference projection specific point b and the second contrast projection specific point b ′ are points on the virtual sphere 600 that indicate the same background position.

ステップS205では、これらの第1の基準投射特定点a、第1の対比投射特定点a'、第2の基準投射特定点bおよび第2の対比投射特定点b'に基づいて、対比フレーム106C上の指標点(基準フレーム106Sの点Sと同一の背景位置を示す点)S'を仮想球体600上に投射した対比投射指標点s'の座標を算出する。   In step S205, the comparison frame 106C is based on the first reference projection specific point a, the first contrast projection specific point a ′, the second reference projection specific point b, and the second contrast projection specific point b ′. The coordinates of the contrast projection index point s ′ obtained by projecting the upper index point (a point indicating the same background position as the point S of the reference frame 106S) onto the virtual sphere 600 is calculated.

この対比投射指標点s'の座標の算出では、まず、図15(a)に示されるように、基準投射指標点s、第1の基準投射特定点aおよび第2の基準投射特定点bからなる三角形sabと、対比投射指標点s'、第1の対比投射特定点a'および第2の対比投射特定点b'からなる三角形s'a'b'を設定する。そして、三角形sabと三角形s'a'b'が合同となることに基づいて、対比投射指標点s'の座標を算出する。   In calculating the coordinates of the contrast projection index point s ′, first, as shown in FIG. 15A, from the reference projection index point s, the first reference projection specific point a, and the second reference projection specific point b. And a triangle s′a′b ′ composed of a contrast projection index point s ′, a first contrast projection specific point a ′, and a second contrast projection specific point b ′. Then, based on the fact that the triangle sab and the triangle s′a′b ′ are congruent, the coordinates of the contrast projection index point s ′ are calculated.

具体的には、図15(a)に示されるように、基準投射指標点sと第1の基準投射特定点aの間の距離がsa、基準投射指標点sと第2の基準投射特定点bの間の距離がsbである場合、対比投射指標点s'と第1の対比投射特定点a'の間の距離はsaとなり、対比投射指標点s'と第2の対比投射特定点b'の間の距離はsbとなる。従って、例えば図15(b)に示されるように、第1の対比投射特定点a'を中心として半径をsaとする球体800、第2の対比投射特定点b'を中心として半径をsbとする球体802、および仮想球体600の3つの球体の交点を幾何学的に求めることによって、対比投射特定点s'の座標を求めることができる。   Specifically, as shown in FIG. 15A, the distance between the reference projection index point s and the first reference projection specific point a is sa, the reference projection index point s and the second reference projection specific point. When the distance between b is sb, the distance between the contrast projection index point s ′ and the first contrast projection specific point a ′ is sa, and the contrast projection index point s ′ and the second contrast projection specific point b. The distance between 'is sb. Therefore, for example, as shown in FIG. 15B, a sphere 800 having a radius sa with the first contrast projection specific point a ′ as the center, and a radius sb with the second contrast projection specific point b ′ as the center. The coordinates of the contrast projection specific point s ′ can be obtained by geometrically obtaining the intersection of the three spheres of the sphere 802 and the virtual sphere 600.

ステップS206では、対比投射特定点s'、第1の基準投射特定点aおよび第1の対比投射特定点a'の座標に基づいて、基準フレーム106Sに対する対比フレーム106Cの各角度θ、φ、ψを算出する。ここでは、例えば上記した数式3および数式4を使用する。   In step S206, based on the coordinates of the contrast projection specific point s ′, the first reference projection specific point a, and the first contrast projection specific point a ′, each angle θ, φ, ψ of the contrast frame 106C with respect to the reference frame 106S. Is calculated. Here, for example, Equation 3 and Equation 4 described above are used.

ステップS207では、基準フレーム106Sの各角度θ、φ、ψに基づいてステップS206で求めた各角度θ、φ、ψを修正し、対比フレーム撮影時の各角度θ、φ、ψを求める。   In step S207, the angles θ, φ, and ψ obtained in step S206 are corrected based on the angles θ, φ, and ψ of the reference frame 106S, and the angles θ, φ, and ψ at the time of contrast frame shooting are obtained.

なお、角度算出処理においては、1つの基準フレーム106Sに対して複数の対比フレーム106Cを比較するようにしてもよい。すなわち、本実施形態では、n番目のフレーム106を基準フレーム106Sとした場合はn+1番目のフレーム106のみを対比フレーム106Cとするが、例えば、n番目のフレーム106の基準フレーム106Sに対してn+1〜n+3番目の3つのフレーム106を対比フレーム106Cとして比較するようにしてもよい。   In the angle calculation process, a plurality of comparison frames 106C may be compared with one reference frame 106S. That is, in the present embodiment, when the nth frame 106 is the reference frame 106S, only the n + 1th frame 106 is the comparison frame 106C. The n + 3th three frames 106 may be compared as a comparison frame 106C.

また、第1の基準投射特定点aおよび第1の対比投射特定点a'、ならびに第2の基準投射特定点bおよび第2の対比投射特定点b'を複数セット設定し、セットごとに対比投射指標点s'の座標を算出するようにしてもよい。この場合、各セットによる算出結果を比較することで、パターンマッチングの誤差やレンズディストーション(歪曲収差)等の影響を排除した、より正確な対比投射指標点s'の座標を求めることができる。   Also, a plurality of first reference projection specific points a and first contrast projection specific points a ′, and second reference projection specific points b and second contrast projection specific points b ′ are set, and a comparison is made for each set. The coordinates of the projection index point s ′ may be calculated. In this case, by comparing the calculation results of the respective sets, it is possible to obtain a more accurate coordinate of the contrast projection index point s ′ that eliminates the effects of pattern matching errors, lens distortion (distortion aberration), and the like.

また、背景に特徴物がある等、条件によっては、基準フレーム106Sと対比フレーム106Cについて直接パターンマッチングを行うようにしてもよい。このようにすることで、角度算出手段130の処理負荷を低減できる可能性がある。なお、この場合、抽出した特定比較領域の領域中心を仮想球体600上に投射することによって基準投射特定点および対比投射特定点を求めることができる。   Further, depending on conditions such as the presence of a feature in the background, pattern matching may be directly performed on the reference frame 106S and the contrast frame 106C. By doing so, there is a possibility that the processing load of the angle calculation means 130 can be reduced. In this case, the reference projection specific point and the contrast projection specific point can be obtained by projecting the region center of the extracted specific comparison region onto the virtual sphere 600.

また、パターンマッチングにより、基準投射指標点sと同一の背景位置を示す点を抽出することができる場合には、この抽出した点の座標を対比投射指標点s'の座標として求めるようにしてもよい。   If a point indicating the same background position as the reference projection index point s can be extracted by pattern matching, the coordinates of the extracted point may be obtained as the coordinates of the contrast projection index point s ′. Good.

<背景選択処理>
次に、上記合成用映像生成処理のステップS105における背景選択処理の手順の詳細について説明する。図16は、背景選択処理の手順を示したフローチャートであり、図17(a)および(b)は、背景選択処理の具体的な方法を示した図である。
<Background selection processing>
Next, the details of the procedure of the background selection process in step S105 of the composition video generation process will be described. FIG. 16 is a flowchart showing the procedure of the background selection process, and FIGS. 17A and 17B are diagrams showing a specific method of the background selection process.

まず、ステップS301では、素材側映像102のフレーム107の全画素を半径方向に向けて仮想球体600上に投射して得られる球面状の素材側投射フレーム608を生成する(図17(a)参照)。   First, in step S301, a spherical material-side projection frame 608 obtained by projecting all the pixels of the frame 107 of the material-side image 102 onto the virtual sphere 600 in the radial direction is generated (see FIG. 17A). ).

ステップS302では、ステップS301で生成した素材側投射フレーム608および選択用三次元画像700について、所定の大きさの比較領域ごとにパターンマッチングを行い、素材側投射フレームおよび選択用三次元画像700において同一のパターンを示す特定比較領域Acを抽出する(図17(a)参照)。ここでは、まず、選択用三次元画像700においてマッピングされた背景用画像101のフレーム106を仮想球体600上に投射した背景側投射フレーム609を生成する(図17(a)参照)。そして、この背景側投射フレーム609および素材側投射フレーム608について上記角度算出処理のステップS203と同様の手法によってパターンマッチングを行う。なお、選択用三次元画像700をパノラマ画像として構成した場合には、選択用三次元画像700をそのままパターンマッチングに使用することができる。特定比較領域Acを抽出したならば、特定比較領域Acの領域中心を選択用指標点cとし、背景側投射フレーム609の光学中心に対応する点oの球座標(θ,φ)から選択用指標点cの仮想球体600上における球座標(θ,φ)を求める。   In step S302, the material-side projection frame 608 and the selection three-dimensional image 700 generated in step S301 are subjected to pattern matching for each comparison area having a predetermined size, and the same in the material-side projection frame and the selection three-dimensional image 700. The specific comparison area Ac showing the pattern is extracted (see FIG. 17A). Here, first, a background-side projection frame 609 is generated by projecting the frame 106 of the background image 101 mapped in the selection three-dimensional image 700 onto the virtual sphere 600 (see FIG. 17A). Then, pattern matching is performed on the background-side projection frame 609 and the material-side projection frame 608 by the same method as in step S203 of the angle calculation process. When the selection three-dimensional image 700 is configured as a panoramic image, the selection three-dimensional image 700 can be used as it is for pattern matching. If the specific comparison area Ac is extracted, the area center of the specific comparison area Ac is set as the selection index point c, and the selection index is obtained from the spherical coordinates (θ, φ) of the point o corresponding to the optical center of the background-side projection frame 609. The spherical coordinates (θ, φ) on the virtual sphere 600 of the point c are obtained.

ステップS303では、選択用指標点cと素材側投射フレーム608の光学中心に対応する点o'の位置関係から、素材側投射フレーム608の光学中心に対応する点o'の球座標(θ,φ)を幾何学的に算出する。算出した素材側投射フレーム608の光学中心に対応する点o'の球座標(θ,φ)の各成分は、それぞれ素材側フレーム107の撮影時のパン角度θ、チルト角度φとなる。   In step S303, the spherical coordinates (θ, φ) of the point o ′ corresponding to the optical center of the material-side projection frame 608 are determined from the positional relationship between the selection index point c and the point o ′ corresponding to the optical center of the material-side projection frame 608. ) Is calculated geometrically. Each component of the spherical coordinates (θ, φ) of the point o ′ corresponding to the calculated optical center of the material-side projection frame 608 becomes a pan angle θ and a tilt angle φ when the material-side frame 107 is captured.

ステップS304では、背景側投射フレーム609に対する素材側投射フレーム608の傾き、および背景側投射フレーム609のロール角度ψから、素材側フレーム107の撮影時のロール角度ψを算出する。   In step S304, the roll angle ψ at the time of photographing the material side frame 107 is calculated from the inclination of the material side projection frame 608 relative to the background side projection frame 609 and the roll angle ψ of the background side projection frame 609.

ステップS305では、ステップS303で求めた素材側フレーム107撮影時のパン角度θおよびチルト角度φに基づいて背景側映像角度データベースを参照し、素材側フレーム107撮影時のパン角度θおよびチルト角度φに近いパン角度θおよびチルト角度φである背景側映像101のフレーム106を比較用フレーム113として複数選択する(図17(b)参照)。具体的には、素材側映像102のフレーム107の撮影領域を全てカバーするだけの数の背景側映像101のフレーム106を比較用フレーム113として選択する。   In step S305, the background side video angle database is referred to based on the pan angle θ and tilt angle φ at the time of photographing the material side frame 107 obtained in step S303, and the pan angle θ and tilt angle φ at the time of photographing the material side frame 107 are obtained. A plurality of frames 106 of the background side image 101 having the close pan angle θ and tilt angle φ are selected as the comparison frames 113 (see FIG. 17B). Specifically, the number of frames 106 of the background-side video 101 that is sufficient to cover the entire shooting area of the frame 107 of the material-side video 102 is selected as the comparison frames 113.

また、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φと同一のパン角度θおよびチルト角度φの背景側映像101のフレーム106がある場合には、このフレーム106を比較用フレーム113として選択する。そして、フレーム106とフレーム107のサイズが異なるためにカバーしていない領域がある場合には、カバーしていない領域をカバーするためのフレーム106を比較用フレーム113としてさらに選択する。   Further, when there is a frame 106 of the background side image 101 having the same pan angle θ and tilt angle φ as the pan angle θ and tilt angle φ at the time of shooting the frame 107 of the material side image 102, this frame 106 is used for comparison. Select as frame 113. If there is an uncovered area because the sizes of the frame 106 and the frame 107 are different, the frame 106 for covering the uncovered area is further selected as the comparison frame 113.

なお、条件によっては、背景側映像101のフレーム106と素材側映像102のフレーム107について直接パターンマッチングを行うようにしてもよい。このようにすることで、角度算出手段130の処理負荷を低減できる可能性がある。   Depending on the conditions, pattern matching may be directly performed on the frame 106 of the background-side video 101 and the frame 107 of the material-side video 102. By doing so, there is a possibility that the processing load of the angle calculation means 130 can be reduced.

また、背景側映像101のフレーム106を基準フレーム、素材側映像102のフレーム107を対比フレームとして、上述の角度算出処理と同様の処理を行うことにより、素材側映像102のフレーム107の各角度θ、φ、ψを求めるようにしてもよい。   Further, by performing the same process as the angle calculation process described above using the frame 106 of the background-side video 101 as a reference frame and the frame 107 of the material-side video 102 as a comparison frame, each angle θ of the frame 107 of the material-side video 102 is performed. , Φ, ψ may be obtained.

<背景比較処理>
次に、上記合成用映像生成処理のステップS106における背景比較処理の手順の詳細について説明する。図18は、背景比較処理の手順を示したフローチャートであり、図19(a)および(b)、ならびに図20(a)および(b)は、背景比較処理の具体的な方法を示した図である。
<Background comparison processing>
Next, details of the procedure of the background comparison process in step S106 of the composition video generation process will be described. FIG. 18 is a flowchart showing the procedure of the background comparison process. FIGS. 19A and 19B and FIGS. 20A and 20B show a specific method of the background comparison process. It is.

まず、ステップS401では、素材側映像102のフレーム107および選択した比較用フレーム113を、それぞれのパン角度θおよびチルト角度φに対応する球座標(θ,φ)に基づいて仮想球体600上にマッピングする(図19(a)参照)。このマッピングにおいては、比較用フレーム113の背景が天球400上の背景に対応する位置と一致するように、比較用フレーム113を自身のロール角度ψだけ光学中心に対応する点を中心にロール回転させる補正を行う。同様に、素材側映像102のフレーム107についても、背景が天球400上の背景に対応する位置と一致するように、フレーム107を自身のロール角度ψだけ光学中心に対応する点を中心にロール回転させる補正を行う。   First, in step S401, the frame 107 of the material side image 102 and the selected comparison frame 113 are mapped onto the virtual sphere 600 based on the spherical coordinates (θ, φ) corresponding to the pan angle θ and the tilt angle φ. (See FIG. 19A). In this mapping, the comparison frame 113 is rotated about a point corresponding to the optical center by its own roll angle ψ so that the background of the comparison frame 113 matches the position corresponding to the background on the celestial sphere 400. Make corrections. Similarly, the frame 107 of the material-side image 102 is also rotated around the point corresponding to the optical center by its own roll angle ψ so that the background coincides with the position corresponding to the background on the celestial sphere 400. To correct.

ステップS402では、仮想球体600上にマッピングした比較用フレーム113の画素を、仮想球体600上にマッピングしたフレーム107と同一平面上に投射することで、比較用修正フレーム113Mを生成する(図19(b)参照)。この比較用フレーム113の画素の投射は、仮想球体600の半径方向に向けて行う。このため、比較用フレーム113の各画素は、天球400上の背景位置に対応する位置からずれることなく、フレーム107と同一平面上に投射されることとなる。   In Step S402, the comparison correction frame 113M is generated by projecting the pixels of the comparison frame 113 mapped on the virtual sphere 600 onto the same plane as the frame 107 mapped on the virtual sphere 600 (FIG. 19 ( b)). The projection of the pixels of the comparison frame 113 is performed in the radial direction of the virtual sphere 600. For this reason, each pixel of the comparison frame 113 is projected on the same plane as the frame 107 without shifting from a position corresponding to the background position on the celestial sphere 400.

以上の処理により、素材側映像102のフレーム107と同一の各角度θ、φ、ψとなる比較用フレーム113Mを生成することができる。すなわち、素材側映像102のフレーム107と比較用フレーム113Mは、図20(a)に示されるように、素材側映像102のフレーム107に含まれる合成用素材20を除いた背景部分が一致するものとなっている。   With the above processing, the comparison frame 113M having the same angles θ, φ, and ψ as the frame 107 of the material-side video 102 can be generated. That is, the frame 107 of the material-side video 102 and the comparison frame 113M have the same background portion excluding the composition material 20 included in the frame 107 of the material-side video 102, as shown in FIG. It has become.

ステップS403では、素材側映像102のフレーム107と比較用修正フレーム113Mを比較して合成用フレーム110を生成する。具体的には、まず、図20(a)に示されるように、フレーム107および比較用修正フレーム113Mを、1画素以上の領域である比較領域CAおよびCA'にそれぞれ分割し、同一の位置にある比較領域CAおよびCA'における色の値の差分を算出する。なお、ここで、同一の位置にあるとは、上述の空間座標系ではなく、フレーム上の平面座標系において同一座標となることを示している。   In step S403, the frame 107 for the material-side video 102 and the comparison correction frame 113M are compared to generate the synthesis frame 110. Specifically, first, as shown in FIG. 20 (a), the frame 107 and the comparative correction frame 113M are divided into comparison areas CA and CA ′, which are areas of one pixel or more, and are placed at the same position. The difference between the color values in a certain comparison area CA and CA ′ is calculated. Here, being in the same position indicates that the coordinates are the same in the plane coordinate system on the frame, not in the spatial coordinate system described above.

全ての比較領域CAおよびCA'について色の値の差分を算出したら、次に、各比較領域CAおよびCA'における差分の値が所定の閾値を超えるか否かを判定し、差分の値が所定の閾値以下である場合は、その部分は同一の背景部分を映し出しているとして予め定めた特定色(例えば、青色)の色情報を設定し、差分の値が所定の閾値を超えている場合は、その部分は合成用素材20部分を映し出しているとしてフレーム107の色情報を設定する。上記判定を各比較領域について順に実行し、判定結果に応じた色情報を設定していくことで、合成用素材20のみが切り取られた合成用フレーム110を生成することができる。   After the color value difference is calculated for all the comparison areas CA and CA ′, it is next determined whether or not the difference value in each comparison area CA and CA ′ exceeds a predetermined threshold value. If the color information of a specific color (for example, blue) that is set in advance is assumed to be the same background part, and the difference value exceeds a predetermined threshold value. The color information of the frame 107 is set on the assumption that the portion shows the composition material 20 portion. By executing the above determination for each comparison region in order and setting color information according to the determination result, it is possible to generate a composition frame 110 in which only the composition material 20 is cut out.

なお、比較用修正フレーム113Mは、図20(a)に示されるように、素材側映像102のフレーム107と同サイズのフレームを1つ生成するのではなく、図20(b)に示されるように、選択した複数の比較用フレーム113ごとに複数の比較用修正フレーム113Mを生成するようにしてもよい。この場合、例えば図20(b)に示されるように、4つの比較用フレーム113Ma〜113Mdを生成したとすると、比較用修正フレーム113Maがカバーするフレーム107の領域Taについてはフレーム107と比較用修正フレーム113Maについて比較領域CAおよびCA'の色の値の差分を算出し、同様に、フレーム107の領域Tbについてはフレーム107と比較用修正フレーム113Mbについて比較領域CAおよびCA'の色の値の差分を算出し、フレーム107の領域Tcについてはフレーム107と比較用修正フレーム113Mcについて比較領域CAおよびCA'の色の値の差分を算出し、フレーム107の領域Tdについてはフレーム107と比較用修正フレーム113Mdについて比較領域CAおよびCA'の色の値の差分を算出することで、合成用フレーム110を生成することができる。   As shown in FIG. 20A, the comparative correction frame 113M does not generate one frame having the same size as the frame 107 of the material-side video 102, but as shown in FIG. 20B. In addition, a plurality of comparison correction frames 113M may be generated for each of the plurality of selected comparison frames 113. In this case, for example, as shown in FIG. 20B, if four comparison frames 113Ma to 113Md are generated, the region 107 of the frame 107 covered by the comparison correction frame 113Ma is compared with the frame 107 and the comparison correction. The difference between the color values of the comparison areas CA and CA ′ is calculated for the frame 113Ma, and similarly, the difference between the color values of the comparison areas CA and CA ′ for the area Tb of the frame 107 and the comparison frame 113Mb for the comparison correction frame 113Mb. For the region Tc of the frame 107, the difference between the color values of the comparison regions CA and CA ′ is calculated for the frame 107 and the comparison correction frame 113Mc. For the region Td of the frame 107, the frame 107 and the comparison correction frame are calculated. The color of the comparison areas CA and CA 'for 113Md By calculating the difference between the values, the synthesis frame 110 can be generated.

以上説明したように、本実施形態に係る映像合成方法および映像合成システム100は、パンおよびチルト可能に配置された背景用カメラ(ビデオカメラ200)によって撮影可能な多方向の背景を背景用カメラによって撮影した背景側映像101と、背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラ(ビデオカメラ200)によって同じ背景の下で合成用素材20が含まれるように撮影した素材側映像102と、を用意し、背景側映像101の複数のフレーム106において同一の背景位置を示す指標点Sの位置を比較することにより、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φをフレーム106ごとに算出する角度算出処理と、素材側映像102の各フレーム107の撮影時のパン角度θおよびチルト角度φに基づいて、素材側映像102のフレーム107ごとに背景側映像101のフレーム106群から比較用フレーム113を選択する背景選択処理と、選択した比較用フレーム113と素材側映像102の各フレーム107を比較することにより、合成用素材20が抽出された(合成用素材20のみが切り取られた)合成用映像112を生成する背景比較処理と、を行う。   As described above, the video composition method and video composition system 100 according to the present embodiment uses a background camera to capture a multidirectional background that can be photographed by a background camera (video camera 200) arranged so as to be capable of panning and tilting. The material side photographed so that the composition material 20 is included under the same background by the photographed background image 101 and the material camera (video camera 200) arranged so as to be able to pan and tilt at the same position as the background camera. The image 102 is prepared, and the position of the index point S indicating the same background position in the plurality of frames 106 of the background-side image 101 is compared, so that the pan angle θ at the time of shooting of each frame 106 of the background-side image 101 is obtained. And an angle calculation process for calculating the tilt angle φ for each frame 106, and at the time of shooting each frame 107 of the material side image 102 Based on the pan angle θ and the tilt angle φ, a background selection process for selecting the comparison frame 113 from the frame 106 group of the background side image 101 for each frame 107 of the material side image 102, and the selected comparison frame 113 and the material side By comparing each frame 107 of the video 102, a background comparison process for generating a composite video 112 from which the composite material 20 is extracted (only the composite material 20 is cut out) is performed.

このため、ビデオカメラ200にパン角度θおよびチルト角度φを測定するためのエンコーダ等を取り付けたり、モーションコントロールカメラ等の高価で複雑な機材を使用したりすることなく、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φを求めることができる。従って、任意に撮影した背景側映像101を使用しながらも、従来よりも効率的に合成用映像112を生成することができる。   Therefore, each frame of the background-side video 101 is not attached to the video camera 200 without attaching an encoder or the like for measuring the pan angle θ and the tilt angle φ, or using expensive and complicated equipment such as a motion control camera. The pan angle θ and the tilt angle φ at the time of shooting 106 can be obtained. Therefore, it is possible to generate the composition video 112 more efficiently than in the past while using the arbitrarily photographed background side video 101.

なお、本実施形態では、ビデオカメラ200仮想レンズ202の主点204を中心に、ビデオカメラ200がパンおよびチルトする例を示したが、これに限定されるものではない。ビデオカメラ200のパンおよびチルトの回転中心が主点204からずれている場合であっても、例えば背景側映像101の各フレーム106および素材側映像102の各フレーム107について適宜に画像処理を施すことによって、ずれを修正することができる。   In the present embodiment, an example in which the video camera 200 pans and tilts around the principal point 204 of the video camera 200 virtual lens 202 is shown, but the present invention is not limited to this. Even when the rotation center of panning and tilting of the video camera 200 is deviated from the principal point 204, for example, each frame 106 of the background side video 101 and each frame 107 of the material side video 102 are appropriately subjected to image processing. Can correct the deviation.

また、角度算出処理は、ビデオカメラ200の位置(詳細には、仮想レンズ202の主点204)を中心とする仮想球体600を設定し、基準フレーム106S上の指標点Sを仮想球体600の半径方向に向けて仮想球体600の表面上に投射した基準投射指標点s、および対比フレーム106C上の指標点S'を仮想球体600の半径方向に向けて仮想球体600の表面上に投射した対比投射指標点s'を求め、基準投射指標点sおよび対比投射指標点s'の位置を比較することにより、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φを算出する。   In the angle calculation process, a virtual sphere 600 centered on the position of the video camera 200 (specifically, the main point 204 of the virtual lens 202) is set, and the index point S on the reference frame 106S is set as the radius of the virtual sphere 600. The reference projection index point s projected onto the surface of the virtual sphere 600 toward the direction and the index point S ′ on the contrast frame 106C toward the direction toward the radial direction of the virtual sphere 600 and projected onto the surface of the virtual sphere 600 By obtaining the index point s ′ and comparing the positions of the reference projection index point s and the contrast projection index point s ′, the pan angle θ and the tilt angle φ at the time of shooting each frame 106 of the background side image 101 are calculated.

このため、フレーム106上における映像の歪みに影響されることなく、背景側映像101の各フレーム106の撮影時のパン角度θおよびチルト角度φを容易且つ正確に求めることができる。   Therefore, the pan angle θ and the tilt angle φ at the time of shooting each frame 106 of the background side image 101 can be easily and accurately obtained without being affected by the image distortion on the frame 106.

また、角度算出処理は、ビデオカメラ200の画角および背景側映像101のフレーム106の寸法に基づいて仮想球体600の半径を設定する。より詳細には、仮想球体600の中心を、ビデオカメラ200の仮想レンズ202の主点204に設定し、仮想球体600の半径を、ビデオカメラ200の仮想レンズ202の焦点距離と同一に設定する。このようにすることで、フレーム106上の点を仮想球体600上に投射した場合に、天球400上の背景の相似形とすることができる。   In the angle calculation process, the radius of the virtual sphere 600 is set based on the angle of view of the video camera 200 and the size of the frame 106 of the background side image 101. More specifically, the center of the virtual sphere 600 is set to the principal point 204 of the virtual lens 202 of the video camera 200, and the radius of the virtual sphere 600 is set to be the same as the focal length of the virtual lens 202 of the video camera 200. In this way, when a point on the frame 106 is projected onto the virtual sphere 600, a similar shape of the background on the celestial sphere 400 can be obtained.

また、指標点Sは、基準フレーム106Sの光学中心に対応する点Oであるため、ロール回転の影響を排除することが可能となり、パン角度θおよびチルト角度φの算出を容易にすることができる。   In addition, since the index point S is a point O corresponding to the optical center of the reference frame 106S, it is possible to eliminate the influence of roll rotation and to easily calculate the pan angle θ and the tilt angle φ. .

なお、ビデオカメラ200のチルト角度を水平方向に固定した状態でパンのみさせて背景側映像101を撮影した場合、またはビデオカメラ200をチルトのみさせて背景側映像101を撮影した場合にはロール回転が生じないため、光学中心に対応する点O以外の点を指標点Sとすることができる。   Note that when the video camera 200 is panned with the tilt angle of the video camera 200 fixed in the horizontal direction and the background video 101 is shot, or when the video camera 200 is tilted and the background video 101 is shot, roll rotation is performed. Therefore, a point other than the point O corresponding to the optical center can be set as the index point S.

また、角度算出処理は、基準フレーム106Sを仮想球体600の半径方向に向けて仮想球体600の表面上に投射することで、基準投射フレーム607Sを生成し、対比フレーム106Cを仮想球体600の半径方向に向けて仮想球体600の表面上に投射することで、対比投射フレーム607Cを生成し、基準投射フレーム607Sおよび対比投射フレーム607Cについてパターンマッチングを行うことで、指標点S以外の同一の背景位置を示す投射特定点(特定比較領域の領域中心)を複数求め、基準投射フレーム607S上の投射特定点を基準投射特定点a、bに設定すると共に、対比投射フレーム607C上の投射特定点を対比投射特定点a'、b'に設定し、基準投射特定点a、bおよび対比投射特定点a'、b'の位置に基づいて、対比投射指標点s'の位置を算出する。より詳細には、基準投射特定点a、bおよび基準投射指標点sの相対的な位置関係に基づいて、対比投射指標点s'の位置を算出する。   In addition, the angle calculation process projects the reference frame 106S on the surface of the virtual sphere 600 in the radial direction of the virtual sphere 600, thereby generating the reference projection frame 607S and the comparison frame 106C in the radial direction of the virtual sphere 600. Is projected onto the surface of the virtual sphere 600 to generate a contrast projection frame 607C, and pattern matching is performed on the reference projection frame 607S and the contrast projection frame 607C, so that the same background position other than the index point S can be obtained. A plurality of projection specific points to be shown (region centers of specific comparison regions) are obtained, the projection specific points on the reference projection frame 607S are set as the reference projection specific points a and b, and the projection specific points on the contrast projection frame 607C are contrasted. Set to specific points a ′ and b ′ and based on the positions of reference projection specific points a and b and contrast projection specific points a ′ and b ′ Then, the position of the contrast projection index point s ′ is calculated. More specifically, the position of the contrast projection index point s ′ is calculated based on the relative positional relationship between the reference projection specific points a and b and the reference projection index point s.

このため、パターンマッチングにより指標点Sと同一の背景位置を示す点を対比投射フレーム607C上に発見することが困難であるような場合であっても、対比投射指標点s'の位置を算出することができる。   For this reason, even if it is difficult to find a point indicating the same background position as the index point S on the contrast projection frame 607C by pattern matching, the position of the contrast projection index point s ′ is calculated. be able to.

また、角度算出処理は、投射特定点として第1の投射特定点および第2の投射特定点を設定し、第1の投射特定点の基準投射特定点aと基準投射指標点sの間の第1の距離sa、および第2の投射特定点の基準投射特定点bと基準投射指標点sの間の第2の距離sbを求め、第1の投射特定点の対比投射特定点a'から第1の距離sa、且つ第2の投射特定点の対比投射特定点b'から第2の距離sbに位置する仮想球体600の表面上の点を対比投射指標点s'とする。   In addition, the angle calculation process sets the first projection specific point and the second projection specific point as the projection specific points, and sets the first projection specific point a between the reference projection specific point a and the reference projection index point s. The first distance sa and the second distance sb between the reference projection specific point b of the second projection specific point and the reference projection index point s are obtained, and the second projection s is determined from the contrast projection specific point a ′ of the first projection specific point. A point on the surface of the virtual sphere 600 located at the second distance sa and the second projection specific point b 'from the contrast projection specific point b' is the contrast projection index point s'.

このため、幾何学的な計算手法により、正確に対比投射指標点s'の位置を算出することができる。但し、これに限定されるものではなく、近似解法によって対比投射指標点s'の位置を算出するようにしてもよい。   For this reason, the position of the contrast projection index point s ′ can be accurately calculated by a geometric calculation method. However, the present invention is not limited to this, and the position of the contrast projection index point s ′ may be calculated by an approximate solution method.

また、角度算出処理は、背景側映像101の各フレーム106の撮影時のロール角度ψを背景側映像101のフレーム106ごとに算出し、背景比較処理は、背景側映像101の各フレーム106の撮影時のロール角度ψに基づく補正を行う。   In addition, the angle calculation processing calculates the roll angle ψ at the time of shooting each frame 106 of the background side video 101 for each frame 106 of the background side video 101, and the background comparison processing shots each frame 106 of the background side video 101. Correction based on the current roll angle ψ is performed.

このため、背景側映像101撮影時のビデオカメラ200のパンまたはチルトに伴ってロール回転が生じるような場合であっても、比較用フレーム113(または比較用修正フレーム113M)を素材側映像102のフレーム107の背景部分に一致させ、高精度に背景比較処理を行うことができる。   For this reason, even if roll rotation occurs with panning or tilting of the video camera 200 at the time of shooting the background side image 101, the comparison frame 113 (or the comparison correction frame 113M) is used as the material side image 102. It is possible to match the background portion of the frame 107 and perform background comparison processing with high accuracy.

また、角度算出処理は、所定の投射特定点の基準投射特定点aと基準投射指標点sを結ぶ直線と、所定の投射特定点の対比投射特定点a'と対比投射指標点s'を結ぶ直線とがなす角度に基づいて、背景側映像101の各フレーム106の撮影時のロール角度ψを求める。   Further, the angle calculation process connects a straight line connecting the reference projection specific point a of the predetermined projection specific point and the reference projection index point s, and the contrast projection specific point a ′ of the predetermined projection specific point and the contrast projection index point s ′. Based on the angle formed by the straight line, the roll angle ψ at the time of shooting each frame 106 of the background side image 101 is obtained.

このため、パン角度θおよびチルト角度φを算出するための各点を利用してロール角度ψを算出することができるため、角度算出処理の処理負荷を低減することができる。   For this reason, since the roll angle ψ can be calculated using the points for calculating the pan angle θ and the tilt angle φ, the processing load of the angle calculation process can be reduced.

また、背景選択処理は、背景側映像101のフレーム106と素材側映像102のフレーム107において同一の背景位置を示す選択用指標点cの位置を比較することにより、素材側映像102の各フレーム107の撮影時のパン角度θおよびチルト角度φをフレーム107ごとに算出する。   Further, the background selection process compares the positions of the selection index points c indicating the same background position in the frame 106 of the background side video 101 and the frame 107 of the material side video 102, thereby making each frame 107 of the material side video 102. The pan angle θ and the tilt angle φ at the time of shooting are calculated for each frame 107.

このため、ビデオカメラ200にパン角度θおよびチルト角度φを測定するためのエンコーダ等を取り付けたりすることなく、素材側映像102の各フレーム107の撮影時のパン角度θおよびチルト角度φを求めることができる。そして、このパン角度θおよびチルト角度φに基づいて効率的に比較用フレーム113を選択することができる。   Therefore, the pan angle θ and the tilt angle φ at the time of shooting each frame 107 of the material-side image 102 are obtained without attaching an encoder or the like for measuring the pan angle θ and the tilt angle φ to the video camera 200. Can do. The comparison frame 113 can be efficiently selected based on the pan angle θ and the tilt angle φ.

また、背景選択処理は、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φと同一のパン角度θおよびチルト角度φの比較用フレーム113を選択できない場合、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φに近いパン角度θおよびチルト角度φの比較用フレーム113を複数選択する。   Further, in the background selection process, when the comparison frame 113 having the same pan angle θ and tilt angle φ as the pan angle θ and tilt angle φ at the time of shooting the frame 107 of the material side image 102 cannot be selected, A plurality of comparison frames 113 having a pan angle θ and a tilt angle φ close to the pan angle θ and the tilt angle φ at the time of shooting the frame 107 are selected.

このため、背景側映像101および素材側映像102がどのようなフレーム構成であっても、比較用フレーム113を選択して背景比較処理を行うことができる。   Therefore, regardless of the frame configuration of the background side video 101 and the material side video 102, the comparison frame 113 can be selected to perform the background comparison process.

また、背景選択処理は、素材側映像102の各フレーム107の撮影時のロール角度ψを素材側映像102のフレーム107ごとに算出し、背景比較処理は、素材側映像102の各フレーム107の撮影時のロール角度ψに基づく補正を行う。   The background selection process calculates the roll angle ψ at the time of shooting each frame 107 of the material-side video 102 for each frame 107 of the material-side video 102, and the background comparison process captures each frame 107 of the material-side video 102. Correction based on the current roll angle ψ is performed.

このため、素材側映像102撮影時のビデオカメラ200のパンまたはチルトに伴ってロール回転が生じるような場合であっても、高精度に背景比較処理を行うことができる。   Therefore, the background comparison process can be performed with high accuracy even in the case where roll rotation occurs with panning or tilting of the video camera 200 at the time of shooting the material-side image 102.

また、背景比較処理は、比較する素材側映像102のフレーム107と比較用フレーム113の撮影時のパン角度θまたはチルト角度φが同一でない場合、素材側映像102のフレーム107の撮影時のパン角度θおよびチルト角度φと一致するように比較用フレーム113を修正した比較用修正フレーム113Mを生成し、比較用修正フレーム113Mと素材側映像102のフレーム107を比較する。   Further, in the background comparison process, when the pan angle θ or the tilt angle φ at the time of shooting of the frame 107 of the material side video 102 and the comparison frame 113 are not the same, the pan angle at the time of shooting of the frame 107 of the material side video 102 A comparison correction frame 113M in which the comparison frame 113 is corrected so as to coincide with θ and the tilt angle φ is generated, and the comparison correction frame 113M and the frame 107 of the material side image 102 are compared.

このため、背景側映像101および素材側映像102がどのようなフレーム構成であっても、素材側映像102のフレーム107の背景部分と一致する比較用修正フレーム113Mを生成して高精度に背景比較処理を行うことができる。   Therefore, regardless of the frame configuration of the background side video 101 and the material side video 102, a comparative correction frame 113M that matches the background portion of the frame 107 of the material side video 102 is generated to compare the background with high accuracy. Processing can be performed.

また、背景比較処理は、比較用フレーム113の各画素を、仮想球体600の半径方向に向けて素材側映像102のフレーム107と同一平面上に投射することによって、比較用修正フレーム113Mを生成する。   In the background comparison process, each pixel of the comparison frame 113 is projected on the same plane as the frame 107 of the material-side image 102 in the radial direction of the virtual sphere 600, thereby generating a comparative correction frame 113M. .

このため、比較用修正フレーム113Mを素材側映像102のフレーム107の背景部分と正確に一致させることができる。   Therefore, the comparison correction frame 113M can be exactly matched with the background portion of the frame 107 of the material-side video 102.

以上、本発明の実施の形態について説明したが、本発明の映像合成方法および映像合成システムは、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。   Although the embodiments of the present invention have been described above, the video composition method and the video composition system of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. Of course, can be added.

本発明の映像合成方法および映像合成システムは、各種映像の生成の分野で利用することができる。   The video composition method and video composition system of the present invention can be used in the field of various video generation.

10、101 背景側映像
10a、113 比較用フレーム
12、102 素材側映像
14、112 合成用映像
20 合成用素材
100 映像合成システム
104 背景側映像記憶手段
105 素材側映像記憶手段
106 背景側映像のフレーム
106C 対比フレーム
106S 基準フレーム
107 素材側映像のフレーム
113M 比較用修正フレーム
130 角度算出手段
136 背景選択手段
138 背景比較手段
200 ビデオカメラ
202 仮想レンズ
204 仮想レンズの主点
600 仮想球体
607C 対比投射フレーム
607S 基準投射フレーム
O フレームの光学中心に対応する点
a 第1の基準投射特定点
a' 第1の対比投射特定点
b 第2の基準投射特定点
b' 第2の対比投射特定点
c 選択用指標点
S、S' 指標点
s 基準投射指標点
s' 対比投射指標点
sa 基準投射指標点sと第1の基準投射特定点aの間の距離
sb 基準投射指標点sと第2の基準投射特定点bの間の距離
θ パン角度
φ チルト角度
ψ ロール角度
DESCRIPTION OF SYMBOLS 10,101 Background side image 10a, 113 Comparison frame 12, 102 Material side image 14, 112 Composition image 20 Composition material 100 Image composition system 104 Background side image storage means 105 Material side image storage means 106 Frame of background side image 106C Contrast frame 106S Reference frame 107 Material side image frame 113M Comparison correction frame 130 Angle calculation means 136 Background selection means 138 Background comparison means 200 Video camera 202 Virtual lens 204 Virtual lens principal point 600 Virtual sphere 607C Contrast projection frame 607S Reference Projection frame O Point corresponding to optical center of frame a First reference projection specific point a 'First contrast projection specific point b Second reference projection specific point b' Second contrast projection specific point c Selection index point S, S 'Index point s Reference projection Mark s' Contrast projection index point sa Distance between the reference projection index point s and the first reference projection specific point a sb Distance between the reference projection index point s and the second reference projection specific point b θ Pan angle φ Tilt angle ψ Roll angle

Claims (22)

パンおよびチルト可能に配置された背景用カメラによって撮影可能な多方向の背景を前記背景用カメラによって撮影した背景側映像と、
前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像と、を用意し、
前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出処理と、
前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択処理と、
選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較処理と、を行うことを特徴とする、
映像合成方法。
A background side image obtained by photographing a multidirectional background that can be photographed by a background camera arranged so as to be capable of panning and tilting, and the background camera;
A material-side image shot so that the composition material is included under the background by a material camera arranged so as to be able to pan and tilt at the same position as the background camera; and
An angle calculation process for calculating a pan angle and a tilt angle for each frame of the background side video at the time of shooting by comparing the positions of index points indicating the same background position in a plurality of frames of the background side video. When,
A background selection process for selecting a comparison frame from a frame group of the background-side video for each frame of the material-side video based on a pan angle and a tilt angle at the time of shooting each frame of the material-side video;
A background comparison process for generating a composition image from which the composition material is extracted is performed by comparing the selected comparison frame and each frame of the material-side image.
Video composition method.
前記角度算出処理は、
前記背景用カメラ位置を中心とする仮想球体を設定し、
比較する2つのフレームのうち、一方の基準フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した基準投射指標点、および他方の対比フレーム上の前記指標点を前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射した対比投射指標点を求め、
前記基準投射指標点および前記対比投射指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度を算出することを特徴とする、
請求項1に記載の映像合成方法。
The angle calculation process includes:
Set a virtual sphere centered on the background camera position,
Of the two frames to be compared, the reference projection index point projected on the surface of the virtual sphere with the index point on one reference frame directed in the radial direction of the virtual sphere, and the index on the other contrast frame Find a contrast projection index point projected on the surface of the virtual sphere with the point in the radial direction of the virtual sphere,
By comparing the positions of the reference projection index point and the contrast projection index point, a pan angle and a tilt angle at the time of shooting each frame of the background side image are calculated.
The video composition method according to claim 1.
前記角度算出処理は、
前記背景用カメラの画角および前記背景側映像のフレームの寸法に基づいて前記仮想球体の半径を設定することを特徴とする、
請求項2に記載の映像合成方法。
The angle calculation process includes:
The radius of the virtual sphere is set based on the angle of view of the background camera and the frame size of the background side image,
The video composition method according to claim 2.
前記角度算出処理は、
前記仮想球体の中心を、前記背景用カメラのレンズの主点に設定し、
前記仮想球体の半径を、前記背景用カメラのレンズの焦点距離と同一に設定することを特徴とする、
請求項3に記載の映像合成方法。
The angle calculation process includes:
Set the center of the virtual sphere as the principal point of the lens of the background camera,
The radius of the virtual sphere is set equal to the focal length of the lens of the background camera,
The video composition method according to claim 3.
前記指標点は、前記基準フレームの光学中心に対応する点であることを特徴とする、
請求項2乃至4のいずれかに記載の映像合成方法。
The index point is a point corresponding to the optical center of the reference frame,
The video composition method according to claim 2.
前記角度算出処理は、
前記基準フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、基準投射フレームを生成し、
前記対比フレームを前記仮想球体の半径方向に向けて前記仮想球体の表面上に投射することで、対比投射フレームを生成し、
前記基準投射フレームおよび前記対比投射フレームについてパターンマッチングを行うことで、前記指標点以外の同一の背景位置を示す投射特定点を複数求め、
前記基準投射フレーム上の前記投射特定点を基準投射特定点に設定すると共に、前記対比投射フレーム上の前記投射特定点を対比投射特定点に設定し、
前記基準投射特定点および前記対比投射特定点の位置に基づいて、前記対比投射指標点の位置を算出することを特徴とする、
請求項5に記載の映像合成方法。
The angle calculation process includes:
By projecting the reference frame on the surface of the virtual sphere in the radial direction of the virtual sphere, a reference projection frame is generated,
By projecting the contrast frame on the surface of the virtual sphere in the radial direction of the virtual sphere, a contrast projection frame is generated,
By performing pattern matching for the reference projection frame and the contrast projection frame, a plurality of projection specific points indicating the same background position other than the index point are obtained,
While setting the projection specific point on the reference projection frame as a reference projection specific point, setting the projection specific point on the contrast projection frame as a contrast projection specific point,
Based on the position of the reference projection specific point and the contrast projection specific point, the position of the contrast projection index point is calculated,
The video composition method according to claim 5.
前記角度算出処理は、前記基準投射特定点および前記基準投射指標点の相対的な位置関係に基づいて、前記対比投射指標点の位置を算出することを特徴とする、
請求項6に記載の映像合成方法。
The angle calculation process calculates a position of the contrast projection index point based on a relative positional relationship between the reference projection specific point and the reference projection index point.
The video composition method according to claim 6.
前記角度算出処理は、
前記投射特定点として第1の投射特定点および第2の投射特定点を設定し、
前記第1の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第1の距離、および前記第2の投射特定点の前記基準投射特定点と前記基準投射指標点の間の第2の距離を求め、
前記第1の投射特定点の前記対比投射特定点から前記第1の距離、且つ前記第2の投射特定点の前記対比投射特定点から前記第2の距離に位置する前記仮想球体の表面上の点を前記対比投射指標点とすることを特徴とする、
請求項7に記載の映像合成方法。
The angle calculation process includes:
Set the first projection specific point and the second projection specific point as the projection specific point,
A first distance between the reference projection specific point of the first projection specific point and the reference projection index point, and between the reference projection specific point of the second projection specific point and the reference projection index point Find the second distance,
On the surface of the virtual sphere located at the first distance from the contrast projection specific point of the first projection specific point and the second distance from the contrast projection specific point of the second projection specific point. A point is the contrast projection index point,
The video composition method according to claim 7.
前記角度算出処理は、前記背景側映像の各フレームの撮影時のロール角度を前記背景側映像のフレームごとに算出し、
前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項1乃至8のいずれかに記載の映像合成方法。
The angle calculation process calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video,
The background comparison process is characterized by performing correction based on a roll angle at the time of shooting each frame of the background side video,
The video composition method according to claim 1.
前記角度算出処理は、所定の前記投射特定点の前記基準投射特定点と前記基準投射指標点を結ぶ直線と、所定の前記投射特定点の前記対比投射特定点と前記対比投射指標点を結ぶ直線とがなす角度に基づいて、前記背景側映像の各フレームの撮影時のロール角度を求め、
前記背景比較処理は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項6乃至8のいずれかに記載の映像合成方法。
The angle calculation process includes a straight line connecting the reference projection specific point of the predetermined projection specific point and the reference projection index point, and a straight line connecting the contrast projection specific point of the predetermined projection specific point and the contrast projection index point. Based on the angle formed by and, obtain the roll angle at the time of shooting each frame of the background side video,
The background comparison process is characterized by performing correction based on a roll angle at the time of shooting each frame of the background side video,
The video composition method according to claim 6.
前記背景選択処理は、前記背景側映像のフレームと前記素材側映像のフレームにおいて同一の背景位置を示す選択用指標点の位置を比較することにより、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出することを特徴とする、
請求項1乃至10のいずれかに記載の映像合成方法。
The background selection process compares the position of the index point for selection indicating the same background position in the frame of the background side video and the frame of the material side video, thereby panning at the time of shooting each frame of the material side video. The angle and tilt angle are calculated for each frame,
The video composition method according to claim 1.
前記背景選択処理は、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と同一のパン角度およびチルト角度の比較用フレームを選択できない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度に近いパン角度およびチルト角度の比較用フレームを複数選択することを特徴とする、
請求項11に記載の映像合成方法。
When the background selection process cannot select a pan angle and tilt angle comparison frame that is the same as the pan angle and tilt angle at the time of capturing the material-side image frame, the pan angle at the time of capturing the material-side image frame And selecting a plurality of pan and tilt angle comparison frames close to the tilt angle.
The video composition method according to claim 11.
前記背景選択処理は、前記素材側映像の各フレームの撮影時のロール角度を前記素材側映像のフレームごとに算出し、
前記背景比較処理は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項11または12に記載の映像合成方法。
The background selection process calculates a roll angle for each frame of the material-side video for each frame of the material-side video,
The background comparison process is characterized by performing correction based on a roll angle at the time of shooting each frame of the material side video.
The video composition method according to claim 11 or 12.
前記背景比較処理は、比較する前記素材側映像のフレームと前記比較用フレームの撮影時のパン角度またはチルト角度が同一でない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と一致するように前記比較用フレームを修正した比較用修正フレームを生成し、前記比較用修正フレームと前記素材側映像のフレームを比較することを特徴とする、
請求項1乃至13のいずれかに記載の映像合成方法。
In the background comparison process, when the pan angle or tilt angle at the time of shooting the material side video frame and the comparison frame are not the same, the background comparison processing matches the pan angle and tilt angle at the time of shooting the material side video frame. Generating a comparative correction frame in which the comparison frame is corrected, and comparing the comparative correction frame and the frame of the material side video,
The video composition method according to claim 1.
前記背景比較処理は、前記素材側映像のフレームの撮影時のロール角度と一致するように前記比較用フレームを修正した前記比較用修正フレームを生成することを特徴とする、
請求項14に記載の映像合成方法。
In the background comparison process, the comparison correction frame is generated by correcting the comparison frame so as to coincide with a roll angle at the time of shooting the frame of the material side image.
The video composition method according to claim 14.
前記背景比較処理は、前記比較用フレームの各画素を、仮想球体の半径方向に向けて前記素材側映像のフレームと同一平面上に投射することによって、前記比較用修正フレームを生成することを特徴とする、
請求項14または15に記載の映像合成方法。
The background comparison process generates the comparison correction frame by projecting each pixel of the comparison frame on the same plane as the frame of the material side image in the radial direction of the virtual sphere. And
The video composition method according to claim 14 or 15.
パンおよびチルト可能に配置された背景用カメラによって撮影可能な多方向の背景を前記背景用カメラによって撮影した背景側映像を記憶する背景側映像記憶手段と、
前記背景用カメラと同位置にパンおよびチルト可能に配置された素材用カメラによって前記背景の下で合成用素材が含まれるように撮影した素材側映像を記憶する素材側映像記憶手段と、
前記背景側映像の複数のフレームにおいて同一の背景位置を示す指標点の位置を比較することにより、前記背景側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出する角度算出手段と、
前記素材側映像の各フレームの撮影時のパン角度およびチルト角度に基づいて、前記素材側映像のフレームごとに前記背景側映像のフレーム群から比較用フレームを選択する背景選択手段と、
選択した前記比較用フレームと前記素材側映像の各フレームを比較することにより、前記合成用素材が抽出された合成用映像を生成する背景比較手段と、を備えることを特徴とする、
映像合成システム。
Background-side image storage means for storing a background-side image obtained by photographing the multi-directional background that can be photographed by the background camera arranged so as to be capable of panning and tilting;
Material-side video storage means for storing a material-side video shot so that a material for composition is included under the background by a material camera arranged so as to be capable of panning and tilting at the same position as the background camera;
An angle calculation means for calculating the pan angle and the tilt angle for each frame of the background-side video for each frame by comparing the positions of index points indicating the same background position in the plurality of frames of the background-side video. When,
Background selection means for selecting a comparison frame from a frame group of the background-side video for each frame of the material-side video based on a pan angle and a tilt angle at the time of shooting each frame of the material-side video;
A background comparison unit that generates a composition image in which the composition material is extracted by comparing the selected comparison frame and each frame of the material-side image,
Video composition system.
前記角度算出手段は、前記背景側映像の各フレームの撮影時のロール角度を前記背景側映像のフレームごとに算出し、
前記背景比較手段は、前記背景側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項17に記載の映像合成システム。
The angle calculation means calculates a roll angle at the time of shooting each frame of the background side video for each frame of the background side video,
The background comparison means performs correction based on a roll angle at the time of shooting each frame of the background side video,
The video composition system according to claim 17.
前記背景選択手段は、前記背景側映像のフレームと前記素材側映像のフレームにおいて同一の背景位置を示す選択用指標点の位置を比較することにより、前記素材側映像の各フレームの撮影時のパン角度およびチルト角度をフレームごとに算出することを特徴とする、
請求項17または18に記載の映像合成システム。
The background selection means compares the position of the index point for selection indicating the same background position in the frame of the background side video and the frame of the material side video, thereby panning at the time of shooting each frame of the material side video. The angle and tilt angle are calculated for each frame,
The video composition system according to claim 17 or 18.
前記背景選択手段は、前記素材側映像の各フレームの撮影時のロール角度を前記素材側映像のフレームごとに算出し、
前記背景比較手段は、前記素材側映像の各フレームの撮影時のロール角度に基づく補正を行うことを特徴とする、
請求項19に記載の映像合成システム。
The background selection means calculates a roll angle at the time of shooting each frame of the material side video for each frame of the material side video,
The background comparison means performs correction based on a roll angle at the time of shooting each frame of the material side video,
The video composition system according to claim 19.
前記背景比較手段は、比較する前記素材側映像のフレームと前記比較用フレームの撮影時のパン角度またはチルト角度が同一でない場合、前記素材側映像のフレームの撮影時のパン角度およびチルト角度と一致するように前記比較用フレームを修正した比較用修正フレームを生成し、前記比較用修正フレームと前記素材側映像のフレームを比較することを特徴とする、
請求項17乃至20のいずれかに記載の映像合成システム。
The background comparing means matches the pan angle and tilt angle at the time of shooting the frame of the material side image when the frame of the material side image to be compared and the pan angle or tilt angle at the time of shooting of the comparison frame are not the same. Generating a comparative correction frame in which the comparison frame is corrected, and comparing the comparative correction frame and the frame of the material side video,
The video composition system according to any one of claims 17 to 20.
前記背景比較手段は、前記素材側映像のフレームの撮影時のロール角度と一致するように前記比較用フレームを修正した前記比較用修正フレームを生成することを特徴とする、
請求項21に記載の映像合成システム。
The background comparison means generates the comparison correction frame in which the comparison frame is corrected so as to coincide with a roll angle at the time of shooting the frame of the material-side video.
The video composition system according to claim 21.
JP2009129857A 2009-05-29 2009-05-29 Video composition method, video composition system Expired - Fee Related JP5231331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009129857A JP5231331B2 (en) 2009-05-29 2009-05-29 Video composition method, video composition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009129857A JP5231331B2 (en) 2009-05-29 2009-05-29 Video composition method, video composition system

Publications (2)

Publication Number Publication Date
JP2010278813A true JP2010278813A (en) 2010-12-09
JP5231331B2 JP5231331B2 (en) 2013-07-10

Family

ID=43425350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009129857A Expired - Fee Related JP5231331B2 (en) 2009-05-29 2009-05-29 Video composition method, video composition system

Country Status (1)

Country Link
JP (1) JP5231331B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113422914A (en) * 2021-06-24 2021-09-21 脸萌有限公司 Video generation method, device, equipment and medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5843033B1 (en) 2014-05-15 2016-01-13 株式会社リコー Imaging system, imaging apparatus, program, and system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06213661A (en) * 1992-02-14 1994-08-05 Res Dev Corp Of Japan Image analysing method for fluid phenomenon
JPH1118008A (en) * 1997-06-24 1999-01-22 Sony Corp Image-processing unit and image-processing method
JP2002063572A (en) * 2000-08-23 2002-02-28 For-A Co Ltd Image compositing system having camera parameter detecting means
JP2006059202A (en) * 2004-08-20 2006-03-02 Iwate Univ Imaging device and image correction method
WO2007097431A1 (en) * 2006-02-23 2007-08-30 Matsushita Electric Industrial Co., Ltd. Image correction device, method, program, integrated circuit, and system
WO2008126371A1 (en) * 2007-04-02 2008-10-23 M.Soft Co., Ltd. Image synthesizing method and image synthesizing system
JP2008263270A (en) * 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd Camera device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06213661A (en) * 1992-02-14 1994-08-05 Res Dev Corp Of Japan Image analysing method for fluid phenomenon
JPH1118008A (en) * 1997-06-24 1999-01-22 Sony Corp Image-processing unit and image-processing method
JP2002063572A (en) * 2000-08-23 2002-02-28 For-A Co Ltd Image compositing system having camera parameter detecting means
JP2006059202A (en) * 2004-08-20 2006-03-02 Iwate Univ Imaging device and image correction method
WO2007097431A1 (en) * 2006-02-23 2007-08-30 Matsushita Electric Industrial Co., Ltd. Image correction device, method, program, integrated circuit, and system
WO2008126371A1 (en) * 2007-04-02 2008-10-23 M.Soft Co., Ltd. Image synthesizing method and image synthesizing system
JP2008263270A (en) * 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd Camera device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113422914A (en) * 2021-06-24 2021-09-21 脸萌有限公司 Video generation method, device, equipment and medium
CN113422914B (en) * 2021-06-24 2023-11-21 脸萌有限公司 Video generation method, device, equipment and medium

Also Published As

Publication number Publication date
JP5231331B2 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
JP6721065B2 (en) Imaging device, image processing device and method
EP3356887B1 (en) Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama
US10425638B2 (en) Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device
JP6630176B2 (en) Image processing apparatus and method
CN108600576B (en) Image processing apparatus, method and system, and computer-readable recording medium
WO2019049421A1 (en) Calibration device, calibration system, and calibration method
JP5596972B2 (en) Control device and control method of imaging apparatus
JP2009177251A (en) Generation method of orthophoto image and photographing device
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
JPWO2014208230A1 (en) Coordinate calculation apparatus and method, and image processing apparatus and method
JP5846172B2 (en) Image processing apparatus, image processing method, program, and imaging system
JP2019033344A (en) Image processing apparatus, image processing method, and program
JP2011239207A (en) Imaging apparatus, imaging control method, and imaging control program
JP6222205B2 (en) Image processing device
JP5231331B2 (en) Video composition method, video composition system
JP5796611B2 (en) Image processing apparatus, image processing method, program, and imaging system
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP3282332B2 (en) Image input system
JP2019053758A (en) Image processing apparatus
JP6079838B2 (en) Image processing apparatus, program, image processing method, and imaging system
JP2014165866A (en) Image processing device, control method therefor and program
JP6439845B2 (en) Image processing device
JP2004128588A (en) Imaging unit
JP6679779B1 (en) Information processing device, information processing method, and program
JP2008275542A (en) Three-dimensional shape restoration processing apparatus, and method and program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5231331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees