JP2011035638A - Virtual reality space video production system - Google Patents
Virtual reality space video production system Download PDFInfo
- Publication number
- JP2011035638A JP2011035638A JP2009179577A JP2009179577A JP2011035638A JP 2011035638 A JP2011035638 A JP 2011035638A JP 2009179577 A JP2009179577 A JP 2009179577A JP 2009179577 A JP2009179577 A JP 2009179577A JP 2011035638 A JP2011035638 A JP 2011035638A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- video
- operation information
- virtual
- space video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラを用いた仮想現実空間映像制作システムに関するもので、実写カメラとCG用コンピュータシステムを用いて実写映像およびその撮影位置に対応する仮想映像とを合成してリアルタイムに表示するシステムとして、ユーザがCGを使った映像制作および映像視聴を効率的かつ効果的に行うシステムに関する。 The present invention relates to a virtual reality space video production system using a camera, and as a system for synthesizing and displaying a real video and a virtual video corresponding to the shooting position in real time using a real camera and a computer system for CG. The present invention relates to a system in which a user efficiently and effectively performs video production and video viewing using CG.
近年の映像技術の進歩により、映像の利用環境、特に上映環境は以前より手軽なものとして我々の日常生活に入り込んでいる。こうした状況は高品質の映像ソフトの需要を高める一方、より効率的な制作手法が求められる。 Due to recent advances in video technology, the video usage environment, particularly the screening environment, has entered our daily lives as being easier than before. While this situation increases the demand for high-quality video software, more efficient production techniques are required.
パーソナルコンピュータをはじめとするハードウェア面での情報処理技術の発達は、高精細な映像のような大容量データを上映、加工する際の処理にかかる時間と労力を大きく軽減している。ただし、映像制作の工程(撮影→加工→編集)には従来と比べて大きな変化はない。 The development of information processing technology in terms of hardware such as personal computers has greatly reduced the time and labor required for processing and processing large volumes of data such as high-definition video. However, the video production process (photographing → processing → editing) has not changed significantly compared to the conventional method.
しかし、この制作工程の中でも、加工の工程、特に、実写映像とコンピュータグラフィクス(以下、CGという)の合成処理は、映画やテレビ番組等での活用がますます多くなる反面、手間とコストのかかる作業となっている。 However, in this production process, the processing process, especially the synthesis of live-action video and computer graphics (hereinafter referred to as CG), is increasingly being used in movies and TV programs, but it takes time and money. It has become work.
ここで、合成処理の方法であるが、一般的には次のようになる。
まず、実写ではブルーバックと呼ばれる青色などの単色の背景を背にして人物などの被写体を撮影し、映像合成装置によってブルーバック領域から人物領域を切り出してキー信号として抽出し、別に作成した仮想空間映像を電子信号として合成処理する、クロマキー合成といわれる手法がある。
また、近年は実写のカメラの動作に連動したCG映像を生成し、これをカメラの実写映像と合成する手法を用いる、バーチャルスタジオと呼ばれるシステムが知られている。
Here, the synthesis processing method is generally as follows.
First, in live-action shooting, a subject such as a person is photographed against a background of a single color such as blue, called a blue back, and a human space is cut out from the blue back area by a video composition device and extracted as a key signal. There is a technique called chroma key composition, in which video is synthesized as an electronic signal.
In recent years, a system called a virtual studio is known that uses a method of generating a CG image linked to the operation of a live-action camera and synthesizing it with the live-action image of the camera.
従来、このような映像の合成における問題の解決手段として、リアルタイム三次元CGによるバーチャルスタジオシステムがあり、その技術開発は現在も多方面において取り組まれているが、このバーチャルスタジオシステムを用いることにより、撮影と加工(実写とCGの合成)の時間を大幅に短縮することが可能になった。 Conventionally, there is a virtual studio system based on real-time three-dimensional CG as a means for solving such a problem in the composition of video, and its technical development has been tackled in various fields, but by using this virtual studio system, The time required for shooting and processing (compositing live action and CG) can be greatly reduced.
特に映像の合成にかかる加工処理時間の短縮によって、撮影中リアルタイムで最終映像の確認ができるようになったため、仮想空間の正確な合成が必要な映像制作、即時的な配信が必要なテレビ番組の制作の現場などで活用されている。 In particular, because the processing time required for video composition has been shortened, the final video can be checked in real time during shooting, so video production that requires accurate composition of the virtual space, and TV programs that require immediate distribution. It is used in production sites.
しかしながら、前記背景技術で触れたような従来の三次元バーチャルスタジオシステムには、撮影環境面での制約があった。まず、撮影の際にカメラ動作の範囲がスタジオ内の
一部のみに限定されてしまうことがあり、また、仮想空間に適切に配置するために、実空間でのカメラを正確な位置や速度で制御するための装置も、例えばクレーンを用いた大型カメラを用いるなど、かなり大掛かりなものになっていた。
However, the conventional three-dimensional virtual studio system as mentioned in the background art has restrictions on the shooting environment. First, when shooting, the range of camera operation may be limited to only a part of the studio, and in order to properly place in the virtual space, the camera in the real space is at an accurate position and speed. The control device has been quite large, for example, using a large camera using a crane.
すなわち、通常の実写撮影の場合に比べて、カメラ動作の範囲が大幅に制限されてしまい、かつカメラシステム自体も大掛かりな装置構成になるため、コストが大きくかかってしまうという問題があった。 That is, the camera operation range is greatly limited and the camera system itself has a large apparatus configuration as compared with the case of normal live-action shooting, and there is a problem that the cost is increased.
一方、小規模な予算の映像制作の場合においては、大掛かりな装置構成は採用できず、カメラ位置をなるべく固定して撮影を行っていたため、低コストでできるが映像効果としては変化に乏しい画面構成での映像になってしまうという問題があった。 On the other hand, in the case of video production with a small budget, a large-scale device configuration could not be adopted, and shooting was performed with the camera position fixed as much as possible. There was a problem that it would be a video in.
そのため、スタジオ内での撮影機材の配置やカメラを動かす範囲に制約の多い既存のバーチャルスタジオシステムでの撮影にも、安価な装置構成で、しかもより高い映像効果が与えられるような映像制作システムが求められていた。 For this reason, there is a video production system that can provide higher video effects with an inexpensive device configuration even when shooting with existing virtual studio systems, where there are many restrictions on the arrangement of shooting equipment and the range in which the camera can be moved. It was sought after.
本発明は、上記のような問題を解決するためになされたものであり、その目的とするところは、三次元CGによる仮想空間映像を作成し、カメラにより撮影された実空間映像とその映像の撮影位置に適合する仮想空間映像とをリアルタイムに合成して映像を表示できる映像制作システムを提供することにある。
さらに本発明の目的は、システムの装置構成を小規模化して映像制作コストを低減させることが可能なシステムを提供することにある。
The present invention has been made in order to solve the above-described problems, and an object of the present invention is to create a virtual space image by 3D CG and capture a real space image taken by a camera and the image. An object of the present invention is to provide a video production system capable of displaying a video by synthesizing a virtual space video suitable for the shooting position in real time.
A further object of the present invention is to provide a system capable of reducing the video production cost by reducing the system configuration of the system.
本発明において、上記課題を達成するために、請求項1に記載の仮想現実空間映像制作システムは、コンピュータを用いて仮想空間映像を作成する仮想空間映像作成手段と、
カメラを用いて実空間映像を撮影する実空間映像撮影手段と、
前記仮想空間映像と実空間映像を合成して画面に表示する映像合成表示手段と、
ユーザーの操作に基づくカメラ操作情報を検出するカメラ操作情報検出手段とを少なくとも備え、前記カメラ操作情報を前記仮想空間映像作成手段に入力して、このカメラ操作情報を反映した仮想空間映像を映像フレーム毎に繰り返し作成することを特徴とする。
In the present invention, in order to achieve the above object, a virtual reality space video production system according to claim 1 includes virtual space video creation means for creating a virtual space video using a computer,
Real space video photographing means for photographing real space video using a camera;
Video composition display means for synthesizing the virtual space image and the real space image and displaying on the screen;
At least camera operation information detecting means for detecting camera operation information based on a user's operation, inputting the camera operation information to the virtual space image creating means, and generating a virtual space image reflecting the camera operation information as a video frame It is characterized by being repeatedly created every time.
ここで仮想現実空間映像とは、コンピュータを用いてCGで作成された仮想空間映像と現実空間の実体である被写体を撮影した実空間映像とを合成した映像を指す。 Here, the virtual reality space image refers to an image obtained by synthesizing a virtual space image created by CG using a computer and a real space image obtained by photographing a subject that is an entity of the real space.
本発明においては、ユーザーがカメラを操作する際のカメラの位置や向きおよびレンズ操作に関する情報(以下、カメラ操作情報という)が、CGの描画パラメータとして仮想空間映像を作成する際に反映され、その結果カメラの動作と連動した仮想空間映像が作成される。 In the present invention, information on the position and orientation of the camera and the lens operation when the user operates the camera (hereinafter referred to as camera operation information) is reflected when creating a virtual space image as a CG drawing parameter. As a result, a virtual space image linked with the operation of the camera is created.
これにより、実空間映像と仮想空間映像との合成映像は、実体である被写体があたかも仮想空間の中に入り込んでいるかのように見える。また、カメラ操作情報を反映した仮想空間映像はコンピュータにより映像フレーム毎に繰り返し作成され表示されるため、リアルタイムで動画として表示される。 As a result, the composite image of the real space image and the virtual space image looks as if the subject, which is a substance, enters the virtual space. Further, since the virtual space video reflecting the camera operation information is repeatedly created and displayed for each video frame by the computer, it is displayed as a moving image in real time.
請求項2に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段が、仮想空間および実空間で共通する基準点を基にして前記カメラの実空間上の位置情報を取得するカメラ位置取得工程と、前記カメラの撮影方向情報を取得する撮影方向取得工程と、前記カメラの焦点距離およびレンズ絞り値を含むカメラ設定情報を取得するカメラ設定情報取得工程と、さらにこれらの工程で取得したカメラ
操作情報を出力し、無線通信または有線ケーブルを介して前記仮想空間映像作成手段に入力するカメラ操作情報出力工程を備えることを特徴とする。
The virtual reality space video production system according to claim 2,
The camera operation information detecting means acquires a position information of the camera in the real space based on a common reference point in the virtual space and the real space, and a shooting for acquiring the shooting direction information of the camera Direction acquisition step, camera setting information acquisition step for acquiring camera setting information including the focal length and lens aperture value of the camera, and further output the camera operation information acquired in these steps, via wireless communication or wired cable And a camera operation information output step for inputting to the virtual space video creating means.
カメラ操作情報は、主にカメラの動きすなわち位置の変化に関する情報と、カメラの撮影方向(アングル)の変化に関する情報と、画面のズームやフォーカス・レンズ絞りなどのカメラ設定に関する情報とを少なくとも含む。
そしてこれらのカメラ操作情報をCG作成用のコンピュータに出力することによって、それらの情報をCGの描画パラメータとして仮想空間映像が作成される。
The camera operation information mainly includes at least information relating to camera movement, that is, a change in position, information relating to a change in the shooting direction (angle) of the camera, and information relating to camera settings such as zooming of the screen and focus / lens aperture.
Then, by outputting these camera operation information to a computer for CG creation, a virtual space image is created using the information as CG drawing parameters.
請求項3に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段がGPS機能付モジュールを備え、かつ、前記カメラ位置取得工程はGPS機能を用いてカメラ位置情報を取得することを特徴とする。
The virtual reality space video production system according to
The camera operation information detection unit includes a module with a GPS function, and the camera position acquisition step acquires camera position information using a GPS function.
請求項4に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段が位置センサー機能を搭載したICタグを備え、
かつ、前記カメラ位置取得工程は前記ICタグの位置センサー機能を用いてカメラ位置情報を取得することを特徴とする。
The virtual reality space video production system according to claim 4,
The camera operation information detection means includes an IC tag equipped with a position sensor function,
In the camera position acquisition step, camera position information is acquired using a position sensor function of the IC tag.
請求項5に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段がジャイロセンサ(角速度センサ)を備え、
かつ前記撮影方向取得工程はジャイロセンサによりカメラを動かす際の角速度を検出してカメラの撮影方向情報を取得することを特徴とする。
The virtual reality space video production system according to
The camera operation information detection means includes a gyro sensor (angular velocity sensor),
In addition, the photographing direction acquisition step is characterized by detecting the angular velocity when the camera is moved by the gyro sensor and acquiring the photographing direction information of the camera.
請求項6に記載の仮想現実空間映像制作システムは、
前記映像合成表示手段が、前記実空間映像の被写体を人物や物体としてその背景にブルーバックスクリーンを用い、これに前記仮想空間映像を背景として合成処理することを特徴とする。
The virtual reality space video production system according to claim 6,
The video composition display means is characterized in that the subject of the real space video is a person or object and a blue back screen is used as the background, and the virtual space video is used as a background for this.
請求項7に記載の仮想現実空間映像制作システムは、
前記カメラが画像処理プロセッサおよび表示用モニタを備え、前記映像合成表示手段は、この画像処理プロセッサを用いて映像フレーム毎に前記合成処理を行い、その合成映像を表示用モニタに表示することを特徴とする。
The virtual reality space video production system according to claim 7,
The camera includes an image processing processor and a display monitor, and the video composition display means performs the composition processing for each video frame using the image processing processor and displays the composite video on the display monitor. And
本発明によれば、仮想空間映像と実空間映像とを合成して表示する仮想現実空間映像制作システムを用いて、ユーザによるカメラの動作と連動した仮想映像をリアルタイムに作成して表示し確認することができる。
また、本発明のシステムの構成は、カメラシステムが位置センサおよび方向センサを備え、簡単な構成でカメラの位置や向きの情報を取得して出力するようにしたので、大幅にコストを低減したシステムを構築できる。
According to the present invention, a virtual reality space video production system that synthesizes and displays a virtual space image and a real space image is used to create, display, and confirm a virtual image linked to the camera operation by the user in real time. be able to.
In addition, the system configuration of the present invention is a system in which the camera system includes a position sensor and a direction sensor, and acquires and outputs information on the position and orientation of the camera with a simple configuration. Can be built.
以下、本発明に係る仮想現実空間映像制作システムの実施の形態を図面に基づいて詳細説明する。 Embodiments of a virtual reality space video production system according to the present invention will be described below in detail with reference to the drawings.
図1は、本発明の実施態様におけるシステムの基本構成を示す。
本発明の実施態様においては、仮想現実映像制作システム1は大きく2つの装置構成に分かれており、その一つは実写映像の撮影と映像の合成表示とを行うカメラシステム部2、もう一つは三次元CGによる仮想空間映像の作成を行うCGシステム部3である。これらのカメラシステム部2とCGシステム部3とは、リアルタイムで映像情報を通信するために高速処理が可能な通信用インターフェースで接続されている。
FIG. 1 shows a basic configuration of a system according to an embodiment of the present invention.
In the embodiment of the present invention, the virtual reality video production system 1 is roughly divided into two device configurations, one of which is a camera system unit 2 that performs shooting of live-action video and composite display of the video. This is a
(カメラシステム部)
まず、図1の点線で囲ったカメラシステム部2では、ユーザ4によって実空間映像撮影手段10を用いて被写体5が撮影される。撮影された映像は映像合成手段13を用いて後述する仮想空間映像と合成され、その合成映像は映像表示手段14によってモニタ24の画面に表示される。
(Camera system part)
First, in the camera system unit 2 surrounded by a dotted line in FIG. 1, the subject 4 is photographed by the user 4 using the real space
なお、ここでユーザとはカメラを操作して映像を撮影する者を指す。また映像は通常の場合動画であるが、静止画であってもよい。映像種類は、アナログまたはデジタルの種別、データの信号種類や圧縮・非圧縮等の仕様規格、また記録装置や記録媒体、記録時間などにおいて特に制限はなく、適宜目的に沿って使用する。さらにカメラ装置本体や撮影方式等も、適宜用いることができる。 Here, the user refers to a person who operates the camera and takes a video. The video is usually a moving image, but may be a still image. The video type is not particularly limited in terms of analog or digital type, data signal type, specification standard such as compression / non-compression, recording apparatus, recording medium, and recording time, and is used according to the purpose as appropriate. Furthermore, the camera device main body, the photographing method, and the like can be used as appropriate.
カメラシステム部2の主要な装置構成は、撮影用カメラ装置本体と、映像表示用モニタ装置、前記GPSやICタグセンサ等の位置センサ用装置と、画像処理プロセッサを搭載したコンピュータ装置およびそれらを接続するインターフェースを含む。
ただし、本発明のシステムは、上記の装置構成に限定するものではなく、適宜必要に応じて構成を変更すること、あるいは装置を追加することができる。
The main device configuration of the camera system unit 2 is to connect a photographing camera device main body, a video display monitor device, a position sensor device such as the GPS or IC tag sensor, a computer device equipped with an image processor, and them. Includes an interface.
However, the system of the present invention is not limited to the above-described apparatus configuration, and the configuration can be appropriately changed or an apparatus can be added as necessary.
実空間映像撮影手段10は、ユーザ4がカメラ本体を操作して被写体5を撮影する際に、被写体5の背景としてブルーバックスクリーンを用いる。これは前述のように、クロマキー処理を施すことによって被写体とする人物や物体のみを映像領域として背景から切り出すため、ブルーやグリーンなどの単色の背景を用いるものである。
The real space
撮影する際に、たとえば演出上の意図などによって、ユーザ4がカメラを操作して位置を移動させカメラアングルを変えたり、カメラと被写体間の距離を変えたりする場合がある。このようなカメラ操作の情報を本システムで活用するため、撮影が行われているときには前記カメラ操作情報検出手段11によって逐次カメラ操作情報を検出し、この情報を後述する仮想空間映像作成手段12へ出力する。
When shooting, for example, the user 4 may move the position by moving the camera to change the camera angle or change the distance between the camera and the subject depending on the intention of the production. In order to utilize such camera operation information in this system, the camera operation
ユーザ4はカメラを操作して撮影するため、カメラの位置や撮影の視点角度(アングル)、レンズ操作(ズーム、パン、フォーカス等)のようなカメラ撮影に関係する設定を決める。この設定に従って、前記実空間映像撮影手段10において撮影が行われる。そしてこのようなカメラに関する設定情報が、カメラ操作情報検出手段11によってカメラ操作情報として信号化される。
Since the user 4 operates the camera to shoot, the camera 4 determines settings related to camera shooting such as the camera position, shooting viewpoint angle (angle), and lens operations (zoom, pan, focus, etc.). According to this setting, the real space
(カメラ操作情報検出手段)
ここで、図3を用いて、カメラ操作情報検出手段11の主な実施手順を説明する。図3の工程A1〜A4はカメラ操作情報の検出手順を示すフローチャートである。
まず工程A1(カメラ位置取得)は、撮影の際のカメラの空間的な位置を位置情報として取得する。カメラの位置を取得する方法は、例えば後述するGPS機能や位置センサを具備したICタグをカメラに取り付けておく方法がある。なお、本発明はこれらの方法に限定するものではなく、他の方法を用いてもよい。
(Camera operation information detection means)
Here, the main implementation procedure of the camera operation information detection means 11 will be described with reference to FIG. Steps A1 to A4 in FIG. 3 are flowcharts showing a procedure for detecting camera operation information.
First, in step A1 (camera position acquisition), the spatial position of the camera at the time of shooting is acquired as position information. As a method for acquiring the position of the camera, for example, there is a method in which an IC tag having a GPS function and a position sensor described later is attached to the camera. In addition, this invention is not limited to these methods, You may use another method.
ここでカメラの空間的な位置情報とは、仮想空間と実空間とで共通する一つの基準点を定めて、その基準点を基にしたカメラの位置を仮想空間および実空間それぞれの三次元位置座標に当てはめた情報のことである。
例えば、被写体とする物体を正面において1メートル離れた位置を基準点と設定した場合、カメラがまずその基準点にあれば、仮想空間はその位置を基準にして被写体が置かれる背景映像を作成する。カメラがこの基準点から所定の方向・距離だけ動いたとき、仮想空間においてもその基準点から同じ方向・距離で動いた位置を基にして、再度背景映像を作成する。
Here, the spatial position information of the camera refers to a single reference point that is common to the virtual space and the real space, and the camera position based on the reference point is the three-dimensional position of each of the virtual space and the real space. It is the information applied to the coordinates.
For example, when a position that is 1 meter away from the object as a subject is set as a reference point, if the camera is at that reference point first, the virtual space creates a background image on which the subject is placed based on that position. . When the camera moves from the reference point by a predetermined direction / distance, a background image is created again based on the position moved in the same direction / distance from the reference point in the virtual space.
このようにして、カメラの位置の動きと仮想空間での背景映像の動きを連動させることにより合成映像が視聴者に違和感なく見えるように、カメラの位置情報を取得する。 In this way, camera position information is acquired so that the synthesized video can be seen by the viewer without any discomfort by linking the movement of the camera position and the movement of the background video in the virtual space.
次の工程A2(撮影方向取得)では、カメラの撮影方向すなわちカメラレンズの向きの情報を取得する。カメラの撮影方向を取得する方法は、本発明において特に限定はしないが、例えば後述するジャイロセンサのような、回転速度や回転方向を感知するセンサをカメラに取り付けておく方法がある。 In the next step A2 (shooting direction acquisition), information on the shooting direction of the camera, that is, the orientation of the camera lens is acquired. The method for acquiring the shooting direction of the camera is not particularly limited in the present invention. For example, there is a method in which a sensor for detecting the rotation speed and the rotation direction, such as a gyro sensor described later, is attached to the camera.
さらに工程A3(カメラ設定情報取得)では、カメラ設定情報としてズームやパン、フォーカス、等のカメラワークに属する操作の情報を取得する。この情報を取得するには、カメラのレンズ絞りや操作ボタン等の機械的な動作を感知して取得する機構部品を備えればよく、公知の手段を用いてもよい。 In step A3 (camera setting information acquisition), operation information belonging to camera work such as zoom, pan, and focus is acquired as camera setting information. In order to acquire this information, a mechanical part that senses and acquires a mechanical operation such as a lens aperture or an operation button of the camera may be provided, and a known means may be used.
次の工程A4(カメラ操作情報出力)では、前記工程A1〜A3で取得した各情報が一組のカメラ操作情報のセットとして信号化され、無線通信または有線ケーブル等の通信用インターフェースを介して出力されて、仮想空間映像作成手段12へ送信される。
In the next step A4 (camera operation information output), each piece of information acquired in the steps A1 to A3 is converted into a signal as a set of camera operation information and output via a communication interface such as wireless communication or a wired cable. Then, it is transmitted to the virtual space
図1に戻って説明する。
前記カメラ操作情報検出手段11において、具体的な手段の実施例を示す。
カメラ操作情報は、カメラシステム部2に各種のセンサーを備えることによって、信号化することができる。本発明では、例えば、撮影用カメラ本体にGPS機能装置を備えることにより、GPS用通信衛星との電波交信によりカメラ本体の現在位置を知ることができる。
Returning to FIG.
In the camera operation
The camera operation information can be converted into a signal by providing the camera system unit 2 with various sensors. In the present invention, for example, by providing the photographing camera body with a GPS function device, the current position of the camera body can be known by radio wave communication with the GPS communication satellite.
または、撮影用カメラ本体に位置センサ機能付きのICタグ(以下、ICタグセンサという)を備えることにより、ICタグセンサからの発信電波とスタジオ内に配置されたセンサからの応答によってその位置を知ることができる。 Alternatively, by providing an IC tag with a position sensor function (hereinafter referred to as an IC tag sensor) in the camera body for photographing, it is possible to know the position from a radio wave transmitted from the IC tag sensor and a response from the sensor arranged in the studio. it can.
さらにまた、位置センサとして他の公知の技術を用いてもよく、例えば磁気センサやレーザ光センサなどを位置計測の手段として用いることもできる。 Furthermore, other known techniques may be used as the position sensor, and for example, a magnetic sensor, a laser light sensor, or the like may be used as the position measuring means.
(CGシステム部)
次に、CGシステム部3について説明する。
CGシステム部3は、主要な装置構成として、3次元CGプログラム20と、これを動作させる第一コンピュータ21および操作端末装置を含んでおり、この3次元CGプログラム20によってリアルタイムにCG映像を作成する機能を持つ。
(CG system department)
Next, the
The
仮想空間映像作成手段12は、第一コンピュータ21に必要な情報を入力しておき、例えばスタジオセットのような背景のデータを入力することによって、実際にはない仮想空間映像を自由に作成することができる。
The virtual space image creating means 12 inputs necessary information to the
しかし、このような仮想空間映像は、実空間映像との合成映像において被写体の動きと仮想空間の状態とがずれてしまった場合、見る側にとって違和感が生じる。そのため、このような不具合が生じないようにするには、仮想空間映像でのカメラの撮影位置やズーム等のレンズ操作の状態を、前記実空間映像撮影手段10で撮影された映像とリアルタイムで一致させる必要がある。そして、動画映像であれば、遅延のないタイミングで1フレーム毎に映像を新たに作成しなければならない。 However, such a virtual space image is uncomfortable for the viewer when the movement of the subject and the state of the virtual space are shifted in the combined image with the real space image. Therefore, in order to prevent such a problem from occurring, the shooting position of the camera in the virtual space image and the state of the lens operation such as zooming coincide with the image shot by the real space image shooting means 10 in real time. It is necessary to let If it is a moving image, a new image must be created for each frame at a timing without delay.
前述のカメラ操作情報検出手段11によって検出され信号として出力されたカメラ操作情報は、まず仮想空間映像作成手段12に入力され、ここでカメラの位置やアングル、ズームなどの情報を基にして、実空間映像に合わせた状態の仮想空間映像が作成される。 The camera operation information detected and output as a signal by the camera operation information detection means 11 is first input to the virtual space image creation means 12, where the actual operation information is obtained based on information such as the camera position, angle, and zoom. A virtual space image is created in accordance with the space image.
(映像の合成と表示)
映像合成手段13は、前記の実空間映像撮影手段10によって撮影された被写体5の映像と、仮想空間映像作成手段12によって作成された背景となる仮想空間映像とを合成する機能を有する。
(Video composition and display)
The
映像の合成処理は、カメラシステム部2の画像処理プロセッサ22を搭載した第二コンピュータ23によって行われる。その処理は、まず実空間映像から背景のブルーバック領域を除き、被写体5のみを切り出した映像を作成し、次に同期する仮想空間映像と重ねて合成する。この合成処理を1フレーム毎に行い、映像信号として出力する。
The video composition process is performed by the
映像表示手段14は、前記映像合成手段13によって作成された合成映像を入力し、ここれを映像表示用モニタ24に表示させる。ユーザ4は、このモニタ24に表示された合成映像を視認する。
The video display means 14 inputs the synthesized video created by the video synthesis means 13 and displays it on the
すなわち、これらの手段を備えたことにより、カメラシステム部2では、実空間映像の撮影を行いながら映像の合成処理および合成映像の表示までをリアルタイムで行うことができるので、ユーザはリアルタイムで合成映像を確認でき、これを見ながらさらにカメラを操作して、映像を制作できる。 In other words, by providing these means, the camera system unit 2 can perform real-time video image synthesis processing and composite video display while shooting a real space video image. You can check the image and operate the camera while watching this to produce video.
また、ここで作成された合成映像は、特に図示しないが、外部の映像記録装置や外部モニタ、放送用設備と接続されることにより、映像を記録保存したり、制作関係者や外部の人間が確認することを可能にすることもできる。 Although the composite video created here is not particularly shown, it can be connected to an external video recording device, an external monitor, or a broadcasting facility to record or save the video, It can also be possible to confirm.
(システムの処理手順)
図2は、本発明のシステムにおける操作手順の一例であり、図1のシステムの処理手順を示すフローチャートである。ここでステップS1〜S9は、本発明のシステムのユーザが映像を制作する手順である。
(System processing procedure)
FIG. 2 is an example of an operation procedure in the system of the present invention, and is a flowchart showing a processing procedure of the system in FIG. Here, steps S1 to S9 are procedures in which a user of the system of the present invention produces a video.
まず、ステップS1において、ユーザ4がカメラを操作して被写体5を撮影する。このとき、ユーザはユーザ自身の意図に応じて自由にカメラを操作することができ、撮影しようとする被写体と、合成しようとする仮想空間映像との合成後の映像を予測した上で、適切なカメラの位置や向き、ズーム等のレンズ操作などを決定することができる。
First, in step S1, the user 4 operates the camera to photograph the
また、固定した位置に留まらず、撮影中にカメラを移動させたり、ズーム操作を行うことも、ユーザの意図によって随時行うことができる。すなわち、このようなカメラの操作に関わる設定は一通りでなく、撮影中に随時変化することがある。 In addition, the camera can be moved during zooming or zooming operation can be performed at any time according to the user's intention. That is, such settings related to the operation of the camera are not one way and may change at any time during shooting.
次にステップS2において、ユーザ4がカメラを操作している際のカメラの位置や向き
、レンズ操作などのカメラ操作情報が検出される。
ここでは、カメラの操作状態を知るために、カメラ操作情報検出手段11で前述のGPS機能やICタグセンサ、ジャイロセンサなどの各種センサを用いてカメラ操作情報を検出し、これをCGシステム部3の仮想空間映像作成手段12へ送信する。カメラ操作情報は、撮影映像が動画であれば、動画フレーム毎にリアルタイムで更新して送信される。
Next, in step S2, camera operation information such as the position and orientation of the camera and the lens operation when the user 4 is operating the camera is detected.
Here, in order to know the operation state of the camera, the camera operation
そして次のステップS3では、送信されたカメラ操作情報、すなわちカメラの位置や撮影方向およびレンズ絞り等のカメラ操作に関する情報を基にして、三次元CGプログラム20において仮想空間映像を描画するための視点位置や角度および映像作成範囲などに関する描画情報を更新する。
ただし、ユーザ4がカメラ操作を静止させているときはカメラ操作情報に変化がないので、描画情報は更新せず直前の情報を維持したままにすることができる。
In the next step S3, a viewpoint for rendering a virtual space image in the three-
However, since the camera operation information does not change when the user 4 stops the camera operation, the drawing information is not updated and the previous information can be maintained.
ステップS4では、前記ステップS3で更新された描画情報をもとにして三次元CGプログラム20が仮想空間映像を作成しデータ出力する。この映像データは動画フレーム毎に作成されるが、前記の描画情報が更新されないときは映像の変化はないので直前のデータをそのまま適用することができ、描画情報が更新された場合には直ちに映像データを作成するようにして、リアルタイムで前記カメラ操作情報の変化に追随した映像データが出力される。
In step S4, the three-
またステップS5では、ステップS4と並行して前記のカメラによる実空間映像の撮影が行われ、その映像データはカメラシステム部2の第二コンピュータ23に入力される。
In step S5, real space video is captured by the camera in parallel with step S4, and the video data is input to the
ステップS6では、前記ステップS4で作成された仮想空間映像データを、通信用インターフェースを介してカメラシステム部2の第二コンピュータ23へデータ転送する。
In step S6, the virtual space video data created in step S4 is transferred to the
そしてステップS7では、第二コンピュータ23において、ステップS5で作成された実空間映像とステップS6で転送された仮想空間映像データとを合成する。このとき、実空間映像は被写体の背景に前述のブルーバックスクリーンを用いており、クロマキー処理によって映像から被写体を切り出し、背景として仮想空間映像を合成する。
In step S7, the
この合成処理は動画フレーム毎にリアルタイムに行われるが、このような処理には高速性が要求されるため、第二コンピュータ23の画像処理プロセッサ22を用いて映像合成の演算処理を行うことが好ましい。
This composition processing is performed in real time for each moving image frame. Since such processing requires high speed, it is preferable to perform image composition calculation processing using the
ステップS8では、合成処理した映像をカメラシステム部2に備えられた映像確認用のモニタ24の画面に表示する。ここで表示された合成映像は、前記の通り実空間で撮影された被写体と、三次元CGで作成された仮想空間の背景とが合成された映像であり、カメラ操作と仮想空間の視認される方向とが連動した映像である。 In step S8, the synthesized video is displayed on the screen of the video confirmation monitor 24 provided in the camera system unit 2. The composite video displayed here is a video in which the subject photographed in the real space and the background of the virtual space created by the three-dimensional CG are synthesized as described above, and the camera operation and the virtual space are visually recognized. This is an image that is linked to the direction.
ステップS9は、モニタ24に表示された合成映像をユーザ4が見て確認する工程である。ここでユーザ4は、被写体5と仮想空間との合成映像に問題がないかをチェックすることができる。モニタ24は、カメラのファインダー部分にあれば撮影を行いながらファインダーを見ることができ、ユーザ4が効率的に確認できる。
Step S9 is a step in which the user 4 sees and confirms the composite video displayed on the
以上のステップS1〜S9を実施することによって、仮想現実空間映像の作成および映像の確認をリアルタイムに行うことができる。さらにこの後、ステップS1に戻ってカメラ操作を変更した場合でも、引き続き同様に各ステップを実施することにより、合成映像の作成と確認が行われる。 By performing the above steps S1 to S9, creation of a virtual reality space image and confirmation of the image can be performed in real time. Thereafter, even if the process returns to step S1 and the camera operation is changed, the composite video is created and confirmed by performing each step in the same manner.
以上の説明ではシステムの基本的な構成による実施例および実施手順を示したが、本発明のシステムはここで示した構成に限るものではなく、必要に応じて構成要素を加えたり変更したりして実施することができる。 In the above description, an example and an implementation procedure based on the basic configuration of the system are shown. However, the system of the present invention is not limited to the configuration shown here, and components may be added or changed as necessary. Can be implemented.
本発明の仮想現実空間映像制作システムによれば、ユーザによるカメラの動作と連動した仮想映像をリアルタイムに作成して表示することができるので、スタジオ内に高価なセットを組むことなく視聴者に効果的にアピールできる映像が安いコストで制作することが可能となる。 According to the virtual reality space video production system of the present invention, it is possible to create and display in real time a virtual video that is linked to the camera operation by the user, which is effective for the viewer without forming an expensive set in the studio. It is possible to produce images that can be appealing at a low cost.
1 仮想現実映像制作システム
2 カメラシステム部
3 CGシステム部
4 ユーザ
5 被写体
10 実空間映像撮影手段
11 カメラ操作情報検出手段
12 仮想空間映像作成手段
13 映像合成手段
14 映像表示手段
20 3次元CGプログラム
21 第一コンピュータ
22 画像処理プロセッサ
23 第二コンピュータ
24 モニタ
DESCRIPTION OF SYMBOLS 1 Virtual reality video production system 2
Claims (7)
カメラを用いて実空間映像を撮影する実空間映像撮影手段と、
前記仮想空間映像と実空間映像を合成して画面に表示する映像合成表示手段と、
ユーザーの操作に基づくカメラ操作情報を検出するカメラ操作情報検出手段とを少なくとも備え、
前記カメラ操作情報を前記仮想空間映像作成手段に入力して、このカメラ操作情報を反映した仮想空間映像を映像フレーム毎に繰り返し作成することを特徴とする、
仮想現実空間映像制作システム。 A virtual reality space video production system that mixes virtual space video and real space video using a camera, creating virtual space video using a computer; and
Real space video photographing means for photographing real space video using a camera;
Video composition display means for synthesizing the virtual space image and the real space image and displaying on the screen;
At least camera operation information detecting means for detecting camera operation information based on user operation,
The camera operation information is input to the virtual space video creation means, and a virtual space video reflecting the camera operation information is repeatedly created for each video frame,
Virtual reality space video production system.
仮想空間および実空間で共通する基準点を基にして前記カメラの実空間上の位置情報を取得するカメラ位置取得工程と、
前記カメラの撮影方向情報を取得する撮影方向取得工程と、
前記カメラの焦点距離およびレンズ絞り値を含むカメラ設定情報を取得するカメラ設定情報取得工程と、
さらにこれらの工程で取得したカメラ操作情報を出力し、無線通信または有線ケーブルを介して前記仮想空間映像作成手段に入力するカメラ操作情報出力工程を少なくとも含むことを特徴とする、
前記請求項1に記載の仮想現実空間映像制作システム。 The camera operation information detection means includes
A camera position acquisition step of acquiring position information of the camera in real space based on a common reference point in virtual space and real space;
A shooting direction acquisition step of acquiring shooting direction information of the camera;
A camera setting information acquisition step for acquiring camera setting information including a focal length and a lens aperture value of the camera;
Furthermore, it includes at least a camera operation information output step of outputting the camera operation information acquired in these steps and inputting the information to the virtual space image creation means via wireless communication or a wired cable.
The virtual reality space video production system according to claim 1.
かつ、前記カメラ位置取得工程はGPS機能を用いてカメラ位置情報を取得することを特徴とする、前記請求項1または2に記載の仮想現実空間映像制作システム。 The camera operation information detection means includes a module with a GPS function,
3. The virtual reality space video production system according to claim 1 or 2, wherein the camera position acquisition step acquires camera position information using a GPS function.
かつ、前記カメラ位置取得工程は前記ICタグの位置センサー機能を用いてカメラ位置情報を取得することを特徴とする、
前記請求項1または2に記載の仮想現実空間映像制作システム。 The camera operation information detection means includes an IC tag equipped with a position sensor function,
And the said camera position acquisition process acquires camera position information using the position sensor function of the said IC tag,
The virtual reality space video production system according to claim 1 or 2.
かつ前記撮影方向取得工程はジャイロセンサによりカメラを動かす際の角速度を検出してカメラの撮影方向情報を取得することを特徴とする、
前記請求項1から4のいずれかに記載の仮想現実空間映像制作システム。 The camera operation information detection means includes a gyro sensor (angular velocity sensor),
In addition, the shooting direction acquisition step detects angular velocity when the camera is moved by a gyro sensor and acquires shooting direction information of the camera.
The virtual reality space video production system according to any one of claims 1 to 4.
前記実空間映像の被写体を人物や物体としてその背景にブルーバックスクリーンを用い、これに前記仮想空間映像を背景として合成処理することを特徴とする、
前記請求項1から5のいずれかに記載の仮想現実空間映像制作システム。 The video composition display means is
A subject of the real space image is a person or an object, and a blue back screen is used for the background, and the virtual space image is combined with the background as a background,
The virtual reality space video production system according to any one of claims 1 to 5.
前記映像合成表示手段は、この画像処理プロセッサを用いて映像フレーム毎に前記合成処理を行い、その合成映像を表示用モニタに表示することを特徴とする、
前記請求項1から6のいずれかに記載の仮想現実空間映像制作システム。 The camera comprises an image processor and a display monitor;
The video composition display means performs the composition processing for each video frame using the image processor, and displays the composite video on a display monitor.
The virtual reality space video production system according to any one of claims 1 to 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009179577A JP2011035638A (en) | 2009-07-31 | 2009-07-31 | Virtual reality space video production system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009179577A JP2011035638A (en) | 2009-07-31 | 2009-07-31 | Virtual reality space video production system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011035638A true JP2011035638A (en) | 2011-02-17 |
Family
ID=43764279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009179577A Pending JP2011035638A (en) | 2009-07-31 | 2009-07-31 | Virtual reality space video production system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011035638A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013136601A1 (en) * | 2012-03-16 | 2013-09-19 | 富士フイルム株式会社 | Image display device, photography device in which image display device is mounted as viewfinder device, and image display method |
JP2014192613A (en) * | 2013-03-26 | 2014-10-06 | Canon Inc | Image processing apparatus and method, and imaging apparatus |
WO2015098807A1 (en) * | 2013-12-24 | 2015-07-02 | チームラボ株式会社 | Image-capturing system for combining subject and three-dimensional virtual space in real time |
CN110637326A (en) * | 2017-05-24 | 2019-12-31 | 古野电气株式会社 | Image generation device |
CN113992877A (en) * | 2021-09-16 | 2022-01-28 | 南昌威爱信息科技有限公司 | Virtual video shooting based method and system |
EP4236291A1 (en) | 2022-02-25 | 2023-08-30 | Canon Kabushiki Kaisha | Imaging apparatus, system, control method, program, and storage medium |
WO2024070618A1 (en) * | 2022-09-26 | 2024-04-04 | ソニーグループ株式会社 | Imaging device, program, and imaging system |
-
2009
- 2009-07-31 JP JP2009179577A patent/JP2011035638A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013136601A1 (en) * | 2012-03-16 | 2013-09-19 | 富士フイルム株式会社 | Image display device, photography device in which image display device is mounted as viewfinder device, and image display method |
CN104169795A (en) * | 2012-03-16 | 2014-11-26 | 富士胶片株式会社 | Image display device, photography device in which image display device is mounted as viewfinder device, and image display method |
JP5640175B2 (en) * | 2012-03-16 | 2014-12-10 | 富士フイルム株式会社 | Image display apparatus, photographing apparatus equipped with the image display apparatus as a finder apparatus, and image display method |
US9167166B2 (en) | 2012-03-16 | 2015-10-20 | Fujifilm Corporation | Image display device, imaging apparatus mounted with image display device as finder device, and image display method |
JP2014192613A (en) * | 2013-03-26 | 2014-10-06 | Canon Inc | Image processing apparatus and method, and imaging apparatus |
WO2015098807A1 (en) * | 2013-12-24 | 2015-07-02 | チームラボ株式会社 | Image-capturing system for combining subject and three-dimensional virtual space in real time |
JPWO2015098807A1 (en) * | 2013-12-24 | 2017-03-23 | チームラボ株式会社 | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time |
CN110637326A (en) * | 2017-05-24 | 2019-12-31 | 古野电气株式会社 | Image generation device |
CN113992877A (en) * | 2021-09-16 | 2022-01-28 | 南昌威爱信息科技有限公司 | Virtual video shooting based method and system |
EP4236291A1 (en) | 2022-02-25 | 2023-08-30 | Canon Kabushiki Kaisha | Imaging apparatus, system, control method, program, and storage medium |
WO2024070618A1 (en) * | 2022-09-26 | 2024-04-04 | ソニーグループ株式会社 | Imaging device, program, and imaging system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6918455B2 (en) | Image processing equipment, image processing methods and programs | |
JP4878083B2 (en) | Image composition apparatus and method, and program | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
CN104641633B (en) | System and method for combining the data from multiple depth cameras | |
JP2019030007A (en) | Electronic device for acquiring video image by using plurality of cameras and video processing method using the same | |
JP2011035638A (en) | Virtual reality space video production system | |
JP2008146109A (en) | Image processing method and image processor | |
JP2003219271A (en) | System for synthesizing multipoint virtual studio | |
GB2485036A (en) | Preventing subject occlusion in a dual lens camera PIP display | |
JP7080103B2 (en) | Imaging device, its control method, and program | |
KR20090088325A (en) | Image processing apparatus, image processing method and imaging apparatus | |
JP5963006B2 (en) | Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program | |
KR102382247B1 (en) | Image processing apparatus, image processing method, and computer program | |
JP2004193962A (en) | Image communication equipment, image communication method, and computer program | |
EP3190566A1 (en) | Spherical virtual reality camera | |
JP2008252493A (en) | File generating method and device, and stereoscopic image display control method and device | |
TW201824178A (en) | Image processing method for immediately producing panoramic images | |
JP6004978B2 (en) | Subject image extraction device and subject image extraction / synthesis device | |
US10051192B1 (en) | System and apparatus for adjusting luminance levels of multiple channels of panoramic video signals | |
US11636708B2 (en) | Face detection in spherical images | |
US10148874B1 (en) | Method and system for generating panoramic photographs and videos | |
JP5509986B2 (en) | Image processing apparatus, image processing system, and image processing program | |
CN112738399A (en) | Image processing method and device and electronic equipment | |
WO2012035927A1 (en) | Remote video monitoring system | |
JP2004128588A (en) | Imaging unit |