JP2011035638A - Virtual reality space video production system - Google Patents

Virtual reality space video production system Download PDF

Info

Publication number
JP2011035638A
JP2011035638A JP2009179577A JP2009179577A JP2011035638A JP 2011035638 A JP2011035638 A JP 2011035638A JP 2009179577 A JP2009179577 A JP 2009179577A JP 2009179577 A JP2009179577 A JP 2009179577A JP 2011035638 A JP2011035638 A JP 2011035638A
Authority
JP
Japan
Prior art keywords
camera
video
operation information
virtual
space video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009179577A
Other languages
Japanese (ja)
Inventor
Koichi Yoshino
弘一 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2009179577A priority Critical patent/JP2011035638A/en
Publication of JP2011035638A publication Critical patent/JP2011035638A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system capable of synthesizing virtual space video images using three-dimensional CG with real space video images photographed by a camera to display the video images in real time, and to further provide a system by which restriction on a range of a camera operation is sharply mitigated, and whose device configuration is made into small scale to sharply reduce video production costs. <P>SOLUTION: This virtual reality space video production system is at least provided with a virtual space video creation means 12 for creating the virtual space video images using a computer a real space video photographing means 10 for photographing the real space video images using the camera a video synthesis display means 13 for synthesizing the virtual space video images with the real space video images to be displayed on a display screen, and a camera information detection means 11 for detecting camera operation information based on an operation of a user, inputs the camera operation information to the virtual space video creation means, and repeatedly creates virtual space video images reflecting the camera operation information for every video frame. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、カメラを用いた仮想現実空間映像制作システムに関するもので、実写カメラとCG用コンピュータシステムを用いて実写映像およびその撮影位置に対応する仮想映像とを合成してリアルタイムに表示するシステムとして、ユーザがCGを使った映像制作および映像視聴を効率的かつ効果的に行うシステムに関する。   The present invention relates to a virtual reality space video production system using a camera, and as a system for synthesizing and displaying a real video and a virtual video corresponding to the shooting position in real time using a real camera and a computer system for CG. The present invention relates to a system in which a user efficiently and effectively performs video production and video viewing using CG.

近年の映像技術の進歩により、映像の利用環境、特に上映環境は以前より手軽なものとして我々の日常生活に入り込んでいる。こうした状況は高品質の映像ソフトの需要を高める一方、より効率的な制作手法が求められる。   Due to recent advances in video technology, the video usage environment, particularly the screening environment, has entered our daily lives as being easier than before. While this situation increases the demand for high-quality video software, more efficient production techniques are required.

パーソナルコンピュータをはじめとするハードウェア面での情報処理技術の発達は、高精細な映像のような大容量データを上映、加工する際の処理にかかる時間と労力を大きく軽減している。ただし、映像制作の工程(撮影→加工→編集)には従来と比べて大きな変化はない。   The development of information processing technology in terms of hardware such as personal computers has greatly reduced the time and labor required for processing and processing large volumes of data such as high-definition video. However, the video production process (photographing → processing → editing) has not changed significantly compared to the conventional method.

しかし、この制作工程の中でも、加工の工程、特に、実写映像とコンピュータグラフィクス(以下、CGという)の合成処理は、映画やテレビ番組等での活用がますます多くなる反面、手間とコストのかかる作業となっている。   However, in this production process, the processing process, especially the synthesis of live-action video and computer graphics (hereinafter referred to as CG), is increasingly being used in movies and TV programs, but it takes time and money. It has become work.

ここで、合成処理の方法であるが、一般的には次のようになる。
まず、実写ではブルーバックと呼ばれる青色などの単色の背景を背にして人物などの被写体を撮影し、映像合成装置によってブルーバック領域から人物領域を切り出してキー信号として抽出し、別に作成した仮想空間映像を電子信号として合成処理する、クロマキー合成といわれる手法がある。
また、近年は実写のカメラの動作に連動したCG映像を生成し、これをカメラの実写映像と合成する手法を用いる、バーチャルスタジオと呼ばれるシステムが知られている。
Here, the synthesis processing method is generally as follows.
First, in live-action shooting, a subject such as a person is photographed against a background of a single color such as blue, called a blue back, and a human space is cut out from the blue back area by a video composition device and extracted as a key signal. There is a technique called chroma key composition, in which video is synthesized as an electronic signal.
In recent years, a system called a virtual studio is known that uses a method of generating a CG image linked to the operation of a live-action camera and synthesizing it with the live-action image of the camera.

従来、このような映像の合成における問題の解決手段として、リアルタイム三次元CGによるバーチャルスタジオシステムがあり、その技術開発は現在も多方面において取り組まれているが、このバーチャルスタジオシステムを用いることにより、撮影と加工(実写とCGの合成)の時間を大幅に短縮することが可能になった。   Conventionally, there is a virtual studio system based on real-time three-dimensional CG as a means for solving such a problem in the composition of video, and its technical development has been tackled in various fields, but by using this virtual studio system, The time required for shooting and processing (compositing live action and CG) can be greatly reduced.

特に映像の合成にかかる加工処理時間の短縮によって、撮影中リアルタイムで最終映像の確認ができるようになったため、仮想空間の正確な合成が必要な映像制作、即時的な配信が必要なテレビ番組の制作の現場などで活用されている。   In particular, because the processing time required for video composition has been shortened, the final video can be checked in real time during shooting, so video production that requires accurate composition of the virtual space, and TV programs that require immediate distribution. It is used in production sites.

特許公開2004−56742号公報Japanese Patent Publication No. 2004-56742 特許公開2007−42073号公報Japanese Patent Publication No. 2007-42073 特許公開2008−33219号公報Japanese Patent Publication No. 2008-33219

しかしながら、前記背景技術で触れたような従来の三次元バーチャルスタジオシステムには、撮影環境面での制約があった。まず、撮影の際にカメラ動作の範囲がスタジオ内の
一部のみに限定されてしまうことがあり、また、仮想空間に適切に配置するために、実空間でのカメラを正確な位置や速度で制御するための装置も、例えばクレーンを用いた大型カメラを用いるなど、かなり大掛かりなものになっていた。
However, the conventional three-dimensional virtual studio system as mentioned in the background art has restrictions on the shooting environment. First, when shooting, the range of camera operation may be limited to only a part of the studio, and in order to properly place in the virtual space, the camera in the real space is at an accurate position and speed. The control device has been quite large, for example, using a large camera using a crane.

すなわち、通常の実写撮影の場合に比べて、カメラ動作の範囲が大幅に制限されてしまい、かつカメラシステム自体も大掛かりな装置構成になるため、コストが大きくかかってしまうという問題があった。   That is, the camera operation range is greatly limited and the camera system itself has a large apparatus configuration as compared with the case of normal live-action shooting, and there is a problem that the cost is increased.

一方、小規模な予算の映像制作の場合においては、大掛かりな装置構成は採用できず、カメラ位置をなるべく固定して撮影を行っていたため、低コストでできるが映像効果としては変化に乏しい画面構成での映像になってしまうという問題があった。   On the other hand, in the case of video production with a small budget, a large-scale device configuration could not be adopted, and shooting was performed with the camera position fixed as much as possible. There was a problem that it would be a video in.

そのため、スタジオ内での撮影機材の配置やカメラを動かす範囲に制約の多い既存のバーチャルスタジオシステムでの撮影にも、安価な装置構成で、しかもより高い映像効果が与えられるような映像制作システムが求められていた。   For this reason, there is a video production system that can provide higher video effects with an inexpensive device configuration even when shooting with existing virtual studio systems, where there are many restrictions on the arrangement of shooting equipment and the range in which the camera can be moved. It was sought after.

本発明は、上記のような問題を解決するためになされたものであり、その目的とするところは、三次元CGによる仮想空間映像を作成し、カメラにより撮影された実空間映像とその映像の撮影位置に適合する仮想空間映像とをリアルタイムに合成して映像を表示できる映像制作システムを提供することにある。
さらに本発明の目的は、システムの装置構成を小規模化して映像制作コストを低減させることが可能なシステムを提供することにある。
The present invention has been made in order to solve the above-described problems, and an object of the present invention is to create a virtual space image by 3D CG and capture a real space image taken by a camera and the image. An object of the present invention is to provide a video production system capable of displaying a video by synthesizing a virtual space video suitable for the shooting position in real time.
A further object of the present invention is to provide a system capable of reducing the video production cost by reducing the system configuration of the system.

本発明において、上記課題を達成するために、請求項1に記載の仮想現実空間映像制作システムは、コンピュータを用いて仮想空間映像を作成する仮想空間映像作成手段と、
カメラを用いて実空間映像を撮影する実空間映像撮影手段と、
前記仮想空間映像と実空間映像を合成して画面に表示する映像合成表示手段と、
ユーザーの操作に基づくカメラ操作情報を検出するカメラ操作情報検出手段とを少なくとも備え、前記カメラ操作情報を前記仮想空間映像作成手段に入力して、このカメラ操作情報を反映した仮想空間映像を映像フレーム毎に繰り返し作成することを特徴とする。
In the present invention, in order to achieve the above object, a virtual reality space video production system according to claim 1 includes virtual space video creation means for creating a virtual space video using a computer,
Real space video photographing means for photographing real space video using a camera;
Video composition display means for synthesizing the virtual space image and the real space image and displaying on the screen;
At least camera operation information detecting means for detecting camera operation information based on a user's operation, inputting the camera operation information to the virtual space image creating means, and generating a virtual space image reflecting the camera operation information as a video frame It is characterized by being repeatedly created every time.

ここで仮想現実空間映像とは、コンピュータを用いてCGで作成された仮想空間映像と現実空間の実体である被写体を撮影した実空間映像とを合成した映像を指す。   Here, the virtual reality space image refers to an image obtained by synthesizing a virtual space image created by CG using a computer and a real space image obtained by photographing a subject that is an entity of the real space.

本発明においては、ユーザーがカメラを操作する際のカメラの位置や向きおよびレンズ操作に関する情報(以下、カメラ操作情報という)が、CGの描画パラメータとして仮想空間映像を作成する際に反映され、その結果カメラの動作と連動した仮想空間映像が作成される。   In the present invention, information on the position and orientation of the camera and the lens operation when the user operates the camera (hereinafter referred to as camera operation information) is reflected when creating a virtual space image as a CG drawing parameter. As a result, a virtual space image linked with the operation of the camera is created.

これにより、実空間映像と仮想空間映像との合成映像は、実体である被写体があたかも仮想空間の中に入り込んでいるかのように見える。また、カメラ操作情報を反映した仮想空間映像はコンピュータにより映像フレーム毎に繰り返し作成され表示されるため、リアルタイムで動画として表示される。   As a result, the composite image of the real space image and the virtual space image looks as if the subject, which is a substance, enters the virtual space. Further, since the virtual space video reflecting the camera operation information is repeatedly created and displayed for each video frame by the computer, it is displayed as a moving image in real time.

請求項2に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段が、仮想空間および実空間で共通する基準点を基にして前記カメラの実空間上の位置情報を取得するカメラ位置取得工程と、前記カメラの撮影方向情報を取得する撮影方向取得工程と、前記カメラの焦点距離およびレンズ絞り値を含むカメラ設定情報を取得するカメラ設定情報取得工程と、さらにこれらの工程で取得したカメラ
操作情報を出力し、無線通信または有線ケーブルを介して前記仮想空間映像作成手段に入力するカメラ操作情報出力工程を備えることを特徴とする。
The virtual reality space video production system according to claim 2,
The camera operation information detecting means acquires a position information of the camera in the real space based on a common reference point in the virtual space and the real space, and a shooting for acquiring the shooting direction information of the camera Direction acquisition step, camera setting information acquisition step for acquiring camera setting information including the focal length and lens aperture value of the camera, and further output the camera operation information acquired in these steps, via wireless communication or wired cable And a camera operation information output step for inputting to the virtual space video creating means.

カメラ操作情報は、主にカメラの動きすなわち位置の変化に関する情報と、カメラの撮影方向(アングル)の変化に関する情報と、画面のズームやフォーカス・レンズ絞りなどのカメラ設定に関する情報とを少なくとも含む。
そしてこれらのカメラ操作情報をCG作成用のコンピュータに出力することによって、それらの情報をCGの描画パラメータとして仮想空間映像が作成される。
The camera operation information mainly includes at least information relating to camera movement, that is, a change in position, information relating to a change in the shooting direction (angle) of the camera, and information relating to camera settings such as zooming of the screen and focus / lens aperture.
Then, by outputting these camera operation information to a computer for CG creation, a virtual space image is created using the information as CG drawing parameters.

請求項3に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段がGPS機能付モジュールを備え、かつ、前記カメラ位置取得工程はGPS機能を用いてカメラ位置情報を取得することを特徴とする。
The virtual reality space video production system according to claim 3,
The camera operation information detection unit includes a module with a GPS function, and the camera position acquisition step acquires camera position information using a GPS function.

請求項4に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段が位置センサー機能を搭載したICタグを備え、
かつ、前記カメラ位置取得工程は前記ICタグの位置センサー機能を用いてカメラ位置情報を取得することを特徴とする。
The virtual reality space video production system according to claim 4,
The camera operation information detection means includes an IC tag equipped with a position sensor function,
In the camera position acquisition step, camera position information is acquired using a position sensor function of the IC tag.

請求項5に記載の仮想現実空間映像制作システムは、
前記カメラ操作情報検出手段がジャイロセンサ(角速度センサ)を備え、
かつ前記撮影方向取得工程はジャイロセンサによりカメラを動かす際の角速度を検出してカメラの撮影方向情報を取得することを特徴とする。
The virtual reality space video production system according to claim 5,
The camera operation information detection means includes a gyro sensor (angular velocity sensor),
In addition, the photographing direction acquisition step is characterized by detecting the angular velocity when the camera is moved by the gyro sensor and acquiring the photographing direction information of the camera.

請求項6に記載の仮想現実空間映像制作システムは、
前記映像合成表示手段が、前記実空間映像の被写体を人物や物体としてその背景にブルーバックスクリーンを用い、これに前記仮想空間映像を背景として合成処理することを特徴とする。
The virtual reality space video production system according to claim 6,
The video composition display means is characterized in that the subject of the real space video is a person or object and a blue back screen is used as the background, and the virtual space video is used as a background for this.

請求項7に記載の仮想現実空間映像制作システムは、
前記カメラが画像処理プロセッサおよび表示用モニタを備え、前記映像合成表示手段は、この画像処理プロセッサを用いて映像フレーム毎に前記合成処理を行い、その合成映像を表示用モニタに表示することを特徴とする。
The virtual reality space video production system according to claim 7,
The camera includes an image processing processor and a display monitor, and the video composition display means performs the composition processing for each video frame using the image processing processor and displays the composite video on the display monitor. And

本発明によれば、仮想空間映像と実空間映像とを合成して表示する仮想現実空間映像制作システムを用いて、ユーザによるカメラの動作と連動した仮想映像をリアルタイムに作成して表示し確認することができる。
また、本発明のシステムの構成は、カメラシステムが位置センサおよび方向センサを備え、簡単な構成でカメラの位置や向きの情報を取得して出力するようにしたので、大幅にコストを低減したシステムを構築できる。
According to the present invention, a virtual reality space video production system that synthesizes and displays a virtual space image and a real space image is used to create, display, and confirm a virtual image linked to the camera operation by the user in real time. be able to.
In addition, the system configuration of the present invention is a system in which the camera system includes a position sensor and a direction sensor, and acquires and outputs information on the position and orientation of the camera with a simple configuration. Can be built.

本発明の実施態様におけるシステム構成の一例を示すシステム図である。It is a system diagram showing an example of a system configuration in an embodiment of the present invention. 本発明の実施態様における操作手順の一例を示すフローチャートである。It is a flowchart which shows an example of the operation procedure in the embodiment of this invention. 本発明の実施態様における操作手順の一例を示すフローチャートである。It is a flowchart which shows an example of the operation procedure in the embodiment of this invention.

以下、本発明に係る仮想現実空間映像制作システムの実施の形態を図面に基づいて詳細説明する。   Embodiments of a virtual reality space video production system according to the present invention will be described below in detail with reference to the drawings.

図1は、本発明の実施態様におけるシステムの基本構成を示す。
本発明の実施態様においては、仮想現実映像制作システム1は大きく2つの装置構成に分かれており、その一つは実写映像の撮影と映像の合成表示とを行うカメラシステム部2、もう一つは三次元CGによる仮想空間映像の作成を行うCGシステム部3である。これらのカメラシステム部2とCGシステム部3とは、リアルタイムで映像情報を通信するために高速処理が可能な通信用インターフェースで接続されている。
FIG. 1 shows a basic configuration of a system according to an embodiment of the present invention.
In the embodiment of the present invention, the virtual reality video production system 1 is roughly divided into two device configurations, one of which is a camera system unit 2 that performs shooting of live-action video and composite display of the video. This is a CG system unit 3 that creates a virtual space image by three-dimensional CG. These camera system unit 2 and CG system unit 3 are connected by a communication interface capable of high-speed processing in order to communicate video information in real time.

(カメラシステム部)
まず、図1の点線で囲ったカメラシステム部2では、ユーザ4によって実空間映像撮影手段10を用いて被写体5が撮影される。撮影された映像は映像合成手段13を用いて後述する仮想空間映像と合成され、その合成映像は映像表示手段14によってモニタ24の画面に表示される。
(Camera system part)
First, in the camera system unit 2 surrounded by a dotted line in FIG. 1, the subject 4 is photographed by the user 4 using the real space video photographing means 10. The captured video is synthesized with a virtual space video, which will be described later, using the video synthesizing unit 13, and the synthesized video is displayed on the screen of the monitor 24 by the video display unit 14.

なお、ここでユーザとはカメラを操作して映像を撮影する者を指す。また映像は通常の場合動画であるが、静止画であってもよい。映像種類は、アナログまたはデジタルの種別、データの信号種類や圧縮・非圧縮等の仕様規格、また記録装置や記録媒体、記録時間などにおいて特に制限はなく、適宜目的に沿って使用する。さらにカメラ装置本体や撮影方式等も、適宜用いることができる。   Here, the user refers to a person who operates the camera and takes a video. The video is usually a moving image, but may be a still image. The video type is not particularly limited in terms of analog or digital type, data signal type, specification standard such as compression / non-compression, recording apparatus, recording medium, and recording time, and is used according to the purpose as appropriate. Furthermore, the camera device main body, the photographing method, and the like can be used as appropriate.

カメラシステム部2の主要な装置構成は、撮影用カメラ装置本体と、映像表示用モニタ装置、前記GPSやICタグセンサ等の位置センサ用装置と、画像処理プロセッサを搭載したコンピュータ装置およびそれらを接続するインターフェースを含む。
ただし、本発明のシステムは、上記の装置構成に限定するものではなく、適宜必要に応じて構成を変更すること、あるいは装置を追加することができる。
The main device configuration of the camera system unit 2 is to connect a photographing camera device main body, a video display monitor device, a position sensor device such as the GPS or IC tag sensor, a computer device equipped with an image processor, and them. Includes an interface.
However, the system of the present invention is not limited to the above-described apparatus configuration, and the configuration can be appropriately changed or an apparatus can be added as necessary.

実空間映像撮影手段10は、ユーザ4がカメラ本体を操作して被写体5を撮影する際に、被写体5の背景としてブルーバックスクリーンを用いる。これは前述のように、クロマキー処理を施すことによって被写体とする人物や物体のみを映像領域として背景から切り出すため、ブルーやグリーンなどの単色の背景を用いるものである。   The real space video photographing means 10 uses a blue back screen as the background of the subject 5 when the user 4 operates the camera body to photograph the subject 5. As described above, since only a person or an object as a subject is cut out from the background as a video area by performing chroma key processing, a monochrome background such as blue or green is used.

撮影する際に、たとえば演出上の意図などによって、ユーザ4がカメラを操作して位置を移動させカメラアングルを変えたり、カメラと被写体間の距離を変えたりする場合がある。このようなカメラ操作の情報を本システムで活用するため、撮影が行われているときには前記カメラ操作情報検出手段11によって逐次カメラ操作情報を検出し、この情報を後述する仮想空間映像作成手段12へ出力する。   When shooting, for example, the user 4 may move the position by moving the camera to change the camera angle or change the distance between the camera and the subject depending on the intention of the production. In order to utilize such camera operation information in this system, the camera operation information detection unit 11 sequentially detects camera operation information when shooting is being performed, and this information is transmitted to a virtual space image creation unit 12 described later. Output.

ユーザ4はカメラを操作して撮影するため、カメラの位置や撮影の視点角度(アングル)、レンズ操作(ズーム、パン、フォーカス等)のようなカメラ撮影に関係する設定を決める。この設定に従って、前記実空間映像撮影手段10において撮影が行われる。そしてこのようなカメラに関する設定情報が、カメラ操作情報検出手段11によってカメラ操作情報として信号化される。   Since the user 4 operates the camera to shoot, the camera 4 determines settings related to camera shooting such as the camera position, shooting viewpoint angle (angle), and lens operations (zoom, pan, focus, etc.). According to this setting, the real space video photographing means 10 performs photographing. Then, such setting information relating to the camera is signaled as camera operation information by the camera operation information detecting means 11.

(カメラ操作情報検出手段)
ここで、図3を用いて、カメラ操作情報検出手段11の主な実施手順を説明する。図3の工程A1〜A4はカメラ操作情報の検出手順を示すフローチャートである。
まず工程A1(カメラ位置取得)は、撮影の際のカメラの空間的な位置を位置情報として取得する。カメラの位置を取得する方法は、例えば後述するGPS機能や位置センサを具備したICタグをカメラに取り付けておく方法がある。なお、本発明はこれらの方法に限定するものではなく、他の方法を用いてもよい。
(Camera operation information detection means)
Here, the main implementation procedure of the camera operation information detection means 11 will be described with reference to FIG. Steps A1 to A4 in FIG. 3 are flowcharts showing a procedure for detecting camera operation information.
First, in step A1 (camera position acquisition), the spatial position of the camera at the time of shooting is acquired as position information. As a method for acquiring the position of the camera, for example, there is a method in which an IC tag having a GPS function and a position sensor described later is attached to the camera. In addition, this invention is not limited to these methods, You may use another method.

ここでカメラの空間的な位置情報とは、仮想空間と実空間とで共通する一つの基準点を定めて、その基準点を基にしたカメラの位置を仮想空間および実空間それぞれの三次元位置座標に当てはめた情報のことである。
例えば、被写体とする物体を正面において1メートル離れた位置を基準点と設定した場合、カメラがまずその基準点にあれば、仮想空間はその位置を基準にして被写体が置かれる背景映像を作成する。カメラがこの基準点から所定の方向・距離だけ動いたとき、仮想空間においてもその基準点から同じ方向・距離で動いた位置を基にして、再度背景映像を作成する。
Here, the spatial position information of the camera refers to a single reference point that is common to the virtual space and the real space, and the camera position based on the reference point is the three-dimensional position of each of the virtual space and the real space. It is the information applied to the coordinates.
For example, when a position that is 1 meter away from the object as a subject is set as a reference point, if the camera is at that reference point first, the virtual space creates a background image on which the subject is placed based on that position. . When the camera moves from the reference point by a predetermined direction / distance, a background image is created again based on the position moved in the same direction / distance from the reference point in the virtual space.

このようにして、カメラの位置の動きと仮想空間での背景映像の動きを連動させることにより合成映像が視聴者に違和感なく見えるように、カメラの位置情報を取得する。   In this way, camera position information is acquired so that the synthesized video can be seen by the viewer without any discomfort by linking the movement of the camera position and the movement of the background video in the virtual space.

次の工程A2(撮影方向取得)では、カメラの撮影方向すなわちカメラレンズの向きの情報を取得する。カメラの撮影方向を取得する方法は、本発明において特に限定はしないが、例えば後述するジャイロセンサのような、回転速度や回転方向を感知するセンサをカメラに取り付けておく方法がある。   In the next step A2 (shooting direction acquisition), information on the shooting direction of the camera, that is, the orientation of the camera lens is acquired. The method for acquiring the shooting direction of the camera is not particularly limited in the present invention. For example, there is a method in which a sensor for detecting the rotation speed and the rotation direction, such as a gyro sensor described later, is attached to the camera.

さらに工程A3(カメラ設定情報取得)では、カメラ設定情報としてズームやパン、フォーカス、等のカメラワークに属する操作の情報を取得する。この情報を取得するには、カメラのレンズ絞りや操作ボタン等の機械的な動作を感知して取得する機構部品を備えればよく、公知の手段を用いてもよい。   In step A3 (camera setting information acquisition), operation information belonging to camera work such as zoom, pan, and focus is acquired as camera setting information. In order to acquire this information, a mechanical part that senses and acquires a mechanical operation such as a lens aperture or an operation button of the camera may be provided, and a known means may be used.

次の工程A4(カメラ操作情報出力)では、前記工程A1〜A3で取得した各情報が一組のカメラ操作情報のセットとして信号化され、無線通信または有線ケーブル等の通信用インターフェースを介して出力されて、仮想空間映像作成手段12へ送信される。   In the next step A4 (camera operation information output), each piece of information acquired in the steps A1 to A3 is converted into a signal as a set of camera operation information and output via a communication interface such as wireless communication or a wired cable. Then, it is transmitted to the virtual space image creating means 12.

図1に戻って説明する。
前記カメラ操作情報検出手段11において、具体的な手段の実施例を示す。
カメラ操作情報は、カメラシステム部2に各種のセンサーを備えることによって、信号化することができる。本発明では、例えば、撮影用カメラ本体にGPS機能装置を備えることにより、GPS用通信衛星との電波交信によりカメラ本体の現在位置を知ることができる。
Returning to FIG.
In the camera operation information detecting means 11, an example of specific means will be shown.
The camera operation information can be converted into a signal by providing the camera system unit 2 with various sensors. In the present invention, for example, by providing the photographing camera body with a GPS function device, the current position of the camera body can be known by radio wave communication with the GPS communication satellite.

または、撮影用カメラ本体に位置センサ機能付きのICタグ(以下、ICタグセンサという)を備えることにより、ICタグセンサからの発信電波とスタジオ内に配置されたセンサからの応答によってその位置を知ることができる。   Alternatively, by providing an IC tag with a position sensor function (hereinafter referred to as an IC tag sensor) in the camera body for photographing, it is possible to know the position from a radio wave transmitted from the IC tag sensor and a response from the sensor arranged in the studio. it can.

さらにまた、位置センサとして他の公知の技術を用いてもよく、例えば磁気センサやレーザ光センサなどを位置計測の手段として用いることもできる。   Furthermore, other known techniques may be used as the position sensor, and for example, a magnetic sensor, a laser light sensor, or the like may be used as the position measuring means.

(CGシステム部)
次に、CGシステム部3について説明する。
CGシステム部3は、主要な装置構成として、3次元CGプログラム20と、これを動作させる第一コンピュータ21および操作端末装置を含んでおり、この3次元CGプログラム20によってリアルタイムにCG映像を作成する機能を持つ。
(CG system department)
Next, the CG system unit 3 will be described.
The CG system unit 3 includes a three-dimensional CG program 20, a first computer 21 for operating the three-dimensional CG program 20, and an operation terminal device as main device configurations, and creates a CG image in real time by the three-dimensional CG program 20. Has function.

仮想空間映像作成手段12は、第一コンピュータ21に必要な情報を入力しておき、例えばスタジオセットのような背景のデータを入力することによって、実際にはない仮想空間映像を自由に作成することができる。   The virtual space image creating means 12 inputs necessary information to the first computer 21 and freely creates a virtual space image that does not actually exist by inputting background data such as a studio set. Can do.

しかし、このような仮想空間映像は、実空間映像との合成映像において被写体の動きと仮想空間の状態とがずれてしまった場合、見る側にとって違和感が生じる。そのため、このような不具合が生じないようにするには、仮想空間映像でのカメラの撮影位置やズーム等のレンズ操作の状態を、前記実空間映像撮影手段10で撮影された映像とリアルタイムで一致させる必要がある。そして、動画映像であれば、遅延のないタイミングで1フレーム毎に映像を新たに作成しなければならない。   However, such a virtual space image is uncomfortable for the viewer when the movement of the subject and the state of the virtual space are shifted in the combined image with the real space image. Therefore, in order to prevent such a problem from occurring, the shooting position of the camera in the virtual space image and the state of the lens operation such as zooming coincide with the image shot by the real space image shooting means 10 in real time. It is necessary to let If it is a moving image, a new image must be created for each frame at a timing without delay.

前述のカメラ操作情報検出手段11によって検出され信号として出力されたカメラ操作情報は、まず仮想空間映像作成手段12に入力され、ここでカメラの位置やアングル、ズームなどの情報を基にして、実空間映像に合わせた状態の仮想空間映像が作成される。   The camera operation information detected and output as a signal by the camera operation information detection means 11 is first input to the virtual space image creation means 12, where the actual operation information is obtained based on information such as the camera position, angle, and zoom. A virtual space image is created in accordance with the space image.

(映像の合成と表示)
映像合成手段13は、前記の実空間映像撮影手段10によって撮影された被写体5の映像と、仮想空間映像作成手段12によって作成された背景となる仮想空間映像とを合成する機能を有する。
(Video composition and display)
The video synthesizing unit 13 has a function of synthesizing the video of the subject 5 photographed by the real space video photographing unit 10 and the virtual space video as the background created by the virtual space video creating unit 12.

映像の合成処理は、カメラシステム部2の画像処理プロセッサ22を搭載した第二コンピュータ23によって行われる。その処理は、まず実空間映像から背景のブルーバック領域を除き、被写体5のみを切り出した映像を作成し、次に同期する仮想空間映像と重ねて合成する。この合成処理を1フレーム毎に行い、映像信号として出力する。   The video composition process is performed by the second computer 23 equipped with the image processor 22 of the camera system unit 2. In this process, first, an image obtained by cutting out only the subject 5 from the real space image, excluding the background blue background region, is created and then superimposed on the synchronized virtual space image. This synthesis process is performed for each frame and output as a video signal.

映像表示手段14は、前記映像合成手段13によって作成された合成映像を入力し、ここれを映像表示用モニタ24に表示させる。ユーザ4は、このモニタ24に表示された合成映像を視認する。   The video display means 14 inputs the synthesized video created by the video synthesis means 13 and displays it on the video display monitor 24. The user 4 visually recognizes the composite image displayed on the monitor 24.

すなわち、これらの手段を備えたことにより、カメラシステム部2では、実空間映像の撮影を行いながら映像の合成処理および合成映像の表示までをリアルタイムで行うことができるので、ユーザはリアルタイムで合成映像を確認でき、これを見ながらさらにカメラを操作して、映像を制作できる。   In other words, by providing these means, the camera system unit 2 can perform real-time video image synthesis processing and composite video display while shooting a real space video image. You can check the image and operate the camera while watching this to produce video.

また、ここで作成された合成映像は、特に図示しないが、外部の映像記録装置や外部モニタ、放送用設備と接続されることにより、映像を記録保存したり、制作関係者や外部の人間が確認することを可能にすることもできる。   Although the composite video created here is not particularly shown, it can be connected to an external video recording device, an external monitor, or a broadcasting facility to record or save the video, It can also be possible to confirm.

(システムの処理手順)
図2は、本発明のシステムにおける操作手順の一例であり、図1のシステムの処理手順を示すフローチャートである。ここでステップS1〜S9は、本発明のシステムのユーザが映像を制作する手順である。
(System processing procedure)
FIG. 2 is an example of an operation procedure in the system of the present invention, and is a flowchart showing a processing procedure of the system in FIG. Here, steps S1 to S9 are procedures in which a user of the system of the present invention produces a video.

まず、ステップS1において、ユーザ4がカメラを操作して被写体5を撮影する。このとき、ユーザはユーザ自身の意図に応じて自由にカメラを操作することができ、撮影しようとする被写体と、合成しようとする仮想空間映像との合成後の映像を予測した上で、適切なカメラの位置や向き、ズーム等のレンズ操作などを決定することができる。   First, in step S1, the user 4 operates the camera to photograph the subject 5. At this time, the user can freely operate the camera according to the user's own intention, and after predicting the synthesized video of the subject to be photographed and the virtual space video to be synthesized, It is possible to determine the position and orientation of the camera, lens operations such as zooming, and the like.

また、固定した位置に留まらず、撮影中にカメラを移動させたり、ズーム操作を行うことも、ユーザの意図によって随時行うことができる。すなわち、このようなカメラの操作に関わる設定は一通りでなく、撮影中に随時変化することがある。   In addition, the camera can be moved during zooming or zooming operation can be performed at any time according to the user's intention. That is, such settings related to the operation of the camera are not one way and may change at any time during shooting.

次にステップS2において、ユーザ4がカメラを操作している際のカメラの位置や向き
、レンズ操作などのカメラ操作情報が検出される。
ここでは、カメラの操作状態を知るために、カメラ操作情報検出手段11で前述のGPS機能やICタグセンサ、ジャイロセンサなどの各種センサを用いてカメラ操作情報を検出し、これをCGシステム部3の仮想空間映像作成手段12へ送信する。カメラ操作情報は、撮影映像が動画であれば、動画フレーム毎にリアルタイムで更新して送信される。
Next, in step S2, camera operation information such as the position and orientation of the camera and the lens operation when the user 4 is operating the camera is detected.
Here, in order to know the operation state of the camera, the camera operation information detecting means 11 detects the camera operation information using various sensors such as the GPS function, the IC tag sensor, and the gyro sensor described above, and this is detected by the CG system unit 3. This is transmitted to the virtual space image creating means 12. If the captured video is a moving image, the camera operation information is updated and transmitted in real time for each moving image frame.

そして次のステップS3では、送信されたカメラ操作情報、すなわちカメラの位置や撮影方向およびレンズ絞り等のカメラ操作に関する情報を基にして、三次元CGプログラム20において仮想空間映像を描画するための視点位置や角度および映像作成範囲などに関する描画情報を更新する。
ただし、ユーザ4がカメラ操作を静止させているときはカメラ操作情報に変化がないので、描画情報は更新せず直前の情報を維持したままにすることができる。
In the next step S3, a viewpoint for rendering a virtual space image in the three-dimensional CG program 20 based on the transmitted camera operation information, that is, information on the camera operation such as the camera position, shooting direction, and lens aperture. Updates drawing information related to position, angle and video creation range.
However, since the camera operation information does not change when the user 4 stops the camera operation, the drawing information is not updated and the previous information can be maintained.

ステップS4では、前記ステップS3で更新された描画情報をもとにして三次元CGプログラム20が仮想空間映像を作成しデータ出力する。この映像データは動画フレーム毎に作成されるが、前記の描画情報が更新されないときは映像の変化はないので直前のデータをそのまま適用することができ、描画情報が更新された場合には直ちに映像データを作成するようにして、リアルタイムで前記カメラ操作情報の変化に追随した映像データが出力される。   In step S4, the three-dimensional CG program 20 creates a virtual space image based on the drawing information updated in step S3 and outputs the data. This video data is created for each video frame, but when the drawing information is not updated, there is no change in the video, so the previous data can be applied as it is, and when the drawing information is updated, the video is immediately updated. As data is created, video data following the change in the camera operation information is output in real time.

またステップS5では、ステップS4と並行して前記のカメラによる実空間映像の撮影が行われ、その映像データはカメラシステム部2の第二コンピュータ23に入力される。   In step S5, real space video is captured by the camera in parallel with step S4, and the video data is input to the second computer 23 of the camera system unit 2.

ステップS6では、前記ステップS4で作成された仮想空間映像データを、通信用インターフェースを介してカメラシステム部2の第二コンピュータ23へデータ転送する。   In step S6, the virtual space video data created in step S4 is transferred to the second computer 23 of the camera system unit 2 via the communication interface.

そしてステップS7では、第二コンピュータ23において、ステップS5で作成された実空間映像とステップS6で転送された仮想空間映像データとを合成する。このとき、実空間映像は被写体の背景に前述のブルーバックスクリーンを用いており、クロマキー処理によって映像から被写体を切り出し、背景として仮想空間映像を合成する。   In step S7, the second computer 23 combines the real space image created in step S5 with the virtual space image data transferred in step S6. At this time, the real space video uses the above-described blue back screen as the background of the subject, and the subject is cut out from the video by chroma key processing, and the virtual space video is synthesized as the background.

この合成処理は動画フレーム毎にリアルタイムに行われるが、このような処理には高速性が要求されるため、第二コンピュータ23の画像処理プロセッサ22を用いて映像合成の演算処理を行うことが好ましい。   This composition processing is performed in real time for each moving image frame. Since such processing requires high speed, it is preferable to perform image composition calculation processing using the image processor 22 of the second computer 23. .

ステップS8では、合成処理した映像をカメラシステム部2に備えられた映像確認用のモニタ24の画面に表示する。ここで表示された合成映像は、前記の通り実空間で撮影された被写体と、三次元CGで作成された仮想空間の背景とが合成された映像であり、カメラ操作と仮想空間の視認される方向とが連動した映像である。   In step S8, the synthesized video is displayed on the screen of the video confirmation monitor 24 provided in the camera system unit 2. The composite video displayed here is a video in which the subject photographed in the real space and the background of the virtual space created by the three-dimensional CG are synthesized as described above, and the camera operation and the virtual space are visually recognized. This is an image that is linked to the direction.

ステップS9は、モニタ24に表示された合成映像をユーザ4が見て確認する工程である。ここでユーザ4は、被写体5と仮想空間との合成映像に問題がないかをチェックすることができる。モニタ24は、カメラのファインダー部分にあれば撮影を行いながらファインダーを見ることができ、ユーザ4が効率的に確認できる。   Step S9 is a step in which the user 4 sees and confirms the composite video displayed on the monitor 24. Here, the user 4 can check whether there is a problem in the synthesized video of the subject 5 and the virtual space. If the monitor 24 is in the finder portion of the camera, the finder can be viewed while photographing, and the user 4 can efficiently check.

以上のステップS1〜S9を実施することによって、仮想現実空間映像の作成および映像の確認をリアルタイムに行うことができる。さらにこの後、ステップS1に戻ってカメラ操作を変更した場合でも、引き続き同様に各ステップを実施することにより、合成映像の作成と確認が行われる。   By performing the above steps S1 to S9, creation of a virtual reality space image and confirmation of the image can be performed in real time. Thereafter, even if the process returns to step S1 and the camera operation is changed, the composite video is created and confirmed by performing each step in the same manner.

以上の説明ではシステムの基本的な構成による実施例および実施手順を示したが、本発明のシステムはここで示した構成に限るものではなく、必要に応じて構成要素を加えたり変更したりして実施することができる。   In the above description, an example and an implementation procedure based on the basic configuration of the system are shown. However, the system of the present invention is not limited to the configuration shown here, and components may be added or changed as necessary. Can be implemented.

本発明の仮想現実空間映像制作システムによれば、ユーザによるカメラの動作と連動した仮想映像をリアルタイムに作成して表示することができるので、スタジオ内に高価なセットを組むことなく視聴者に効果的にアピールできる映像が安いコストで制作することが可能となる。   According to the virtual reality space video production system of the present invention, it is possible to create and display in real time a virtual video that is linked to the camera operation by the user, which is effective for the viewer without forming an expensive set in the studio. It is possible to produce images that can be appealing at a low cost.

1 仮想現実映像制作システム
2 カメラシステム部
3 CGシステム部
4 ユーザ
5 被写体
10 実空間映像撮影手段
11 カメラ操作情報検出手段
12 仮想空間映像作成手段
13 映像合成手段
14 映像表示手段
20 3次元CGプログラム
21 第一コンピュータ
22 画像処理プロセッサ
23 第二コンピュータ
24 モニタ
DESCRIPTION OF SYMBOLS 1 Virtual reality video production system 2 Camera system part 3 CG system part 4 User 5 Subject 10 Real space video imaging means 11 Camera operation information detection means 12 Virtual space video creation means 13 Video composition means 14 Video display means 20 3D CG program 21 First computer 22 Image processor 23 Second computer 24 Monitor

Claims (7)

カメラを用いて仮想空間映像と実空間映像とを混合する仮想現実空間映像制作システムであって、コンピュータを用いて仮想空間映像を作成する仮想空間映像作成手段と、
カメラを用いて実空間映像を撮影する実空間映像撮影手段と、
前記仮想空間映像と実空間映像を合成して画面に表示する映像合成表示手段と、
ユーザーの操作に基づくカメラ操作情報を検出するカメラ操作情報検出手段とを少なくとも備え、
前記カメラ操作情報を前記仮想空間映像作成手段に入力して、このカメラ操作情報を反映した仮想空間映像を映像フレーム毎に繰り返し作成することを特徴とする、
仮想現実空間映像制作システム。
A virtual reality space video production system that mixes virtual space video and real space video using a camera, creating virtual space video using a computer; and
Real space video photographing means for photographing real space video using a camera;
Video composition display means for synthesizing the virtual space image and the real space image and displaying on the screen;
At least camera operation information detecting means for detecting camera operation information based on user operation,
The camera operation information is input to the virtual space video creation means, and a virtual space video reflecting the camera operation information is repeatedly created for each video frame,
Virtual reality space video production system.
前記カメラ操作情報検出手段は、
仮想空間および実空間で共通する基準点を基にして前記カメラの実空間上の位置情報を取得するカメラ位置取得工程と、
前記カメラの撮影方向情報を取得する撮影方向取得工程と、
前記カメラの焦点距離およびレンズ絞り値を含むカメラ設定情報を取得するカメラ設定情報取得工程と、
さらにこれらの工程で取得したカメラ操作情報を出力し、無線通信または有線ケーブルを介して前記仮想空間映像作成手段に入力するカメラ操作情報出力工程を少なくとも含むことを特徴とする、
前記請求項1に記載の仮想現実空間映像制作システム。
The camera operation information detection means includes
A camera position acquisition step of acquiring position information of the camera in real space based on a common reference point in virtual space and real space;
A shooting direction acquisition step of acquiring shooting direction information of the camera;
A camera setting information acquisition step for acquiring camera setting information including a focal length and a lens aperture value of the camera;
Furthermore, it includes at least a camera operation information output step of outputting the camera operation information acquired in these steps and inputting the information to the virtual space image creation means via wireless communication or a wired cable.
The virtual reality space video production system according to claim 1.
前記カメラ操作情報検出手段がGPS機能付モジュールを備え、
かつ、前記カメラ位置取得工程はGPS機能を用いてカメラ位置情報を取得することを特徴とする、前記請求項1または2に記載の仮想現実空間映像制作システム。
The camera operation information detection means includes a module with a GPS function,
3. The virtual reality space video production system according to claim 1 or 2, wherein the camera position acquisition step acquires camera position information using a GPS function.
前記カメラ操作情報検出手段が位置センサー機能を搭載したICタグを備え、
かつ、前記カメラ位置取得工程は前記ICタグの位置センサー機能を用いてカメラ位置情報を取得することを特徴とする、
前記請求項1または2に記載の仮想現実空間映像制作システム。
The camera operation information detection means includes an IC tag equipped with a position sensor function,
And the said camera position acquisition process acquires camera position information using the position sensor function of the said IC tag,
The virtual reality space video production system according to claim 1 or 2.
前記カメラ操作情報検出手段がジャイロセンサ(角速度センサ)を備え、
かつ前記撮影方向取得工程はジャイロセンサによりカメラを動かす際の角速度を検出してカメラの撮影方向情報を取得することを特徴とする、
前記請求項1から4のいずれかに記載の仮想現実空間映像制作システム。
The camera operation information detection means includes a gyro sensor (angular velocity sensor),
In addition, the shooting direction acquisition step detects angular velocity when the camera is moved by a gyro sensor and acquires shooting direction information of the camera.
The virtual reality space video production system according to any one of claims 1 to 4.
前記映像合成表示手段が、
前記実空間映像の被写体を人物や物体としてその背景にブルーバックスクリーンを用い、これに前記仮想空間映像を背景として合成処理することを特徴とする、
前記請求項1から5のいずれかに記載の仮想現実空間映像制作システム。
The video composition display means is
A subject of the real space image is a person or an object, and a blue back screen is used for the background, and the virtual space image is combined with the background as a background,
The virtual reality space video production system according to any one of claims 1 to 5.
前記カメラが画像処理プロセッサおよび表示用モニタを備え、
前記映像合成表示手段は、この画像処理プロセッサを用いて映像フレーム毎に前記合成処理を行い、その合成映像を表示用モニタに表示することを特徴とする、
前記請求項1から6のいずれかに記載の仮想現実空間映像制作システム。
The camera comprises an image processor and a display monitor;
The video composition display means performs the composition processing for each video frame using the image processor, and displays the composite video on a display monitor.
The virtual reality space video production system according to any one of claims 1 to 6.
JP2009179577A 2009-07-31 2009-07-31 Virtual reality space video production system Pending JP2011035638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009179577A JP2011035638A (en) 2009-07-31 2009-07-31 Virtual reality space video production system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179577A JP2011035638A (en) 2009-07-31 2009-07-31 Virtual reality space video production system

Publications (1)

Publication Number Publication Date
JP2011035638A true JP2011035638A (en) 2011-02-17

Family

ID=43764279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179577A Pending JP2011035638A (en) 2009-07-31 2009-07-31 Virtual reality space video production system

Country Status (1)

Country Link
JP (1) JP2011035638A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136601A1 (en) * 2012-03-16 2013-09-19 富士フイルム株式会社 Image display device, photography device in which image display device is mounted as viewfinder device, and image display method
JP2014192613A (en) * 2013-03-26 2014-10-06 Canon Inc Image processing apparatus and method, and imaging apparatus
WO2015098807A1 (en) * 2013-12-24 2015-07-02 チームラボ株式会社 Image-capturing system for combining subject and three-dimensional virtual space in real time
CN110637326A (en) * 2017-05-24 2019-12-31 古野电气株式会社 Image generation device
CN113992877A (en) * 2021-09-16 2022-01-28 南昌威爱信息科技有限公司 Virtual video shooting based method and system
EP4236291A1 (en) 2022-02-25 2023-08-30 Canon Kabushiki Kaisha Imaging apparatus, system, control method, program, and storage medium
WO2024070618A1 (en) * 2022-09-26 2024-04-04 ソニーグループ株式会社 Imaging device, program, and imaging system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136601A1 (en) * 2012-03-16 2013-09-19 富士フイルム株式会社 Image display device, photography device in which image display device is mounted as viewfinder device, and image display method
CN104169795A (en) * 2012-03-16 2014-11-26 富士胶片株式会社 Image display device, photography device in which image display device is mounted as viewfinder device, and image display method
JP5640175B2 (en) * 2012-03-16 2014-12-10 富士フイルム株式会社 Image display apparatus, photographing apparatus equipped with the image display apparatus as a finder apparatus, and image display method
US9167166B2 (en) 2012-03-16 2015-10-20 Fujifilm Corporation Image display device, imaging apparatus mounted with image display device as finder device, and image display method
JP2014192613A (en) * 2013-03-26 2014-10-06 Canon Inc Image processing apparatus and method, and imaging apparatus
WO2015098807A1 (en) * 2013-12-24 2015-07-02 チームラボ株式会社 Image-capturing system for combining subject and three-dimensional virtual space in real time
JPWO2015098807A1 (en) * 2013-12-24 2017-03-23 チームラボ株式会社 An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
CN110637326A (en) * 2017-05-24 2019-12-31 古野电气株式会社 Image generation device
CN113992877A (en) * 2021-09-16 2022-01-28 南昌威爱信息科技有限公司 Virtual video shooting based method and system
EP4236291A1 (en) 2022-02-25 2023-08-30 Canon Kabushiki Kaisha Imaging apparatus, system, control method, program, and storage medium
WO2024070618A1 (en) * 2022-09-26 2024-04-04 ソニーグループ株式会社 Imaging device, program, and imaging system

Similar Documents

Publication Publication Date Title
JP6918455B2 (en) Image processing equipment, image processing methods and programs
JP4878083B2 (en) Image composition apparatus and method, and program
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
CN104641633B (en) System and method for combining the data from multiple depth cameras
JP2019030007A (en) Electronic device for acquiring video image by using plurality of cameras and video processing method using the same
JP2011035638A (en) Virtual reality space video production system
JP2008146109A (en) Image processing method and image processor
JP2003219271A (en) System for synthesizing multipoint virtual studio
GB2485036A (en) Preventing subject occlusion in a dual lens camera PIP display
JP7080103B2 (en) Imaging device, its control method, and program
KR20090088325A (en) Image processing apparatus, image processing method and imaging apparatus
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
KR102382247B1 (en) Image processing apparatus, image processing method, and computer program
JP2004193962A (en) Image communication equipment, image communication method, and computer program
EP3190566A1 (en) Spherical virtual reality camera
JP2008252493A (en) File generating method and device, and stereoscopic image display control method and device
TW201824178A (en) Image processing method for immediately producing panoramic images
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
US10051192B1 (en) System and apparatus for adjusting luminance levels of multiple channels of panoramic video signals
US11636708B2 (en) Face detection in spherical images
US10148874B1 (en) Method and system for generating panoramic photographs and videos
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
CN112738399A (en) Image processing method and device and electronic equipment
WO2012035927A1 (en) Remote video monitoring system
JP2004128588A (en) Imaging unit