JP2003219271A - System for synthesizing multipoint virtual studio - Google Patents

System for synthesizing multipoint virtual studio

Info

Publication number
JP2003219271A
JP2003219271A JP2002015223A JP2002015223A JP2003219271A JP 2003219271 A JP2003219271 A JP 2003219271A JP 2002015223 A JP2002015223 A JP 2002015223A JP 2002015223 A JP2002015223 A JP 2002015223A JP 2003219271 A JP2003219271 A JP 2003219271A
Authority
JP
Japan
Prior art keywords
image
camera
depth information
robot
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002015223A
Other languages
Japanese (ja)
Inventor
Yuiko Yamauchi
結子 山内
Seiki Inoue
誠喜 井上
Hideki Mitsumine
秀樹 三ツ峰
Takashi Fukaya
崇史 深谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2002015223A priority Critical patent/JP2003219271A/en
Publication of JP2003219271A publication Critical patent/JP2003219271A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a multipoint virtual studio synthesizing system for synthesizing videos from a plurality of cameras in real time without causing an uncomfortable feeling based on videos and depth information obtained by using the plurality of cameras. <P>SOLUTION: This multipoint virtual studio synthesizing system is provided with robot cameras 131 to 133 arranged at a plurality of places and for acquiring image data of objects and depth information of the image data, means 110 and 120 for controlling camera parameters including robot camera panning, tilting, zooming and focus in real time, means 141 to 143 for generating a key signal of each of the objects for synthesizing images on the basis of the depth information obtained in each of the robot cameras, an electronic plotting means 150 for generating electronic videos and depth information of the electronic videos to be used in image synthesis, and a means 160 for extracting image parts to be synthesized on the basis of the key signals of the objects and synthesizing the images. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、映像制作におい
て、多地点のカメラ映像等を映像合成するための装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for synthesizing video images of cameras at multiple points in video production.

【0002】[0002]

【従来の技術】従来、スタジオに居る人物とコンピュー
タを用いて作成された電子映像とを映像合成する際は、
青色の背景(以下、ブルーバックという。)を使用し、
青色以外の色の部分を人物の映像と判断して人物の映像
だけを切り出していた。そして、切り出された人物の映
像は、カメラに連動してコンピュータが生成した電子映
像と映像合成されていた。
2. Description of the Related Art Conventionally, when synthesizing a person in a studio and an electronic image created using a computer,
Using a blue background (hereinafter referred to as a blue background),
Only the image of the person was cut out, judging that the part of the color other than blue was the image of the person. Then, the cut out image of the person is combined with the electronic image generated by the computer in association with the camera.

【0003】また、モーション・コントロール・カメラ
を用い、被写体を繰り返し撮影して得られた複数の映像
を撮影後に合成するポストプロダクション技術なども映
像合成に用いられることもある。このように、従来技術
は、リアルタイムに映像合成するときは、1台のカメラ
からの映像と電子的な背景とを映像合成し、リアルタイ
ム性が必要でないときは、モーション・コントロール・
カメラを用いて繰り返し映像撮影をした後に映像合成す
ることが行われていた。
In addition, a post-production technique for synthesizing a plurality of images obtained by repeatedly photographing an object using a motion control camera may be used for synthesizing images. As described above, in the conventional technique, when the images are combined in real time, the images from one camera and the electronic background are combined, and when the real-time property is not required, the motion control
Background Art It has been performed that video images are repeatedly captured using a camera and then video images are combined.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来方
法には、複数のカメラからの映像をリアルタイムに映像
合成することができないという問題、および1台のカメ
ラを用いてリアルタイムに映像合成したものには、合成
部分の周辺に不自然な映像の不連続が発生するという問
題があった。
However, in the conventional method, there is a problem that images from a plurality of cameras cannot be combined in real time, and a method in which images are combined in real time using one camera is not included. However, there is a problem that an unnatural image discontinuity occurs around the composite part.

【0005】本発明は、かかる問題を解決するためにな
されたものであり、その目的は、複数台のカメラを用い
て得られる映像と奥行き情報に基づいて、リアルタイム
に複数台のカメラからの映像を違和感なく映像合成する
多地点仮想スタジオ合成システムを提供することにあ
る。
The present invention has been made to solve the above problems, and an object thereof is to obtain an image from a plurality of cameras in real time based on an image obtained by using a plurality of cameras and depth information. An object of the present invention is to provide a multi-point virtual studio compositing system for compositing images without any discomfort.

【0006】[0006]

【課題を解決するための手段】以上の点を考慮して、請
求項1に係る発明は、複数の異なる地点毎に配置され、
被写体の画像データと前記被写体の奥行き情報とを含む
情報を取得するためのロボットカメラと、前記ロボット
カメラのパン,チルト,ズーム,またはフォーカスを含
むカメラパラメータをリアルタイムに制御するための手
段と、前記奥行き情報に基づいて前記ロボットカメラが
取得した被写体の画像データの中から合成する画像部分
を抽出して画像合成を行うための手段とを備えた構成を
有している。
In view of the above points, the invention according to claim 1 is arranged at a plurality of different points,
A robot camera for obtaining information including image data of a subject and depth information of the subject; means for controlling camera parameters including pan, tilt, zoom, or focus of the robot camera in real time; And a means for performing image composition by extracting an image part to be composed from the image data of the subject acquired by the robot camera based on the depth information.

【0007】この構成により、複数のカメラ雲台をリア
ルタイムに制御し、奥行き情報をキー信号として持つこ
とにより、複数の映像の必要部分を奥行きに基づいてリ
アルタイムに合成できる。これによって、手間のかかる
カメラ移動を複数行った後に画像合成することで番組制
作したりすることなく、様々な地点に配置された複数の
カメラからの映像を、各カメラ映像とその映像の奥行き
のキー信号に基づいて制御することにより、これまでに
ないリアルタイムの画像合成が可能な多地点仮想スタジ
オ合成システムを実現することができる。
With this configuration, a plurality of camera pans are controlled in real time and depth information is provided as a key signal, so that necessary portions of a plurality of images can be combined in real time based on depth. As a result, images from multiple cameras placed at various points can be displayed in different depths of each camera without creating a program by combining multiple images after complicated camera movements. By controlling based on the key signal, it is possible to realize a multipoint virtual studio composition system capable of unprecedented real-time image composition.

【0008】また、請求項2に係る発明は、複数の異な
る地点毎に配置され、被写体の画像データと前記被写体
の奥行き情報とを含む情報を取得するためのロボットカ
メラと、前記ロボットカメラのパン,チルト,ズーム,
またはフォーカスを含むカメラパラメータをリアルタイ
ムに制御するための手段と、前記ロボットカメラ毎に得
られた奥行き情報に基づいて画像合成する各被写体のキ
ー信号を生成するための手段と、前記キー信号に基づい
て前記ロボットカメラが取得した被写体の画像データの
中から合成する画像部分を抽出して画像合成を行うため
の手段とを備えた構成を有している。
Further, the invention according to claim 2 is a robot camera arranged at each of a plurality of different points for acquiring information including image data of a subject and depth information of the subject, and a pan of the robot camera. , Tilt, zoom,
Alternatively, means for controlling camera parameters including focus in real time, means for generating a key signal of each subject to be image-synthesized based on depth information obtained for each robot camera, and based on the key signal And a unit for extracting an image portion to be combined from the image data of the subject acquired by the robot camera and performing image combination.

【0009】この構成により、複数のカメラ雲台をリア
ルタイムに制御し、奥行き情報をキー信号として持つこ
とにより、複数の映像の必要部分を奥行きに基づいてリ
アルタイムに画像合成できる。これによって、手間のか
かるカメラ移動を複数行った後に合成する制作したりす
ることなく、様々な地点に配置された複数のカメラから
の映像を、各カメラ映像とその映像の奥行きのキー信号
に基づいて制御することにより、これまでにないリアル
タイムの画像合成が可能な多地点仮想スタジオ合成シス
テムを実現することができる。
With this configuration, a plurality of camera pans are controlled in real time and the depth information is used as a key signal, so that necessary portions of a plurality of images can be combined in real time based on the depth. This allows images from multiple cameras placed at various points to be created based on each camera image and the key signal for the depth of that image, without the need to compose after performing multiple time-consuming camera movements. It is possible to realize a multi-point virtual studio compositing system capable of real-time image compositing that has never been achieved by controlling the above.

【0010】また、請求項3に係る発明は、請求項1ま
たは2において、前記多地点仮想スタジオ合成システム
は、さらに前記画像合成において用いる電子映像および
その電子映像の奥行き情報を生成するための電子作画手
段を備えた構成を有している。
According to a third aspect of the present invention, in the first or second aspect, the multipoint virtual studio synthesizing system further generates an electronic image used in the image synthesizing and an electronic image for generating depth information of the electronic image. It has a structure provided with an image drawing means.

【0011】この構成により、複数のカメラ雲台をリア
ルタイムに制御し、奥行き情報をキー信号として持つこ
とにより、複数の映像の必要部分を奥行きに基づいてリ
アルタイムに合成できる。これによって、今までは1枚
の映像と電子映像とを合成したり、手間をかけてカメラ
を複数回動かした後に合成する制作したりすることな
く、様々な地点に配置された複数のカメラからの映像
を、各カメラ映像とその映像の奥行きのキー信号に基づ
いて制御することにより、これまでにないリアルタイム
の画像合成が可能な多地点仮想スタジオ合成システムを
実現することができる。
With this configuration, a plurality of camera pans are controlled in real time and depth information is provided as a key signal, so that necessary portions of a plurality of images can be combined in real time based on depth. As a result, until now, it is possible to combine one image and an electronic image with each other, or to combine multiple images placed at various points without the need to create the image after multiple rotations of the camera. By controlling the video of (1) based on each camera video and the key signal of the depth of the video, it is possible to realize a multipoint virtual studio compositing system capable of real-time image compositing that has never existed before.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して本発明の一
実施例について詳細に説明する。図1は、本発明の第1
の実施の形態に係る多地点仮想スタジオ合成システムの
ブロック構成を示す図である。図1において、多地点仮
想スタジオ合成システム100は、リモートコントロー
ル雲台110、カメラデータ処理手段120、第1のロ
ボットカメラ131、第2のロボットカメラ132、第
3のロボットカメラ133、第1の画像処理手段14
1、第2の画像処理手段142、第3の画像処理手段1
43、電子作画手段150、および画像合成手段160
とによって構成される。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows the first of the present invention.
FIG. 3 is a diagram showing a block configuration of a multipoint virtual studio composition system according to the embodiment of FIG. In FIG. 1, the multipoint virtual studio composition system 100 includes a remote control platform 110, camera data processing means 120, a first robot camera 131, a second robot camera 132, a third robot camera 133, and a first image. Processing means 14
1, second image processing means 142, third image processing means 1
43, electronic drawing means 150, and image synthesizing means 160
Composed of and.

【0013】リモートコントロール雲台110とカメラ
データ処理手段120とが通信可能に接続され、第1〜
3のロボットカメラ131〜133を用いて映像を撮影
するためにリモートコントロール雲台110から各ロボ
ットカメラを遠隔操作する場合には、リモートコントロ
ール雲台110は、被写体を撮影するために必要なカメ
ラの操作に関する情報(以下、カメラ操作情報とい
う。)を生成し、カメラ操作情報をカメラデータ処理手
段120に出力する。なお、上記の通信可能な接続は、
有線または無線による接続でも、ネットワークを介した
接続でも良く、以下に述べる通信可能な接続についても
同様とする。
The remote control platform 110 and the camera data processing means 120 are communicably connected to each other, and
When remotely controlling each robot camera from the remote control platform 110 to capture an image using the three robot cameras 131 to 133, the remote control platform 110 is a camera that is required to capture a subject. Information on the operation (hereinafter referred to as camera operation information) is generated and the camera operation information is output to the camera data processing unit 120. In addition, the above connection that can communicate is
The connection may be wired or wireless, or may be via a network, and the same applies to communicable connections described below.

【0014】カメラデータ処理手段120は、リモート
コントロール雲台110および第1〜3のロボットカメ
ラ131〜133と通信可能に接続されており、リモー
トコントロール雲台110から出力されたカメラ操作情
報を入力として、第1〜3のロボットカメラ131〜1
33を制御するために必要なカメラデータを生成して、
カメラデータを第1〜3のロボットカメラ131〜13
3および後述する電子作画手段150に出力する。
The camera data processing means 120 is communicably connected to the remote control platform 110 and the first to third robot cameras 131 to 133, and receives camera operation information output from the remote control platform 110 as an input. , The first to third robot cameras 131 to 1
Generate the camera data needed to control 33,
The camera data is transferred to the first to third robot cameras 131 to 13
3 and electronic drawing means 150 described later.

【0015】したがって、リモートコントロール雲台1
10を遠隔操作することによってカメラデータ処理手段
120によって第1〜3のロボットカメラ131〜13
3制御用のカメラデータが生成され、第1〜3のロボッ
トカメラ131〜133は、カメラデータ処理手段12
0から出力されたカメラデータに基づいて撮影を行い、
リモートコントロール雲台110からの遠隔操作が実現
されるように構成されている。
Therefore, the remote control platform 1
The first to third robot cameras 131 to 13 are remotely operated by the camera data processing means 120.
The camera data for 3 control is generated, and the first to third robot cameras 131 to 133 are the camera data processing means 12.
Shoot based on the camera data output from 0,
The remote control platform 110 is configured to be remotely controlled.

【0016】第1〜3のロボットカメラ131〜133
は、それぞれ対応する第1〜3の画像処理手段141〜
143と通信可能に接続されており、かつカメラデータ
処理手段120とも通信可能に接続されている。第1〜
3のロボットカメラ131〜133は、カメラデータ処
理手段120から出力されたカメラデータを入力とし
て、入力されたカメラデータに基づいて撮影のための動
作を行い、撮影によって得られたカメラ映像および被写
体の奥行きに関する情報を含むデータ(以下、奥行き情
報という。)等をそれぞれ対応する第1〜3の画像処理
手段141〜143に出力する。第1〜3のロボットカ
メラ131〜133の各々は、例えば、特願2000−
383993に開示されたロボットカメラ装置を用いる
ことが可能である。
First to third robot cameras 131 to 133
Respectively correspond to the corresponding first to third image processing means 141 to 141.
143 is communicatively connected to the camera data processing unit 120. First to
The third robot camera 131 to 133 receives the camera data output from the camera data processing unit 120 as an input, performs an operation for shooting based on the input camera data, and captures a camera image and a subject obtained by the shooting. Data including depth information (hereinafter referred to as depth information) and the like are output to the corresponding first to third image processing units 141 to 143. Each of the first to third robot cameras 131 to 133 has, for example, Japanese Patent Application No. 2000-
The robot camera device disclosed in 383993 can be used.

【0017】具体的には、第1〜3のロボットカメラ1
31〜133のうち1以上のロボットカメラをリモート
コントロール雲台110を介して選択し、選択されたロ
ボットカメラのカメラ雲台、またはパン、チルト、ズー
ム、フォーカス等を、リモートコントロール雲台110
を介して遠隔操作することによって選択されたロボット
カメラが映像を撮影するというものである。
Specifically, the first to third robot cameras 1
One or more robot cameras out of 31 to 133 are selected via the remote control platform 110, and the camera platform of the selected robot camera or the pan, tilt, zoom, focus, etc. is selected by the remote control platform 110.
The robot camera selected by remote control via the camera shoots an image.

【0018】第1〜3の画像処理手段141〜143
は、それぞれ対応する第1〜3のロボットカメラ131
〜133から出力されたカメラ映像および奥行き情報等
を入力とし、それぞれ対応するカメラ映像毎に画像デー
タ(対応する画像をそれぞれ引用記号31、32、33
を用いて示す。)を生成すると共に、奥行き情報に基づ
いて被写体のキー信号を生成し、画像合成手段160に
出力するための手段である。
First to third image processing means 141 to 143
Are the corresponding first to third robot cameras 131.
To 133, the camera image and depth information, etc., are input, and image data (corresponding images are referred to as reference symbols 31, 32, 33, respectively) for each corresponding camera image.
It is shown using. ), A key signal of the subject is generated based on the depth information, and the generated key signal is output to the image synthesizing means 160.

【0019】ここで、キー信号を生成するための奥行き
情報は、例えば、特開2000−121339に開示さ
れた立体情報検出方法及び装置を用い、奥行き情報包含
データに基づいて生成することができる。また、パー
ク、井上著、「複数カメラを用いた任意映像の生成」、
IEEE ICIP‘97、議事録、1997、149
−152頁(Jong-Il Park and Seiki Inoue, “Arbitr
ary View Generation from Multiple Cameras”, Proc,
IEEE ICIP’97, 1997, pp149-152)に開示された5眼
ステレオ視を用いて奥行き情報を生成することが可能で
ある。
Here, the depth information for generating the key signal can be generated based on the depth information inclusion data by using, for example, the stereoscopic information detection method and apparatus disclosed in Japanese Patent Laid-Open No. 2000-121339. In addition, Park, Inoue, "Generation of arbitrary video using multiple cameras",
IEEE ICIP'97, Minutes, 1997, 149
−152 (Jong-Il Park and Seiki Inoue, “Arbitr
ary View Generation from Multiple Cameras ”, Proc,
It is possible to generate depth information using the 5-eye stereoscopic view disclosed in IEEE ICIP'97, 1997, pp149-152).

【0020】図2は、各第1〜3の画像処理手段141
〜143におけるキー信号の生成方法について説明する
ための図である。図2には、第2のロボットカメラ13
2によって撮影された画像32、画像32の撮影に伴っ
て得られた奥行き情報に基づいて生成された画像32−
2、および生成されるべきキー信号32−3を示す。
FIG. 2 shows each of the first to third image processing means 141.
14A to 14C are diagrams for explaining a method of generating a key signal. In FIG. 2, the second robot camera 13 is shown.
2 is an image 32 that is captured based on the depth information obtained by capturing the image 32.
2 and the key signal 32-3 to be generated.

【0021】したがって、第1〜3のロボットカメラ1
31〜133は、上記の特殊なカメラのうちのいずれか
のカメラの機能を有することとする。ここで、説明の都
合上、撮影された画像信号の輝度値(0−255)は、
各画像とも奥行き(Zfar〜Znear)に対応しているもの
と仮定する。ここで、被写体のキー信号となる領域にお
ける輝度を、たとえば、所定の輝度値以上と仮定すると
画像32−3に示すようなキー信号を生成することがで
きる。
Therefore, the first to third robot cameras 1
31 to 133 have the function of any one of the above special cameras. Here, for convenience of explanation, the brightness value (0-255) of the captured image signal is
It is assumed that each image corresponds to depth (Zfar to Znear). Here, assuming that the brightness in the area serving as the key signal of the subject is equal to or higher than a predetermined brightness value, a key signal as shown in image 32-3 can be generated.

【0022】前記画像処理手段から出力される情報を基
に画像合成処理するのに先立ち、どの被写体を合成する
かを選択し、その被写体のキー信号を生成する必要があ
る。図2を参照して、被写体が人物である場合のキー信
号生成処理の一例について説明する。キー信号生成に
は、初めに公知の画像処理技術を用いて肌色検出を行
い、肌色が検出された部分の画像信号を抽出する。図2
では、第2のロボットカメラ132によって得られた画
像データ(画像32を参照)に基づき、肌色抽出して得
られた画像を引用記号32−4によって示す。ここで、
肌色検出および抽出には、例えば公知の画像処理装置
(商品名、Quick Mag、(株)応用計測技術研
究所)等を用いることができる。
It is necessary to select which subject is to be synthesized and generate a key signal of the subject before performing the image synthesis processing based on the information output from the image processing means. An example of the key signal generation process when the subject is a person will be described with reference to FIG. To generate the key signal, first, a known image processing technique is used to detect the skin color, and the image signal of the portion where the skin color is detected is extracted. Figure 2
Then, the image obtained by extracting the skin color based on the image data (see the image 32) obtained by the second robot camera 132 is indicated by a quotation symbol 32-4. here,
For the skin color detection and extraction, for example, a known image processing device (trade name, Quick Mag, Applied Measurement Technology Laboratory Co., Ltd.) or the like can be used.

【0023】次に、肌色抽出された範囲についての奥行
き情報を生成する。画像32−5は、肌色抽出された範
囲に対応する奥行き信号(以下、肌色部分の奥行きキー
という。)の画像を示す。最終的にキー信号は、例え
ば、肌色部分の奥行きキーに基づいて生成される奥行き
の平均値Kに幅2Δを持たせ、K±Δの奥行きになって
いる領域を奥行き情報に基づいて指定し、その領域につ
いての信号をキー信号(画像32−3参照)とすること
によって生成される。
Next, depth information about the range where the skin color is extracted is generated. An image 32-5 shows an image of a depth signal (hereinafter, referred to as a depth key of a skin color portion) corresponding to the skin color extracted range. Finally, for the key signal, for example, the average value K of the depths generated based on the depth key of the flesh-colored portion is given a width 2Δ, and an area having a depth of K ± Δ is designated based on the depth information. , Is generated by using the signal for the area as a key signal (see image 32-3).

【0024】また、肌色抽出以外の方法による人物の位
置を判断する方法としては、画像データに基づいて人物
の位置の判断を行うのではなく、被写体に3次元位置セ
ンサをつけて行う方法も可能である。さらに、奥行きキ
ー信号を生成するのではなく、奥行きの範囲を指定し
て、指定された範囲を画像から直接抜き出すことも可能
である。
As a method of determining the position of a person by a method other than skin color extraction, a method of attaching a three-dimensional position sensor to an object can be used instead of determining the position of a person based on image data. Is. Further, instead of generating the depth key signal, it is possible to specify the range of depth and extract the specified range directly from the image.

【0025】電子作画手段150は、カメラデータ処理
手段120から出力されたカメラデータを入力とし、入
力されたカメラデータに基づいて、電子映像51と電子
映像51についての奥行きキー信号とを作成し、画像合
成手段160に出力する。
The electronic drawing means 150 receives the camera data output from the camera data processing means 120 as input, and creates an electronic image 51 and a depth key signal for the electronic image 51 based on the input camera data, It is output to the image synthesizing means 160.

【0026】画像合成手段160は、第1〜3の画像処
理手段141〜143からの各画像データ、キー信号等
と、電子作画手段150からの電子映像51および電子
映像51のキー信号を入力とし、各キー信号に基づい
て、合成画像を生成する。図1に、第3のロボットカメ
ラ133を用いて撮影した画像に、第1のロボットカメ
ラ131および第2のロボットカメラ132を用いて撮
影した画像から抽出した人物の像と、画像合成手段15
0によって生成された電子映像51とを合成した例を画
像61として示す。
The image synthesizing means 160 receives the image data, key signals, etc. from the first to third image processing means 141 to 143, the electronic image 51 from the electronic image forming means 150, and the key signal of the electronic image 51 as inputs. , Generates a composite image based on each key signal. In FIG. 1, an image taken by the third robot camera 133, an image of a person extracted from the images taken by the first robot camera 131 and the second robot camera 132, and the image synthesizing unit 15 are shown.
An example in which the electronic image 51 generated by 0 is combined is shown as an image 61.

【0027】なお、画像合成処理において、複数地点に
あるカメラからのデータの同期を取るためには、公知の
フレーム遅延装置を用いることによって、ネットワーク
経由での受信において遅延が生ずる場合には、受信する
画像データの遅延量を調整することで、各画像データの
受信のタイミングの同期をとることができる。
In the image synthesizing process, in order to synchronize the data from the cameras at a plurality of points, a known frame delay device is used. By adjusting the delay amount of the image data to be processed, the reception timing of each image data can be synchronized.

【0028】このように合成された画像の一例として、
図3に、第1〜3の画像処理手段141〜143によっ
て生成されたキー信号の画像31−3、32−3、33
−3、電子作画手段150によって生成された奥行きキ
ー信号の画像51−3が画像合成手段160によって合
成され、合成されたキー信号の画像、および最終的に得
られる合成画像61を示す。なお、ここで用いられた各
キー信号の画像は、奥行き信号を伴うものであり、その
情報に基づいて合成される画像の前後関係を調整するこ
とができる。例えば、奥にある画像から順次重ねていく
ことによって手前の画像ほど、前面に表示することがで
きる。
As an example of the image thus synthesized,
In FIG. 3, images 31-3, 32-3, 33 of key signals generated by the first to third image processing means 141 to 143.
-3, the image 51-3 of the depth key signal generated by the electronic drawing means 150 is synthesized by the image synthesizing means 160, and the image of the synthesized key signal and the finally obtained synthesized image 61 are shown. The image of each key signal used here is accompanied by a depth signal, and the front-rear relationship of the images to be combined can be adjusted based on the information. For example, by stacking the images in the back one by one, the images in the foreground can be displayed in the foreground.

【0029】以上説明したように、本発明の第1の実施
の形態に係る多地点仮想スタジオ合成システムは、複数
のカメラ雲台をリアルタイムに制御し、奥行き情報をキ
ー信号として持つことにより、複数の映像の必要部分を
奥行きに基づいてリアルタイムに合成できる。これによ
って、今までは1枚の映像と電子映像とを合成したり、
手間をかけてカメラを複数回動かした後に合成する制作
したりすることなく、様々な地点に配置された複数のカ
メラからの映像を、各カメラ映像とその映像の奥行きの
キー信号に基づいて制御することにより、これまでにな
いリアルタイムの画像合成が可能となった。
As described above, the multipoint virtual studio synthesizing system according to the first embodiment of the present invention controls a plurality of camera pans in real time and has depth information as a key signal, so that The necessary parts of the image can be combined in real time based on the depth. With this, until now, one video and electronic video can be combined,
Controlling images from multiple cameras placed at various points based on each camera image and the key signal of the depth of that image, without the need to spend time and effort to rotate the cameras multiple times and then synthesize them By doing so, real-time image composition has never been possible.

【0030】[0030]

【発明の効果】以上説明したように、本発明は、複数台
のカメラを用いて得られる映像と奥行き情報に基づい
て、リアルタイムに複数台のカメラからの映像を違和感
なく映像合成する多地点仮想スタジオ合成システムを実
現することができる。
As described above, according to the present invention, a multipoint virtual image is synthesized in real time from images from a plurality of cameras on the basis of images obtained by using a plurality of cameras and depth information. A studio composition system can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態に係る多地点仮想ス
タジオ合成システムの模式的な構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a multipoint virtual studio composition system according to a first embodiment of the present invention.

【図2】本発明の第1の実施の形態に係る多地点仮想ス
タジオ合成システムの各画像処理手段におけるキー信号
の生成方法について説明するための図である。
FIG. 2 is a diagram for explaining a key signal generation method in each image processing means of the multipoint virtual studio composition system according to the first embodiment of the present invention.

【図3】本発明の第1の実施の形態に係る多地点仮想ス
タジオ合成システムの画像合成手段における画像合成方
法について説明するための図である。
FIG. 3 is a diagram for explaining an image synthesizing method in the image synthesizing means of the multipoint virtual studio synthesizing system according to the first embodiment of the present invention.

【符号の説明】[Explanation of symbols]

31、31−3、32、32−2、32−3、32−
4、32−5、33、33−3、51、51−3、6
1、61−3 画像 100 多地点仮想スタジオ合成システム 110 リモートコントロール雲台 120 カメラデータ処理手段 131、132、133 ロボットカメラ 141、142、143 画像処理手段 150 電子作画手段 160 画像合成手段
31, 31-3, 32, 32-2, 32-3, 32--
4, 32-5, 33, 33-3, 51, 51-3, 6
1, 61-3 Image 100 Multipoint virtual studio composition system 110 Remote control platform 120 Camera data processing means 131, 132, 133 Robot cameras 141, 142, 143 Image processing means 150 Electronic drawing means 160 Image combining means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三ツ峰 秀樹 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 深谷 崇史 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 Fターム(参考) 5B057 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE08 5C022 AB61 AB62 AB65 AB66 AC01 AC69 5C023 AA11 AA37 BA01 BA09 BA12 CA03 DA04 DA08    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hideki Mitsumine             1-10-11 Kinuta, Setagaya-ku, Tokyo, Japan             Broadcasting Association Broadcast Technology Institute (72) Inventor Takashi Fukaya             1-10-11 Kinuta, Setagaya-ku, Tokyo, Japan             Broadcasting Association Broadcast Technology Institute F-term (reference) 5B057 BA02 CA01 CA08 CA12 CA16                       CB01 CB08 CB12 CB16 CC01                       CE08                 5C022 AB61 AB62 AB65 AB66 AC01                       AC69                 5C023 AA11 AA37 BA01 BA09 BA12                       CA03 DA04 DA08

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】複数の異なる地点毎に配置され、被写体の
画像データと前記被写体の奥行き情報とを含む情報を取
得するためのロボットカメラと、前記ロボットカメラの
パン,チルト,ズーム,またはフォーカスを含むカメラ
パラメータをリアルタイムに制御するための手段と、前
記奥行き情報に基づいて前記ロボットカメラが取得した
被写体の画像データの中から合成する画像部分を抽出し
て画像合成を行うための手段とを備えたことを特徴とす
る多地点仮想スタジオ合成システム。
1. A robot camera arranged at each of a plurality of different points for acquiring information including image data of a subject and depth information of the subject, and a pan, tilt, zoom, or focus of the robot camera. A means for controlling the included camera parameter in real time, and a means for extracting an image portion to be combined from the image data of the subject acquired by the robot camera based on the depth information and performing image combination. A multipoint virtual studio synthesis system characterized by
【請求項2】複数の異なる地点毎に配置され、被写体の
画像データと前記被写体の奥行き情報とを含む情報を取
得するためのロボットカメラと、前記ロボットカメラの
パン,チルト,ズーム,またはフォーカスを含むカメラ
パラメータをリアルタイムに制御するための手段と、前
記ロボットカメラ毎に得られた奥行き情報に基づいて画
像合成する各被写体のキー信号を生成するための手段
と、前記キー信号に基づいて前記ロボットカメラが取得
した被写体の画像データの中から合成する画像部分を抽
出して画像合成を行うための手段とを備えたことを特徴
とする多地点仮想スタジオ合成システム。
2. A robot camera arranged at each of a plurality of different points for acquiring information including image data of a subject and depth information of the subject, and a pan, tilt, zoom, or focus of the robot camera. Means for controlling in real time camera parameters including: means for generating a key signal of each subject to be image-synthesized based on depth information obtained for each robot camera; and the robot based on the key signal A multipoint virtual studio synthesizing system, comprising: means for extracting an image portion to be synthesized from image data of a subject acquired by a camera and performing image synthesis.
【請求項3】前記多地点仮想スタジオ合成システムは、
さらに前記画像合成において用いる電子映像およびその
電子映像の奥行き情報を生成するための電子作画手段を
備えたことを特徴とする請求項1または2記載の多地点
仮想スタジオ合成システム。
3. The multipoint virtual studio composition system,
3. The multipoint virtual studio composition system according to claim 1, further comprising an electronic drawing means for generating an electronic image used in the image composition and depth information of the electronic image.
JP2002015223A 2002-01-24 2002-01-24 System for synthesizing multipoint virtual studio Pending JP2003219271A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002015223A JP2003219271A (en) 2002-01-24 2002-01-24 System for synthesizing multipoint virtual studio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002015223A JP2003219271A (en) 2002-01-24 2002-01-24 System for synthesizing multipoint virtual studio

Publications (1)

Publication Number Publication Date
JP2003219271A true JP2003219271A (en) 2003-07-31

Family

ID=27651682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002015223A Pending JP2003219271A (en) 2002-01-24 2002-01-24 System for synthesizing multipoint virtual studio

Country Status (1)

Country Link
JP (1) JP2003219271A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100703320B1 (en) 2005-07-28 2007-04-03 삼성전자주식회사 Imaginary broadcasting system
KR100780840B1 (en) 2006-06-14 2007-11-29 광주과학기술원 A temporal prediction apparatus and method for coding multi-view video based on layer-depth image
KR100822832B1 (en) 2006-03-28 2008-04-17 엠텍비젼 주식회사 Apparatus and method for adjusting DOF of object
JP2019121216A (en) * 2018-01-09 2019-07-22 キヤノン株式会社 Image processing apparatus, image processing method and program
US10357985B2 (en) 2012-03-05 2019-07-23 Landa Corporation Ltd. Printing system
US10357963B2 (en) 2012-03-05 2019-07-23 Landa Corporation Ltd. Digital printing process
US10434761B2 (en) 2012-03-05 2019-10-08 Landa Corporation Ltd. Digital printing process
US10477188B2 (en) 2016-02-18 2019-11-12 Landa Corporation Ltd. System and method for generating videos
US10518526B2 (en) 2012-03-05 2019-12-31 Landa Corporation Ltd. Apparatus and method for control or monitoring a printing system
US10569533B2 (en) 2012-03-15 2020-02-25 Landa Corporation Ltd. Endless flexible belt for a printing system
US10569534B2 (en) 2012-03-05 2020-02-25 Landa Corporation Ltd. Digital printing system
US10569532B2 (en) 2012-03-05 2020-02-25 Landa Corporation Ltd. Digital printing system
WO2020039992A1 (en) * 2018-08-20 2020-02-27 ソニーセミコンダクタソリューションズ株式会社 Image processing device, and image processing system
US10596804B2 (en) 2015-03-20 2020-03-24 Landa Corporation Ltd. Indirect printing system
US10632740B2 (en) 2010-04-23 2020-04-28 Landa Corporation Ltd. Digital printing process
US10642198B2 (en) 2012-03-05 2020-05-05 Landa Corporation Ltd. Intermediate transfer members for use with indirect printing systems and protonatable intermediate transfer members for use with indirect printing systems
US10703094B2 (en) 2015-04-14 2020-07-07 Landa Corporation Ltd. Apparatus for threading an intermediate transfer member of a printing system
US10759953B2 (en) 2013-09-11 2020-09-01 Landa Corporation Ltd. Ink formulations and film constructions thereof
US10800936B2 (en) 2012-03-05 2020-10-13 Landa Corporation Ltd. Ink film constructions
US10889128B2 (en) 2016-05-30 2021-01-12 Landa Corporation Ltd. Intermediate transfer member
US10926532B2 (en) 2017-10-19 2021-02-23 Landa Corporation Ltd. Endless flexible belt for a printing system
US10933661B2 (en) 2016-05-30 2021-03-02 Landa Corporation Ltd. Digital printing process
US10994528B1 (en) 2018-08-02 2021-05-04 Landa Corporation Ltd. Digital printing system with flexible intermediate transfer member
US11267239B2 (en) 2017-11-19 2022-03-08 Landa Corporation Ltd. Digital printing system
US11318734B2 (en) 2018-10-08 2022-05-03 Landa Corporation Ltd. Friction reduction means for printing systems and method
US11321028B2 (en) 2019-12-11 2022-05-03 Landa Corporation Ltd. Correcting registration errors in digital printing
WO2022091811A1 (en) * 2020-10-29 2022-05-05 ソニーグループ株式会社 Image processing device, image processing method, and image processing system
US11465426B2 (en) 2018-06-26 2022-10-11 Landa Corporation Ltd. Intermediate transfer member for a digital printing system
US11511536B2 (en) 2017-11-27 2022-11-29 Landa Corporation Ltd. Calibration of runout error in a digital printing system
US11679615B2 (en) 2017-12-07 2023-06-20 Landa Corporation Ltd. Digital printing process and method
US11707943B2 (en) 2017-12-06 2023-07-25 Landa Corporation Ltd. Method and apparatus for digital printing
US11787170B2 (en) 2018-12-24 2023-10-17 Landa Corporation Ltd. Digital printing system
US11833813B2 (en) 2019-11-25 2023-12-05 Landa Corporation Ltd. Drying ink in digital printing using infrared radiation

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100703320B1 (en) 2005-07-28 2007-04-03 삼성전자주식회사 Imaginary broadcasting system
KR100822832B1 (en) 2006-03-28 2008-04-17 엠텍비젼 주식회사 Apparatus and method for adjusting DOF of object
KR100780840B1 (en) 2006-06-14 2007-11-29 광주과학기술원 A temporal prediction apparatus and method for coding multi-view video based on layer-depth image
US10632740B2 (en) 2010-04-23 2020-04-28 Landa Corporation Ltd. Digital printing process
US10800936B2 (en) 2012-03-05 2020-10-13 Landa Corporation Ltd. Ink film constructions
US10357985B2 (en) 2012-03-05 2019-07-23 Landa Corporation Ltd. Printing system
US10357963B2 (en) 2012-03-05 2019-07-23 Landa Corporation Ltd. Digital printing process
US10434761B2 (en) 2012-03-05 2019-10-08 Landa Corporation Ltd. Digital printing process
US10642198B2 (en) 2012-03-05 2020-05-05 Landa Corporation Ltd. Intermediate transfer members for use with indirect printing systems and protonatable intermediate transfer members for use with indirect printing systems
US10518526B2 (en) 2012-03-05 2019-12-31 Landa Corporation Ltd. Apparatus and method for control or monitoring a printing system
US10569534B2 (en) 2012-03-05 2020-02-25 Landa Corporation Ltd. Digital printing system
US10569532B2 (en) 2012-03-05 2020-02-25 Landa Corporation Ltd. Digital printing system
US10569533B2 (en) 2012-03-15 2020-02-25 Landa Corporation Ltd. Endless flexible belt for a printing system
US10759953B2 (en) 2013-09-11 2020-09-01 Landa Corporation Ltd. Ink formulations and film constructions thereof
US10596804B2 (en) 2015-03-20 2020-03-24 Landa Corporation Ltd. Indirect printing system
US10703094B2 (en) 2015-04-14 2020-07-07 Landa Corporation Ltd. Apparatus for threading an intermediate transfer member of a printing system
US10477188B2 (en) 2016-02-18 2019-11-12 Landa Corporation Ltd. System and method for generating videos
US10933661B2 (en) 2016-05-30 2021-03-02 Landa Corporation Ltd. Digital printing process
US10889128B2 (en) 2016-05-30 2021-01-12 Landa Corporation Ltd. Intermediate transfer member
US10926532B2 (en) 2017-10-19 2021-02-23 Landa Corporation Ltd. Endless flexible belt for a printing system
US11267239B2 (en) 2017-11-19 2022-03-08 Landa Corporation Ltd. Digital printing system
US11511536B2 (en) 2017-11-27 2022-11-29 Landa Corporation Ltd. Calibration of runout error in a digital printing system
US11707943B2 (en) 2017-12-06 2023-07-25 Landa Corporation Ltd. Method and apparatus for digital printing
US11679615B2 (en) 2017-12-07 2023-06-20 Landa Corporation Ltd. Digital printing process and method
JP2019121216A (en) * 2018-01-09 2019-07-22 キヤノン株式会社 Image processing apparatus, image processing method and program
JP7191514B2 (en) 2018-01-09 2022-12-19 キヤノン株式会社 Image processing device, image processing method, and program
US11465426B2 (en) 2018-06-26 2022-10-11 Landa Corporation Ltd. Intermediate transfer member for a digital printing system
US10994528B1 (en) 2018-08-02 2021-05-04 Landa Corporation Ltd. Digital printing system with flexible intermediate transfer member
WO2020039992A1 (en) * 2018-08-20 2020-02-27 ソニーセミコンダクタソリューションズ株式会社 Image processing device, and image processing system
US11647284B2 (en) 2018-08-20 2023-05-09 Sony Semiconductor Solutions Corporation Image processing apparatus and image processing system with image combination that implements signal level matching
JP7357620B2 (en) 2018-08-20 2023-10-06 ソニーセミコンダクタソリューションズ株式会社 Image processing device and image processing system
US11318734B2 (en) 2018-10-08 2022-05-03 Landa Corporation Ltd. Friction reduction means for printing systems and method
US11787170B2 (en) 2018-12-24 2023-10-17 Landa Corporation Ltd. Digital printing system
US11833813B2 (en) 2019-11-25 2023-12-05 Landa Corporation Ltd. Drying ink in digital printing using infrared radiation
US11321028B2 (en) 2019-12-11 2022-05-03 Landa Corporation Ltd. Correcting registration errors in digital printing
WO2022091811A1 (en) * 2020-10-29 2022-05-05 ソニーグループ株式会社 Image processing device, image processing method, and image processing system

Similar Documents

Publication Publication Date Title
JP2003219271A (en) System for synthesizing multipoint virtual studio
JP4153146B2 (en) Image control method for camera array and camera array
JP5313127B2 (en) Video composition method, video composition system
WO2012086326A1 (en) 3-d panoramic image creating apparatus, 3-d panoramic image creating method, 3-d panoramic image creating program, 3-d panoramic image replay apparatus, 3-d panoramic image replay method, 3-d panoramic image replay program, and recording medium
CN109218630B (en) Multimedia information processing method and device, terminal and storage medium
GB2497118A (en) Synchronising the capture of a still image with an associated video image
KR20100104591A (en) Method for fabricating a panorama
CN107592452B (en) Panoramic audio and video acquisition device and method
KR20120108747A (en) Monitoring camera for generating 3 dimensional scene and method thereof
CA2238768A1 (en) Multi-camera virtual set system employing still store frame buffers for each camera
JP5214547B2 (en) Image display apparatus and method, and program
JP2011035638A (en) Virtual reality space video production system
JP2005020607A (en) Composite image output device and composite image output processing program
JP2000057350A (en) Image processor, image processing method and image transmitting method
CN107172413A (en) Method and system for displaying video of real scene
JP2002232783A (en) Image processor, method therefor and record medium for program
JP2021086189A (en) Information processing apparatus, information processing method, video processing system, and program
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JPH07212653A (en) Picture processing unit
JP2005117399A (en) Image processor
JPH10336703A (en) Image compositing device, its method and storage medium
JP5924833B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
KR20140045636A (en) Apparatus for generating layered panorama image
JP2000023037A (en) Video compositing device
JP6770442B2 (en) Image processing device and its program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070619