JP2004282784A - Video processing apparatus and its method - Google Patents

Video processing apparatus and its method Download PDF

Info

Publication number
JP2004282784A
JP2004282784A JP2004142649A JP2004142649A JP2004282784A JP 2004282784 A JP2004282784 A JP 2004282784A JP 2004142649 A JP2004142649 A JP 2004142649A JP 2004142649 A JP2004142649 A JP 2004142649A JP 2004282784 A JP2004282784 A JP 2004282784A
Authority
JP
Japan
Prior art keywords
orientation
chroma key
unit
image
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004142649A
Other languages
Japanese (ja)
Other versions
JP3927965B2 (en
Inventor
Masakazu Fujiki
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004142649A priority Critical patent/JP3927965B2/en
Publication of JP2004282784A publication Critical patent/JP2004282784A/en
Application granted granted Critical
Publication of JP3927965B2 publication Critical patent/JP3927965B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To produce a synchronized video by compositing a real space and a virtual object only in a chroma key composition target area without depending on a position and the attitude of an image pickup means. <P>SOLUTION: Real video imaged with a camera 101 is outputted to a chroma key compositing apparatus 106 via a work station 102 as a fused video (foreground). When it is desired to indicate the virtual object in front of the real video, virtual object video watched from the position and attitude of the camera 101 is produced on the basis of an unillustrated table wherein data of the virtual object and coordinate values to dispose the virtual object are described, and position and attitude data of the camera 101, and composited with the real image to produce fused video, and outputted to the chroma key compositing apparatus 106. On the other hand, the work station 103 produces video of the background (CG (computer graphic) video) and outputs it to the chroma key compositing apparatus 106, and the fused video and the CG video are used to perform chroma key composition. Thus, mixed reality video is produced, outputted to a monitor 107 and displayed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、現実空間と仮想物体との映像の合成処理を行う映像処理装置及びその方法に関するものである。   The present invention relates to a video processing device and a video processing method for performing a video synthesis process of a real space and a virtual object.

複合現実感(Mixed Reality ; 以下、MR)を体感するためには、コンピュータにより仮想物体(仮想空間)の映像を生成し、生成した仮想物体の映像とカメラにより撮像した現実空間の映像とを合成した合成映像(複合現実感映像)を生成する必要がある。複合現実感映像を生成する際、カメラにより撮像された現実物体の背景に仮想物体の映像を合成した複合現実感映像を生成する場合がある。従来ではこのような複合現実感映像を生成する際、以下に記載の方法を用いていた。つまり、クロマキー色の背景板を現実物体の背景に配置し、背景が背景板となるように現実物体を撮像する。そして撮像した映像と、仮想物体の映像とのクロマキー合成を行う。   In order to experience Mixed Reality (hereinafter, MR), a computer generates an image of a virtual object (virtual space), and combines the generated image of the virtual object with an image of a real space captured by a camera. It is necessary to generate a synthesized video (mixed reality video). When generating a mixed reality video, a mixed reality video may be generated by combining a virtual object video with a background of a real object captured by a camera. Conventionally, the method described below has been used to generate such a mixed reality video. That is, the background plate of the chroma key color is arranged on the background of the real object, and the real object is imaged so that the background becomes the background plate. Then, chroma key synthesis of the captured image and the image of the virtual object is performed.

< クロマキー色の変化 >
しかし従来では光源の位置、姿勢とカメラの位置、姿勢とによっては、撮像される背景のクロマキー色が変化してしまい、クロマキー合成がうまくいかなかった。つまり光源からの光が背景板で反射している場合、反射する方向から背景板を含む現実物体の撮像を行えば、背景板はより白っぽく撮像されてしまう。この場合、クロマキー色の変化により、クロマキー合成を行うことが困難となってしまう。
< クロマキー合成対象外の部分のクロマキー合成 >
また従来では背景以外にクロマキー色を部分的に有する現実物体が存在した場合(例えば現実物体が建物であった場合、窓の色がクロマキー色に近い場合)、クロマキー合成の対象でない部分もクロマキー合成が行われてしまう。
< 複合現実感映像を生成する際の生成の同期 >
また従来では複合現実感映像を生成する際に、前景の映像を生成するタイミングと、背景に用いる仮想物体の映像の生成のタイミングとは、処理速度の理由から異なってしまい、同期のとれた複合現実感映像を生成することは困難となってしまう。
<Change in chroma key color>
However, conventionally, depending on the position and orientation of the light source and the position and orientation of the camera, the chroma key color of the background to be imaged changes, and the chroma key synthesis has not been successful. In other words, when the light from the light source is reflected by the background plate, if the imaging of the real object including the background plate is performed from the direction of reflection, the background plate is imaged more whitish. In this case, it is difficult to perform chroma key synthesis due to a change in chroma key color.
<Chroma key synthesis of parts not to be subjected to chroma key synthesis>
Conventionally, when there is a real object partially having a chroma key color other than the background (for example, when the real object is a building, when the window color is close to the chroma key color), a portion that is not a target of the chroma key synthesis is also subjected to the chroma key synthesis. Is done.
<Synchronization of generation when generating mixed reality video>
In addition, conventionally, when generating a mixed reality video, the timing of generating a foreground video and the timing of generating a video of a virtual object used as a background are different from each other due to processing speed. It is difficult to generate a realistic image.

本発明は以上の問題に鑑みてなされたものであり、撮像手段の位置、姿勢に依存することなく、クロマキー合成対象領域のみ現実空間と仮想物体との合成を行い、同期のとれた映像を生成することを目的とする。   The present invention has been made in view of the above problems, and generates a synchronized video by synthesizing a real space and a virtual object only in a chroma key synthesis target area without depending on the position and orientation of an imaging unit. The purpose is to do.

本発明の目的を達成するために、例えば本発明の映像処理装置は以下の構成を備える。すなわち、現実空間と仮想物体との映像の合成処理を行う映像処理装置であって、
現実空間を撮像する撮像手段と、
前記撮像手段の位置姿勢を計測する計測手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記撮像手段により撮像された現実空間を含む前景の映像を生成する前景映像生成手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記前景映像生成手段による前景の背景映像を生成する背景映像生成手段と、
前記撮像手段の位置姿勢に応じたクロマキー色が記載されたテーブルから、前記計測手段による前記撮像手段の位置姿勢に応じたクロマキー色を特定し、特定したクロマキー色を用いて、前記前景映像生成手段による前景の映像と、前記背景映像生成手段による背景の映像とのクロマキー合成処理を行う合成手段と、
前記合成手段が合成する対象である前記前景の映像と前記背景映像とを同期して前記合成手段に入力するための同期信号を発生する同期信号発生手段とを備え、
前記前景映像生成手段、及び前記背景映像生成手段は夫々独立に設定されている所定時間分のウェイト処理を行うことにより、前記同期信号に応じて同期のとれた前景、背景の映像を夫々前記合成手段に入力することを特徴とする。
In order to achieve the object of the present invention, for example, a video processing device of the present invention has the following configuration. That is, a video processing device that performs a video synthesis process of a real space and a virtual object,
Imaging means for imaging the real space;
Measuring means for measuring the position and orientation of the imaging means;
Foreground image generation means for generating a foreground image including the real space imaged by the imaging means, based on the position and orientation of the imaging means by the measurement means,
A background image generation unit configured to generate a foreground background image by the foreground image generation unit based on a position and orientation of the imaging unit by the measurement unit;
From the table in which the chroma key color corresponding to the position and orientation of the imaging unit is described, the chroma key color corresponding to the position and orientation of the imaging unit is specified by the measuring unit, and the foreground image generation unit is specified using the specified chroma key color. Synthesizing means for performing a chroma key synthesizing process of the foreground image by the background image generation means by the background image generation means,
A synchronizing signal generating unit that generates a synchronizing signal for inputting the foreground image and the background image to be synthesized by the synthesizing unit to the synthesizing unit.
The foreground image generation unit and the background image generation unit perform weight processing for a predetermined time set independently of each other, thereby synchronizing the foreground and background images synchronized in accordance with the synchronization signal. It is characterized by inputting to means.

本発明の構成により、撮像手段の位置、姿勢に依存することなく、クロマキー合成対象領域のみ現実空間と仮想物体との合成を行い、同期のとれた映像を生成することができる。   According to the configuration of the present invention, it is possible to generate a synchronized video by synthesizing the real space and the virtual object only in the chroma key synthesis target area without depending on the position and orientation of the imaging unit.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
本実施形態における映像処理装置の概略構成を図1に示す。101はカメラで、本実施形態ではクロマキー色の背景板を背景に現実物体の撮像を行う。図3にこの撮像の様子を示す。
[First Embodiment]
FIG. 1 shows a schematic configuration of a video processing device according to the present embodiment. In the present embodiment, a camera 101 captures an image of a real object with a chroma key background plate as a background. FIG. 3 shows the state of this imaging.

301はクロマキー色の背景板、302,303は現実物体であって、カメラ101は背景板301が背景となるように現実物体302,303を撮像する。   Reference numeral 301 denotes a chroma key background plate, 302 and 303 denote real objects, and the camera 101 images the real objects 302 and 303 so that the background plate 301 becomes a background.

図1に戻って、102,103はグラフィック処理用のワークステーションで、グラフィック処理を行うソフトウェアを実行することができる。なお102,103は上記のソフトウェアを実行できる一般のコンピュータでも良い。ワークステーション102,103の内部構成を図4に示す。   Returning to FIG. 1, reference numerals 102 and 103 denote workstations for graphic processing, which can execute software for performing graphic processing. Note that 102 and 103 may be general computers that can execute the above software. FIG. 4 shows the internal configuration of the workstations 102 and 103.

401はCPUで、RAM402やROM403内に格納されたプログラムコードやデータを用いてワークステーション全体の制御を行い、また各種の映像処理やマトリクス演算なども行う。402はRAMで、CPU401により外部記憶装置404からロードされたプログラムコードやデータを一時的に格納するエリアを備えると共に、CPU401が各種の処理を行う際に使用するワークエリアも備える。403はROMで、ワークステーションの起動プログラムや起動後の設定などを格納すると共に、文字コードなども格納する。404は外部記憶装置で、CD−ROMやフロッピー(登録商標)ディスクなどの記憶媒体から読み込んだプログラムコードやデータなどを保存する。405は操作部で、キーボードやマウスなどのポインティングデバイスにより構成されており、ユーザが各種の指示を入力するためのインターフェースである。406は表示部で、CRTや液晶画面などにより構成されており、各種の映像の生成結果や、システムメッセージなどを表示することができる。407はインターフェース(I/F)部で、周辺機器や他のワークステーションと接続することができ、データの送受信を行うことができる。408はNCUで、通信回線を介して他の機器とのデータの送受信を行うことができる。409は上述の各部を繋ぐバスである。   Reference numeral 401 denotes a CPU that controls the entire workstation using program codes and data stored in the RAM 402 and the ROM 403, and also performs various video processing and matrix calculations. A RAM 402 has an area for temporarily storing program codes and data loaded from the external storage device 404 by the CPU 401, and also has a work area used when the CPU 401 performs various processes. Reference numeral 403 denotes a ROM which stores a workstation startup program, settings after startup, and the like, and also stores character codes and the like. An external storage device 404 stores program codes and data read from a storage medium such as a CD-ROM or a floppy (registered trademark) disk. An operation unit 405 is configured by a pointing device such as a keyboard and a mouse, and is an interface for a user to input various instructions. A display unit 406 is configured by a CRT, a liquid crystal screen, or the like, and is capable of displaying various video generation results, system messages, and the like. An interface (I / F) 407 can be connected to peripheral devices and other workstations, and can transmit and receive data. An NCU 408 can transmit and receive data to and from another device via a communication line. A bus 409 connects the above-described units.

図1に戻って、104は位置姿勢計測装置で、カメラ101の位置、姿勢を計測し、計測結果としての位置、姿勢データを出力する。105は同期信号発生器で、一定の時間間隔で同期信号を出力する。106はクロマキー合成装置で、入力された映像同士のクロマキー合成を行い、合成結果としての複合現実感映像を出力する。なお、用いるクロマキー色(図3に示した例では、背景板301のクロマキー色)は、クロマキー合成装置106が認識できるように、同装置106に予め登録しておく必要がある。107はモニタで、入力された映像を表示することができる。   Returning to FIG. 1, reference numeral 104 denotes a position and orientation measurement device that measures the position and orientation of the camera 101 and outputs position and orientation data as a measurement result. Reference numeral 105 denotes a synchronization signal generator which outputs a synchronization signal at regular time intervals. Reference numeral 106 denotes a chroma key synthesizing device that performs chroma key synthesizing of the input images and outputs a mixed reality image as a synthesizing result. The chroma key color to be used (the chroma key color of the background plate 301 in the example shown in FIG. 3) needs to be registered in the chroma key synthesizing device 106 in advance so that the chroma key synthesizing device 106 can recognize the chroma key color. A monitor 107 can display an input video.

以上の構成を備える映像処理装置が行う処理の大まかな流れを図2を用いて説明する。カメラ101の位置、姿勢は位置姿勢計測装置104により計測され、カメラ101の位置姿勢データとしてワークステーション102、ワークステーション103に夫々出力される。   A general flow of processing performed by the video processing device having the above configuration will be described with reference to FIG. The position and orientation of the camera 101 are measured by the position and orientation measurement device 104 and output to the workstation 102 and the workstation 103 as position and orientation data of the camera 101, respectively.

カメラ101により撮像された実写映像はワークステーション102に(RAM402内に)入力され、融合映像(前景)としてクロマキー合成装置106に出力される。なお、ワークステーション102(ワークステーション103)が有する外部記憶装置404内には仮想物体のデータが保存されており、カメラ101から入力した現実映像よりも手前に仮想物体の映像を表示させたい場合には(以下、この仮想物体を前景仮想物体、前景仮想物体の映像を前景仮想物体映像と呼ぶ)、前景仮想物体のデータ(前景仮想物体の3次元形状のデータ、表面マテリアルのデータ)を外部記憶装置404からRAM402にロードする。また、前景仮想物体を配置する座標値が記載された不図示のテーブルも一緒にロードする。そして位置姿勢計測装置104より入力されたカメラ101の位置姿勢データに基づいて、前景仮想物体のビューイング変換行列を生成し、カメラ101の位置姿勢から見た前景仮想物体映像を生成する。そして生成された前景仮想物体映像と実写映像とを合成し、融合映像を生成する。以上、生成された融合映像はクロマキー合成装置106に出力される。   The real image captured by the camera 101 is input to the workstation 102 (in the RAM 402), and output to the chroma key synthesizing device 106 as a fused image (foreground). Note that virtual object data is stored in the external storage device 404 of the workstation 102 (workstation 103), and it is necessary to display a virtual object image before the real image input from the camera 101. (Hereinafter, this virtual object is referred to as a foreground virtual object, and the image of the foreground virtual object is referred to as a foreground virtual object image). The data is loaded from the device 404 to the RAM 402. Further, a table (not shown) in which coordinate values for arranging the foreground virtual object are loaded is also loaded. Then, based on the position and orientation data of the camera 101 input from the position and orientation measurement device 104, a viewing transformation matrix of the foreground virtual object is generated, and a foreground virtual object image viewed from the position and orientation of the camera 101 is generated. Then, the generated foreground virtual object image and the real image are combined to generate a fusion image. As described above, the generated fused video is output to the chroma key synthesizing device 106.

一方、ワークステーション103内にカメラ101の位置姿勢データが入力されると、ワークステーション103はこの位置姿勢データに基づいて、背景の映像(CG映像)を生成する。カメラ101の位置姿勢データに基づいた背景の映像の生成方法については詳しくは後述する。以上、生成されたCG映像はクロマキー合成装置106に出力される。   On the other hand, when the position and orientation data of the camera 101 is input into the workstation 103, the workstation 103 generates a background image (CG image) based on the position and orientation data. A method of generating a background image based on the position and orientation data of the camera 101 will be described later in detail. As described above, the generated CG video is output to the chroma key synthesizing device 106.

クロマキー合成装置106は入力された融合映像とCG映像とを用いてクロマキー合成を行い、複合現実感映像を生成する。クロマキー合成装置106が行うクロマキー合成処理について図5を用いて説明する。   The chroma key synthesizing device 106 performs chroma key synthesis using the input fusion image and CG image to generate a mixed reality image. The chroma key synthesizing process performed by the chroma key synthesizing device 106 will be described with reference to FIG.

501はワークステーション102から入力された融合映像で、502はワークステーション103から入力されたCG映像である。融合映像501内には、現実物体の映像501a,501b、前景仮想物体映像501c、そしてクロマキー色の背景板の映像501dが含まれている。融合映像501とCG映像502とのクロマキー合成を行うと、融合映像501内の背景板の映像501dの領域にCG映像502の該当領域の映像が合成された複合現実感映像503が生成される。   Reference numeral 501 denotes a fusion image input from the workstation 102, and reference numeral 502 denotes a CG image input from the workstation 103. The fusion image 501 includes images 501a and 501b of a real object, a foreground virtual object image 501c, and an image 501d of a chroma key background plate. When the chroma key synthesis of the fusion image 501 and the CG image 502 is performed, a mixed reality image 503 is generated in which the image of the corresponding region of the CG image 502 is synthesized in the region of the image 501d of the background board in the fusion image 501.

そして上述の説明による方法でクロマキー合成装置106により生成された複合現実感映像はモニタ107に出力され、表示される。   Then, the mixed reality video generated by the chroma key synthesizing device 106 by the method described above is output to the monitor 107 and displayed.

なお、以上の各部(カメラ101、ワークステーション102、ワークステーション103、位置姿勢計測装置104、クロマキー合成装置106)は同期信号発生器105により出力される同期信号に同期して動作している。つまり、同期信号に同期して、カメラ101からの実写映像の出力、ワークステーション102からの融合映像の出力、ワークステーション103からのCG映像の出力、位置姿勢計測装置104によるカメラ101の位置姿勢の計測及び位置姿勢データの出力、クロマキー合成装置106によるクロマキー合成処理の開始を行う。以下、上述の各部の動作の同期について更に詳しく説明する。   The above components (the camera 101, the workstation 102, the workstation 103, the position and orientation measuring device 104, and the chroma key synthesizing device 106) operate in synchronization with the synchronization signal output from the synchronization signal generator 105. That is, in synchronization with the synchronizing signal, the output of the actual image from the camera 101, the output of the fused image from the workstation 102, the output of the CG image from the workstation 103, the position and orientation of the camera 101 by the position and orientation measurement device 104 The measurement and output of the position and orientation data, and the start of the chroma key synthesizing process by the chroma key synthesizing device 106 are performed. Hereinafter, the synchronization of the operations of the above-described units will be described in more detail.

上述の通り、同期信号に応じてカメラ101からの実写映像の出力と、位置姿勢計測装置104からのカメラ101の位置姿勢データの出力が行われるが、ワークステーション102において、キャプチャ(ワークステーション102内のRAM402内に実写映像を取り込む作業)する実写映像と、カメラ101の位置姿勢データを同期させるために、実写映像のキャプチャに要する時間をxフレームとすると、位置姿勢計測装置104はxフレーム前のカメラ101の位置姿勢データを出力する。このようにすることで、カメラ101からの実写映像と、位置姿勢計測装置104からのカメラ101の位置姿勢データとが同期をとってワークステーション102内のRAM402に入力される。   As described above, the output of the actual image from the camera 101 and the output of the position and orientation data of the camera 101 from the position and orientation measurement device 104 are performed in response to the synchronization signal. In order to synchronize the photographed image to be taken into the RAM 402 of the camera 101) and the position and orientation data of the camera 101, the time required for capturing the photographed image is x frames. The position and orientation data of the camera 101 is output. In this way, the real image from the camera 101 and the position and orientation data of the camera 101 from the position and orientation measurement device 104 are synchronized and input to the RAM 402 in the workstation 102.

もしくは、カメラ101と位置姿勢計測装置104から夫々実写映像とカメラ101の位置姿勢データとをワークステーション102に入力し、カメラ101の位置姿勢データをRAM402に蓄積しておいて、融合映像を生成する際に、RAM402内の位置姿勢データのうち、xフレーム前のものを用いても良い。なお、実写映像のキャプチャに要する時間は予め測定しておく。   Alternatively, the real image and the position and orientation data of the camera 101 are input to the workstation 102 from the camera 101 and the position and orientation measurement device 104, respectively, and the position and orientation data of the camera 101 are stored in the RAM 402 to generate a fused image. At this time, of the position and orientation data in the RAM 402, the data before x frames may be used. It should be noted that the time required for capturing the actual video is measured in advance.

また、ワークステーション102とワークステーション103とで、夫々融合映像、CG映像を生成する際に要する時間が異なることが多い。この場合のワークステーション102とワークステーション103との映像の生成処理及び出力のタイミングチャートを図6に示す。   In addition, the times required to generate the fusion video and the CG video are often different between the workstation 102 and the workstation 103. FIG. 6 shows a timing chart of the video generation processing and output of the workstation 102 and the workstation 103 in this case.

同図において、t1はワークステーション102が融合映像を生成するのに要する時間、WT1は後述するウェイト時間、t2はワークステーション103がCG映像を生成するのに要する時間、WT2は後述するウェイト時間、t3はクロマキー合成装置106がクロマキー合成処理を行うのに要する時間を示す。   In the figure, t1 is the time required for the workstation 102 to generate the fused image, WT1 is the wait time described later, t2 is the time required for the workstation 103 to generate the CG image, WT2 is the wait time described later, t3 indicates the time required for the chroma key synthesizing device 106 to perform the chroma key synthesizing process.

WT1,WT2はワークステーション102とワークステーション103とで夫々の1回の繰り返し計算に要する時間の差を1フレーム以内に納めるために、及びクロマキー合成装置106によるクロマキー合成処理が終了するタイミングを待つために、夫々ワークステーション102、ワークステーション103に対して設けられたウェイト時間である。このように夫々ウェイト時間WT1,WT2を設けることで、同期信号に応じてワークステーション102、ワークステーション103から夫々同期をとって融合映像、CG映像が出力され、クロマキー合成装置106に入力される。   The WT1 and the WT2 are for keeping the difference in time required for one repetitive calculation between the workstation 102 and the workstation 103 within one frame and waiting for the timing when the chroma key synthesizing process by the chroma key synthesizing device 106 ends. Are the wait times provided for the workstations 102 and 103, respectively. By providing the wait times WT1 and WT2 in this way, the fused video and the CG video are output from the workstation 102 and the workstation 103 in synchronization with each other in accordance with the synchronization signal, and are input to the chroma key synthesizing device 106.

次に、背景の映像の生成方法について説明する。背景の映像は遠景であることが多いために、微細な3次元形状の再現はあまり必要ではない。よって、背景の映像を生成する際に要する時間はより短い方がよい。本実施形態における背景の生成方法として、図7に示すように、前景702を含むような半球体701を仮想的に設定し、この半球体701の内側に予め魚眼レンズなどで撮影した画像をマッピングする。   Next, a method of generating a background image will be described. Since the background image is often a distant view, reproduction of a fine three-dimensional shape is not so necessary. Therefore, it is preferable that the time required to generate the background image be shorter. As a method of generating a background according to the present embodiment, as shown in FIG. 7, a hemisphere 701 including a foreground 702 is virtually set, and an image previously captured by a fisheye lens or the like is mapped inside the hemisphere 701. .

その結果、位置姿勢計測装置104から入力されるカメラ101の位置姿勢データに基づいて、カメラ101の位置姿勢により見える半球体701内の画像を生成し、背景として用いる。なお、前景702を含む形状は半球体に限定されず、他にも上面が閉じた円柱であっても良い。なお、上述の半球体701のデータ(背景のデータ)はワークステーション103の外部記憶装置404内に保存されており、必要に応じて読み出される。   As a result, based on the position and orientation data of the camera 101 input from the position and orientation measurement device 104, an image inside the hemisphere 701 that can be seen by the position and orientation of the camera 101 is generated and used as a background. The shape including the foreground 702 is not limited to a hemisphere, and may be a cylinder having a closed upper surface. Note that the above-described data (background data) of the hemisphere 701 is stored in the external storage device 404 of the workstation 103, and is read as needed.

以上の各処理において、ワークステーション102、ワークステーション103における処理のフローチャートを夫々図8、図9に示し、以下説明する。なお、夫々のフローチャートに従ったプログラムコードは夫々のワークステーションの夫々の外部記憶装置404内に保存され、必要に応じてRAM402に読み出され、夫々のワークステーション内の夫々のCPU401により読み出され、実行される。   In each of the above processes, flowcharts of the processes in the workstation 102 and the workstation 103 are shown in FIGS. 8 and 9, respectively, and will be described below. The program codes according to the respective flowcharts are stored in the respective external storage devices 404 of the respective workstations, read out to the RAM 402 as needed, and read out by the respective CPUs 401 in the respective workstations. Will be executed.

まず、ワークステーション102における処理について説明する。まず、同期信号発生器105からの同期信号待ちとなる(ステップS801)。処理を開始するとまず、カメラ101から実写映像をキャプチャする(ステップS802)。そして位置姿勢計測装置104からカメラ101の位置姿勢データを入力する(ステップS803)。ステップS802とステップS803の各処理の順序は逆でも良いし、並列に行っても良い。そして次にキャプチャした実写映像をRAM402内で描画する(ステップS804)。また、入力したカメラ101の位置姿勢データ(予め測定したフレーム数遅延させた位置姿勢データ)に基づいて、前景仮想物体映像を生成するためのビューイング変換行列を算出し(ステップS805)、算出されたビューイング変換行列に基づいて生成された前景仮想物体映像を実写映像に合成し、融合映像を生成する(ステップS806)。   First, the processing in the workstation 102 will be described. First, the process waits for a synchronization signal from the synchronization signal generator 105 (step S801). When the process is started, first, a photographed image is captured from the camera 101 (step S802). Then, the position and orientation data of the camera 101 is input from the position and orientation measurement device 104 (step S803). The order of the processes in step S802 and step S803 may be reversed or may be performed in parallel. Then, the captured real image is drawn in the RAM 402 (step S804). A viewing transformation matrix for generating a foreground virtual object image is calculated based on the input position and orientation data of the camera 101 (position and orientation data delayed by the number of frames measured in advance) (step S805). Then, the foreground virtual object video generated based on the viewing transformation matrix is synthesized with the real video to generate a fusion video (step S806).

そして最後にウェイト時間WT1だけウェイトし(ステップS807)、その後、融合映像をクロマキー合成装置106に出力する(ステップS808)。その後に処理をステップS801に移行する。なお前景仮想物体映像を描画しない場合にはステップS805,S806及びS803における処理は必要ない。   Finally, the weight is waited for the wait time WT1 (step S807), and thereafter, the fused image is output to the chroma key synthesizing device 106 (step S808). After that, the process moves to step S801. If the foreground virtual object image is not drawn, the processing in steps S805, S806, and S803 is not necessary.

次にワークステーション103における処理について、図9を用いて説明する。   Next, processing in the workstation 103 will be described with reference to FIG.

ステップS801と同様に同期待ちとなり(ステップS901)、処理を開始したらステップS803と同様にカメラ101の位置姿勢データの入力を行い(ステップS902)、この位置姿勢データに基づいて、背景CGを生成する(ステップS904)。そしてWT2以上ウェイトすれば、背景のCG映像を出力し、処理をステップS901に移行する。   As in step S801, synchronization is waited (step S901). When the process is started, the position and orientation data of the camera 101 is input as in step S803 (step S902), and a background CG is generated based on the position and orientation data. (Step S904). If the weight is equal to or greater than WT2, the background CG image is output, and the process proceeds to step S901.

また、クロマキー合成装置106における処理のフローチャートを図10に示し、以下説明する。なお、同図のフローチャートに従ったプログラムコードはクロマキー合成装置106内の不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 10 shows a flowchart of the processing in the chroma key synthesizing device 106, which will be described below. The program code according to the flowchart of FIG. 5 is stored in a memory such as a RAM or a ROM (not shown) in the chroma key synthesizing device 106, and is read and executed by a CPU (not shown).

まず同期待ちで(ステップS1001)、処理を開始すればまず融合映像、CG映像を入力する(ステップS1002)。次にクロマキー合成処理を行い(ステップS1003)、その結果生成された複合現実感映像をモニタ107に出力する(ステップS1004)。   First, after waiting for synchronization (step S1001), if processing is started, first, a fused image and a CG image are input (step S1002). Next, a chroma key synthesizing process is performed (step S1003), and the resulting mixed reality video is output to the monitor 107 (step S1004).

なお本実施形態において、融合映像とCG映像を生成するワークステーションは別としたが、同じワークステーション内で行っても良い。その際にはこのワークステーションが有する外部記憶装置内には図8,9に示したフローチャートに従ったプログラムコードが保存されることになる。   In the present embodiment, the workstation that generates the fusion video and the CG video is separate, but may be performed in the same workstation. At that time, the program code according to the flowcharts shown in FIGS. 8 and 9 is stored in the external storage device of the workstation.

以上の説明による本実施形態における映像処理装置は、同期のとれた複合現実感映像を生成することができる。   The video processing device according to the present embodiment as described above can generate a synchronized mixed reality video.

[第2の実施形態]
第1の実施形態において、カメラ101の位置姿勢と、不図示の光源の位置姿勢によっては、カメラ101で撮影した画像中で背景板(図3では301、図5では501d)の色が変化してしまう場合がある。その場合、光源の位置姿勢は固定と考えると、カメラ101の位置姿勢の変化に応じてクロマキー合成装置106におけるクロマキー合成パラメータを実時間で変化させる必要がある。本実施形態では、このようなクロマキー合成装置106について説明する。なお本実施形態における映像処理装置の概略構成は、図1において、位置姿勢計測装置104とクロマキー合成装置106とが繋がっており、クロマキー合成装置106に位置姿勢計測装置104からカメラ101の位置姿勢データが入力される。
[Second embodiment]
In the first embodiment, depending on the position and orientation of the camera 101 and the position and orientation of a light source (not shown), the color of the background plate (301 in FIG. 3, 501d in FIG. 5) changes in an image captured by the camera 101. In some cases. In this case, assuming that the position and orientation of the light source are fixed, it is necessary to change the chroma key combination parameter in the chroma key combination device 106 in real time according to the change in the position and orientation of the camera 101. In the present embodiment, such a chroma key synthesizing device 106 will be described. Note that the schematic configuration of the video processing apparatus according to the present embodiment is such that the position and orientation measurement device 104 and the chroma key synthesizing device 106 are connected to each other in FIG. Is entered.

まず、予め異なるカメラの位置姿勢に応じたクロマキー合成パラメータを調節し、テーブル(クロマキー合成パラメータテーブル)として保持しておく。クロマキー合成パラメータの要素には色相、クリップ、ゲイン、色相範囲、彩度等があり、記載した順番に従ってより厳密に調節しておく必要がある。図11にクロマキー合成パラメータテーブルの構成例を示す。   First, the chroma key combination parameters are adjusted in advance according to the different camera positions and orientations, and stored as a table (chroma key combination parameter table). Elements of the chroma keying parameters include hue, clip, gain, hue range, saturation, etc., and need to be more strictly adjusted in the order described. FIG. 11 shows a configuration example of the chroma key combination parameter table.

同図のテーブル1100内には、カメラ101の位置データが記載された欄1101、カメラ101の姿勢データが記載された欄1102と、欄1101,欄1102内に記載されたカメラ101の位置姿勢で特定されるクロマキー合成パラメータが記載された欄1103が含まれる。なお、欄1101,1102内には必ずしもデータが記載されているとは限らず、例えばカメラ101の位置が背景板から十分に離れている場合には、カメラ101の位置データは欄1101に記載しなくても良い。その場合、カメラ101の姿勢データのみで、クロマキー合成パラメータを決定しても誤差が少ないからである。   In the table 1100 of FIG. 10, a column 1101 in which the position data of the camera 101 is described, a column 1102 in which the posture data of the camera 101 is described, and the position and orientation of the camera 101 described in the columns 1101 and 1102 are shown. A column 1103 in which the specified chroma key combination parameter is described is included. Note that data is not always described in the columns 1101 and 1102. For example, when the position of the camera 101 is sufficiently distant from the background plate, the position data of the camera 101 is described in the column 1101. You don't have to. In this case, even if the chroma key combination parameter is determined only by the attitude data of the camera 101, the error is small.

次に実際にクロマキー合成パラメータテーブルを参照して、カメラ101の位置姿勢データが与えられた際に対応するクロマキー合成パラメータを特定する処理について同処理のフローチャートを図16に示し、以下説明する。   Next, referring to the chroma key synthesizing parameter table, a process of specifying the chroma key synthesizing parameter corresponding to the position and orientation data of the camera 101 is shown in FIG. 16 and will be described below.

カメラ101の位置姿勢データが与えられた場合(ステップS1601)、クロマキー合成パラメータテーブルを参照し(ステップS1602)、このデータがクロマキー合成パラメータテーブル(欄図11の例では1101,欄1102)に記載されたデータであれば(ステップS1603)、そのデータに応じたクロマキー合成パラメータを用いればよい(ステップS1604)。しかし、カメラ101の位置姿勢データがクロマキー合成パラメータテーブル(図11の例では欄1101,1102)に記載されていない場合(ステップS1603)、記載された位置姿勢データとクロマキー合成パラメータを用いて補間し(ステップS1605)、テーブルに記載されていない位置姿勢データに応じたクロマキー合成パラメータを特定することができる(ステップS1606)。補間の方法としては特に限定しないが、例えばスプライン補間等を用いても良い。   If the position and orientation data of the camera 101 is given (step S1601), the chroma key combination parameter table is referred to (step S1602), and this data is described in the chroma key combination parameter table (1101, column 1102 in the example of FIG. 11). If the data is (step S1603), a chroma key combination parameter corresponding to the data may be used (step S1604). However, if the position and orientation data of the camera 101 is not described in the chroma key combination parameter table (columns 1101 and 1102 in the example of FIG. 11) (step S1603), interpolation is performed using the described position and orientation data and the chroma key combination parameter. (Step S1605), it is possible to specify the chroma key combination parameter corresponding to the position and orientation data not described in the table (Step S1606). Although the method of interpolation is not particularly limited, for example, spline interpolation or the like may be used.

以上の方法により、カメラ101の位置姿勢により撮像されるクロマキー色が変化しても、本実施形態におけるクロマキー合成装置106は、クロマキー合成処理を行うことができる。   According to the above method, the chroma key synthesizing device 106 according to the present embodiment can perform the chroma key synthesizing process even if the chroma key color to be imaged changes depending on the position and orientation of the camera 101.

[第3の実施形態]
現実物体にクロマキー色が含まれている場合、例えば現実物体が建物であって窓の色がクロマキー色であった場合、この窓の部分はクロマキー合成により背景のCG映像の該当部分が合成されることになる。よって、本実施形態では現実物体にクロマキー色の領域(以下、マスク領域)が含まれていても、このマスク領域をクロマキー合成の対象から外す処理について説明する。
[Third Embodiment]
When the real object includes a chroma key color, for example, when the real object is a building and the window color is a chroma key color, the corresponding portion of the background CG image is synthesized by the chroma key synthesis in the window portion. Will be. Therefore, in the present embodiment, a process of excluding a mask region from a target of chroma key synthesis even when a real object includes a region of a chroma key color (hereinafter, a mask region) will be described.

まず予め、現実物体においてマスク領域の形状、位置を3次元空間内で特定し、ワークステーション内の外部記憶装置404内に格納しておく。そしてカメラ101の位置姿勢データに基づいて生成されるビューイング変換行列を用いて3次元マスク形状データを変換する事で、クロマキー合成処理対象の映像中におけるマスク領域の形状、位置が特定される。よってこの領域の情報をクロマキー合成装置106内に出力することで、この領域をクロマキー合成処理の対象外領域とする事ができる。   First, the shape and position of the mask area in the real object are specified in a three-dimensional space and stored in the external storage device 404 in the workstation. Then, by converting the three-dimensional mask shape data using a viewing transformation matrix generated based on the position and orientation data of the camera 101, the shape and position of the mask area in the video to be subjected to the chroma key synthesis processing are specified. Therefore, by outputting the information of this area to the chroma key synthesizing device 106, this area can be set as a non-target area of the chroma key synthesizing process.

[第4の実施形態]
第1の実施形態における映像処理装置が行う処理は他の構成によっても実現できる。図12に本実施形態における映像処理装置の概略構成を示す。
[Fourth embodiment]
The processing performed by the video processing device in the first embodiment can be realized by other configurations. FIG. 12 shows a schematic configuration of a video processing device according to the present embodiment.

各部に用いる機器は第1の実施形態と同じであるが、夫々の機器間の接続形式や各機器の動作タイミングなどが異なる。本実施形態の映像処理装置において各処理の流れを図13を用いて説明する。   The devices used for each unit are the same as those in the first embodiment, but the connection types between the devices and the operation timing of each device are different. The flow of each process in the video processing device of the present embodiment will be described with reference to FIG.

ワークステーション102の外部記憶装置404内には背景のデータが保存されており、必要に応じてCPU401によりRAM402に読み出される。よって、ワークステーション102は位置姿勢計測装置104から入力したカメラ101の位置姿勢データに基づいて第1の実施形態と同様にカメラ101の位置姿勢に基づいた背景のCG映像を生成し、生成した背景のCG映像をクロマキー合成装置106に出力する。   Background data is stored in the external storage device 404 of the workstation 102, and is read out to the RAM 402 by the CPU 401 as necessary. Therefore, the workstation 102 generates a CG image of a background based on the position and orientation of the camera 101 based on the position and orientation data of the camera 101 input from the position and orientation measurement device 104 in the same manner as in the first embodiment. Is output to the chroma key synthesizing device 106.

またカメラ101により撮像された実写映像はダイレクトにクロマキー合成装置106に入力される。そしてクロマキー合成装置106は、入力された実写映像と背景のCG映像をクロマキー合成し、前景仮想物体が含まれていない複合現実感映像を生成する。生成された(前景仮想物体が含まれていない)複合現実感映像はワークステーション103に入力される。ワークステーション103の外部記憶装置404内には前景仮想物体のデータが保存されており、CPU401によりRAM402に読み出した後に、位置姿勢計測装置104からのカメラ101の位置姿勢データに基づいた前景仮想物体映像を生成し、クロマキー合成装置106から入力された映像と合成し、複合現実感映像を生成した後にモニタ107に出力する。   In addition, the actual image captured by the camera 101 is directly input to the chroma key synthesizing device 106. Then, the chroma key synthesizing unit 106 chroma chroma synthesizes the input real image and the background CG image to generate a mixed reality image that does not include the foreground virtual object. The generated mixed reality video (not including the foreground virtual object) is input to the workstation 103. Data of the foreground virtual object is stored in the external storage device 404 of the workstation 103, and is read out to the RAM 402 by the CPU 401, and then read out from the position and orientation measurement device 104 based on the position and orientation data of the camera 101. Is generated and synthesized with the video input from the chroma key synthesizing device 106 to generate a mixed reality video, which is then output to the monitor 107.

又第1の実施形態と同様、以上の各部(カメラ101、ワークステーション102、ワークステーション103、位置姿勢計測装置104、クロマキー合成装置106)は同期信号発生器105により出力される同期信号に同期して動作している。つまり、同期信号に同期して、カメラ101からの実写映像の出力、ワークステーション102からのCG映像の出力、ワークステーション103からの複合現実感映像の出力、位置姿勢計測装置104によるカメラ101の位置姿勢の計測及び位置姿勢データの出力、クロマキー合成装置106によるクロマキー合成処理の開始を行う。   Further, similarly to the first embodiment, the above-described units (the camera 101, the workstation 102, the workstation 103, the position and orientation measuring device 104, and the chroma key synthesizing device 106) synchronize with the synchronization signal output from the synchronization signal generator 105. Working. That is, in synchronization with the synchronizing signal, the output of the real image from the camera 101, the output of the CG image from the workstation 102, the output of the mixed reality image from the workstation 103, the position of the camera 101 by the position and orientation measuring device 104 The posture measurement, the output of the position and posture data, and the start of the chroma key synthesizing process by the chroma key synthesizing device 106 are performed.

なお、クロマキー合成装置106に入力されるカメラ101からの実写映像と、ワークステーション102からの背景のCG映像の同期をとるため、カメラ101からの実写映像はクロマキー合成装置106内の不図示のメモリ内に蓄積しておき、適当な時間(理想的にはワークステーション102からのCG映像が入力されたタイミングと、このCG映像を生成する際に用いたカメラ101の位置姿勢による実写映像が入力されたタイミングとの差分時間)遅延させて用いる。なお、この遅延時間は予め測定しておく。例えば、カメラ101からの実写映像とワークステーション102からの背景のCG映像とに夫々「生成された時間」の情報(生成時間情報)を付加しておき、夫々同じ生成時間情報を有する映像がクロマキー合成装置106に入力された時間のずれを測定する。その結果、このずれが遅延時間となる。   Note that, in order to synchronize the real shot video from the camera 101 input to the chroma key synthesizing device 106 with the background CG image from the workstation 102, the real shot video from the camera 101 is stored in a memory (not shown) in the chroma key synthesizing device 106. The CG image is input at an appropriate time (ideally, the timing at which the CG image is input from the workstation 102 and the position and orientation of the camera 101 used to generate the CG image. (Difference time from the delayed timing). This delay time is measured in advance. For example, information (generation time information) of “generation time” is added to each of a real video image from the camera 101 and a background CG image from the workstation 102, and an image having the same generation time information is chroma keyed. The time lag input to the synthesizer 106 is measured. As a result, this shift becomes a delay time.

またワークステーション103は、クロマキー合成装置106から入力される映像と、位置姿勢計測装置104から入力される位置姿勢データの同期をとるため、位置姿勢計測装置104からのカメラ101の位置姿勢データをRAM402内に蓄積しておき、適当な時間(理想的には位置姿勢計測装置104からのカメラ101の位置姿勢データが入力されたタイミングと、この位置姿勢データを用いたクロマキー合成装置106からの映像が入力されたタイミングとの差分時間)遅延させて用いる。   The workstation 103 also stores the position and orientation data of the camera 101 from the position and orientation measurement device 104 in the RAM 402 in order to synchronize the image input from the chroma key synthesis device 106 with the position and orientation data input from the position and orientation measurement device 104. And a suitable time (ideally, the timing at which the position / posture data of the camera 101 from the position / posture measuring device 104 is input, and the video from the chroma key synthesizing device 106 using this position / posture data. It is used with a delay (difference time from the input timing).

上述のワークステーション102、ワークステーション103夫々の処理のフローチャートを図14,15に示し、以下説明する。なお、夫々のフローチャートに従ったプログラムコードは夫々のワークステーションのぞれぞれの外部記憶装置404内に保存され、必要に応じてRAM402に読み出され、夫々のワークステーション内の夫々のCPU401により読み出され、実行される。   14 and 15 show flowcharts of the processing of the workstations 102 and 103, respectively, and will be described below. The program codes according to the respective flowcharts are stored in the respective external storage devices 404 of the respective workstations, read out to the RAM 402 as needed, and read by the respective CPUs 401 in the respective workstations. Read and executed.

まずワークステーション102における処理について説明する。まず同期待ちとなり(ステップS1401)、処理を開始するとまず、位置姿勢計測装置104からカメラ101の位置姿勢データを入力する(ステップS1402)。入力された位置姿勢データを上述の通り適当な時間遅延させたこの位置姿勢データに基づいて、背景のCG映像を生成する(ステップS1404)。そして生成された背景のCG映像を出力する(ステップS1405)。   First, the processing in the workstation 102 will be described. First, the synchronization waits (step S1401). When the process starts, first, the position and orientation data of the camera 101 is input from the position and orientation measurement device 104 (step S1402). Based on the position and orientation data obtained by delaying the input position and orientation data by an appropriate time as described above, a background CG image is generated (step S1404). Then, the generated background CG image is output (step S1405).

次にワークステーション103における処理について説明する。まず同期待ちとなり(ステップS1501)、処理を開始するとまずカメラ101から実写映像をキャプチャする(ステップS1502)。そして位置姿勢計測装置104からカメラ101の位置姿勢データを入力する(ステップS1503)。ステップS1502とステップS1503の各処理の順序は逆でも良いし、並列に行っても良い。そして次にキャプチャした実写映像をRAM402内で描画する(ステップS1504)。そして、入力したカメラ101の位置姿勢データのうち、予め測定したフレーム数遅延させた位置姿勢データに基づいて、前景仮想物体映像を生成するためのビューイング変換行列を算出し(ステップS1505)、算出されたビューイング変換行列に基づいて生成された前景仮想物体映像をクロマキー合成装置106からの映像に合成し、複合現実感映像を生成する(ステップS1506)。そして生成された複合現実感映像を出力する(ステップS1507)。   Next, processing in the workstation 103 will be described. First, synchronization is waited for (step S1501), and when the processing is started, first, a real image is captured from the camera 101 (step S1502). Then, the position and orientation data of the camera 101 is input from the position and orientation measurement device 104 (step S1503). The order of each process of step S1502 and step S1503 may be reversed or may be performed in parallel. Then, the captured real image is drawn in the RAM 402 (step S1504). Then, a viewing transformation matrix for generating a foreground virtual object image is calculated based on the position and orientation data delayed by the number of frames measured in advance among the input position and orientation data of the camera 101 (step S1505). The foreground virtual object image generated based on the obtained viewing transformation matrix is synthesized with the image from the chroma key synthesizing device 106 to generate a mixed reality image (step S1506). Then, the generated mixed reality video is output (step S1507).

なおクロマキー合成装置106における処理のフローチャートは図10におけるフローチャートにおいて、ステップS1002で実写映像と背景のCG映像を入力し、ステップS1003で入力したこれらの映像のクロマキー合成を行うとしたフローチャートである。   The flowchart of the process in the chroma key synthesizing device 106 is the same as the flowchart in FIG. 10 except that a real image and a background CG image are input in step S1002 and the chroma key synthesis of these input images is performed in step S1003.

なお本実施形態におけるワークステーション102,ワークステーション103は、一つのプロセッサ(CPU401)でカメラ101の位置姿勢データの受付とその他の処理の制御を行っている。つまりワークステーション102ではカメラ101の位置姿勢データの受付と背景画像の生成を行っている。一方、ワークステーション103では、一つのプロセッサで位置姿勢計測装置104からのカメラ101の位置姿勢データの受付と、クロマキー合成装置106からの映像の受付を行っている。   Note that the workstations 102 and 103 in the present embodiment use one processor (CPU 401) to receive position and orientation data of the camera 101 and control other processes. That is, the workstation 102 receives position and orientation data of the camera 101 and generates a background image. On the other hand, in the workstation 103, one processor receives the position and orientation data of the camera 101 from the position and orientation measurement device 104 and receives the video from the chroma key synthesizing device 106.

しかしそれ以外にも、夫々のワークステーション内に位置姿勢計測装置104からのカメラ101の位置姿勢データの受信専用プロセッサを新たに設けても良い。つまり、この受信専用プロセッサは定期的に位置姿勢計測装置104からのカメラ101の位置姿勢データを受信し、夫々のワークステーション内のRAM402に蓄積する。この蓄積に要する時間はほぼ0に等しい。しかし、夫々のワークステーション内ではこの他にもCG映像の生成待ち、クロマキー合成装置106からの映像の入力待ち行っている。そのために夫々のワークステーション内の受信専用プロセッサにはウェイト時間(待っている時間分の)を設ける必要がある。あるいはウェイトをせず、単に「カメラの位置姿勢データの受信→RAM402に蓄積」という処理を繰り返すだけでも良い。そして過去の位置姿勢データを処理に用いる場合には、RAM402内で用いる時刻の位置姿勢データを参照すればよい。   However, other than that, a processor dedicated to receiving the position and orientation data of the camera 101 from the position and orientation measurement device 104 may be newly provided in each workstation. That is, the reception-only processor periodically receives the position and orientation data of the camera 101 from the position and orientation measurement device 104 and stores the data in the RAM 402 in each workstation. The time required for this accumulation is approximately equal to zero. However, each workstation also waits for the generation of a CG image and the input of an image from the chroma key synthesizing device 106. Therefore, it is necessary to provide a wait time (for waiting time) in the reception-only processor in each workstation. Alternatively, the process of “receiving the position and orientation data of the camera → accumulating in the RAM 402” may be simply repeated without weighting. When the past position and orientation data is used for the processing, the position and orientation data at the time used in the RAM 402 may be referred to.

以上の方法は映像を扱うプロセッサを映像データを受信する専用のプロセッサと、映像データを処理するプロセッサとで分けた場合で、映像データを遅延させる際にも適応させることができる。   The method described above is divided into a processor dedicated to receiving video data and a processor dedicated to receiving video data, and can be adapted to delay video data.

[第5の実施形態]
又上述の実施形態において、前景と背景の合成にはクロマキー合成以外にも例えばルミナンスキー合成技術を用いても良い。また、上述の実施形態では複合現実感映像はモニタ107に出力していたが、これに限らずに、例えばビデオなどに出力して、録画しても良い。
[Fifth Embodiment]
In the above embodiment, for example, a luminance key combining technique may be used for combining the foreground and the background in addition to the chroma key combining. In the above-described embodiment, the mixed reality video is output to the monitor 107. However, the present invention is not limited to this. For example, the mixed reality video may be output to a video or the like and recorded.

[第6の実施形態]
上述の実施形態では複合現実感映像を生成する際の生成の同期をとっていたが、この同期をとらなくても大きく問題にならないために同期処理を行わない場合もある。その際の映像処理装置の構成としては、図1、図2、図12,図13において同期信号発生器105は必要が無く、また、上述の各部のウェイトを設ける必要もない。
[Sixth Embodiment]
In the above-described embodiment, the generation is synchronized when the mixed reality video is generated. However, there is a case where the synchronization process is not performed because there is no significant problem even if the synchronization is not performed. As a configuration of the video processing apparatus at that time, the synchronization signal generator 105 is not required in FIGS. 1, 2, 12, and 13, and it is not necessary to provide the above-described weights of the respective units.

[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[Other embodiments]
An object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (or a CPU or an MPU) of the system or the apparatus. Can also be achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. In addition, the computer executes the readout program code, so that not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is executed based on the instruction of the program code. It goes without saying that the CPU included in the expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した(図8、及び/又は図9、及び/又は図10、及び/又は図14、及び/又は図15、及び/又は図16に示す)フローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the storage medium, the storage medium includes the storage medium described above (FIG. 8 and / or FIG. 9 and / or FIG. 10 and / or FIG. 14 and / or FIG. And / or the program code corresponding to the flowchart (shown in FIG. 16) will be stored.

本発明の第1の実施形態における映像処理装置の概略構成を示す模式図である。FIG. 1 is a schematic diagram illustrating a schematic configuration of a video processing device according to a first embodiment of the present invention. 本発明の第1の実施形態における映像処理装置が行う処理の大まかな流れを示すブロック図である。FIG. 2 is a block diagram illustrating a general flow of processing performed by the video processing device according to the first embodiment of the present invention. カメラ101でクロマキー色の背景板を背景に現実物体の撮像を行う様子を示す図である。FIG. 4 is a diagram illustrating a state in which a camera 101 captures an image of a real object with a chroma key background plate as a background. ワークステーション102,103の内部構成を示す図である。FIG. 3 is a diagram showing an internal configuration of workstations 102 and 103. クロマキー合成装置106が行うクロマキー合成処理を説明する図である。FIG. 4 is a diagram illustrating a chroma key synthesizing process performed by a chroma key synthesizing device 106. ワークステーション102、103が行う映像の生成処理及び出力のタイミングチャートを示す図である。FIG. 9 is a diagram illustrating a timing chart of a video generation process and an output performed by the workstations 102 and 103. 背景の生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating a background. 本発明の第1の実施形態におけるワークステーション102が行う処理のフローチャートである。5 is a flowchart of a process performed by a workstation 102 according to the first embodiment of the present invention. 本発明の第1の実施形態におけるワークステーション103が行う処理のフローチャートである。5 is a flowchart of a process performed by a workstation 103 according to the first embodiment of the present invention. 本発明の第1の実施形態におけるクロマキー合成装置106が行う処理のフローチャートである。5 is a flowchart of a process performed by the chroma key synthesizing device according to the first embodiment of the present invention. クロマキー合成パラメータテーブルの構成例を示す図である。It is a figure showing the example of composition of a chroma key combination parameter table. 本発明の第2の実施形態における映像処理装置の概略構成を示す図である。It is a figure showing the schematic structure of the picture processing device in a 2nd embodiment of the present invention. 本発明の第2の実施形態における映像処理装置が行う処理の大まかな流れを示すブロック図である。It is a block diagram showing a rough flow of processing which a picture processing device in a 2nd embodiment of the present invention performs. 本発明の第2の実施形態における映像処理装置が行う処理のフローチャートである。9 is a flowchart of a process performed by the video processing device according to the second embodiment of the present invention. 本発明の第2の実施形態における映像処理装置が行う処理のフローチャートである。9 is a flowchart of a process performed by the video processing device according to the second embodiment of the present invention. クロマキー合成パラメータテーブルを参照して、カメラ101の位置姿勢データが与えられた際に、対応するクロマキー合成パラメータを特定する処理のフローチャートである。It is a flowchart of a process of referring to a chroma key combination parameter table and specifying a corresponding chroma key combination parameter when position and orientation data of the camera 101 is given.

Claims (7)

現実空間と仮想物体との映像の合成処理を行う映像処理装置であって、
現実空間を撮像する撮像手段と、
前記撮像手段の位置姿勢を計測する計測手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記撮像手段により撮像された現実空間を含む前景の映像を生成する前景映像生成手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記前景映像生成手段による前景の背景映像を生成する背景映像生成手段と、
前記撮像手段の位置姿勢に応じたクロマキー色が記載されたテーブルから、前記計測手段による前記撮像手段の位置姿勢に応じたクロマキー色を特定し、特定したクロマキー色を用いて、前記前景映像生成手段による前景の映像と、前記背景映像生成手段による背景の映像とのクロマキー合成処理を行う合成手段と、
前記合成手段が合成する対象である前記前景の映像と前記背景映像とを同期して前記合成手段に入力するための同期信号を発生する同期信号発生手段とを備え、
前記前景映像生成手段、及び前記背景映像生成手段は夫々独立に設定されている所定時間分のウェイト処理を行うことにより、前記同期信号に応じて同期のとれた前景、背景の映像を夫々前記合成手段に入力することを特徴とする映像処理装置。
An image processing device that performs a process of synthesizing an image of a real space and a virtual object,
Imaging means for imaging the real space;
Measuring means for measuring the position and orientation of the imaging means;
A foreground image generation unit that generates a foreground image including a real space imaged by the imaging unit based on the position and orientation of the imaging unit by the measurement unit;
A background image generation unit that generates a foreground background image by the foreground image generation unit based on the position and orientation of the imaging unit by the measurement unit;
From the table in which the chroma key color corresponding to the position and orientation of the imaging unit is described, the chroma key color corresponding to the position and orientation of the imaging unit is specified by the measuring unit, and the foreground image generation unit is specified using the specified chroma key color. Synthesizing means for performing a chroma key synthesizing process of the foreground image by the background image generation means by the background image generation means,
A synchronizing signal generating unit that generates a synchronizing signal for inputting the foreground image and the background image to be synthesized by the synthesizing unit to the synthesizing unit.
The foreground image generation unit and the background image generation unit perform weight processing for a predetermined time set independently of each other, thereby synchronizing the foreground and background images synchronized in accordance with the synchronization signal. An image processing apparatus characterized by inputting to a means.
前記合成手段が前記計測手段による前記撮像手段の位置姿勢に応じたクロマキー色を前記テーブルから特定する際、
前記計測手段による前記撮像手段の位置姿勢が前記テーブルに記載されていない場合には、前記テーブルに記載された前記撮像手段の位置姿勢とそれに応じたクロマキー色とを用いて補間することで、前記計測手段による前記撮像手段の位置姿勢に応じたクロマキー色を特定することを特徴とする請求項1に記載の映像処理装置。
When the synthesizing unit specifies the chroma key color from the table according to the position and orientation of the imaging unit by the measuring unit,
When the position and orientation of the imaging unit by the measurement unit is not described in the table, by interpolating using the position and orientation of the imaging unit described in the table and a chroma key color corresponding thereto, the 2. The video processing apparatus according to claim 1, wherein a chroma key color corresponding to a position and orientation of the imaging unit is specified by a measurement unit.
前記前景映像生成手段は前記撮像手段による現実空間の手前に仮想物体を設ける場合、
所定の格納手段に格納された仮想物体の描画に関する情報を用いて前記計測手段による前記撮像手段の位置姿勢に基づいた前記仮想物体の映像を生成し、前記撮像された現実空間に合成することで前景の映像を生成することを特徴とする請求項1又は2に記載の映像処理装置。
When the foreground image generation unit provides a virtual object in front of the real space by the imaging unit,
By generating an image of the virtual object based on the position and orientation of the imaging unit by the measurement unit using the information on drawing of the virtual object stored in the predetermined storage unit, and combining the generated image with the captured real space. The image processing device according to claim 1, wherein the image processing device generates a foreground image.
前記前景映像生成手段は、前記撮像手段により撮像された現実空間の映像に同期した前記計測された前記撮像手段の位置姿勢を用いて前景の映像を生成することを特徴とする請求項3に記載の映像処理装置。 4. The foreground image generation unit according to claim 3, wherein the foreground image generation unit generates a foreground image by using the measured position and orientation of the imaging unit synchronized with a real space image captured by the imaging unit. Video processing equipment. 前記背景映像生成手段は所定の格納手段に格納された背景のデータを用いて、
前記計測手段による前記撮像手段の位置姿勢で見える背景の映像を生成することを特徴とする請求項1乃至4の何れか1項に記載の映像処理装置。
The background video generation means uses background data stored in a predetermined storage means,
The image processing apparatus according to claim 1, wherein the measuring unit generates an image of a background that can be seen in the position and orientation of the imaging unit.
現実空間と仮想物体との映像の合成処理を行う映像処理方法であって、
現実空間を撮像する撮像手段の位置姿勢を計測する計測工程と、
前記計測工程による前記撮像手段の位置姿勢に基づいて、前記撮像手段により撮像された現実空間を含む前景の映像を生成する前景映像生成工程と、
前記計測工程による前記撮像手段の位置姿勢に基づいて、前記前景映像生成工程による前景の背景映像を生成する背景映像生成工程と、
前記撮像手段の位置姿勢に応じたクロマキー色が記載されたテーブルから、前記計測工程による前記撮像手段の位置姿勢に応じたクロマキー色を特定し、特定したクロマキー色を用いて、前記前景映像生成工程による前景の映像と、前記背景映像生成工程による背景の映像とのクロマキー合成処理を行う合成工程と、
前記合成工程で合成する対象である前記前景の映像と前記背景映像とを同期して前記合成工程で合成するための同期信号を発生する同期信号発生工程とを備え、
前記前景映像生成工程、及び前記背景映像生成工程では夫々独立に設定されている所定時間分のウェイト処理を行うことにより、前記同期信号に応じて同期のとれた前景、背景の映像を夫々前記合成工程で用いることを特徴とする映像処理方法。
A video processing method for performing a video synthesis process of a real space and a virtual object,
A measurement step of measuring the position and orientation of the imaging means for imaging the real space,
A foreground image generation step of generating a foreground image including the real space imaged by the imaging unit based on the position and orientation of the imaging unit in the measurement step;
A background image generation step of generating a foreground background image by the foreground image generation step based on the position and orientation of the imaging unit in the measurement step;
From the table in which the chroma key colors according to the position and orientation of the imaging unit are described, the chroma key colors according to the position and orientation of the imaging unit in the measurement step are specified, and the foreground image generation step is performed using the specified chroma key colors. A synthesizing step of performing a chroma key synthesizing process of a foreground image by the background image generation process by the background image generation step,
A synchronizing signal generating step of synchronizing the foreground image and the background image to be synthesized in the synthesizing step and generating a synchronizing signal for synthesizing in the synthesizing step,
In the foreground image generation step and the background image generation step, by performing a wait process for a predetermined time set independently of each other, the foreground and background images synchronized in accordance with the synchronization signal are respectively synthesized. A video processing method used in a process.
コンピュータに請求項6に記載の映像処理方法を実行させるプログラムを格納することを特徴とするコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to execute the video processing method according to claim 6.
JP2004142649A 2004-05-12 2004-05-12 Video processing apparatus and method Expired - Fee Related JP3927965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004142649A JP3927965B2 (en) 2004-05-12 2004-05-12 Video processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004142649A JP3927965B2 (en) 2004-05-12 2004-05-12 Video processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000280698A Division JP3631117B2 (en) 2000-09-14 2000-09-14 Video processing apparatus and method, and storage medium

Publications (2)

Publication Number Publication Date
JP2004282784A true JP2004282784A (en) 2004-10-07
JP3927965B2 JP3927965B2 (en) 2007-06-13

Family

ID=33297036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004142649A Expired - Fee Related JP3927965B2 (en) 2004-05-12 2004-05-12 Video processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3927965B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7868904B2 (en) 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107396084A (en) * 2017-07-20 2017-11-24 广州励丰文化科技股份有限公司 A kind of MR implementation methods and equipment based on dual camera

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04269081A (en) * 1991-02-25 1992-09-25 Nippon Hoso Kyokai <Nhk> Electronic image generating method
JPH05211663A (en) * 1991-11-15 1993-08-20 Canon Inc Image communication telephone set
JPH05244630A (en) * 1992-03-02 1993-09-21 Nippon Hoso Kyokai <Nhk> Chroma key synthesis system
JPH07141493A (en) * 1993-11-17 1995-06-02 Matsushita Electric Ind Co Ltd Picture processor
JPH07212653A (en) * 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd Picture processing unit
JPH11512263A (en) * 1995-09-08 1999-10-19 オラド ハイ−テック システムズ リミテッド Method and apparatus for automatic electronic replacement of billboards in video images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04269081A (en) * 1991-02-25 1992-09-25 Nippon Hoso Kyokai <Nhk> Electronic image generating method
JPH05211663A (en) * 1991-11-15 1993-08-20 Canon Inc Image communication telephone set
JPH05244630A (en) * 1992-03-02 1993-09-21 Nippon Hoso Kyokai <Nhk> Chroma key synthesis system
JPH07141493A (en) * 1993-11-17 1995-06-02 Matsushita Electric Ind Co Ltd Picture processor
JPH07212653A (en) * 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd Picture processing unit
JPH11512263A (en) * 1995-09-08 1999-10-19 オラド ハイ−テック システムズ リミテッド Method and apparatus for automatic electronic replacement of billboards in video images
JPH11514510A (en) * 1995-09-08 1999-12-07 オラド ハイ−テック システムズ リミテッド Method and apparatus for automatic electronic replacement of billboards in video images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7868904B2 (en) 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus

Also Published As

Publication number Publication date
JP3927965B2 (en) 2007-06-13

Similar Documents

Publication Publication Date Title
KR102359978B1 (en) Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same
JP4847203B2 (en) Information processing method and information processing apparatus
JP2009124685A (en) Method and system for combining videos for display in real-time
JP2001195601A (en) Device and method for presenting composite reality and storage medium
JPH11331874A (en) Image processing unit, depth image measuring device, composite reality presenting system, image processing method, depth image measuring method, composite reality presenting method and storage medium for program
JP2006229768A (en) Video signal processing device, method therefor, and virtual reality creator
CN110691175B (en) Video processing method and device for simulating motion tracking of camera in studio
KR102382247B1 (en) Image processing apparatus, image processing method, and computer program
CA2238768A1 (en) Multi-camera virtual set system employing still store frame buffers for each camera
WO2019123509A1 (en) Terminal device, system, program and method
WO2024087883A1 (en) Video picture rendering method and apparatus, device, and medium
JP2021034885A (en) Image generation device, image display device, and image processing method
JP2011035638A (en) Virtual reality space video production system
JP3631117B2 (en) Video processing apparatus and method, and storage medium
JP4236705B2 (en) Method and device for generating a display frame from a sequence of original frames by synthesizing one or more intermediate frames based only on the immediately preceding original frame
JP3927965B2 (en) Video processing apparatus and method
JPH11328443A (en) System and method for generating three-dimensional panorama image and recording media therefor
JP2007233647A (en) Presentation data processing apparatus
JP2006145758A (en) On-screen display device
JP4006105B2 (en) Image processing apparatus and method
JP2002042158A (en) Image composing device, image composing method, and medium recording program
JP6835455B2 (en) Programs, devices and methods for correcting depth values in time-series depth images
US9036070B2 (en) Displaying of images with lighting on the basis of captured auxiliary images
JP2002058046A (en) Imaging system and three-dimensional camera
JP2020126393A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070305

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees