JP2004282784A - Video processing apparatus and its method - Google Patents
Video processing apparatus and its method Download PDFInfo
- Publication number
- JP2004282784A JP2004282784A JP2004142649A JP2004142649A JP2004282784A JP 2004282784 A JP2004282784 A JP 2004282784A JP 2004142649 A JP2004142649 A JP 2004142649A JP 2004142649 A JP2004142649 A JP 2004142649A JP 2004282784 A JP2004282784 A JP 2004282784A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- chroma key
- unit
- image
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、現実空間と仮想物体との映像の合成処理を行う映像処理装置及びその方法に関するものである。 The present invention relates to a video processing device and a video processing method for performing a video synthesis process of a real space and a virtual object.
複合現実感(Mixed Reality ; 以下、MR)を体感するためには、コンピュータにより仮想物体(仮想空間)の映像を生成し、生成した仮想物体の映像とカメラにより撮像した現実空間の映像とを合成した合成映像(複合現実感映像)を生成する必要がある。複合現実感映像を生成する際、カメラにより撮像された現実物体の背景に仮想物体の映像を合成した複合現実感映像を生成する場合がある。従来ではこのような複合現実感映像を生成する際、以下に記載の方法を用いていた。つまり、クロマキー色の背景板を現実物体の背景に配置し、背景が背景板となるように現実物体を撮像する。そして撮像した映像と、仮想物体の映像とのクロマキー合成を行う。 In order to experience Mixed Reality (hereinafter, MR), a computer generates an image of a virtual object (virtual space), and combines the generated image of the virtual object with an image of a real space captured by a camera. It is necessary to generate a synthesized video (mixed reality video). When generating a mixed reality video, a mixed reality video may be generated by combining a virtual object video with a background of a real object captured by a camera. Conventionally, the method described below has been used to generate such a mixed reality video. That is, the background plate of the chroma key color is arranged on the background of the real object, and the real object is imaged so that the background becomes the background plate. Then, chroma key synthesis of the captured image and the image of the virtual object is performed.
< クロマキー色の変化 >
しかし従来では光源の位置、姿勢とカメラの位置、姿勢とによっては、撮像される背景のクロマキー色が変化してしまい、クロマキー合成がうまくいかなかった。つまり光源からの光が背景板で反射している場合、反射する方向から背景板を含む現実物体の撮像を行えば、背景板はより白っぽく撮像されてしまう。この場合、クロマキー色の変化により、クロマキー合成を行うことが困難となってしまう。
< クロマキー合成対象外の部分のクロマキー合成 >
また従来では背景以外にクロマキー色を部分的に有する現実物体が存在した場合(例えば現実物体が建物であった場合、窓の色がクロマキー色に近い場合)、クロマキー合成の対象でない部分もクロマキー合成が行われてしまう。
< 複合現実感映像を生成する際の生成の同期 >
また従来では複合現実感映像を生成する際に、前景の映像を生成するタイミングと、背景に用いる仮想物体の映像の生成のタイミングとは、処理速度の理由から異なってしまい、同期のとれた複合現実感映像を生成することは困難となってしまう。
<Change in chroma key color>
However, conventionally, depending on the position and orientation of the light source and the position and orientation of the camera, the chroma key color of the background to be imaged changes, and the chroma key synthesis has not been successful. In other words, when the light from the light source is reflected by the background plate, if the imaging of the real object including the background plate is performed from the direction of reflection, the background plate is imaged more whitish. In this case, it is difficult to perform chroma key synthesis due to a change in chroma key color.
<Chroma key synthesis of parts not to be subjected to chroma key synthesis>
Conventionally, when there is a real object partially having a chroma key color other than the background (for example, when the real object is a building, when the window color is close to the chroma key color), a portion that is not a target of the chroma key synthesis is also subjected to the chroma key synthesis. Is done.
<Synchronization of generation when generating mixed reality video>
In addition, conventionally, when generating a mixed reality video, the timing of generating a foreground video and the timing of generating a video of a virtual object used as a background are different from each other due to processing speed. It is difficult to generate a realistic image.
本発明は以上の問題に鑑みてなされたものであり、撮像手段の位置、姿勢に依存することなく、クロマキー合成対象領域のみ現実空間と仮想物体との合成を行い、同期のとれた映像を生成することを目的とする。 The present invention has been made in view of the above problems, and generates a synchronized video by synthesizing a real space and a virtual object only in a chroma key synthesis target area without depending on the position and orientation of an imaging unit. The purpose is to do.
本発明の目的を達成するために、例えば本発明の映像処理装置は以下の構成を備える。すなわち、現実空間と仮想物体との映像の合成処理を行う映像処理装置であって、
現実空間を撮像する撮像手段と、
前記撮像手段の位置姿勢を計測する計測手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記撮像手段により撮像された現実空間を含む前景の映像を生成する前景映像生成手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記前景映像生成手段による前景の背景映像を生成する背景映像生成手段と、
前記撮像手段の位置姿勢に応じたクロマキー色が記載されたテーブルから、前記計測手段による前記撮像手段の位置姿勢に応じたクロマキー色を特定し、特定したクロマキー色を用いて、前記前景映像生成手段による前景の映像と、前記背景映像生成手段による背景の映像とのクロマキー合成処理を行う合成手段と、
前記合成手段が合成する対象である前記前景の映像と前記背景映像とを同期して前記合成手段に入力するための同期信号を発生する同期信号発生手段とを備え、
前記前景映像生成手段、及び前記背景映像生成手段は夫々独立に設定されている所定時間分のウェイト処理を行うことにより、前記同期信号に応じて同期のとれた前景、背景の映像を夫々前記合成手段に入力することを特徴とする。
In order to achieve the object of the present invention, for example, a video processing device of the present invention has the following configuration. That is, a video processing device that performs a video synthesis process of a real space and a virtual object,
Imaging means for imaging the real space;
Measuring means for measuring the position and orientation of the imaging means;
Foreground image generation means for generating a foreground image including the real space imaged by the imaging means, based on the position and orientation of the imaging means by the measurement means,
A background image generation unit configured to generate a foreground background image by the foreground image generation unit based on a position and orientation of the imaging unit by the measurement unit;
From the table in which the chroma key color corresponding to the position and orientation of the imaging unit is described, the chroma key color corresponding to the position and orientation of the imaging unit is specified by the measuring unit, and the foreground image generation unit is specified using the specified chroma key color. Synthesizing means for performing a chroma key synthesizing process of the foreground image by the background image generation means by the background image generation means,
A synchronizing signal generating unit that generates a synchronizing signal for inputting the foreground image and the background image to be synthesized by the synthesizing unit to the synthesizing unit.
The foreground image generation unit and the background image generation unit perform weight processing for a predetermined time set independently of each other, thereby synchronizing the foreground and background images synchronized in accordance with the synchronization signal. It is characterized by inputting to means.
本発明の構成により、撮像手段の位置、姿勢に依存することなく、クロマキー合成対象領域のみ現実空間と仮想物体との合成を行い、同期のとれた映像を生成することができる。 According to the configuration of the present invention, it is possible to generate a synchronized video by synthesizing the real space and the virtual object only in the chroma key synthesis target area without depending on the position and orientation of the imaging unit.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
[第1の実施形態]
本実施形態における映像処理装置の概略構成を図1に示す。101はカメラで、本実施形態ではクロマキー色の背景板を背景に現実物体の撮像を行う。図3にこの撮像の様子を示す。
[First Embodiment]
FIG. 1 shows a schematic configuration of a video processing device according to the present embodiment. In the present embodiment, a
301はクロマキー色の背景板、302,303は現実物体であって、カメラ101は背景板301が背景となるように現実物体302,303を撮像する。
図1に戻って、102,103はグラフィック処理用のワークステーションで、グラフィック処理を行うソフトウェアを実行することができる。なお102,103は上記のソフトウェアを実行できる一般のコンピュータでも良い。ワークステーション102,103の内部構成を図4に示す。
Returning to FIG. 1,
401はCPUで、RAM402やROM403内に格納されたプログラムコードやデータを用いてワークステーション全体の制御を行い、また各種の映像処理やマトリクス演算なども行う。402はRAMで、CPU401により外部記憶装置404からロードされたプログラムコードやデータを一時的に格納するエリアを備えると共に、CPU401が各種の処理を行う際に使用するワークエリアも備える。403はROMで、ワークステーションの起動プログラムや起動後の設定などを格納すると共に、文字コードなども格納する。404は外部記憶装置で、CD−ROMやフロッピー(登録商標)ディスクなどの記憶媒体から読み込んだプログラムコードやデータなどを保存する。405は操作部で、キーボードやマウスなどのポインティングデバイスにより構成されており、ユーザが各種の指示を入力するためのインターフェースである。406は表示部で、CRTや液晶画面などにより構成されており、各種の映像の生成結果や、システムメッセージなどを表示することができる。407はインターフェース(I/F)部で、周辺機器や他のワークステーションと接続することができ、データの送受信を行うことができる。408はNCUで、通信回線を介して他の機器とのデータの送受信を行うことができる。409は上述の各部を繋ぐバスである。
図1に戻って、104は位置姿勢計測装置で、カメラ101の位置、姿勢を計測し、計測結果としての位置、姿勢データを出力する。105は同期信号発生器で、一定の時間間隔で同期信号を出力する。106はクロマキー合成装置で、入力された映像同士のクロマキー合成を行い、合成結果としての複合現実感映像を出力する。なお、用いるクロマキー色(図3に示した例では、背景板301のクロマキー色)は、クロマキー合成装置106が認識できるように、同装置106に予め登録しておく必要がある。107はモニタで、入力された映像を表示することができる。
Returning to FIG. 1,
以上の構成を備える映像処理装置が行う処理の大まかな流れを図2を用いて説明する。カメラ101の位置、姿勢は位置姿勢計測装置104により計測され、カメラ101の位置姿勢データとしてワークステーション102、ワークステーション103に夫々出力される。
A general flow of processing performed by the video processing device having the above configuration will be described with reference to FIG. The position and orientation of the
カメラ101により撮像された実写映像はワークステーション102に(RAM402内に)入力され、融合映像(前景)としてクロマキー合成装置106に出力される。なお、ワークステーション102(ワークステーション103)が有する外部記憶装置404内には仮想物体のデータが保存されており、カメラ101から入力した現実映像よりも手前に仮想物体の映像を表示させたい場合には(以下、この仮想物体を前景仮想物体、前景仮想物体の映像を前景仮想物体映像と呼ぶ)、前景仮想物体のデータ(前景仮想物体の3次元形状のデータ、表面マテリアルのデータ)を外部記憶装置404からRAM402にロードする。また、前景仮想物体を配置する座標値が記載された不図示のテーブルも一緒にロードする。そして位置姿勢計測装置104より入力されたカメラ101の位置姿勢データに基づいて、前景仮想物体のビューイング変換行列を生成し、カメラ101の位置姿勢から見た前景仮想物体映像を生成する。そして生成された前景仮想物体映像と実写映像とを合成し、融合映像を生成する。以上、生成された融合映像はクロマキー合成装置106に出力される。
The real image captured by the
一方、ワークステーション103内にカメラ101の位置姿勢データが入力されると、ワークステーション103はこの位置姿勢データに基づいて、背景の映像(CG映像)を生成する。カメラ101の位置姿勢データに基づいた背景の映像の生成方法については詳しくは後述する。以上、生成されたCG映像はクロマキー合成装置106に出力される。
On the other hand, when the position and orientation data of the
クロマキー合成装置106は入力された融合映像とCG映像とを用いてクロマキー合成を行い、複合現実感映像を生成する。クロマキー合成装置106が行うクロマキー合成処理について図5を用いて説明する。
The chroma
501はワークステーション102から入力された融合映像で、502はワークステーション103から入力されたCG映像である。融合映像501内には、現実物体の映像501a,501b、前景仮想物体映像501c、そしてクロマキー色の背景板の映像501dが含まれている。融合映像501とCG映像502とのクロマキー合成を行うと、融合映像501内の背景板の映像501dの領域にCG映像502の該当領域の映像が合成された複合現実感映像503が生成される。
そして上述の説明による方法でクロマキー合成装置106により生成された複合現実感映像はモニタ107に出力され、表示される。
Then, the mixed reality video generated by the chroma
なお、以上の各部(カメラ101、ワークステーション102、ワークステーション103、位置姿勢計測装置104、クロマキー合成装置106)は同期信号発生器105により出力される同期信号に同期して動作している。つまり、同期信号に同期して、カメラ101からの実写映像の出力、ワークステーション102からの融合映像の出力、ワークステーション103からのCG映像の出力、位置姿勢計測装置104によるカメラ101の位置姿勢の計測及び位置姿勢データの出力、クロマキー合成装置106によるクロマキー合成処理の開始を行う。以下、上述の各部の動作の同期について更に詳しく説明する。
The above components (the
上述の通り、同期信号に応じてカメラ101からの実写映像の出力と、位置姿勢計測装置104からのカメラ101の位置姿勢データの出力が行われるが、ワークステーション102において、キャプチャ(ワークステーション102内のRAM402内に実写映像を取り込む作業)する実写映像と、カメラ101の位置姿勢データを同期させるために、実写映像のキャプチャに要する時間をxフレームとすると、位置姿勢計測装置104はxフレーム前のカメラ101の位置姿勢データを出力する。このようにすることで、カメラ101からの実写映像と、位置姿勢計測装置104からのカメラ101の位置姿勢データとが同期をとってワークステーション102内のRAM402に入力される。
As described above, the output of the actual image from the
もしくは、カメラ101と位置姿勢計測装置104から夫々実写映像とカメラ101の位置姿勢データとをワークステーション102に入力し、カメラ101の位置姿勢データをRAM402に蓄積しておいて、融合映像を生成する際に、RAM402内の位置姿勢データのうち、xフレーム前のものを用いても良い。なお、実写映像のキャプチャに要する時間は予め測定しておく。
Alternatively, the real image and the position and orientation data of the
また、ワークステーション102とワークステーション103とで、夫々融合映像、CG映像を生成する際に要する時間が異なることが多い。この場合のワークステーション102とワークステーション103との映像の生成処理及び出力のタイミングチャートを図6に示す。
In addition, the times required to generate the fusion video and the CG video are often different between the
同図において、t1はワークステーション102が融合映像を生成するのに要する時間、WT1は後述するウェイト時間、t2はワークステーション103がCG映像を生成するのに要する時間、WT2は後述するウェイト時間、t3はクロマキー合成装置106がクロマキー合成処理を行うのに要する時間を示す。
In the figure, t1 is the time required for the
WT1,WT2はワークステーション102とワークステーション103とで夫々の1回の繰り返し計算に要する時間の差を1フレーム以内に納めるために、及びクロマキー合成装置106によるクロマキー合成処理が終了するタイミングを待つために、夫々ワークステーション102、ワークステーション103に対して設けられたウェイト時間である。このように夫々ウェイト時間WT1,WT2を設けることで、同期信号に応じてワークステーション102、ワークステーション103から夫々同期をとって融合映像、CG映像が出力され、クロマキー合成装置106に入力される。
The WT1 and the WT2 are for keeping the difference in time required for one repetitive calculation between the
次に、背景の映像の生成方法について説明する。背景の映像は遠景であることが多いために、微細な3次元形状の再現はあまり必要ではない。よって、背景の映像を生成する際に要する時間はより短い方がよい。本実施形態における背景の生成方法として、図7に示すように、前景702を含むような半球体701を仮想的に設定し、この半球体701の内側に予め魚眼レンズなどで撮影した画像をマッピングする。
Next, a method of generating a background image will be described. Since the background image is often a distant view, reproduction of a fine three-dimensional shape is not so necessary. Therefore, it is preferable that the time required to generate the background image be shorter. As a method of generating a background according to the present embodiment, as shown in FIG. 7, a
その結果、位置姿勢計測装置104から入力されるカメラ101の位置姿勢データに基づいて、カメラ101の位置姿勢により見える半球体701内の画像を生成し、背景として用いる。なお、前景702を含む形状は半球体に限定されず、他にも上面が閉じた円柱であっても良い。なお、上述の半球体701のデータ(背景のデータ)はワークステーション103の外部記憶装置404内に保存されており、必要に応じて読み出される。
As a result, based on the position and orientation data of the
以上の各処理において、ワークステーション102、ワークステーション103における処理のフローチャートを夫々図8、図9に示し、以下説明する。なお、夫々のフローチャートに従ったプログラムコードは夫々のワークステーションの夫々の外部記憶装置404内に保存され、必要に応じてRAM402に読み出され、夫々のワークステーション内の夫々のCPU401により読み出され、実行される。
In each of the above processes, flowcharts of the processes in the
まず、ワークステーション102における処理について説明する。まず、同期信号発生器105からの同期信号待ちとなる(ステップS801)。処理を開始するとまず、カメラ101から実写映像をキャプチャする(ステップS802)。そして位置姿勢計測装置104からカメラ101の位置姿勢データを入力する(ステップS803)。ステップS802とステップS803の各処理の順序は逆でも良いし、並列に行っても良い。そして次にキャプチャした実写映像をRAM402内で描画する(ステップS804)。また、入力したカメラ101の位置姿勢データ(予め測定したフレーム数遅延させた位置姿勢データ)に基づいて、前景仮想物体映像を生成するためのビューイング変換行列を算出し(ステップS805)、算出されたビューイング変換行列に基づいて生成された前景仮想物体映像を実写映像に合成し、融合映像を生成する(ステップS806)。
First, the processing in the
そして最後にウェイト時間WT1だけウェイトし(ステップS807)、その後、融合映像をクロマキー合成装置106に出力する(ステップS808)。その後に処理をステップS801に移行する。なお前景仮想物体映像を描画しない場合にはステップS805,S806及びS803における処理は必要ない。 Finally, the weight is waited for the wait time WT1 (step S807), and thereafter, the fused image is output to the chroma key synthesizing device 106 (step S808). After that, the process moves to step S801. If the foreground virtual object image is not drawn, the processing in steps S805, S806, and S803 is not necessary.
次にワークステーション103における処理について、図9を用いて説明する。
Next, processing in the
ステップS801と同様に同期待ちとなり(ステップS901)、処理を開始したらステップS803と同様にカメラ101の位置姿勢データの入力を行い(ステップS902)、この位置姿勢データに基づいて、背景CGを生成する(ステップS904)。そしてWT2以上ウェイトすれば、背景のCG映像を出力し、処理をステップS901に移行する。
As in step S801, synchronization is waited (step S901). When the process is started, the position and orientation data of the
また、クロマキー合成装置106における処理のフローチャートを図10に示し、以下説明する。なお、同図のフローチャートに従ったプログラムコードはクロマキー合成装置106内の不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。
FIG. 10 shows a flowchart of the processing in the chroma
まず同期待ちで(ステップS1001)、処理を開始すればまず融合映像、CG映像を入力する(ステップS1002)。次にクロマキー合成処理を行い(ステップS1003)、その結果生成された複合現実感映像をモニタ107に出力する(ステップS1004)。 First, after waiting for synchronization (step S1001), if processing is started, first, a fused image and a CG image are input (step S1002). Next, a chroma key synthesizing process is performed (step S1003), and the resulting mixed reality video is output to the monitor 107 (step S1004).
なお本実施形態において、融合映像とCG映像を生成するワークステーションは別としたが、同じワークステーション内で行っても良い。その際にはこのワークステーションが有する外部記憶装置内には図8,9に示したフローチャートに従ったプログラムコードが保存されることになる。 In the present embodiment, the workstation that generates the fusion video and the CG video is separate, but may be performed in the same workstation. At that time, the program code according to the flowcharts shown in FIGS. 8 and 9 is stored in the external storage device of the workstation.
以上の説明による本実施形態における映像処理装置は、同期のとれた複合現実感映像を生成することができる。 The video processing device according to the present embodiment as described above can generate a synchronized mixed reality video.
[第2の実施形態]
第1の実施形態において、カメラ101の位置姿勢と、不図示の光源の位置姿勢によっては、カメラ101で撮影した画像中で背景板(図3では301、図5では501d)の色が変化してしまう場合がある。その場合、光源の位置姿勢は固定と考えると、カメラ101の位置姿勢の変化に応じてクロマキー合成装置106におけるクロマキー合成パラメータを実時間で変化させる必要がある。本実施形態では、このようなクロマキー合成装置106について説明する。なお本実施形態における映像処理装置の概略構成は、図1において、位置姿勢計測装置104とクロマキー合成装置106とが繋がっており、クロマキー合成装置106に位置姿勢計測装置104からカメラ101の位置姿勢データが入力される。
[Second embodiment]
In the first embodiment, depending on the position and orientation of the
まず、予め異なるカメラの位置姿勢に応じたクロマキー合成パラメータを調節し、テーブル(クロマキー合成パラメータテーブル)として保持しておく。クロマキー合成パラメータの要素には色相、クリップ、ゲイン、色相範囲、彩度等があり、記載した順番に従ってより厳密に調節しておく必要がある。図11にクロマキー合成パラメータテーブルの構成例を示す。 First, the chroma key combination parameters are adjusted in advance according to the different camera positions and orientations, and stored as a table (chroma key combination parameter table). Elements of the chroma keying parameters include hue, clip, gain, hue range, saturation, etc., and need to be more strictly adjusted in the order described. FIG. 11 shows a configuration example of the chroma key combination parameter table.
同図のテーブル1100内には、カメラ101の位置データが記載された欄1101、カメラ101の姿勢データが記載された欄1102と、欄1101,欄1102内に記載されたカメラ101の位置姿勢で特定されるクロマキー合成パラメータが記載された欄1103が含まれる。なお、欄1101,1102内には必ずしもデータが記載されているとは限らず、例えばカメラ101の位置が背景板から十分に離れている場合には、カメラ101の位置データは欄1101に記載しなくても良い。その場合、カメラ101の姿勢データのみで、クロマキー合成パラメータを決定しても誤差が少ないからである。
In the table 1100 of FIG. 10, a
次に実際にクロマキー合成パラメータテーブルを参照して、カメラ101の位置姿勢データが与えられた際に対応するクロマキー合成パラメータを特定する処理について同処理のフローチャートを図16に示し、以下説明する。
Next, referring to the chroma key synthesizing parameter table, a process of specifying the chroma key synthesizing parameter corresponding to the position and orientation data of the
カメラ101の位置姿勢データが与えられた場合(ステップS1601)、クロマキー合成パラメータテーブルを参照し(ステップS1602)、このデータがクロマキー合成パラメータテーブル(欄図11の例では1101,欄1102)に記載されたデータであれば(ステップS1603)、そのデータに応じたクロマキー合成パラメータを用いればよい(ステップS1604)。しかし、カメラ101の位置姿勢データがクロマキー合成パラメータテーブル(図11の例では欄1101,1102)に記載されていない場合(ステップS1603)、記載された位置姿勢データとクロマキー合成パラメータを用いて補間し(ステップS1605)、テーブルに記載されていない位置姿勢データに応じたクロマキー合成パラメータを特定することができる(ステップS1606)。補間の方法としては特に限定しないが、例えばスプライン補間等を用いても良い。
If the position and orientation data of the
以上の方法により、カメラ101の位置姿勢により撮像されるクロマキー色が変化しても、本実施形態におけるクロマキー合成装置106は、クロマキー合成処理を行うことができる。
According to the above method, the chroma
[第3の実施形態]
現実物体にクロマキー色が含まれている場合、例えば現実物体が建物であって窓の色がクロマキー色であった場合、この窓の部分はクロマキー合成により背景のCG映像の該当部分が合成されることになる。よって、本実施形態では現実物体にクロマキー色の領域(以下、マスク領域)が含まれていても、このマスク領域をクロマキー合成の対象から外す処理について説明する。
[Third Embodiment]
When the real object includes a chroma key color, for example, when the real object is a building and the window color is a chroma key color, the corresponding portion of the background CG image is synthesized by the chroma key synthesis in the window portion. Will be. Therefore, in the present embodiment, a process of excluding a mask region from a target of chroma key synthesis even when a real object includes a region of a chroma key color (hereinafter, a mask region) will be described.
まず予め、現実物体においてマスク領域の形状、位置を3次元空間内で特定し、ワークステーション内の外部記憶装置404内に格納しておく。そしてカメラ101の位置姿勢データに基づいて生成されるビューイング変換行列を用いて3次元マスク形状データを変換する事で、クロマキー合成処理対象の映像中におけるマスク領域の形状、位置が特定される。よってこの領域の情報をクロマキー合成装置106内に出力することで、この領域をクロマキー合成処理の対象外領域とする事ができる。
First, the shape and position of the mask area in the real object are specified in a three-dimensional space and stored in the
[第4の実施形態]
第1の実施形態における映像処理装置が行う処理は他の構成によっても実現できる。図12に本実施形態における映像処理装置の概略構成を示す。
[Fourth embodiment]
The processing performed by the video processing device in the first embodiment can be realized by other configurations. FIG. 12 shows a schematic configuration of a video processing device according to the present embodiment.
各部に用いる機器は第1の実施形態と同じであるが、夫々の機器間の接続形式や各機器の動作タイミングなどが異なる。本実施形態の映像処理装置において各処理の流れを図13を用いて説明する。 The devices used for each unit are the same as those in the first embodiment, but the connection types between the devices and the operation timing of each device are different. The flow of each process in the video processing device of the present embodiment will be described with reference to FIG.
ワークステーション102の外部記憶装置404内には背景のデータが保存されており、必要に応じてCPU401によりRAM402に読み出される。よって、ワークステーション102は位置姿勢計測装置104から入力したカメラ101の位置姿勢データに基づいて第1の実施形態と同様にカメラ101の位置姿勢に基づいた背景のCG映像を生成し、生成した背景のCG映像をクロマキー合成装置106に出力する。
Background data is stored in the
またカメラ101により撮像された実写映像はダイレクトにクロマキー合成装置106に入力される。そしてクロマキー合成装置106は、入力された実写映像と背景のCG映像をクロマキー合成し、前景仮想物体が含まれていない複合現実感映像を生成する。生成された(前景仮想物体が含まれていない)複合現実感映像はワークステーション103に入力される。ワークステーション103の外部記憶装置404内には前景仮想物体のデータが保存されており、CPU401によりRAM402に読み出した後に、位置姿勢計測装置104からのカメラ101の位置姿勢データに基づいた前景仮想物体映像を生成し、クロマキー合成装置106から入力された映像と合成し、複合現実感映像を生成した後にモニタ107に出力する。
In addition, the actual image captured by the
又第1の実施形態と同様、以上の各部(カメラ101、ワークステーション102、ワークステーション103、位置姿勢計測装置104、クロマキー合成装置106)は同期信号発生器105により出力される同期信号に同期して動作している。つまり、同期信号に同期して、カメラ101からの実写映像の出力、ワークステーション102からのCG映像の出力、ワークステーション103からの複合現実感映像の出力、位置姿勢計測装置104によるカメラ101の位置姿勢の計測及び位置姿勢データの出力、クロマキー合成装置106によるクロマキー合成処理の開始を行う。
Further, similarly to the first embodiment, the above-described units (the
なお、クロマキー合成装置106に入力されるカメラ101からの実写映像と、ワークステーション102からの背景のCG映像の同期をとるため、カメラ101からの実写映像はクロマキー合成装置106内の不図示のメモリ内に蓄積しておき、適当な時間(理想的にはワークステーション102からのCG映像が入力されたタイミングと、このCG映像を生成する際に用いたカメラ101の位置姿勢による実写映像が入力されたタイミングとの差分時間)遅延させて用いる。なお、この遅延時間は予め測定しておく。例えば、カメラ101からの実写映像とワークステーション102からの背景のCG映像とに夫々「生成された時間」の情報(生成時間情報)を付加しておき、夫々同じ生成時間情報を有する映像がクロマキー合成装置106に入力された時間のずれを測定する。その結果、このずれが遅延時間となる。
Note that, in order to synchronize the real shot video from the
またワークステーション103は、クロマキー合成装置106から入力される映像と、位置姿勢計測装置104から入力される位置姿勢データの同期をとるため、位置姿勢計測装置104からのカメラ101の位置姿勢データをRAM402内に蓄積しておき、適当な時間(理想的には位置姿勢計測装置104からのカメラ101の位置姿勢データが入力されたタイミングと、この位置姿勢データを用いたクロマキー合成装置106からの映像が入力されたタイミングとの差分時間)遅延させて用いる。
The
上述のワークステーション102、ワークステーション103夫々の処理のフローチャートを図14,15に示し、以下説明する。なお、夫々のフローチャートに従ったプログラムコードは夫々のワークステーションのぞれぞれの外部記憶装置404内に保存され、必要に応じてRAM402に読み出され、夫々のワークステーション内の夫々のCPU401により読み出され、実行される。
14 and 15 show flowcharts of the processing of the
まずワークステーション102における処理について説明する。まず同期待ちとなり(ステップS1401)、処理を開始するとまず、位置姿勢計測装置104からカメラ101の位置姿勢データを入力する(ステップS1402)。入力された位置姿勢データを上述の通り適当な時間遅延させたこの位置姿勢データに基づいて、背景のCG映像を生成する(ステップS1404)。そして生成された背景のCG映像を出力する(ステップS1405)。
First, the processing in the
次にワークステーション103における処理について説明する。まず同期待ちとなり(ステップS1501)、処理を開始するとまずカメラ101から実写映像をキャプチャする(ステップS1502)。そして位置姿勢計測装置104からカメラ101の位置姿勢データを入力する(ステップS1503)。ステップS1502とステップS1503の各処理の順序は逆でも良いし、並列に行っても良い。そして次にキャプチャした実写映像をRAM402内で描画する(ステップS1504)。そして、入力したカメラ101の位置姿勢データのうち、予め測定したフレーム数遅延させた位置姿勢データに基づいて、前景仮想物体映像を生成するためのビューイング変換行列を算出し(ステップS1505)、算出されたビューイング変換行列に基づいて生成された前景仮想物体映像をクロマキー合成装置106からの映像に合成し、複合現実感映像を生成する(ステップS1506)。そして生成された複合現実感映像を出力する(ステップS1507)。
Next, processing in the
なおクロマキー合成装置106における処理のフローチャートは図10におけるフローチャートにおいて、ステップS1002で実写映像と背景のCG映像を入力し、ステップS1003で入力したこれらの映像のクロマキー合成を行うとしたフローチャートである。
The flowchart of the process in the chroma
なお本実施形態におけるワークステーション102,ワークステーション103は、一つのプロセッサ(CPU401)でカメラ101の位置姿勢データの受付とその他の処理の制御を行っている。つまりワークステーション102ではカメラ101の位置姿勢データの受付と背景画像の生成を行っている。一方、ワークステーション103では、一つのプロセッサで位置姿勢計測装置104からのカメラ101の位置姿勢データの受付と、クロマキー合成装置106からの映像の受付を行っている。
Note that the
しかしそれ以外にも、夫々のワークステーション内に位置姿勢計測装置104からのカメラ101の位置姿勢データの受信専用プロセッサを新たに設けても良い。つまり、この受信専用プロセッサは定期的に位置姿勢計測装置104からのカメラ101の位置姿勢データを受信し、夫々のワークステーション内のRAM402に蓄積する。この蓄積に要する時間はほぼ0に等しい。しかし、夫々のワークステーション内ではこの他にもCG映像の生成待ち、クロマキー合成装置106からの映像の入力待ち行っている。そのために夫々のワークステーション内の受信専用プロセッサにはウェイト時間(待っている時間分の)を設ける必要がある。あるいはウェイトをせず、単に「カメラの位置姿勢データの受信→RAM402に蓄積」という処理を繰り返すだけでも良い。そして過去の位置姿勢データを処理に用いる場合には、RAM402内で用いる時刻の位置姿勢データを参照すればよい。
However, other than that, a processor dedicated to receiving the position and orientation data of the
以上の方法は映像を扱うプロセッサを映像データを受信する専用のプロセッサと、映像データを処理するプロセッサとで分けた場合で、映像データを遅延させる際にも適応させることができる。 The method described above is divided into a processor dedicated to receiving video data and a processor dedicated to receiving video data, and can be adapted to delay video data.
[第5の実施形態]
又上述の実施形態において、前景と背景の合成にはクロマキー合成以外にも例えばルミナンスキー合成技術を用いても良い。また、上述の実施形態では複合現実感映像はモニタ107に出力していたが、これに限らずに、例えばビデオなどに出力して、録画しても良い。
[Fifth Embodiment]
In the above embodiment, for example, a luminance key combining technique may be used for combining the foreground and the background in addition to the chroma key combining. In the above-described embodiment, the mixed reality video is output to the
[第6の実施形態]
上述の実施形態では複合現実感映像を生成する際の生成の同期をとっていたが、この同期をとらなくても大きく問題にならないために同期処理を行わない場合もある。その際の映像処理装置の構成としては、図1、図2、図12,図13において同期信号発生器105は必要が無く、また、上述の各部のウェイトを設ける必要もない。
[Sixth Embodiment]
In the above-described embodiment, the generation is synchronized when the mixed reality video is generated. However, there is a case where the synchronization process is not performed because there is no significant problem even if the synchronization is not performed. As a configuration of the video processing apparatus at that time, the
[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[Other embodiments]
An object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (or a CPU or an MPU) of the system or the apparatus. Can also be achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. In addition, the computer executes the readout program code, so that not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is executed based on the instruction of the program code. It goes without saying that the CPU included in the expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した(図8、及び/又は図9、及び/又は図10、及び/又は図14、及び/又は図15、及び/又は図16に示す)フローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the storage medium, the storage medium includes the storage medium described above (FIG. 8 and / or FIG. 9 and / or FIG. 10 and / or FIG. 14 and / or FIG. And / or the program code corresponding to the flowchart (shown in FIG. 16) will be stored.
Claims (7)
現実空間を撮像する撮像手段と、
前記撮像手段の位置姿勢を計測する計測手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記撮像手段により撮像された現実空間を含む前景の映像を生成する前景映像生成手段と、
前記計測手段による前記撮像手段の位置姿勢に基づいて、前記前景映像生成手段による前景の背景映像を生成する背景映像生成手段と、
前記撮像手段の位置姿勢に応じたクロマキー色が記載されたテーブルから、前記計測手段による前記撮像手段の位置姿勢に応じたクロマキー色を特定し、特定したクロマキー色を用いて、前記前景映像生成手段による前景の映像と、前記背景映像生成手段による背景の映像とのクロマキー合成処理を行う合成手段と、
前記合成手段が合成する対象である前記前景の映像と前記背景映像とを同期して前記合成手段に入力するための同期信号を発生する同期信号発生手段とを備え、
前記前景映像生成手段、及び前記背景映像生成手段は夫々独立に設定されている所定時間分のウェイト処理を行うことにより、前記同期信号に応じて同期のとれた前景、背景の映像を夫々前記合成手段に入力することを特徴とする映像処理装置。 An image processing device that performs a process of synthesizing an image of a real space and a virtual object,
Imaging means for imaging the real space;
Measuring means for measuring the position and orientation of the imaging means;
A foreground image generation unit that generates a foreground image including a real space imaged by the imaging unit based on the position and orientation of the imaging unit by the measurement unit;
A background image generation unit that generates a foreground background image by the foreground image generation unit based on the position and orientation of the imaging unit by the measurement unit;
From the table in which the chroma key color corresponding to the position and orientation of the imaging unit is described, the chroma key color corresponding to the position and orientation of the imaging unit is specified by the measuring unit, and the foreground image generation unit is specified using the specified chroma key color. Synthesizing means for performing a chroma key synthesizing process of the foreground image by the background image generation means by the background image generation means,
A synchronizing signal generating unit that generates a synchronizing signal for inputting the foreground image and the background image to be synthesized by the synthesizing unit to the synthesizing unit.
The foreground image generation unit and the background image generation unit perform weight processing for a predetermined time set independently of each other, thereby synchronizing the foreground and background images synchronized in accordance with the synchronization signal. An image processing apparatus characterized by inputting to a means.
前記計測手段による前記撮像手段の位置姿勢が前記テーブルに記載されていない場合には、前記テーブルに記載された前記撮像手段の位置姿勢とそれに応じたクロマキー色とを用いて補間することで、前記計測手段による前記撮像手段の位置姿勢に応じたクロマキー色を特定することを特徴とする請求項1に記載の映像処理装置。 When the synthesizing unit specifies the chroma key color from the table according to the position and orientation of the imaging unit by the measuring unit,
When the position and orientation of the imaging unit by the measurement unit is not described in the table, by interpolating using the position and orientation of the imaging unit described in the table and a chroma key color corresponding thereto, the 2. The video processing apparatus according to claim 1, wherein a chroma key color corresponding to a position and orientation of the imaging unit is specified by a measurement unit.
所定の格納手段に格納された仮想物体の描画に関する情報を用いて前記計測手段による前記撮像手段の位置姿勢に基づいた前記仮想物体の映像を生成し、前記撮像された現実空間に合成することで前景の映像を生成することを特徴とする請求項1又は2に記載の映像処理装置。 When the foreground image generation unit provides a virtual object in front of the real space by the imaging unit,
By generating an image of the virtual object based on the position and orientation of the imaging unit by the measurement unit using the information on drawing of the virtual object stored in the predetermined storage unit, and combining the generated image with the captured real space. The image processing device according to claim 1, wherein the image processing device generates a foreground image.
前記計測手段による前記撮像手段の位置姿勢で見える背景の映像を生成することを特徴とする請求項1乃至4の何れか1項に記載の映像処理装置。 The background video generation means uses background data stored in a predetermined storage means,
The image processing apparatus according to claim 1, wherein the measuring unit generates an image of a background that can be seen in the position and orientation of the imaging unit.
現実空間を撮像する撮像手段の位置姿勢を計測する計測工程と、
前記計測工程による前記撮像手段の位置姿勢に基づいて、前記撮像手段により撮像された現実空間を含む前景の映像を生成する前景映像生成工程と、
前記計測工程による前記撮像手段の位置姿勢に基づいて、前記前景映像生成工程による前景の背景映像を生成する背景映像生成工程と、
前記撮像手段の位置姿勢に応じたクロマキー色が記載されたテーブルから、前記計測工程による前記撮像手段の位置姿勢に応じたクロマキー色を特定し、特定したクロマキー色を用いて、前記前景映像生成工程による前景の映像と、前記背景映像生成工程による背景の映像とのクロマキー合成処理を行う合成工程と、
前記合成工程で合成する対象である前記前景の映像と前記背景映像とを同期して前記合成工程で合成するための同期信号を発生する同期信号発生工程とを備え、
前記前景映像生成工程、及び前記背景映像生成工程では夫々独立に設定されている所定時間分のウェイト処理を行うことにより、前記同期信号に応じて同期のとれた前景、背景の映像を夫々前記合成工程で用いることを特徴とする映像処理方法。 A video processing method for performing a video synthesis process of a real space and a virtual object,
A measurement step of measuring the position and orientation of the imaging means for imaging the real space,
A foreground image generation step of generating a foreground image including the real space imaged by the imaging unit based on the position and orientation of the imaging unit in the measurement step;
A background image generation step of generating a foreground background image by the foreground image generation step based on the position and orientation of the imaging unit in the measurement step;
From the table in which the chroma key colors according to the position and orientation of the imaging unit are described, the chroma key colors according to the position and orientation of the imaging unit in the measurement step are specified, and the foreground image generation step is performed using the specified chroma key colors. A synthesizing step of performing a chroma key synthesizing process of a foreground image by the background image generation process by the background image generation step,
A synchronizing signal generating step of synchronizing the foreground image and the background image to be synthesized in the synthesizing step and generating a synchronizing signal for synthesizing in the synthesizing step,
In the foreground image generation step and the background image generation step, by performing a wait process for a predetermined time set independently of each other, the foreground and background images synchronized in accordance with the synchronization signal are respectively synthesized. A video processing method used in a process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004142649A JP3927965B2 (en) | 2004-05-12 | 2004-05-12 | Video processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004142649A JP3927965B2 (en) | 2004-05-12 | 2004-05-12 | Video processing apparatus and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000280698A Division JP3631117B2 (en) | 2000-09-14 | 2000-09-14 | Video processing apparatus and method, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004282784A true JP2004282784A (en) | 2004-10-07 |
JP3927965B2 JP3927965B2 (en) | 2007-06-13 |
Family
ID=33297036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004142649A Expired - Fee Related JP3927965B2 (en) | 2004-05-12 | 2004-05-12 | Video processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3927965B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7868904B2 (en) | 2005-04-01 | 2011-01-11 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107396084A (en) * | 2017-07-20 | 2017-11-24 | 广州励丰文化科技股份有限公司 | A kind of MR implementation methods and equipment based on dual camera |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04269081A (en) * | 1991-02-25 | 1992-09-25 | Nippon Hoso Kyokai <Nhk> | Electronic image generating method |
JPH05211663A (en) * | 1991-11-15 | 1993-08-20 | Canon Inc | Image communication telephone set |
JPH05244630A (en) * | 1992-03-02 | 1993-09-21 | Nippon Hoso Kyokai <Nhk> | Chroma key synthesis system |
JPH07141493A (en) * | 1993-11-17 | 1995-06-02 | Matsushita Electric Ind Co Ltd | Picture processor |
JPH07212653A (en) * | 1994-01-18 | 1995-08-11 | Matsushita Electric Ind Co Ltd | Picture processing unit |
JPH11512263A (en) * | 1995-09-08 | 1999-10-19 | オラド ハイ−テック システムズ リミテッド | Method and apparatus for automatic electronic replacement of billboards in video images |
-
2004
- 2004-05-12 JP JP2004142649A patent/JP3927965B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04269081A (en) * | 1991-02-25 | 1992-09-25 | Nippon Hoso Kyokai <Nhk> | Electronic image generating method |
JPH05211663A (en) * | 1991-11-15 | 1993-08-20 | Canon Inc | Image communication telephone set |
JPH05244630A (en) * | 1992-03-02 | 1993-09-21 | Nippon Hoso Kyokai <Nhk> | Chroma key synthesis system |
JPH07141493A (en) * | 1993-11-17 | 1995-06-02 | Matsushita Electric Ind Co Ltd | Picture processor |
JPH07212653A (en) * | 1994-01-18 | 1995-08-11 | Matsushita Electric Ind Co Ltd | Picture processing unit |
JPH11512263A (en) * | 1995-09-08 | 1999-10-19 | オラド ハイ−テック システムズ リミテッド | Method and apparatus for automatic electronic replacement of billboards in video images |
JPH11514510A (en) * | 1995-09-08 | 1999-12-07 | オラド ハイ−テック システムズ リミテッド | Method and apparatus for automatic electronic replacement of billboards in video images |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7868904B2 (en) | 2005-04-01 | 2011-01-11 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP3927965B2 (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102359978B1 (en) | Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same | |
JP4847203B2 (en) | Information processing method and information processing apparatus | |
JP2009124685A (en) | Method and system for combining videos for display in real-time | |
JP2001195601A (en) | Device and method for presenting composite reality and storage medium | |
JPH11331874A (en) | Image processing unit, depth image measuring device, composite reality presenting system, image processing method, depth image measuring method, composite reality presenting method and storage medium for program | |
JP2006229768A (en) | Video signal processing device, method therefor, and virtual reality creator | |
CN110691175B (en) | Video processing method and device for simulating motion tracking of camera in studio | |
KR102382247B1 (en) | Image processing apparatus, image processing method, and computer program | |
CA2238768A1 (en) | Multi-camera virtual set system employing still store frame buffers for each camera | |
WO2019123509A1 (en) | Terminal device, system, program and method | |
WO2024087883A1 (en) | Video picture rendering method and apparatus, device, and medium | |
JP2021034885A (en) | Image generation device, image display device, and image processing method | |
JP2011035638A (en) | Virtual reality space video production system | |
JP3631117B2 (en) | Video processing apparatus and method, and storage medium | |
JP4236705B2 (en) | Method and device for generating a display frame from a sequence of original frames by synthesizing one or more intermediate frames based only on the immediately preceding original frame | |
JP3927965B2 (en) | Video processing apparatus and method | |
JPH11328443A (en) | System and method for generating three-dimensional panorama image and recording media therefor | |
JP2007233647A (en) | Presentation data processing apparatus | |
JP2006145758A (en) | On-screen display device | |
JP4006105B2 (en) | Image processing apparatus and method | |
JP2002042158A (en) | Image composing device, image composing method, and medium recording program | |
JP6835455B2 (en) | Programs, devices and methods for correcting depth values in time-series depth images | |
US9036070B2 (en) | Displaying of images with lighting on the basis of captured auxiliary images | |
JP2002058046A (en) | Imaging system and three-dimensional camera | |
JP2020126393A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070305 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100309 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110309 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120309 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130309 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140309 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |