JP2005135052A - Method for realizing fog effect in mixed reality space - Google Patents
Method for realizing fog effect in mixed reality space Download PDFInfo
- Publication number
- JP2005135052A JP2005135052A JP2003368413A JP2003368413A JP2005135052A JP 2005135052 A JP2005135052 A JP 2005135052A JP 2003368413 A JP2003368413 A JP 2003368413A JP 2003368413 A JP2003368413 A JP 2003368413A JP 2005135052 A JP2005135052 A JP 2005135052A
- Authority
- JP
- Japan
- Prior art keywords
- video
- fog
- brightness
- live
- hmd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
ビデオシースルー型のHMDを用いたMR(Mixed Reality)もしくはAR(Augmented Reality)システムを使った装置に有効である。 It is effective for equipment using MR (Mixed Reality) or AR (Augmented Reality) system using video see-through HMD.
ビデオシースルー型のHMDを利用したMRシステムにおいてFOG効果をかける場合には、CGがFOGにより暗くなるのにあわせ、キャプチャした実写映像の明るさを暗くする作業が必要である。
だが実写映像の明るさを暗くするには、毎秒30コマの実写映像のすべての画素を処理する画像処理を毎回行う必要があり、処理が重くなっていた。 However, in order to reduce the brightness of the live-action video, it is necessary to perform image processing for processing all pixels of the live-action video of 30 frames per second, which is heavy processing.
本発明では、実写映像の明るさを変更するために、多くのグラフィックカードでハードウェア的にサポートされているFOG機能を使用することでこの問題を解決する。 The present invention solves this problem by using a FOG function that is supported by hardware in many graphic cards in order to change the brightness of a live-action image.
具体的な手段として、背景画像として実写映像を描画する際に、CG映像に与えるFOGパラメータとは別のFOGパラメータを用いて描画することで実写映像の明るさを調整する。 As a specific means, when a live-action video is drawn as a background image, the brightness of the live-action video is adjusted by drawing using a FOG parameter different from the FOG parameter given to the CG video.
このとき、CGと実写映像が調和するように両者のFOGパラメータを調整することで、観察者にCGと実写映像が違和感なく融合したFOG効果を与えることができる。 At this time, by adjusting the FOG parameters of both so that the CG and the live-action video are in harmony, it is possible to give the FOG effect that the CG and the live-action video are fused without any sense of incongruity.
以上の説明から明らかなように本発明によれば、処理速度を犠牲にすることなくMR、ARシステムの中で、FOG効果を実現することが可能となる。 As is apparent from the above description, according to the present invention, the FOG effect can be realized in the MR and AR systems without sacrificing the processing speed.
本実施例の全体図を図1に、模式図を図2示す。本実施例はFOG機能を使用したMR技術を用いたゲーム(以下MRゲーム)である。HMD 100、3次元センサ本体 200、3次元センサ固定局 210、計算機 300、ゲームフィールド 400により構成される。
An overall view of this example is shown in FIG. 1, and a schematic diagram is shown in FIG. The present embodiment is a game (hereinafter referred to as MR game) using MR technology using the FOG function. It consists of HMD 100, 3D sensor
HMD 100はビデオシースルー方式のHDMである。図3に示すように、左目右目カメラ 110, 111、3次元センサ移動局 120、左目右目LCD 130, 131からなる。
HMD 100 is a video see-through HDM. As shown in FIG. 3, it consists of left-eye and right-
プレイヤーはHMD 100を装着してゲームをプレーする。HMD 100内のLCD 130, 131には、カメラ 110, 111で撮影された実写映像とCG 画像が合成されて表示される(図4)。
Players play the game with HMD 100. On the
本実施例では、実写映像とCG画像に個別にFOGをかけることで、FOGのかかったMR映像を利用者に提示する(図5)。FOG機構はWindows(登録商標)のグラフィックAPIであるDirectXの指数公式FOGモードの利用を想定している。 In the present embodiment, the FOG-added MR video is presented to the user by individually applying FOG to the live-action video and the CG image (FIG. 5). The FOG mechanism assumes the use of the index official FOG mode of DirectX, which is a graphic API of Windows (registered trademark).
HDM 100に表示される映像は、計算機 300により作成される。計算機 300はCPU 301、メモリ 302、PCIブリッジ 303、シリアルI/O 310、ビデオキャプチャカード 320, 321、ビデオボード 330, 331からなる。
The video displayed on the
3次元位置センサ 200は3次元位置センサ固定局 210とHMD内蔵位置センサ 120、手位置センサ 500からなる。3次元位置センサ 200は磁気により3次元位置センサ固定局 210とHMD内蔵位置センサ 120の相対位置を測定する。位置情報は x, y , z, roll, pitch, yaw の6自由度を測定できる。計算機 300とはシリアルインターフェイスで通信を行う。3次元位置センサ固定局 210の位置は事前に正確に測定してあり、HMD内蔵位置センサの相対位置を知ることでHDMの絶対位置(ゲームフィールド 400の中心を原点とする)を知ることができる。
The three-
計算機 300のHMD 表示スレッドのフローチャートを図6に示す。左右の目の処理は基本的に同じなので、ここでは右目の処理について説明する。
A flowchart of the HMD display thread of the
ビデオカメラ 100からの実写映像は、ビデオキャプチャカード 320を通じて計算機 300に取り込まれる(S100)。
The live-action video from the
実写映像を描画する前に、実写映像を描画する際のFOGパラメータを設定する(S101)。実写映像はテクスチャとしてzバッファ=1の2次元の板に描画するため、FOGパラメータは次の値を設定している(変数foglevelは設定したいFOGの強度を0〜1で示したもの)。 Before drawing a live-action video, FOG parameters for drawing the real-shot video are set (S101). Since the live-action video is drawn as a texture on a two-dimensional board with z buffer = 1, the following values are set for the FOG parameters (the variable foglevel indicates the FOG intensity to be set as 0 to 1).
FOG = 4 * (1 - foglevel)
このFOGをFOGパラメータとして設定するため、テクスチャとして描画される実写映像は、foglevelの値に応じて明るさが減少する(FOGのカラーを黒とした場合)。
FOG = 4 * (1-foglevel)
Since this FOG is set as a FOG parameter, the brightness of a live-action image rendered as a texture decreases according to the value of foglevel (when the color of the FOG is black).
実写映像は、メモリ 302上のビデオバッファに書き込む(S102)。このビデオバッファは、作成途中の映像を格納するための作業領域である。取り込んだ実写映像を書き込むことで、実写映像をCGの背景画像とすることができる。 The photographed video is written into the video buffer on the memory 302 (S102). This video buffer is a work area for storing video that is being created. By writing the captured live-action video, the live-action video can be used as a CG background image.
シリアルI/O 310を通じて3次元位置センサ 200からHMD 100の位置情報を得る(S103)。HMD 100の位置は、ワールド座標に変換してから格納する。ワールド座標は、ゲームフィールド 400の中心を原点とした座標系であり、本実施例全体で使用する。ワールド座標への変換は、あらかじめ測定してあるゲームフィールド 400、3次元位置センサ固定局 210の位置を用いることで簡単に行うことができる。
The position information of the
CGを描画に使用する射影変換のための行列と、モデリング変換のための行列を作成する(S104)。HMD のワールド座標を用いモデリング変換行列を作成する。またあらかじめ測定しておいたカメラの焦点距離などのパラメータから、射影変換行列を作成する(射影行列の作成は最初の1回のみで、以降は使いまわす)。 A matrix for projective transformation that uses CG for drawing and a matrix for modeling transformation are created (S104). Create modeling transformation matrix using world coordinates of HMD. Also, a projection transformation matrix is created from parameters such as the focal length of the camera that have been measured in advance (the projection matrix is created only once for the first time and is used later).
CG用にFOGパラメータを設定する(S105)。 Set FOG parameters for CG (S105).
FOG = 0.0015 - (0.0015 / (1.0 + 0.2)) * (foglevel + 0.2)
出来上がった変換行列を用い、CGデータをビデオバッファに描画する(S106)。ビデオバッファに上書きすることで、実写映像の上にCGが描画される。CGデータは別スレッドが必要に応じて動かしている。本実施例では魚とロケットのCGを動かしたが、CGの動かし方は本発明と関連ないので説明を省略する。
FOG = 0.0015-(0.0015 / (1.0 + 0.2)) * (foglevel + 0.2)
Using the completed conversion matrix, CG data is drawn in the video buffer (S106). By overwriting the video buffer, CG is drawn on the live-action video. CG data is moved by another thread as needed. In this embodiment, the fish and rocket CGs are moved, but the method of moving the CGs is not related to the present invention, so the description is omitted.
CGに関してもFOGパラメータを設定しているので、画面はfoglevelに応じてFOG効果のかかったものとなる。foglevelをそのままFOGパラメータとして用いないのは、実写映像の明るさとの調整を図るためである。 Since FOG parameters are set for CG, the screen will be subject to the FOG effect according to the foglevel. The reason why foglevel is not used as the FOG parameter is to adjust the brightness of the live-action video.
描画が終わると、ビデオバッファをビデオボード 330上のフレームバッファに転送し、HMD 100内のLCD 130に映像を描画する(S107)。
When the drawing is finished, the video buffer is transferred to the frame buffer on the
以上の処理により、MRゲームのなかでFOG効果を実現する際に、多くのグラフィックボードでハードウェア的に実装されたFOG機構を使用して実写映像の明るさを調整することができる。これにより、システムの性能を落とすことなく、MRゲームのなかでFOG効果を実現できる。 With the above processing, when realizing the FOG effect in the MR game, the brightness of the live-action image can be adjusted using the FOG mechanism implemented in hardware on many graphic boards. As a result, FOG effects can be realized in MR games without degrading system performance.
100 HMD
110,111 ビデオカメラ
120 HMD内蔵位置センサ
130,131 液晶ディスプレイ
200 3次元位置センサ本体
210 3次元位置センサ固定局
300 計算機
301 CPU
302 メモリ
303 PCIブリッジ
310 シリアルI/O
320,321 ビデオキャプチャボード
330,331 ビデオボード
100 HMD
110, 111 video camera
120 HMD built-in position sensor
130, 131 LCD
200 3D position sensor body
210 3D position sensor fixed station
300 calculator
301 CPU
302 memory
303 PCI bridge
310 serial I / O
320, 321 video capture board
330,331 video board
Claims (3)
3. The system according to claim 2, wherein when applying FOG to the live-action video and the CG video, the brightness is adjusted by using different FOG parameters for the live-action video and the CG video, respectively.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003368413A JP2005135052A (en) | 2003-10-29 | 2003-10-29 | Method for realizing fog effect in mixed reality space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003368413A JP2005135052A (en) | 2003-10-29 | 2003-10-29 | Method for realizing fog effect in mixed reality space |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005135052A true JP2005135052A (en) | 2005-05-26 |
Family
ID=34646085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003368413A Withdrawn JP2005135052A (en) | 2003-10-29 | 2003-10-29 | Method for realizing fog effect in mixed reality space |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005135052A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009003143A2 (en) * | 2007-06-26 | 2008-12-31 | Microsoft Corporation | Real-time rendering of light scattering media |
US7940268B2 (en) | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
US7940269B2 (en) | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
US7990377B2 (en) | 2007-06-26 | 2011-08-02 | Microsoft Corporation | Real-time rendering of light-scattering media |
US8190403B2 (en) | 2007-06-26 | 2012-05-29 | Microsoft Corporation | Real-time rendering of light-scattering media |
JP2016528761A (en) * | 2013-06-08 | 2016-09-15 | 株式会社ソニー・インタラクティブエンタテインメント | System and method for customizing the optical representation of a display provided by a head mounted display based on the user's optical prescription |
WO2017173735A1 (en) * | 2016-04-07 | 2017-10-12 | 深圳市易瞳科技有限公司 | Video see-through-based smart eyeglasses system and see-through method thereof |
-
2003
- 2003-10-29 JP JP2003368413A patent/JP2005135052A/en not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009003143A2 (en) * | 2007-06-26 | 2008-12-31 | Microsoft Corporation | Real-time rendering of light scattering media |
WO2009003143A3 (en) * | 2007-06-26 | 2009-06-11 | Microsoft Corp | Real-time rendering of light scattering media |
US7990377B2 (en) | 2007-06-26 | 2011-08-02 | Microsoft Corporation | Real-time rendering of light-scattering media |
US8009168B2 (en) | 2007-06-26 | 2011-08-30 | Microsoft Corporation | Real-time rendering of light-scattering media |
US8190403B2 (en) | 2007-06-26 | 2012-05-29 | Microsoft Corporation | Real-time rendering of light-scattering media |
US7940268B2 (en) | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
US7940269B2 (en) | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
JP2016528761A (en) * | 2013-06-08 | 2016-09-15 | 株式会社ソニー・インタラクティブエンタテインメント | System and method for customizing the optical representation of a display provided by a head mounted display based on the user's optical prescription |
WO2017173735A1 (en) * | 2016-04-07 | 2017-10-12 | 深圳市易瞳科技有限公司 | Video see-through-based smart eyeglasses system and see-through method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11217021B2 (en) | Display system having sensors | |
JP6514826B2 (en) | Electronic Display Stabilization Using Pixel Speed | |
JP7395577B2 (en) | Motion smoothing of reprojected frames | |
US20200051342A1 (en) | Time-warping adjustment based on depth information in a virtual/augmented reality system | |
CN109478344B (en) | Method and apparatus for synthesizing image | |
US20160267720A1 (en) | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience | |
US9639987B2 (en) | Devices, systems, and methods for generating proxy models for an enhanced scene | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
JP2021103537A (en) | Continuous time warping and binocular time warping for virtual and augmented reality display systems and methods | |
EP3572916B1 (en) | Apparatus, system, and method for accelerating positional tracking of head-mounted displays | |
US11577159B2 (en) | Realistic virtual/augmented/mixed reality viewing and interactions | |
IL268911A (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
US9325960B2 (en) | Maintenance of three dimensional stereoscopic effect through compensation for parallax setting | |
JP6310898B2 (en) | Image processing apparatus, information processing apparatus, and image processing method | |
JP2002159019A (en) | Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program | |
WO2020003860A1 (en) | Information processing device, information processing method, and program | |
CN108830944B (en) | Optical perspective three-dimensional near-to-eye display system and display method | |
JP5847610B2 (en) | Computer graphics image processing system and method using AR technology | |
Zheng | Spatio-temporal registration in augmented reality | |
JP2005135052A (en) | Method for realizing fog effect in mixed reality space | |
WO2022133683A1 (en) | Mixed reality display method, mixed reality device, and storage medium | |
JP4217661B2 (en) | Image processing method and image processing apparatus | |
TWI817335B (en) | Stereoscopic image playback apparatus and method of generating stereoscopic images thereof | |
CN114862657A (en) | Dual-display-card rendering method and device | |
CN110910509A (en) | Image processing method, electronic device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070109 |