JP2005135052A - Method for realizing fog effect in mixed reality space - Google Patents

Method for realizing fog effect in mixed reality space Download PDF

Info

Publication number
JP2005135052A
JP2005135052A JP2003368413A JP2003368413A JP2005135052A JP 2005135052 A JP2005135052 A JP 2005135052A JP 2003368413 A JP2003368413 A JP 2003368413A JP 2003368413 A JP2003368413 A JP 2003368413A JP 2005135052 A JP2005135052 A JP 2005135052A
Authority
JP
Japan
Prior art keywords
video
fog
brightness
live
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003368413A
Other languages
Japanese (ja)
Inventor
Tomohiko Shimoyama
朋彦 下山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003368413A priority Critical patent/JP2005135052A/en
Publication of JP2005135052A publication Critical patent/JP2005135052A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem wherein, for a dark overall scene, a conventional mixed reality (MR) technique using a video see-through HMD requires operations of darkening the brightness of captured real video and rendering CG in corresponding darkness, which require a real time change in the brightness of the real video to pose a high processing load. <P>SOLUTION: Real video is rendered in lower brightness with a FOG function of a graphics card and CG is also rendered in lower brightness with the FOG function to present an overall scene to a user as if it was dark. The use of the hardware function of the graphics card for a dark scene enables a dark scene without performance sacrifice. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

ビデオシースルー型のHMDを用いたMR(Mixed Reality)もしくはAR(Augmented Reality)システムを使った装置に有効である。   It is effective for equipment using MR (Mixed Reality) or AR (Augmented Reality) system using video see-through HMD.

ビデオシースルー型のHMDを利用したMRシステムにおいてFOG効果をかける場合には、CGがFOGにより暗くなるのにあわせ、キャプチャした実写映像の明るさを暗くする作業が必要である。
特開平11−136706号公報
When applying the FOG effect in an MR system using a video see-through HMD, it is necessary to reduce the brightness of the captured live-action video as the CG becomes darker due to FOG.
JP-A-11-136706

だが実写映像の明るさを暗くするには、毎秒30コマの実写映像のすべての画素を処理する画像処理を毎回行う必要があり、処理が重くなっていた。   However, in order to reduce the brightness of the live-action video, it is necessary to perform image processing for processing all pixels of the live-action video of 30 frames per second, which is heavy processing.

本発明では、実写映像の明るさを変更するために、多くのグラフィックカードでハードウェア的にサポートされているFOG機能を使用することでこの問題を解決する。   The present invention solves this problem by using a FOG function that is supported by hardware in many graphic cards in order to change the brightness of a live-action image.

具体的な手段として、背景画像として実写映像を描画する際に、CG映像に与えるFOGパラメータとは別のFOGパラメータを用いて描画することで実写映像の明るさを調整する。   As a specific means, when a live-action video is drawn as a background image, the brightness of the live-action video is adjusted by drawing using a FOG parameter different from the FOG parameter given to the CG video.

このとき、CGと実写映像が調和するように両者のFOGパラメータを調整することで、観察者にCGと実写映像が違和感なく融合したFOG効果を与えることができる。   At this time, by adjusting the FOG parameters of both so that the CG and the live-action video are in harmony, it is possible to give the FOG effect that the CG and the live-action video are fused without any sense of incongruity.

以上の説明から明らかなように本発明によれば、処理速度を犠牲にすることなくMR、ARシステムの中で、FOG効果を実現することが可能となる。   As is apparent from the above description, according to the present invention, the FOG effect can be realized in the MR and AR systems without sacrificing the processing speed.

本実施例の全体図を図1に、模式図を図2示す。本実施例はFOG機能を使用したMR技術を用いたゲーム(以下MRゲーム)である。HMD 100、3次元センサ本体 200、3次元センサ固定局 210、計算機 300、ゲームフィールド 400により構成される。   An overall view of this example is shown in FIG. 1, and a schematic diagram is shown in FIG. The present embodiment is a game (hereinafter referred to as MR game) using MR technology using the FOG function. It consists of HMD 100, 3D sensor main body 200, 3D sensor fixed station 210, computer 300, and game field 400.

HMD 100はビデオシースルー方式のHDMである。図3に示すように、左目右目カメラ 110, 111、3次元センサ移動局 120、左目右目LCD 130, 131からなる。   HMD 100 is a video see-through HDM. As shown in FIG. 3, it consists of left-eye and right-eye cameras 110 and 111, a three-dimensional sensor mobile station 120, and left-eye and right-eye LCDs 130 and 131.

プレイヤーはHMD 100を装着してゲームをプレーする。HMD 100内のLCD 130, 131には、カメラ 110, 111で撮影された実写映像とCG 画像が合成されて表示される(図4)。   Players play the game with HMD 100. On the LCDs 130 and 131 in the HMD 100, the live-action video shot by the cameras 110 and 111 and the CG image are combined and displayed (FIG. 4).

本実施例では、実写映像とCG画像に個別にFOGをかけることで、FOGのかかったMR映像を利用者に提示する(図5)。FOG機構はWindows(登録商標)のグラフィックAPIであるDirectXの指数公式FOGモードの利用を想定している。   In the present embodiment, the FOG-added MR video is presented to the user by individually applying FOG to the live-action video and the CG image (FIG. 5). The FOG mechanism assumes the use of the index official FOG mode of DirectX, which is a graphic API of Windows (registered trademark).

HDM 100に表示される映像は、計算機 300により作成される。計算機 300はCPU 301、メモリ 302、PCIブリッジ 303、シリアルI/O 310、ビデオキャプチャカード 320, 321、ビデオボード 330, 331からなる。   The video displayed on the HDM 100 is created by the computer 300. The computer 300 includes a CPU 301, a memory 302, a PCI bridge 303, a serial I / O 310, video capture cards 320 and 321, and video boards 330 and 331.

3次元位置センサ 200は3次元位置センサ固定局 210とHMD内蔵位置センサ 120、手位置センサ 500からなる。3次元位置センサ 200は磁気により3次元位置センサ固定局 210とHMD内蔵位置センサ 120の相対位置を測定する。位置情報は x, y , z, roll, pitch, yaw の6自由度を測定できる。計算機 300とはシリアルインターフェイスで通信を行う。3次元位置センサ固定局 210の位置は事前に正確に測定してあり、HMD内蔵位置センサの相対位置を知ることでHDMの絶対位置(ゲームフィールド 400の中心を原点とする)を知ることができる。   The three-dimensional position sensor 200 includes a three-dimensional position sensor fixed station 210, an HMD built-in position sensor 120, and a hand position sensor 500. The three-dimensional position sensor 200 measures the relative position of the three-dimensional position sensor fixed station 210 and the HMD built-in position sensor 120 by magnetism. The position information can measure 6 degrees of freedom of x, y, z, roll, pitch, yaw. The computer 300 communicates with a serial interface. The position of the three-dimensional position sensor fixed station 210 is accurately measured in advance, and by knowing the relative position of the HMD built-in position sensor, it is possible to know the absolute position of the HDM (the center of the game field 400 is the origin) .

計算機 300のHMD 表示スレッドのフローチャートを図6に示す。左右の目の処理は基本的に同じなので、ここでは右目の処理について説明する。   A flowchart of the HMD display thread of the computer 300 is shown in FIG. Since the left and right eye processes are basically the same, the right eye process will be described here.

ビデオカメラ 100からの実写映像は、ビデオキャプチャカード 320を通じて計算機 300に取り込まれる(S100)。   The live-action video from the video camera 100 is taken into the computer 300 through the video capture card 320 (S100).

実写映像を描画する前に、実写映像を描画する際のFOGパラメータを設定する(S101)。実写映像はテクスチャとしてzバッファ=1の2次元の板に描画するため、FOGパラメータは次の値を設定している(変数foglevelは設定したいFOGの強度を0〜1で示したもの)。   Before drawing a live-action video, FOG parameters for drawing the real-shot video are set (S101). Since the live-action video is drawn as a texture on a two-dimensional board with z buffer = 1, the following values are set for the FOG parameters (the variable foglevel indicates the FOG intensity to be set as 0 to 1).

FOG = 4 * (1 - foglevel)
このFOGをFOGパラメータとして設定するため、テクスチャとして描画される実写映像は、foglevelの値に応じて明るさが減少する(FOGのカラーを黒とした場合)。
FOG = 4 * (1-foglevel)
Since this FOG is set as a FOG parameter, the brightness of a live-action image rendered as a texture decreases according to the value of foglevel (when the color of the FOG is black).

実写映像は、メモリ 302上のビデオバッファに書き込む(S102)。このビデオバッファは、作成途中の映像を格納するための作業領域である。取り込んだ実写映像を書き込むことで、実写映像をCGの背景画像とすることができる。   The photographed video is written into the video buffer on the memory 302 (S102). This video buffer is a work area for storing video that is being created. By writing the captured live-action video, the live-action video can be used as a CG background image.

シリアルI/O 310を通じて3次元位置センサ 200からHMD 100の位置情報を得る(S103)。HMD 100の位置は、ワールド座標に変換してから格納する。ワールド座標は、ゲームフィールド 400の中心を原点とした座標系であり、本実施例全体で使用する。ワールド座標への変換は、あらかじめ測定してあるゲームフィールド 400、3次元位置センサ固定局 210の位置を用いることで簡単に行うことができる。   The position information of the HMD 100 is obtained from the three-dimensional position sensor 200 through the serial I / O 310 (S103). The HMD 100 position is stored after being converted to world coordinates. World coordinates are a coordinate system with the origin of the center of the game field 400 as the origin, and are used throughout the present embodiment. Conversion to the world coordinates can be easily performed by using the positions of the game field 400 and the three-dimensional position sensor fixed station 210 that are measured in advance.

CGを描画に使用する射影変換のための行列と、モデリング変換のための行列を作成する(S104)。HMD のワールド座標を用いモデリング変換行列を作成する。またあらかじめ測定しておいたカメラの焦点距離などのパラメータから、射影変換行列を作成する(射影行列の作成は最初の1回のみで、以降は使いまわす)。   A matrix for projective transformation that uses CG for drawing and a matrix for modeling transformation are created (S104). Create modeling transformation matrix using world coordinates of HMD. Also, a projection transformation matrix is created from parameters such as the focal length of the camera that have been measured in advance (the projection matrix is created only once for the first time and is used later).

CG用にFOGパラメータを設定する(S105)。   Set FOG parameters for CG (S105).

FOG = 0.0015 - (0.0015 / (1.0 + 0.2)) * (foglevel + 0.2)
出来上がった変換行列を用い、CGデータをビデオバッファに描画する(S106)。ビデオバッファに上書きすることで、実写映像の上にCGが描画される。CGデータは別スレッドが必要に応じて動かしている。本実施例では魚とロケットのCGを動かしたが、CGの動かし方は本発明と関連ないので説明を省略する。
FOG = 0.0015-(0.0015 / (1.0 + 0.2)) * (foglevel + 0.2)
Using the completed conversion matrix, CG data is drawn in the video buffer (S106). By overwriting the video buffer, CG is drawn on the live-action video. CG data is moved by another thread as needed. In this embodiment, the fish and rocket CGs are moved, but the method of moving the CGs is not related to the present invention, so the description is omitted.

CGに関してもFOGパラメータを設定しているので、画面はfoglevelに応じてFOG効果のかかったものとなる。foglevelをそのままFOGパラメータとして用いないのは、実写映像の明るさとの調整を図るためである。   Since FOG parameters are set for CG, the screen will be subject to the FOG effect according to the foglevel. The reason why foglevel is not used as the FOG parameter is to adjust the brightness of the live-action video.

描画が終わると、ビデオバッファをビデオボード 330上のフレームバッファに転送し、HMD 100内のLCD 130に映像を描画する(S107)。   When the drawing is finished, the video buffer is transferred to the frame buffer on the video board 330, and the video is drawn on the LCD 130 in the HMD 100 (S107).

以上の処理により、MRゲームのなかでFOG効果を実現する際に、多くのグラフィックボードでハードウェア的に実装されたFOG機構を使用して実写映像の明るさを調整することができる。これにより、システムの性能を落とすことなく、MRゲームのなかでFOG効果を実現できる。   With the above processing, when realizing the FOG effect in the MR game, the brightness of the live-action image can be adjusted using the FOG mechanism implemented in hardware on many graphic boards. As a result, FOG effects can be realized in MR games without degrading system performance.

図1は、本実施例の全体図である。FIG. 1 is an overall view of this embodiment. 本実施例の模式図である。It is a schematic diagram of a present Example. HMD 100の概略図である。1 is a schematic diagram of HMD 100. FIG. MR技術の概略を示した図である。It is the figure which showed the outline of MR technique. 実写画像とCG画像に独立してFOGをかけることで、MRシステムにおいてFOG効果を実現する様子を示した図である。It is the figure which showed a mode that FOG effect was implement | achieved in MR system by applying FOG to a real image and a CG image independently. 画像表示スレッドの動作(片目分)を示したフローチャートである。It is the flowchart which showed the operation | movement (for one eye) of an image display thread | sled.

符号の説明Explanation of symbols

100 HMD
110,111 ビデオカメラ
120 HMD内蔵位置センサ
130,131 液晶ディスプレイ
200 3次元位置センサ本体
210 3次元位置センサ固定局
300 計算機
301 CPU
302 メモリ
303 PCIブリッジ
310 シリアルI/O
320,321 ビデオキャプチャボード
330,331 ビデオボード
100 HMD
110, 111 video camera
120 HMD built-in position sensor
130, 131 LCD
200 3D position sensor body
210 3D position sensor fixed station
300 calculator
301 CPU
302 memory
303 PCI bridge
310 serial I / O
320, 321 video capture board
330,331 video board

Claims (3)

ビデオシースルー型のHMD(Head Mount Display)を使用したシステムにおいて、CG映像にFOGをかける際に、背景画像として使用する実写画像を、CG映像がFOGにより暗くなる色に合わせて明るさ調整などの画像処理を行うことを特徴としたシステム。   In a system that uses a video see-through HMD (Head Mount Display), when applying FOG to a CG image, adjust the brightness of the actual image used as the background image according to the color that makes the CG image darker by FOG. A system characterized by image processing. 実写映像の明るさの調整を、FOGをかけることにより実現することを特徴とした請求項1に記載のシステム。   2. The system according to claim 1, wherein the brightness of the live-action image is realized by applying FOG. 実写映像とCG映像にFOGをかける際に、実写映像とCG映像にそれぞれ別のFOGパラメータにより明るさの調整を行うことを特徴とした請求項2に記載のシステム。
3. The system according to claim 2, wherein when applying FOG to the live-action video and the CG video, the brightness is adjusted by using different FOG parameters for the live-action video and the CG video, respectively.
JP2003368413A 2003-10-29 2003-10-29 Method for realizing fog effect in mixed reality space Withdrawn JP2005135052A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003368413A JP2005135052A (en) 2003-10-29 2003-10-29 Method for realizing fog effect in mixed reality space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003368413A JP2005135052A (en) 2003-10-29 2003-10-29 Method for realizing fog effect in mixed reality space

Publications (1)

Publication Number Publication Date
JP2005135052A true JP2005135052A (en) 2005-05-26

Family

ID=34646085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003368413A Withdrawn JP2005135052A (en) 2003-10-29 2003-10-29 Method for realizing fog effect in mixed reality space

Country Status (1)

Country Link
JP (1) JP2005135052A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009003143A2 (en) * 2007-06-26 2008-12-31 Microsoft Corporation Real-time rendering of light scattering media
US7940268B2 (en) 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7940269B2 (en) 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7990377B2 (en) 2007-06-26 2011-08-02 Microsoft Corporation Real-time rendering of light-scattering media
US8190403B2 (en) 2007-06-26 2012-05-29 Microsoft Corporation Real-time rendering of light-scattering media
JP2016528761A (en) * 2013-06-08 2016-09-15 株式会社ソニー・インタラクティブエンタテインメント System and method for customizing the optical representation of a display provided by a head mounted display based on the user's optical prescription
WO2017173735A1 (en) * 2016-04-07 2017-10-12 深圳市易瞳科技有限公司 Video see-through-based smart eyeglasses system and see-through method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009003143A2 (en) * 2007-06-26 2008-12-31 Microsoft Corporation Real-time rendering of light scattering media
WO2009003143A3 (en) * 2007-06-26 2009-06-11 Microsoft Corp Real-time rendering of light scattering media
US7990377B2 (en) 2007-06-26 2011-08-02 Microsoft Corporation Real-time rendering of light-scattering media
US8009168B2 (en) 2007-06-26 2011-08-30 Microsoft Corporation Real-time rendering of light-scattering media
US8190403B2 (en) 2007-06-26 2012-05-29 Microsoft Corporation Real-time rendering of light-scattering media
US7940268B2 (en) 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7940269B2 (en) 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
JP2016528761A (en) * 2013-06-08 2016-09-15 株式会社ソニー・インタラクティブエンタテインメント System and method for customizing the optical representation of a display provided by a head mounted display based on the user's optical prescription
WO2017173735A1 (en) * 2016-04-07 2017-10-12 深圳市易瞳科技有限公司 Video see-through-based smart eyeglasses system and see-through method thereof

Similar Documents

Publication Publication Date Title
US11217021B2 (en) Display system having sensors
JP6514826B2 (en) Electronic Display Stabilization Using Pixel Speed
JP7395577B2 (en) Motion smoothing of reprojected frames
US20200051342A1 (en) Time-warping adjustment based on depth information in a virtual/augmented reality system
CN109478344B (en) Method and apparatus for synthesizing image
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US9639987B2 (en) Devices, systems, and methods for generating proxy models for an enhanced scene
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP2021103537A (en) Continuous time warping and binocular time warping for virtual and augmented reality display systems and methods
EP3572916B1 (en) Apparatus, system, and method for accelerating positional tracking of head-mounted displays
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
IL268911A (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
US9325960B2 (en) Maintenance of three dimensional stereoscopic effect through compensation for parallax setting
JP6310898B2 (en) Image processing apparatus, information processing apparatus, and image processing method
JP2002159019A (en) Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program
WO2020003860A1 (en) Information processing device, information processing method, and program
CN108830944B (en) Optical perspective three-dimensional near-to-eye display system and display method
JP5847610B2 (en) Computer graphics image processing system and method using AR technology
Zheng Spatio-temporal registration in augmented reality
JP2005135052A (en) Method for realizing fog effect in mixed reality space
WO2022133683A1 (en) Mixed reality display method, mixed reality device, and storage medium
JP4217661B2 (en) Image processing method and image processing apparatus
TWI817335B (en) Stereoscopic image playback apparatus and method of generating stereoscopic images thereof
CN114862657A (en) Dual-display-card rendering method and device
CN110910509A (en) Image processing method, electronic device, and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109