JP3486536B2 - Mixed reality presentation apparatus and method - Google Patents

Mixed reality presentation apparatus and method

Info

Publication number
JP3486536B2
JP3486536B2 JP23637697A JP23637697A JP3486536B2 JP 3486536 B2 JP3486536 B2 JP 3486536B2 JP 23637697 A JP23637697 A JP 23637697A JP 23637697 A JP23637697 A JP 23637697A JP 3486536 B2 JP3486536 B2 JP 3486536B2
Authority
JP
Japan
Prior art keywords
workers
image
marker
camera
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23637697A
Other languages
Japanese (ja)
Other versions
JPH1188913A (en
Inventor
登志一 大島
清秀 佐藤
裕之 山本
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP23637697A priority Critical patent/JP3486536B2/en
Priority to US09/045,993 priority patent/US6522312B2/en
Priority to DE69835321T priority patent/DE69835321T2/en
Priority to AT98302186T priority patent/ATE334453T1/en
Priority to EP98302186A priority patent/EP0899690B1/en
Publication of JPH1188913A publication Critical patent/JPH1188913A/en
Application granted granted Critical
Publication of JP3486536B2 publication Critical patent/JP3486536B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば対戦型ゲー
ム等のように、複数の作業者による協調作業を複合現実
感として提示する複合現実感提示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mixed reality presentation device for presenting a cooperative work by a plurality of workers as mixed reality, such as a battle game.

【0002】[0002]

【従来の技術】近年、現実空間と仮想空間の繋ぎ日のな
い結合を目的とした複合現実感(以下、「MR」(Mixed
Reality)と称す)に関する研究が盛んになっている。
MRは、従来、現実空間と切り離された状況でのみ体験
可能であったバーチャルリアリティ(以下VRと略す)
の世界と現実空間との共存を目的とし、VRを増強する
技術として注目されている。
2. Description of the Related Art In recent years, mixed reality (hereinafter referred to as "MR" (Mixed
(Reality)) has become popular.
MR can be experienced only in a situation where it has been separated from the physical space in the past.
For the purpose of coexistence of the world and the real space, it is attracting attention as a technology for enhancing VR.

【0003】MRの応用としては、患者の体内の様子を
透視しているように医師に提示する医療補助の用途や、
工場において製品の組み立て手順を実物に重ねて表示す
る作業補助の用途など、今までのVRとは質的に全く異
なった新たな分野が期待されている。MRの応用として
は、患者の体内の様子を透視しているように医師に提示
する医療補助の用途や、工場において製品の組み立て手
順を実物に重ねて表示する作業補助の用途など、今まで
のVRとは質的に全く異なった新たな分野が期待されて
いる。
The applications of MR include the use of medical assistance in which doctors are presented to see through the inside of the patient's body,
It is expected that new fields will be qualitatively completely different from the VRs used up to now, such as the use of work assistance in which the assembly procedure of products is displayed on the actual product in a factory. The applications of MR include medical assistance that presents the doctor with a perspective of the patient's internal state, and work assistance that displays the assembly procedure of the product on the actual product at the factory. A new field that is completely qualitatively different from VR is expected.

【0004】これらの応用に対して共通に要求されるの
は、現実空間と仮想空間の間の“ずれ”をいかにして取
り除くかという技術である。“ずれ”は、位置ずれ、時
間ずれ、質的ずれに分類可能であり、この中でも最も基
本的な要求といえる位置ずれの解消については、従来か
ら多くの取り組みが行われてきた。ビデオカメラで撮影
された映像に仮想物体を重畳するビデオシースルー(Vid
eo-See-Through)方式のMRの場合、位置合せの問題
は、そのビデオカメラの3次元位置を正確に求める問題
に帰結される。
What is commonly required for these applications is a technique for removing the "deviation" between the real space and the virtual space. "Misalignment" can be classified into misalignment, time misalignment, and qualitative misalignment. Among them, many efforts have been made to solve misalignment, which is the most basic requirement. Video See-Through (Vid
In the case of eo-See-Through) MR, the problem of alignment results in the problem of accurately obtaining the three-dimensional position of the video camera.

【0005】半透過型のHMD(Head Mount Display)を
用いる光学シースルー(Optic-See-Through)方式のMR
の場合における位置合せの問題は、ユーザーの視点の3
次元位置を求める問題といえ、それらの計測法として
は、磁気センサや超音波センサ、ジャイロといった3次
元位置方位センサ利用が一般的であるが、これらの精度
は必ずしも十分とはいえず、その誤差が位置ずれの原因
となる。
MR of an optical see-through method using a semi-transmissive HMD (Head Mount Display)
The problem of alignment in the case of
Although it is a problem to obtain the three-dimensional position, the use of a three-dimensional position and orientation sensor such as a magnetic sensor, an ultrasonic sensor, or a gyro is generally used as the measuring method, but the accuracy of these is not always sufficient and the error May cause misalignment.

【0006】一方、ビデオシースルー方式の場合には、
このようなセンサを用いずに画像情報を元に画像上での
位置合わせを直接行う手法も考えられる。この手法では
位置ずれを直接取り扱えるため位置合わせが精度よく行
える反面、実時間性や信頼性の欠如などの問題があっ
た。近年になって、位置方位センサと画像情報の併用に
より、両者の欠点を互いに補って精度よい位置合わせを
実現する試みが報告されている。
On the other hand, in the case of the video see-through system,
A method of directly performing alignment on an image based on image information without using such a sensor is also conceivable. With this method, the misregistration can be handled directly, so that the positioning can be performed accurately, but there are problems such as lack of real-time performance and reliability. In recent years, it has been reported that the position and orientation sensor and image information are used together to compensate for the defects of the both and realize accurate positioning.

【0007】1つの試みとして、「Dynamic Registrati
on Correction in Video-Based-Augmented Reality Sys
tems」(Bajura MichaelとUlrich Neuman, IEEE Compute
r Graphics and Applications 15, 5, pp. 52-60, 199
5)(以下、第1文献と呼ぶ)は、ビデオシースルー方式
のMRにおいて、磁気センサの誤差によって生じる位置
ずれを画像情報によって補正する手法を提案した。
As one attempt, "Dynamic Registrati
on Correction in Video-Based-Augmented Reality Sys
tems '' (Bajura Michael and Ulrich Neuman, IEEE Compute
r Graphics and Applications 15, 5, pp. 52-60, 199
5) (hereinafter referred to as the first document) proposed a method of correcting a position shift caused by an error of a magnetic sensor by image information in a video see-through MR.

【0008】また、「Superior Augmented Reality Reg
istration by Integrating Landmark Tracking and Mag
netic Tracking」(State Andrei等, Proc. of SIGGRAPH
96,pp. 429-438, 1996)(以下、第2文献と呼ぶ)は、
さらにこの手法を発展させ、画像情報による位置推定の
曖昧性をセンサ情報によって補う手法を提案した。上記
従来例は、位置方位センサのみを用いてビデオシースル
ー方式のMRを構築した場合、そのセンサの誤差が原因
となって画像上での位置ずれが生じることに鑑みて、そ
の位置ずれを画像情報から検出するためには、その手掛
かりとなるような、3次元位置が既知であるランドマー
クを現実空間に設定する。
In addition, "Superior Augmented Reality Reg
istration by Integrating Landmark Tracking and Mag
netic Tracking '' (State Andrei et al., Proc. of SIGGRAPH
96, pp. 429-438, 1996) (hereinafter referred to as the second document),
We further developed this method and proposed a method to compensate the ambiguity of position estimation by image information by sensor information. In the above-mentioned conventional example, when a video see-through MR is constructed using only the position and orientation sensor, the positional deviation on the image occurs due to the error of the sensor, and the positional deviation is detected as image information. In order to detect from the above, a landmark whose three-dimensional position is known is set in the real space as a clue.

【0009】センサ出力に誤差が含まれていないとする
と、画像上で実際に観測されるランドマークの座標QI
と、センサ出力に基づいて得られたカメラ位置とランド
マークの3次元位置から導きだされるランドマークの観
測予測座標PIとは、同一となるはずである。しかし、
実際にはセンサ出力に基づいて得られたカメラ位置は正
確ではないため、QIとPIは一致しない。このPIとQI
のずれは、ランドマーク位置における仮想空間と現実空
間の位置ずれを表しており、このために、画像からラン
ドマーク位置を抽出することで、ずれの向きと大きさが
算出できる。
Assuming that the sensor output does not include an error, the coordinates Q I of the landmark actually observed on the image
And the observed observation coordinates P I of the landmark derived from the camera position obtained based on the sensor output and the three-dimensional position of the landmark should be the same. But,
In reality, the camera position obtained based on the sensor output is not accurate, so Q I and P I do not match. This P I and Q I
The deviation represents the positional deviation between the virtual space and the real space at the landmark position. Therefore, by extracting the landmark position from the image, the direction and size of the deviation can be calculated.

【0010】このように、画像上での位置ずれを定量的
に計測することで、位置ずれを解消するようなカメラ位
置の補正が可能となる。方位センサと画像を併用する最
も単純な位置合わせ方式は、1点のランドマークを用い
たセンサ誤差の補正と考えられ、画像上のランドマーク
の位置ずれに応じてカメラ位置を平行移動または回転さ
せる手法が第1文献によって提案されている。
As described above, by quantitatively measuring the positional deviation on the image, it becomes possible to correct the camera position so as to eliminate the positional deviation. The simplest alignment method that uses both the orientation sensor and the image is considered to be the correction of the sensor error using one landmark, and the camera position is translated or rotated according to the displacement of the landmark on the image. The method is proposed by the first document.

【0011】第1図に、1点のランドマークを用いた位
置ずれ補正の基本的な考え方を示す。以下では、カメラ
の内部パラメータを既知として、歪みなどの影響を除外
した理想的な撮像系によって画像撮影が行われているも
のと仮定する。カメラの視点位置をC、画像上でのラン
ドマークの観測座標をQI 、現実空間のランドマーク位
置をQIとすると、点QIは点Cと点QIを結ぶ直線lQ
に存在する。一方、位置方位センサによって与えられる
カメラ位置からは、カメラ座標系におけるランドマーク
位置PCと、その画像上での観測座標PIが推測できる。
以下では、点Cから点QI、PIへの3次元ベクトルを、
それぞれvl、v2と表記する。この方法では、補正後の
ランドマークの観測予測座標符P' IがQIに一致するよ
うに(すなわち、カメラ座標系における補正後のランド
マーク予測位置P ' Cが、直線lQ上に乗るように)、カ
メラと物体の相対的な位置情報を修正する事によって、
位置ずれが補正される。
FIG. 1 shows the position using one landmark.
The basic idea of misregistration correction is shown below. Below, the camera
Excludes effects such as distortion by making the internal parameters of
The image is taken by the ideal imaging system
Suppose. The viewpoint position of the camera is C, and the run on the image
Q is the observation coordinate of the markI, The landmark of real space
Set QIThen point QIIs point C and point QIStraight line lQUp
Exists in. On the other hand, given by the position and orientation sensor
From the camera position, the landmark in the camera coordinate system
Position PCAnd the observation coordinates P on the imageICan be guessed.
Below, point C to point QI, PIA three-dimensional vector to
Each vl, V2It is written as. In this method, the corrected
Landmark observation prediction coordinate P' IIs QIWill match
Sea urchin (that is, the corrected land in the camera coordinate system)
Mark predicted position P ' CBut the straight line lQTo get on),
By correcting the relative position information of the camera and the object,
The positional deviation is corrected.

【0012】ランドマークの位置ずれを、カメラ位置の
回転によって補正することを考える。これは、二つのベ
クトルvl、v2の成す角θだけカメラが回転するよう
に、カメラの位置情報に修正を加えることで実現でき
る。実際の計算では、上記ベクトルvl、v2を正規化し
たベクトルvln、v2nを用いて、その外積vln×v2n
回転軸に、内積v1n・v2nを回転角として、点Cを中心
にカメラを回転させる。
It is considered that the displacement of the landmark is corrected by rotating the camera position. This can be realized by correcting the position information of the camera so that the camera rotates by the angle θ formed by the two vectors v l and v 2 . In the actual calculation, using the vectors v ln and v 2n obtained by normalizing the above vectors v l and v 2 , their outer product v ln × v 2n is the rotation axis, and the inner product v 1n · v 2n is the rotation angle, and the points Rotate the camera around C.

【0013】ランドマークの位置ずれを、カメラ位置の
相対的な平行移動によって補正することを考える。これ
は、仮想世界中の物体位置をv=n(v1−v2)だけ平
行移動させることで実現できる。ここでnは、次式によ
って定義されるスケールファクタである。
It is considered that the displacement of the landmark is corrected by the relative translation of the camera position. This can be realized by translating the object position in the virtual world by v = n (v 1 −v 2 ). Here, n is a scale factor defined by the following equation.

【0014】[0014]

【数1】 [Equation 1]

【0015】ここで、|AB|は点Aと点Bの間の距離
を示す記号とする。また、カメラが−vだけ平行移動す
るようにカメラの位置情報に修正を加えることでも、同
様の補正が可能となる。これは、この操作によって、相
対的に仮想物体がvだけ移動したことに等しくなるため
である。以上の2つの手法は、ランドマーク上での位置
ずれを2次元的に一致させる手法であり、3次元的に正
しい位置にカメラ位置を補正することはできない。しか
し、センサ誤差が小さい場合には十分な効果が期待でき
る。また、補正のための計算コストは非常に小さなもの
であり、実時間性に優れた手法である。
Here, | AB | is a symbol indicating the distance between points A and B. The same correction can be performed by correcting the position information of the camera so that the camera moves in parallel by -v. This is because the virtual object is relatively moved by v by this operation. The above two methods are methods of matching the positional deviation on the landmark two-dimensionally, and the camera position cannot be corrected to a three-dimensionally correct position. However, when the sensor error is small, a sufficient effect can be expected. In addition, the calculation cost for correction is very small, and the method is excellent in real time.

【0016】[0016]

【発明が解決しようとする課題】しかしながら、上記文
献は、作業者が複数の協調作業を行う場合についての考
慮が成されておらず、従って、単独人の作業者による複
合現実感提示システムしか提供できなかった。
However, the above-mentioned document does not take into consideration the case where the workers perform a plurality of collaborative works, and therefore, provides only a mixed reality presentation system by a single worker. could not.

【0017】[0017]

【課題を解決するための手段】本発明はこのような事態
に鑑みてなされたものであり、その目的は、複数作業者
による協調作業を複合現実感によって提示できるように
することにある。さらには、協調作業を簡単に管理でき
るようにするとともに、作業者個々の視点からの仮想画
像を高精度に生成できるようにすることを目的とする。
上記目的を達成するために、本発明の複合現実感提示装
置は次の構成を備える。すなわち、複数の作業者が所定
の複合現実環境内で仮想物体を共用しながら所定の作業
を行うために、前記仮想物体の3次元仮想画像を生成し
て、前記複数の作業者の各々に装着されたシースルー型
表示装置に表示する複合現実感提示装置であって、前記
所定の作業で使用される前記複数の作業者の作業部の個
々の位置を、同一の撮影画像から画像処理により同一座
標系において検出する検出手段と、前記複数の作業者個
々に取り付けられ、前記作業者個々の視点位置を検出す
るセンサと、前記センサによって検出された視点位置を
用いて、世界座標系からカメラ座標系への変換を行うビ
ューイング変換係数を求め、前記作業者の個々の頭部に
固定されたカメラの撮影画像を用いて該ビューイング変
換係数を補正することにより、前記複数の作業者個々に
ついて補正されたビューイング変換係数を求める補正処
理手段と、前記同一座標系において検出された複数の作
業者の作業部の個々の位置を用いて前記所定の作業の進
行を管理する進行管理手段と、前記進行管理手段によっ
て管理されている前記共用される仮想物体を示す3次元
仮想画像を、前記複数の作業者の個々について求められ
た補正されたビューイング係数を用いて、前記複数の作
業者の個々について生成し、該複数の作業者各々のシー
スルー型表示装置に出力する生成手段とを有する。
SUMMARY OF THE INVENTION The present invention has been made in view of such a situation, and an object thereof is to allow a cooperative work by a plurality of workers to be presented by mixed reality. Further, it is an object of the present invention to enable the collaborative work to be easily managed and to generate a virtual image from the viewpoint of each worker with high accuracy.
In order to achieve the above object, the mixed reality presentation device of the present invention has the following configuration. That is, in order for a plurality of workers to perform a predetermined work while sharing a virtual object in a predetermined mixed reality environment, a three-dimensional virtual image of the virtual object is generated and the plurality of workers are A mixed reality presentation device for displaying on a see-through type display device attached to each of the
Detecting means for detecting individual positions of the working parts of the plurality of workers used in a predetermined work in the same coordinate system by image processing from the same photographed image; Using the sensor for detecting the viewpoint position of each worker and the viewpoint position detected by the sensor, a viewing conversion coefficient for converting from the world coordinate system to the camera coordinate system is obtained, and the head of each worker is calculated. Correction processing means for correcting the viewing conversion coefficient for each of the plurality of workers by correcting the viewing conversion coefficient using a captured image of a camera fixed to the position; and detecting in the same coordinate system a progress management means for managing the progress of the predetermined work by using a plurality of workers work part individual positions of which are being managed by the progress management unit Serial 3D showing a virtual object to be shared
A virtual image is generated for each of the plurality of workers by using the corrected viewing coefficient obtained for each of the plurality of workers, and is output to the see-through display device of each of the plurality of workers. And generating means.

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【0023】[0023]

【発明の実施の形態】以下、本発明の、複合現実感の提
示手法及びHMDをエアーホッケーゲーム装置に適用し
た実施形態に係わるシステムを説明する。エアーホッケ
ーゲームは相手の存在する対戦型のゲームであり、通
常、下部から圧縮空気を供給してパックを浮かして、こ
のパックを打ち合い、相手のゴールにパックを入れたら
得点が入る。得点の多い方を勝者とするゲームである。
本実施形態のMRを適用したエアホッケーゲームは、パ
ックを仮想3次元画像として現実環境のテーブルに重畳
してプレーヤーに提示して、現実のマレットで打ち合う
ものである。
BEST MODE FOR CARRYING OUT THE INVENTION A system according to an embodiment in which a mixed reality presentation method and an HMD of the present invention are applied to an air hockey game device will be described below. An air hockey game is a battle-type game in which an opponent exists, and normally, compressed air is supplied from the bottom to float the puck, and the puck is played against each other. In this game, the winner is the one with the most points.
In the air hockey game to which the MR of the present embodiment is applied, the puck is superimposed on a table in the real environment as a virtual three-dimensional image, presented to the player, and the real mallet is used for a fight.

【0024】〈ゲーム装置の構成〉第2図は、本実施形
態のシステムのゲーム装置部分を側面から見た図であ
る。複合現実感のエアーホッケーゲームは、テーブル1
000を挟んで、二人の対戦者2000,3000が手
にマレット(260L,260R)をもって向かい合
う。二人の対戦者2000,3000は頭部にヘッドマ
ウントデイスプレイ210L,210R(以下HMDと
略す)を装着する。本実施形態のマレットはその先端に
赤外線発光器を有している。本実施形態では、画像処理
によりマレット位置を検出するが、マレットの形状や色
に特徴があるのであれば、それらの特徴を用いたパター
ン認識による検出も可能である。
<Structure of Game Device> FIG. 2 is a side view of the game device portion of the system of this embodiment. A mixed reality air hockey game at Table 1
Two opponents 2000 and 3000 face each other with a mallet (260L, 260R) in their hands with 000 in between. Two opponents 2000 and 3000 wear head mount displays 210L and 210R (hereinafter abbreviated as HMD) on their heads. The mallet of this embodiment has an infrared light emitter at its tip. In the present embodiment, the mallet position is detected by image processing, but if the shape and color of the mallet have characteristics, detection by pattern recognition using those characteristics is also possible.

【0025】実施形態のHMD210は、第4図に示す
ようにシースルー型である。両対戦者2000,300
0は、HMD210L,210Rを装着していても、テ
ーブル1000の表面を観察することができる。HMD
210には後述の画像処理システムから三次元仮想画像
が入力される。従って、対戦者2000,3000は、
HMD210の光学系(第2図には不図示)を通した現
実空間の映像に重ねて、HMD210の表示画面に表示
された三次元画像を見ることとなる。
The HMD 210 of the embodiment is a see-through type as shown in FIG. Both opponents 2000,300
0 can observe the surface of the table 1000 even when the HMDs 210L and 210R are mounted. HMD
A three-dimensional virtual image is input to 210 from an image processing system described later. Therefore, the opponent 2000,3000
The three-dimensional image displayed on the display screen of the HMD 210 is viewed by superimposing it on the image of the real space that has passed through the optical system (not shown in FIG. 2) of the HMD 210.

【0026】第3図は、左側プレーヤ2000が自身の
HMD210Lからみた映像を示す。二人のプレーヤは
仮想のパック1500を打ち合う。パック1500を打
つのはプレーヤ2000が手に握っている現実のマレッ
ト260Lを用いる。プレーヤ2000は手にマレット
260Lを握っている。相手プレーヤ3000の直前に
はゴール1200Rが見える。画像処理システム(第3
図には不図示)は、ゴール1200Rが相手方近傍に見
えるように、三次元CGを生成してHMD240Lに表
示する。
FIG. 3 shows an image viewed from the HMD 210L of the left player 2000 by the left player 2000. Two players strike a virtual puck 1500. The actual mallet 260L held by the player 2000 is used to hit the puck 1500. The player 2000 holds the mallet 260L in his hand. The goal 1200R is visible just before the opponent player 3000. Image processing system (3rd
3D CG is generated and displayed on the HMD 240L so that the goal 1200R can be seen near the opponent.

【0027】対するプレーヤ3000も、HMD210
Rを介してプレーヤ3000の近傍にゴール1200L
を見ることとなる。パック1500も不図示の画像処理
システムにより生成されて、各々のHMDに表示され
る。 〈磁気センサつきHMD〉第4図は、HMD210の構
成を示す。このHMD210は、例えば特開平7−33
3551号のHMDの本体に、磁気センサ220を支柱
221を介して取り付けたものである。図中、211は
LCD表示パネルである。LCD表示パネルからの光
は、光学部材212に入射し、全反射面214にて反射
して、凹面ミラー213の全反射面にて反射して、全反
射面214を透過して観察者の目に届く。
The player 3000 for the HMD 210
Goal 1200L near player 3000 via R
Will be seen. The pack 1500 is also generated by an image processing system (not shown) and displayed on each HMD. <HMD with Magnetic Sensor> FIG. 4 shows the configuration of the HMD 210. The HMD 210 is disclosed in, for example, Japanese Patent Laid-Open No. 7-33.
The magnetic sensor 220 is attached to the main body of the HMD No. 3551 via a column 221. In the figure, reference numeral 211 is an LCD display panel. Light from the LCD display panel enters the optical member 212, is reflected by the total reflection surface 214, is reflected by the total reflection surface of the concave mirror 213, is transmitted through the total reflection surface 214, and is visible to the observer's eyes. Reach.

【0028】磁気センサ220は、本実施形態では、Po
lhemus社の磁気センサFastrackを用いた。磁気センサは
磁気ノイズに弱いので、支柱221により、ノイズ発生
源である表示パネル211及びカメラ240から離間し
た。尚、第4図に示したHMDに磁気センサ及び(又
は)カメラを取り付ける構成は、光学的シースルー方式
のHMDに限られず、ビデオシースルー方式のHMDで
あっても、磁気センサ及び(又は)カメラを、頭部位置
及び姿勢を正確に検出する目的で、そのHMDに装着す
ることは可能である。
The magnetic sensor 220 is, in this embodiment, Po
A magnetic sensor Fastrack manufactured by lhemus was used. Since the magnetic sensor is weak against magnetic noise, it is separated from the display panel 211 and the camera 240, which are noise sources, by the support column 221. The configuration of attaching the magnetic sensor and / or the camera to the HMD shown in FIG. 4 is not limited to the optical see-through HMD, and the magnetic sensor and / or the camera may be attached to the video see-through HMD. , Can be attached to the HMD for the purpose of accurately detecting the head position and posture.

【0029】第2図において、夫々のHMD210はバ
ンド(不図示)によってプレーヤの頭部に固定される。
プレーヤの夫々の頭部には、第4図に示すように磁気セ
ンサ220が、第2図に示すようにCCDカメラ240
(240L,240R)が、それぞれ固定されている。
カメラ240の視界はプレーヤの前方に設定されてい
る。エアホッケーゲームの場合には、それぞれテーブル
1000の上面を見ることとなるので、カメラ240も
テーブル1000の表面の画像を撮像する。磁気センサ
220(220L,220R)は、交流磁界発生源25
0が発する交流磁界の変化をセンスする。
In FIG. 2, each HMD 210 is fixed to the player's head by a band (not shown).
Each player's head has a magnetic sensor 220 as shown in FIG. 4 and a CCD camera 240 as shown in FIG.
(240L, 240R) are fixed.
The field of view of the camera 240 is set in front of the player. In the case of the air hockey game, since the upper surface of the table 1000 is to be viewed, the camera 240 also captures an image of the surface of the table 1000. The magnetic sensor 220 (220L, 220R) is an AC magnetic field generation source 25.
Senses changes in the AC magnetic field generated by 0.

【0030】プレーヤがテーブル1000の表面を見る
ために斜め下方を向くと、HMD210を通した視界に
は、テーブル1000の表面と、前述の仮想のパック1
500、現実のマレット260(260L,260
R)、仮想のゴール1200(1200L,1200
R)が見える。また、プレーヤが、頭部を、水平二次元
平面内において水平移動させ、あるいはティルティング
運動、ヨー運動、ローリング運動を行わせると、その変
化は先ず磁気センサ220によって検出され、併せて、
頭部の姿勢変化に伴ってCCDカメラ240が撮像する
画像の変化として観測される。
When the player looks diagonally downward to see the surface of the table 1000, the view through the HMD 210 shows the surface of the table 1000 and the virtual puck 1 described above.
500, real mallet 260 (260L, 260
R), virtual goal 1200 (1200L, 1200
R) is visible. When the player moves his head horizontally within a horizontal two-dimensional plane, or makes a tilting motion, a yaw motion, or a rolling motion, the change is first detected by the magnetic sensor 220.
This is observed as a change in the image captured by the CCD camera 240 as the posture of the head changes.

【0031】〈複数のマーカ〉夫々のマレット260は
その先端に赤外線発光器を有しており、マレット位置は
この赤外線を検出するCCDカメラ230によってその
二次元平面位置を知ることができる。CCDカメラ24
0はマーカ画像と呼ばれる画像を出力する。
<Plurality of Markers> Each mallet 260 has an infrared ray emitter at its tip, and the two-dimensional plane position of the mallet can be known by the CCD camera 230 which detects this infrared ray. CCD camera 24
0 outputs an image called a marker image.

【0032】第5図はテーブル1000上に配置された
マーカの一例を示す。第5図において、○印で示した5
つのランドマーク即ちマーカ(1600〜1604)は
プレーヤ2000の頭部位置を補助的に検出するために
用いられるマーカを示し、□印で示した5つのランドマ
ーク即ちマーカ(1650〜1654)はプレーヤ30
00の頭部位置を補助的に検出するために用いられるマ
ーカを示す。マーカをこのように複数配置すると、頭部
の位置、特に姿勢によって、どのマーカが見えるかが決
まる、換言すれば、各々のプレーヤの装着されたCCD
カメラ240が写す画像中におけるマーカを特定し、画
像内での位置を検出できれば、プレーヤの頭部姿勢を検
出する磁気センサの出力信号の補正に用いることができ
る。
FIG. 5 shows an example of markers arranged on the table 1000. In FIG. 5, 5 indicated by a circle
One landmark or marker (1600 to 1604) is a marker used for auxiliary detection of the head position of the player 2000, and five landmarks or markers (1650 to 1654) shown by □ are the player 30.
The marker used for auxiliary detection of the head position of 00 is shown. When a plurality of markers are arranged in this way, which marker is visible is determined by the position of the head, particularly the posture. In other words, the CCD mounted on each player.
If the marker in the image captured by the camera 240 can be specified and the position in the image can be detected, the marker can be used to correct the output signal of the magnetic sensor that detects the head posture of the player.

【0033】二人のプレーヤ(2000,3000)に
対してそれぞれ割り当てられたマーカ群(1600〜1
608)とマーカ群1650〜1658)とは、それぞ
れ、異なる色に着色されている。本実施形態では、左側
プレーヤ(#1プレーヤ)のためのマーカは赤色に、右
側プレーヤ(#2プレーヤ)のためのマーカは緑色に着
色されている。画像処理におけるマーカの区別を容易に
するためである。
Marker groups (1600 to 1) assigned to two players (2000, 3000), respectively.
608) and the marker groups 1650 to 1658) are colored in different colors. In the present embodiment, the marker for the left player (# 1 player) is colored red and the marker for the right player (# 2 player) is colored green. This is because it is easy to distinguish markers in image processing.

【0034】本実施形態の大きな特徴は、マーカを複数
配置した点にある。複数配置することによって、プレー
ヤがテーブル1000上で本エアホッケーゲームの動作
範囲内で行動する限りにおいて、少なくとも1つのマー
カがCCDカメラ240の視野内に入ることが保証され
る。第6図は、プレーヤが頭部を色々と移動した場合に
おいて、頭部の移動に伴って、マーカを検出する画像処
理範囲が移動する様子が描かれてる。同図に示すよう
に、1つの画像には少なくとも1つのマーカが入ってい
る。換言すれば、マーカの数、マーカ間の間隔等は、テ
ーブル1000の大きさ、カメラ240の視野角、ゲー
ムの性質に基づくプレーヤの移動範囲の大きさに応じて
設定されるべきである。この場合、プレーヤから遠方で
あればあるほど、広い範囲が視野に入るので、マーカ間
の間隔を広くして良い。これは、近傍にあるマーカ間の
画像中での間隔距離と、遠方にあるマーカ間の画像中で
の距離とを同じくするためである。同じフレーム内に不
必要に複数のマーカが撮像されるのを防ぐためである。
A major feature of this embodiment is that a plurality of markers are arranged. The plurality of arrangements ensures that at least one marker is within the field of view of the CCD camera 240 as long as the player acts on the table 1000 within the movement range of the air hockey game. FIG. 6 illustrates a state in which the image processing range for detecting a marker moves as the head moves when the player moves the head variously. As shown in the figure, one image contains at least one marker. In other words, the number of markers, the interval between markers, etc. should be set according to the size of the table 1000, the viewing angle of the camera 240, and the size of the moving range of the player based on the nature of the game. In this case, the farther from the player, the wider the field of view, so the interval between the markers may be increased. This is because the distance in the image between the markers in the vicinity is equal to the distance in the image between the markers in the distance. This is to prevent unnecessary imaging of a plurality of markers in the same frame.

【0035】〈MR画像生成システム〉第7図は、第2
図に示したゲーム装置における三次元画像の生成提示シ
ステムの構成を示す。この画像生成提示システムは、左
側プレーヤ2000のHMD240L及び右側プレーヤ
3000のHMD240Rの夫々の表示装置に、三次元
の仮想画像(第3図のパック1500,ゴール120
0)を出力するものである。三次元の仮想画像の生成
は、画像生成部5050L,5050Rに拠って行われ
る。本実施形態では、画像生成部5050の夫々に米国
SiliconGraphics社製のコンピュータシステムONYX2を用
いた。
<MR Image Generating System> FIG.
3 shows the configuration of a three-dimensional image generation / presentation system in the game device shown in the figure. This image generation / presentation system displays three-dimensional virtual images (pack 1500, goal 120 in FIG. 3) on the display devices of the HMD 240L of the left player 2000 and the HMD 240R of the right player 3000, respectively.
0) is output. Generation of a three-dimensional virtual image is performed by the image generation units 5050L and 5050R. In this embodiment, each of the image generation units 5050 is
A computer system ONYX2 manufactured by Silicon Graphics was used.

【0036】画像生成部5050は、ゲーム状態管理部
5030が生成するパック位置情報等と、2つの補正処
理部5040L,5040Rが生成する補正後の視点位
置・頭部方向に関する情報とを入力する。ゲーム状態管
理部5030および補正処理部5040L,5040R
の夫々はコンピュータシステムONYX2により構成され
た。
The image generation unit 5050 inputs the pack position information and the like generated by the game state management unit 5030 and the corrected viewpoint position / head direction information generated by the two correction processing units 5040L and 5040R. Game state management unit 5030 and correction processing units 5040L and 5040R
Each of the is configured by the computer system ONYX2.

【0037】テーブル1000の中央上空に固定された
CCDカメラ230は、テーブル1000の表面を全て
視野に納める。カメラ230によって取得されたマレッ
ト情報はマレット位置計測部5010に入力される。こ
の計測部5010は、同じく、SiliconGraphics社製O2
コンピュータシステムにより構成された。計測部501
0は、二名のプレーヤのマレット位置、即ち、手の位置
を検出する。手の位置に関する情報はゲーム状態管理部
5030に入力されて、ここで、ゲーム状態が管理され
る。即ち、ゲーム状態・ゲームの進行は基本的にはマレ
ットの位置によって全てが決定される。
The CCD camera 230 fixed above the center of the table 1000 covers the entire surface of the table 1000 in the field of view. The mallet information acquired by the camera 230 is input to the mallet position measuring unit 5010. This measuring unit 5010 is also O2 manufactured by Silicon Graphics
Comprised of computer systems. Measuring unit 501
0 detects the mallet positions of the two players, that is, the positions of the hands. Information regarding the position of the hand is input to the game state management unit 5030, where the game state is managed. That is, the game state and the progress of the game are basically all determined by the position of the mallet.

【0038】SiliconGraphics社製コンピュータシステ
ムO2により構成された位置姿勢検出部5000は、2つ
の磁気センサ220L,220Rの出力を入力して、各
プレーヤの視点位置及び頭部姿勢を検出し、補正処理部
5040L,5040Rに出力する。一方、各プレーヤ
の頭部に固定されたCCDカメラ240L,240Rは
マーカ画像を取得し、このマーカ画像は、夫々、マーカ
位置検出部5060L,5060Rにおいて処理され、
夫々のカメラ240の視野に納まっているマーカの位置
が検出される。マーカ位置に関する情報は補正処理部5
040(5040L,5040R)に入力される。
A position / orientation detecting unit 5000, which is composed of a computer system O2 manufactured by Silicon Graphics, inputs the outputs of the two magnetic sensors 220L and 220R, detects the viewpoint position and head and orientation of each player, and a correction processing unit. Output to 5040L and 5040R. On the other hand, the CCD cameras 240L and 240R fixed to the heads of the respective players acquire marker images, and the marker images are processed by the marker position detecting units 5060L and 5060R, respectively.
The position of the marker within the field of view of each camera 240 is detected. The correction processing unit 5 provides information about the marker position.
040 (5040L, 5040R).

【0039】ここで、2つのマーカ位置検出部5060
(5060L,5060R)はO2コンピュータシステム
により構成された。 〈マレット位置計測〉第8図乃至第10図は、マレット
位置を計測する制御手順を示すフローチャートである。
Here, two marker position detectors 5060
(5060L, 5060R) consisted of O2 computer system. <Mallet Position Measurement> FIGS. 8 to 10 are flowcharts showing the control procedure for measuring the mallet position.

【0040】エアホッケーゲームでは、プレーヤは自身
のマレットを他のプレーヤの領域まで進めることはな
い。そのために、左側プレーヤ2000(右側プレーヤ
3000)のマレット260L(260R)を探索する
処理は、第11図に示すように、左側フィールドの画像
データIL(画像データIR)に処理を集中すればよい。
固定位置にあるCCDカメラ230が取得した画像を第
11図に示すように2つの分割することは容易である。
In an air hockey game, a player does not advance his mallet to the area of another player. Therefore, in the process of searching the mallet 260L (260R) of the left player 2000 (right player 3000), if the process is concentrated on the image data I L (image data I R ) of the left field as shown in FIG. Good.
It is easy to divide the image acquired by the CCD camera 230 at the fixed position into two as shown in FIG.

【0041】従って、第8図のフローチャートにおい
て、プレーヤ#1(プレーヤ2000)のマレット26
0Lの探索についてはステップS100で、プレーヤ#
2(プレーヤ3000)のマレット260Rの探索につ
いてはステップS200で処理が行われる。そこで、便
宜上、右側プレーヤのマレットの探索(ステップS20
0)を例にして説明する。
Therefore, in the flow chart of FIG. 8, the mallet 26 of player # 1 (player 2000) is
For 0L search, in step S100, player #
The search for the mallet 260R of 2 (player 3000) is performed in step S200. Therefore, for convenience, a search for the mallet of the right player (step S20
0) will be described as an example.

【0042】先ず、ステップS210でTVカメラ23
0から多値画像を取得する。ステップS212では、右
半分の画像データIRについてサブルーチン「ローカル
領域での探索」を行う。その詳細は第9図に示される。
ステップS212で画像座標系でのマレット位置の座標
(x,y)が見つかると、ステップS214からステッ
プS220に進み、画像座標系でのマレット位置座標
(x,y)を次式に従ってテーブル1000の座標系
(第13図を参照)の座標位置(x’,y’)に変換す
る。
First, in step S210, the TV camera 23
Obtain a multi-valued image from 0. In step S212, a subroutine "search in local area" is performed on the right half image data I R. The details are shown in FIG.
When the coordinates (x, y) of the mallet position in the image coordinate system are found in step S212, the process proceeds from step S214 to step S220, and the mallet position coordinates (x, y) in the image coordinate system are converted to the coordinates of the table 1000 according to the following formula. Convert to the coordinate position (x ', y') of the system (see FIG. 13).

【0043】[0043]

【数2】 [Equation 2]

【0044】ここで、MTは画像座標系とテーブル座標
系とをキャリブレーションするための3×3の変換行列
で、既知である。ステップS220で得られた座標位置
(x’,y’)はゲーム状態管理部5030に送られ
る。ローカル領域でマレットがみつからなかったなら
ば、ステップS216で「グローバル領域での探索」を
行う。「グローバル領域での探索」でマレットが見つか
ったならば、ステップS220でその座標位置をテーブ
ル座標系に変換する。尚、ローカル又はグローバル領域
で探索された座標位置は、次のフレームでのローカル領
域におけるマレットの探索に用いられる。
Here, M T is a 3 × 3 conversion matrix for calibrating the image coordinate system and the table coordinate system, and is known. The coordinate position (x ', y') obtained in step S220 is sent to the game state management unit 5030. If no mallet is found in the local area, a "search in the global area" is performed in step S216. If the mallet is found in the "search in the global area", its coordinate position is converted into the table coordinate system in step S220. The coordinate position searched in the local or global area is used for searching the mallet in the local area in the next frame.

【0045】第9図はマレットをローカル領域で探索す
る処理(ステップS212の詳細)を示す。但し、この
処理は便宜上右側フィールドにおける探索処理を示す
が、左側フィールドにおけるマレットの探索処理につい
ても実質的に同様である。ステップS220で、次式で
定義される大きさ(2A+1)×(2B+1)画素の矩
形領域を抽出する。
FIG. 9 shows the processing for searching the mallet in the local area (details of step S212). However, although this processing shows the search processing in the right field for convenience, the same applies to the mallet search processing in the left field. In step S220, a rectangular area of size (2A + 1) × (2B + 1) pixels defined by the following equation is extracted.

【0046】[0046]

【数3】 [Equation 3]

【0047】ここで、Ix,Iyは探索領域IR中の任意
の座標値であり、A,Bは探索領域の大きさを決める定
数であって、かかる探索領域は第12図のようになる。
ステップS230は、ステップS220で定義された矩
形領域中の全ての画素(x,y)について、特徴の評価
値IS(x,y)が一定の条件を満足するものを抽出す
る工程である。マレットを探索する目的では、特徴量と
は、画素値(赤外光の強度値)の類似度が好適である。
本実施形態では、マレットには赤外線発光器を用いてい
るので、その赤外光の強度の特徴を有するものは、一応
マレットと判断する。
Here, I x and I y are arbitrary coordinate values in the search area I R , A and B are constants for determining the size of the search area, and the search area is as shown in FIG. become.
Step S230 is a step of extracting, from all the pixels (x, y) in the rectangular area defined in step S220, the evaluation value I S (x, y) of the characteristic satisfying a certain condition. For the purpose of searching the mallet, the feature amount is preferably the similarity of pixel values (intensity value of infrared light).
In the present embodiment, since the infrared ray emitter is used for the mallet, the one having the characteristic of the intensity of the infrared light is temporarily determined to be the mallet.

【0048】即ち、ステップS232では、類似度IS
が所定の閾値以上にマレットに近い画素を見つける。そ
のような画素を見つけると、カウンタNに発生度数の累
積値を記憶する。また、そのような画素のx座標値及び
y座標値をレジスタSUMx及びSUMyに累積記憶する。即
ち、
That is, in step S232, the similarity I S
Finds pixels that are closer to the mallet than a predetermined threshold. When such a pixel is found, the cumulative value of the occurrence frequency is stored in the counter N. Further, the x coordinate value and the y coordinate value of such a pixel are cumulatively stored in the registers SUMx and SUMy. That is,

【0049】[0049]

【数4】 [Equation 4]

【0050】とする。ステップS230を終了すると、
第12図の領域中でマレットからの赤外光のパターンに
類似している全ての画素の個数N、及び座標値の累積値
SUMx,SUMyが得られる。N=0であればステップS23
6で結果“Not Found”が出力される。N>0であれ
ば、マレットらしいものが見つかったのであり、ステッ
プS238で、マレットの位置(Ix,Iy)を、
It is assumed that When step S230 ends,
In the region of FIG. 12, the number N of all pixels similar to the pattern of infrared light from the mallet and the cumulative value of coordinate values
SUMx and SUMy are obtained. If N = 0, step S23
At 6, the result “Not Found” is output. If N> 0, a mallet-like thing is found, and in step S238, the position (I x , I y ) of the mallet is

【0051】[0051]

【数5】 [Equation 5]

【0052】に従って演算する。そして、マレット位置
(Ix,Iy)をテーブル座標系に変換した座標値を渡
す。第10図は、ステップS216のグローバル領域探
索の詳細手順を示す。第10図のステップS240で、
右側フィールドの画像IR中の、
Calculate according to Then, the coordinate values obtained by converting the mallet position (I x , I y ) into the table coordinate system are passed. FIG. 10 shows the detailed procedure of the global area search in step S216. In step S240 of FIG.
In the image I R in the right field,

【0053】[0053]

【数6】 [Equation 6]

【0054】を満足する画素の中で、特徴の評価値Is
の最大値をレジスタMaxに記憶する。ここで、C,Dは
探索の粗さを決める定数であり、WidthおよびHeightは
その定義を第15図に示す。即ち、ステップS242
で、特徴量ISが閾値記憶レジスタMaxに記憶されている
閾値を超えるか否かを判断する。そのような画素が見つ
かったならば、ステップS244で、その特徴量を新た
な閾値とすべく、ステップS244で、
Among the pixels that satisfy the condition, the feature evaluation value Is
The maximum value of is stored in the register Max. Here, C and D are constants that determine the roughness of the search, and Width and Height are defined in FIG. That is, step S242
Then, it is determined whether the feature value I S exceeds the threshold value stored in the threshold value storage register Max. If such a pixel is found, in step S244, in order to set the feature amount as a new threshold value, in step S244,

【0055】[0055]

【数7】 [Equation 7]

【0056】とする。ステップS246では、グローバ
ル探索で見つかった最もマレットらしい画素(Ix,I
y )の座標値をステップS220に渡す。このようにし
て、マレットを画像中で見つけ、その座標値をテーブル
座標系に変換したものをゲーム状態管理部5030に渡
す。 〈ゲーム状態管理〉第13図は、本実施形態のエアホッ
ケーゲームのゲームフィールドを示す。このフィールド
は、テーブル1000の上の2次元平面上に定義され、
x,y軸を有する。また、左右の2つの仮想的ゴールラ
イン1200L,1200Rと、第13図において上下
方向に設けられた仮想的壁1300a,1300bとを
有する。仮想的ゴールライン1200L,1200Rと
仮想的壁1300a,1300bとは、その座標値は既
知であり、移動することはない。このフィールドの中
で、マレット260R,260Lの移動に応じて、パッ
ク1500の仮想画像が移動する。
It is assumed that In step S246, the most mallet-like pixel (I x , I found in the global search).
The coordinate value of y ) is passed to step S220. In this way, the mallet is found in the image, and its coordinate values converted into the table coordinate system are passed to the game state management unit 5030. <Game State Management> FIG. 13 shows the game field of the air hockey game of this embodiment. This field is defined on the two-dimensional plane above table 1000,
It has x and y axes. Further, it has two left and right virtual goal lines 1200L and 1200R, and virtual walls 1300a and 1300b provided in the vertical direction in FIG. The coordinate values of the virtual goal lines 1200L and 1200R and the virtual walls 1300a and 1300b are known and do not move. In this field, the virtual image of the pack 1500 moves in accordance with the movement of the mallets 260R and 260L.

【0057】パック1500は、現在位置の座標情報P
pと速度情報vpとを有し、左マレット260Lは現在位
置の座標情報PSLと速度情報vSLとを有し、右マレット
260Rは現在位置の座標情報PSRと速度情報vSRとを
有する。第14図は、ゲーム状態管理部5030におけ
る処理手順を説明するフローチャートである。
The pack 1500 has coordinate information P of the current position.
and a p and velocity information v p, left mallet 260L has coordinate information P SL and velocity information v SL of the current position, and the right mallet 260R has coordinate information P SR and the speed information v SR of the current position Have. FIG. 14 is a flowchart illustrating a processing procedure in the game state management unit 5030.

【0058】ステップS10において、パック1500
の初期位置Pp0及び初期速度vp0を設定する。尚、パッ
クは速度vpで等速度運動を行う。また、パックは、壁
又はスティックに当たると完全弾性衝突を行う、即ち、
速度方向が反転する。ゲーム状態管理部5030は、マ
レット位置計測部5010が計測した各マレットの位置
情報PSから速度情報vSを得る。
In step S10, the pack 1500
The initial position P p0 and the initial velocity v p0 are set. Incidentally, the puck performs constant velocity motion at a velocity v p . The puck also has a full elastic collision when hit against a wall or stick, i.e.
The speed direction is reversed. The game state management unit 5030 obtains the speed information v S from the position information P S of each mallet measured by the mallet position measurement unit 5010.

【0059】ステップS12は、ゲームでの勝敗が決定
する(ステップS50で一方が3点を先取する)迄の間
は、Δt時間毎に実行される。すると、ステップS12
では、パックの位置は、
Step S12 is executed every Δt time until the win or loss in the game is determined (one wins three points in step S50). Then, step S12
So the position of the pack is

【0060】[0060]

【数8】 [Equation 8]

【0061】に更新される。初期位置及び初期速度設定
後におけるパックの位置は、一般には、
Is updated to The position of the puck after setting the initial position and initial speed is generally

【0062】[0062]

【数9】 [Equation 9]

【0063】で表される。ステップS14では、更新さ
れたパック位置Ppがプレーヤの#1側(左プレーヤ)
のフィールドにあるか否かを調べる。パック1500が
左プレーヤ側にある場合について説明する。ステップS
16では、現在のパック位置が左プレーヤのスティック
1100Lと干渉する位置にあるか否かを調べる。パッ
ク1500がスティック1100Lと干渉する位置にあ
るとは、左プレーヤ2000がマレット260Lをパッ
クに衝突させるようなマレット操作を行ったことを意味
するから、パック1500の運動を反転させるために、
ステップS18で、パック1500の速度vpのx方向
速度成分の符号を反転させて、ステップS20に進む。
It is represented by In step S14, the updated pack position P p is the player's # 1 side (left player).
Check if it is in the field. A case where the pack 1500 is on the left player side will be described. Step S
At 16, it is checked whether or not the current puck position is in a position where it interferes with the stick 1100L of the left player. The fact that the puck 1500 is in a position where it interferes with the stick 1100L means that the left player 2000 has performed a mallet operation that causes the mallet 260L to collide with the puck. Therefore, in order to reverse the movement of the puck 1500,
In step S18, the sign of the x-direction velocity component of the velocity v p of the pack 1500 is inverted, and the process proceeds to step S20.

【0064】尚、単に速度vpのx方向速度成分の符号
を反転させる代わりに、
Incidentally, instead of simply inverting the sign of the velocity component in the x direction of velocity v p ,

【0065】[0065]

【数10】 [Equation 10]

【0066】として、パックが、スティックの操作速度
を重畳されて反対方向に進むようにしても良い。一方、
現在のパック位置が左プレーヤのスティック1100L
と干渉する位置にない場合(ステップS16でNO)に
は、そのままステップS20に進む。ステップS20で
は、パックの位置Pi+1が仮想壁1300a又は130
0bと衝突する位置にあるか否かを調べる。ステップS
20の判断がYESの場合には、ステップS22でパッ
クの速度のy成分を反転させる。
As an alternative, the puck may move in the opposite direction with the stick operating speed superimposed. on the other hand,
Current puck position is left player's stick 1100L
When it is not in a position where it interferes with (NO in step S16), the process directly proceeds to step S20. In step S20, the position P i + 1 of the pack is set to the virtual wall 1300a or 130.
It is checked whether or not it is in a position where it collides with 0b. Step S
If the determination in 20 is YES, the y component of the pack speed is inverted in step S22.

【0067】次ぎにステップS24で、現在のパック位
置が左プレーヤのゴールライン内にあるか否かを調べ
る。YESの場合には、ステップS26で相手側のプレ
ーヤ、即ち、右(#2)プレーヤの得点を加算する。ス
テップS50では、いずれかの得点が3点以上先取した
かを調べる。3点以上であればゲームを終了する。ステ
ップS14での判断で、パックの位置Ppが右プレーヤ
側(#2プレーヤ側)にある場合には、ステップS30
以下を実行する。ステップS30〜ステップS40は、
ステップS16〜ステップS26と実質的に動作は同じ
である。
Next, in step S24, it is checked whether or not the current puck position is within the goal line of the left player. If YES, the score of the opponent player, that is, the right (# 2) player is added in step S26. In step S50, it is checked whether any one of the scores is three points or more. If the score is 3 or more, the game ends. If it is determined in step S14 that the puck position P p is on the right player side (# 2 player side), step S30
Do the following: Steps S30 to S40 are
The operation is substantially the same as steps S16 to S26.

【0068】かくして、ゲームの進行状態は管理され
る。ゲームの進行状態は、パックの位置、スティックの
位置であり、前述したように、画像生成部5050(5
050L,5050R)に入力される。 〈頭部位置の補正〉第16図は、補正処理部5040
(5040L,5040R)における処理の制御手順の
全体を示す。補正処理部5040における補正とは、誤
差を有すると思われる磁気センサによって得られた視点
位置及び頭部姿勢データを、CCDカメラ240から得
られた画像中のマーカ位置により、カメラ240の位置
(頭部の位置に密接に関連するものでもある)の補正値
を求め、その補正値を用いて、最終的に、視点のビュー
イング変換行列を変更することにより補正するものであ
る。
Thus, the progress of the game is managed. The progress of the game is the position of the pack and the position of the stick, and as described above, the image generation unit 5050 (5
050L, 5050R). <Correction of Head Position> FIG. 16 shows a correction processing unit 5040.
The whole control procedure of the process in (5040L, 5040R) is shown. The correction in the correction processing unit 5040 means the viewpoint position and the head posture data obtained by the magnetic sensor, which is considered to have an error, from the position of the camera 240 (head) by the marker position in the image obtained from the CCD camera 240. The value is also closely related to the position of the part), and the correction value is used to finally correct the viewing transformation matrix of the viewpoint.

【0069】即ち、ステップS400では、磁気センサ
220の出力に基づいて、カメラのビューイング変換行
列(4×4)を計算する。ステップS410では、カメ
ラ240の理想的透視変換行列(既知)及び各マーカの
三次元位置(既知)に基づいて、各マーカの観測座標を
予測する。マーカ位置検出部5060(5060L,5
060R)は、プレーヤの頭部に取り付けられたカメラ
240(240L,240R)から得た画像中でマーカ
を追跡している。従って、マーカ位置検出部5060は
検出したマーカ位置を、補正処理部5040(ステップ
S420において)に渡す。補正処理部5040(50
40L,5040R)は、ステップS420において、
渡されたマーカ位置情報に基づいて、観測しているマー
カ、即ち補正の基準となるマーカを判別する。ステップ
S430では、カメラ240の位置の補正値を算出し
て、この補正値に基づいて、ステップS440で、視点
のビューイング変換を補正し、補正された変換行列を画
像生成部5050(5050L,5050R)に渡す。
That is, in step S400, the viewing transformation matrix (4 × 4) of the camera is calculated based on the output of the magnetic sensor 220. In step S410, the observation coordinates of each marker are predicted based on the ideal perspective transformation matrix (known) of the camera 240 and the three-dimensional position (known) of each marker. Marker position detection unit 5060 (5060L, 5
060R) is tracking the marker in the image obtained from the camera 240 (240L, 240R) attached to the player's head. Therefore, the marker position detection unit 5060 passes the detected marker position to the correction processing unit 5040 (in step S420). Correction processing unit 5040 (50
40L, 5040R), in step S420,
Based on the passed marker position information, the marker being observed, that is, the marker serving as a reference for correction is determined. In step S430, a correction value for the position of the camera 240 is calculated, and based on this correction value, in step S440, the viewing conversion of the viewpoint is corrected, and the corrected conversion matrix is used as the image generation unit 5050 (5050L, 5050R). ) To.

【0070】第17図はマーカ位置検出部5060にお
ける処理手順である。ステップS500では、カメラ2
40が取得したカラー画像を取り込む。その後に、ステ
ップS502では、「ローカル領域探索」を、ステップ
S506では「グローバル領域探索」を行って、カメラ
座標系によって表されたマーカ位置(x,y)を検出す
る。ステップS502の「ローカル領域探索」、ステッ
プS506の「グローバル領域探索」は、手順として
は、マレット探索における「ローカル領域探索」(第9
図)、「グローバル領域探索」(第10図)に実質的に
同じであるので、図示を省略する。
FIG. 17 shows a processing procedure in the marker position detecting unit 5060. In step S500, the camera 2
The color image acquired by 40 is captured. After that, in step S502, "local area search" is performed, and in step S506, "global area search" is performed to detect the marker position (x, y) represented by the camera coordinate system. The “local area search” in step S502 and the “global area search” in step S506 are, as a procedure, “local area search” in mallet search (9th area).
(Fig.) And "Global area search" (Fig. 10) are substantially the same, so illustration is omitted.

【0071】但し、マーカ探索のための特徴量IS(ス
テップS232の)として、プレーヤ#1(左)につい
て、注目画素の画素値の、
However, as the feature quantity I S (in step S232) for the marker search, of the pixel value of the pixel of interest for player # 1 (left),

【0072】[0072]

【数11】 [Equation 11]

【0073】を用いる。プレーヤ#1については、マー
カ(1600〜1604)には赤色を用いているので、
この特徴量は赤らしさの程度を表す。また、プレーヤ#
2(右)については緑色のマーカ(1650〜165
4)を用いているので、
Is used. Since red is used for the markers (1600 to 1604) for player # 1,
This feature amount represents the degree of redness. Also, player #
For 2 (right), green markers (1650 to 165)
Since 4) is used,

【0074】[0074]

【数12】 [Equation 12]

【0075】を用いる。また、グローバル探索における
特徴量IS(x,y)についても上記2つの量を用い
る。ステップS502及びステップS506で得られた
マーカの座標値は、ステップS510で、歪みを補正す
るための行列M(例えば3×3の大きさを有する)を用
いて歪みのない理想的な画像座標系に変換する。この時
の変換式は、
Is used. The above two quantities are also used for the feature quantity I S (x, y) in the global search. The marker coordinate values obtained in steps S502 and S506 are processed in step S510 using a matrix M (for example, having a size of 3 × 3) for correcting distortion to generate an ideal image coordinate system without distortion. Convert to. The conversion formula at this time is

【0076】[0076]

【数13】 [Equation 13]

【0077】である。次ぎに、第16図のステップS4
10の処理の詳細について、第18図を用いて説明す
る。前述したように、ステップS400では世界座標系
からカメラ座標系への変換行列MC(4×4のビューイ
ング変換行列)が得られている。一方、カメラ座標系か
ら画像座標系への変換行列PC(4×4)も既知の値と
して与えられている。また、注目するマーカの三次元座
標位置(X,Y,Z)も既知として与えられている。
It is Next, step S4 in FIG.
Details of the process of 10 will be described with reference to FIG. As described above, in step S400, the transformation matrix M C (4 × 4 viewing transformation matrix) from the world coordinate system to the camera coordinate system is obtained. On the other hand, the transformation matrix P C (4 × 4) from the camera coordinate system to the image coordinate system is also given as a known value. The three-dimensional coordinate position (X, Y, Z) of the marker of interest is also given as a known value.

【0078】周知のように、角度rをカメラ240の位
置でのZ軸方向の回転(roll)とし、角度pをカメラ24
0の位置でのX軸方向の回転(pitch)とし、角度φをカ
メラ240の位置でのZ軸方向の回転(yaw)とすると、
As is well known, the angle r is the Z-axis rotation at the position of the camera 240, and the angle p is the camera 24.
When the rotation in the X-axis direction at the position of 0 (pitch) and the angle φ as the rotation in the Z-axis direction at the position of the camera 240 (yaw),

【0079】[0079]

【数14】 [Equation 14]

【0080】であり、dをカメラ240の焦点距離、w
をカメラの撮像面の幅、hを同じく高さとすると、PC
は、
Where d is the focal length of the camera 240 and w
Is the width of the imaging surface of the camera, and h is the same height, P C
Is

【0081】[0081]

【数15】 [Equation 15]

【0082】で表される。ステップS520では、注目
マーカの座標位置(X,Y,Z)を、次式に従って、画
像座標系での位置(xh,yh,zh)に変換する。
It is represented by In step S520, the coordinate position (X, Y, Z) of the target marker is converted into the position (x h , y h , z h ) in the image coordinate system according to the following equation.

【0083】[0083]

【数16】 [Equation 16]

【0084】ステップS522では、マーカの観測予測
位置x,yとして、
At step S522, as the predicted observation position x, y of the marker,

【0085】[0085]

【数17】 [Equation 17]

【0086】を得る。次ぎに、ステップS420におけ
る「マーカ判別」の処理を説明する。第19図は、テー
ブル1000上において、一方のプレーヤのカメラ24
0が画像600を取得した場合を示す。テーブル100
0上に設けられているマーカを、例えばM1〜M7とし、
△印で表す。このマーカの三次元位置Miは既知であ
る。画像600内には、マーカM2,M3,M6,M7が含
まれている。一方、各マーカMiの観測予測位置はステ
ップS520で求められたものであり、それをPiとす
る。また、Qは、マーカ位置検出部5060が検出し、
検出部5060から渡されたマーカ位置を示す。
To obtain Next, the “marker determination” process in step S420 will be described. FIG. 19 shows the camera 24 of one player on the table 1000.
0 indicates a case where the image 600 is acquired. Table 100
The markers provided on 0 are, for example, M 1 to M 7 ,
Represented by a triangle. The three-dimensional position M i of this marker is known. The image 600 includes markers M 2 , M 3 , M 6 , and M 7 . On the other hand, the observation predicted position of each marker M i is obtained in step S520, and is set as P i . Further, Q is detected by the marker position detection unit 5060,
The marker position passed from the detection unit 5060 is shown.

【0087】ステップS420の「マーカの判別」は、
マーカ位置検出部5060が検出したマーカ位置Qが、
どのPi(即ち、どのMi)に対応するかを判断するもの
である。第19図において、ベクトルeiを、検出され
たマーカ位置Qから各マーカの予測位置Piに向かうベ
クトルの長さ、即ち、距離を表すものとする。ステップ
S420の詳細を第20図に示す。即ち、第20図の処
理は、画像6000内に入るマーカi(i=0〜n)の
距離eiのうち、最小値を示すマーカを探索し、そのマ
ーカの識別子iを出力するものである。即ち、
The "marker determination" in step S420 is
The marker position Q detected by the marker position detection unit 5060 is
It is to determine which P i (that is, which M i ) corresponds to. In FIG. 19, the vector e i represents the length of the vector from the detected marker position Q to the predicted position P i of each marker, that is, the distance. The details of step S420 are shown in FIG. That is, the process of FIG. 20 searches for the marker having the minimum value among the distances e i of the markers i (i = 0 to n) included in the image 6000 and outputs the identifier i of the marker. . That is,

【0088】[0088]

【数18】 [Equation 18]

【0089】である。第19図の例では、P2間での距
離e2が一番短いので、マーカM2を磁気センサ出力の補
正に用いるデータとする。かくして、プレーヤがどのよ
うに移動しても、その活動範囲(フィールド)内では、
カメラ240はいずれかの1つ以上のマーカを画像中に
捉えるので、従来のように、フィールドの大きさを狭く
限定する必要が無くなる。
It is In the example of Fig. 19, since the shortest distance e 2 of between P 2, and data using the marker M 2 to the correction of the magnetic sensor output. Thus, no matter how the player moves, within their activity range (field)
Since the camera 240 captures any one or more markers in the image, it is not necessary to limit the size of the field narrowly as in the conventional case.

【0090】尚、ステップS430,ステップS440
での処理は、第1図において説明した処理と同じであ
る。 〈変形例1〉本発明は上述の実施例にのみ適用されるも
のではない。上記実施形態では、画像中にマーカを検出
する処理は、第17図に示すように、最初に見つかった
ものを追跡対象のマーカとしていた。そのために、例え
ば、第21図に示すように、あるフレームでマーカM1
を含む画像800が得られた場合に、その後のフレーム
の画像領域810には、マーカが領域810の端部では
あるがその領域810内に含まれている場合には、マー
カMiを補正処理の基準用のマーカとして決定すること
に不都合はない。しかし、その後のフレームで、例えば
画像820が得られ、その領域内にはマーカMiが外
れ、代わりにマーカM2を含む場合には、補正のための
基準マーカはそのマーカM2に変更せざるを得ない。こ
のようなマーカの変更は追跡に失敗した場合にも必要と
なり、位置ずれの補正には、新たに追跡されたマーカが
利用される。
Incidentally, steps S430 and S440
The process in (1) is the same as the process described in FIG. <Modification 1> The present invention is not applied only to the above-described embodiments. In the above-described embodiment, in the process of detecting the marker in the image, the first one found is used as the tracking target marker, as shown in FIG. Therefore, for example, as shown in FIG. 21, the markers M 1 in a frame
When the image 800 including the image is obtained, if the marker is included in the image area 810 of the subsequent frame, although the marker is included in the area 810 at the end portion of the area 810, the marker M i is corrected. There is no inconvenience in determining the marker as the reference marker. However, in the subsequent frame, for example, when the image 820 is obtained, and the marker M i is out of the area and includes the marker M 2 instead, the reference marker for correction should be changed to the marker M 2. I have no choice. Such a change of the marker is necessary even when the tracking fails, and the newly tracked marker is used to correct the positional deviation.

【0091】このように補正に使用するマーカを切り替
えることの問題点として、その切り替わりの際に、補正
値の急激な変化が原因となって、仮想物体が不自然に移
動してしまう場合がある。そこで、補正値の時間的整合
性を保つために、前フレームまでの補正値を次の補正値
の設定に反映させることを変形例として提案する。
As a problem of switching the marker used for the correction as described above, there is a case where the virtual object moves unnaturally due to the abrupt change of the correction value at the time of the switching. . Therefore, in order to maintain the temporal consistency of the correction value, it is proposed as a modification that the correction value up to the previous frame is reflected in the setting of the next correction value.

【0092】即ち、あるフレームでの補正値(世界座標
系での平行移動を表す3次元ベクトル)をvt、前フレ
ームでの補正値をv't-1としたとき、次式で求められる
'tを新たな補正値とする。
That is, when the correction value in a certain frame (three-dimensional vector representing the parallel movement in the world coordinate system) is v t and the correction value in the previous frame is v't-1 , it is calculated by the following equation. Let v't be a new correction value.

【0093】[0093]

【数19】 [Formula 19]

【0094】ここでαは、過去の情報の影響の度合いを
定義する0≦α<1の定数である。上記式の意味すると
ころは、前フレームでの補正値v't-1に拠る寄与度をα
とし、今回のフレームで得られた補正値vtを(1−
α)の寄与度で用いるというものである。このようにす
ることにより、補正値の急激な変化が緩和され、三次元
仮想画像の急激な変化(不自然な移動)が解消する。新
たな補正値αを適当な値に設定することで、マーカの切
り替わりによる不自然な物体の移動を防ぐことができ
る。
Here, α is a constant of 0 ≦ α <1 which defines the degree of influence of past information. The meaning of the above equation is that the contribution degree due to the correction value v′t −1 in the previous frame is α
And the correction value v t obtained in this frame is (1-
It is used with the contribution of α). By doing so, the abrupt change in the correction value is alleviated, and the abrupt change (unnatural movement) of the three-dimensional virtual image is eliminated. By setting the new correction value α to an appropriate value, it is possible to prevent the unnatural movement of the object due to the switching of the marker.

【0095】〈変形例2〉上記実施形態では、画像中に
マーカを検出する処理は、第17図に示すように、ロー
カル探索でマーカを発見できなかった場合、前回のフレ
ームでのマーカの位置に関わらず、全画面中で最も類似
度の高い点を追跡対象のマーカとしていた。ここで、マ
ーカの探索を、前のフレームで見つかったマーカの位置
を中心にして、マーカ探索を行う変形例を提案する。こ
れは、プレーヤの移動に伴う画像フレームの移動があっ
ても、マーカは前フレームに存在した位置から大きくず
れていない位置に存在する可能性が高いからである。
<Modification 2> In the above embodiment, the process of detecting a marker in an image is performed by the marker position in the previous frame when the marker cannot be found by the local search as shown in FIG. Regardless of this, the point with the highest degree of similarity on all screens was used as the tracking target marker. Here, a modification is proposed in which the marker search is centered on the position of the marker found in the previous frame. This is because there is a high possibility that the marker will be present at a position that does not largely deviate from the position that was present in the previous frame, even if the image frame has moved as the player moves.

【0096】第22図は、前回のフレームにおいて見つ
かったマーカを今回のフレームに探索する原理を説明す
る。このような探索経路で探索を行い、ある閾値以上の
類似度を持つ点を見つけたら、この点を追跡対象のマー
カとするのである。 〈変形例3〉上記実施形態は光学式HMDを用いたもの
であったが、本発明は光学式HMDの適用に限定される
ものではなく、ビデオシースルー方式のHMDにも適用
可能である。
FIG. 22 explains the principle of searching the current frame for the marker found in the previous frame. When a point having a degree of similarity equal to or higher than a certain threshold value is found by performing a search on such a search route, this point is set as a tracking target marker. <Modification 3> Although the above embodiment uses the optical HMD, the present invention is not limited to the application of the optical HMD, and can be applied to a video see-through HMD.

【0097】〈変形例4〉上記実施形態は、エアホッケ
ーゲームに適用したものであったが、本発明はエアホッ
ケーゲームに限られない。本発明は、複数人の作業(例
えばマレット操作)を、1つのカメラ手段により撮像し
て捉えるので、その複数人の作業を1つの仮想空間に再
現することが可能である。従って、本発明は、2人以上
の作業者を前提とした協調作業(例えば、複数人による
設計作業のMRプレゼンテーション、あるいは複数人の
対戦型ゲーム)の実施例にも好適である。
<Variation 4> Although the above embodiment is applied to the air hockey game, the present invention is not limited to the air hockey game. In the present invention, the work of a plurality of people (for example, the mallet operation) is captured and captured by one camera means, so that the work of a plurality of people can be reproduced in one virtual space. Therefore, the present invention is also suitable for an embodiment of a collaborative work (for example, an MR presentation of a design work by a plurality of people or a battle game of a plurality of people) on the premise of two or more workers.

【0098】本発明の、複数のマーカに基づいた頭部姿
勢位置を補正する処理は、複数人の協調作業にのみ好適
であることはない。一人の作業者(あるいはプレーヤ)
に複合現実感を提示するシステムにも適用可能である。
The process of correcting the head posture position based on a plurality of markers according to the present invention is not suitable only for the cooperative work of a plurality of people. One worker (or player)
It is also applicable to a system that presents mixed reality to.

【0099】[0099]

【発明の効果】本発明によれば、複数作業者による協調
作業を複合現実感によって提示することができる。さら
に、前記協調作業で使用される前記複数の作業者の作業
部の個々の位置を、同一の撮影画像から画像処理により
同一座標系において検出するので、協調作業の管理を簡
単に行うことができる。さらに、センサによって検出さ
れた視点位置を用いて、世界座標系からカメラ座標系へ
の変換を行うビューイング変換係数を求め、作業者の個
々の頭部に固定されたカメラの撮影画像を用いて該ビュ
ーイング変換係数を補正することにより、複数の作業者
個々について補正されたビューイング変換係数を求める
ので、複数の作業者の個々について仮想画像を高精度に
生成することができる。
According to the present invention, cooperation by a plurality of workers
Work can be presented in mixed reality. Furthermore
The work of the plurality of workers used in the cooperative work.
The individual positions of the parts can be processed from the same captured image by image processing.
Since it is detected in the same coordinate system, management of collaborative work is simplified.
You can simply do it. In addition, detected by the sensor
From the world coordinate system to the camera coordinate system using the selected viewpoint position
Calculating the viewing transform coefficient that transforms the
The images captured by the cameras fixed to each head are used to
To multiple workers by correcting the ingress conversion coefficient.
Find corrected viewing transform coefficients for each
Therefore, virtual images of multiple workers can be accurately generated.
Can be generated.

【図面の簡単な説明】[Brief description of drawings]

【図1】 従来技術において、および本発明の実施形態
に適用されている、カメラ位置の補正の原理を説明する
図。
FIG. 1 is a diagram illustrating a principle of camera position correction, which is applied in a conventional technique and in an embodiment of the present invention.

【図2】 本発明の実施形態に用いられているゲーム装
置の構成を示す側面図。
FIG. 2 is a side view showing the configuration of the game device used in the embodiment of the present invention.

【図3】 第2図のゲーム装置で左側プレーヤの視界に
見えるシーンを説明する図。
FIG. 3 is a diagram for explaining a scene seen in the visual field of the left player on the game device shown in FIG. 2;

【図4】 第2図のゲーム装置に用いられているHMD
の構成を説明する図。
FIG. 4 is an HMD used in the game device of FIG.
FIG.

【図5】 第2図のゲーム装置のテーブルに設けられた
マーカの配置を説明する図。
5 is a view for explaining the arrangement of markers provided on the table of the game device shown in FIG.

【図6】 第5図のテーブル上で、プレーヤの移動につ
れて、プレーヤの頭部に装着されたカメラに捉えられる
画像中に含まれるマーカの変遷を説明する図。
FIG. 6 is a view for explaining the transition of markers included in an image captured by a camera mounted on the head of the player as the player moves on the table of FIG. 5;

【図7】 実施形態のゲーム装置のための、三次元画像
生成装置の構成を説明する図。
FIG. 7 is a diagram illustrating a configuration of a three-dimensional image generation device for the game device according to the embodiment.

【図8】 実施形態のマレット位置計測部に因る処理手
順を説明するフローチャート。
FIG. 8 is a flowchart illustrating a processing procedure by the mallet position measuring unit according to the embodiment.

【図9】 実施形態のマレット位置計測部に因る処理手
順の一部サブルーチン(ローカル探索)を説明するフロ
ーチャート。
FIG. 9 is a flowchart illustrating a partial subroutine (local search) of a processing procedure by the mallet position measuring unit according to the embodiment.

【図10】 実施形態のマレット位置計測部に因る処理
手順の一部サブルーチン(グローバル探索)を説明する
フローチャート。
FIG. 10 is a flowchart illustrating a partial subroutine (global search) of a processing procedure by the mallet position measuring unit according to the embodiment.

【図11】 第8図のフローチャートの処理において用
いられる処理対象領域の分割を説明する図。
FIG. 11 is a diagram illustrating division of a processing target area used in the processing of the flowchart of FIG.

【図12】 第8図のフローチャートの処理において用
いられる対象領域の設定手法を示す図。
12 is a view showing a method of setting a target area used in the processing of the flowchart of FIG.

【図13】 本実施形態のゲームにおける仮想ゲームフ
ィールドの構成を説明する図。
FIG. 13 is a diagram illustrating a configuration of a virtual game field in the game of this embodiment.

【図14】 実施形態のゲーム状態管理部におけるゲー
ム管理の制御手順を説明するフローチャート。
FIG. 14 is a flowchart illustrating a game management control procedure in the game state management unit according to the embodiment.

【図15】 マレット検出ための手法を説明する図。FIG. 15 is a diagram illustrating a method for mallet detection.

【図16】 実施形態における補正処理部の処理手順を
全体的に説明するフローチャート。
FIG. 16 is a flowchart for generally explaining the processing procedure of the correction processing unit in the embodiment.

【図17】 第16図のフローチャートの一部(マーカ
の追跡)を詳細に説明するフローチャート。
FIG. 17 is a flowchart for explaining in detail a part (tracking of markers) of the flowchart of FIG.

【図18】 第16図のフローチャートの一部(マーカ
位置の予測)を詳細に説明するフローチャート。
FIG. 18 is a flowchart for explaining in detail a part (prediction of marker position) of the flowchart of FIG.

【図19】 補正のために使用される基準となるマーカ
の検出の原理を説明する図。
FIG. 19 is a diagram illustrating the principle of detection of a reference marker used for correction.

【図20】 基準となるマーカの検出の原理を説明する
フローチャート。
FIG. 20 is a flowchart illustrating the principle of detection of a reference marker.

【図21】 実施形態の変形例に適用される基準マーカ
の変遷を説明する図。
FIG. 21 is a diagram for explaining the transition of the reference marker applied to the modified example of the embodiment.

【図22】 実施形態の変形例に適用されるマーカ探索
の原理を説明する図。
FIG. 22 is a diagram illustrating the principle of marker search applied to a modification of the embodiment.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 裕之 横浜市西区花咲町6丁目145番地 横浜 花咲ビル 株式会社エム・アール・シス テム研究所内 (72)発明者 藤木 真和 横浜市西区花咲町6丁目145番地 横浜 花咲ビル 株式会社エム・アール・シス テム研究所内 (56)参考文献 特開 平5−328408(JP,A) “CGと巧みにミックス 「複合現実 感」成果相次ぐ”,日本経済新聞,日本 経済新聞社,1997年, 7月 7日, p.19 Andrei State,Supe rior Augmented Rea lity Registration by Integrating Lan dmark Tracking and Magnetic Trackin g,Proceedings of t he23rd annual confe rence on Computer graphics and inter activetechniques,米 国,ACM,1996年,p.429−438 Michael Bajura,Dy namic Registration Correction in Vid eo−Based Augmented Reality Systems,C omputer Graphics a nd Applications,米 国,IEEE,1995年,Vol.15,N o.5,p.52−60 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 11/60 - 17/50 H04N 13/00 - 17/06 G06F 3/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Hiroyuki Yamamoto, inventor Hiroyuki Yamamoto 6-145, Hanasaki-cho, Nishi-ku, Yokohama Yokohama Hanasaki Building M.R. System Research Co., Ltd. (72) Mawa Fujiki 6 Hanasaki-cho, Nishi-ku, Yokohama 145-chome, Yokohama Hanasaki Building, M.R. System Research Institute Co., Ltd. (56) Reference Japanese Unexamined Patent Publication No. 5-328408 (JP, A) "Successfully mixing CG and" mixed reality "results," Nihon Keizai Shimbun , Nihon Keizai Shimbun, July 7, 1997, p.19 Andrei State, Super Priority Augmented Reality Registration by Integrating Landmark Tracking and Magnetic Tracking. n g, Proceedings of t he23rd annual confe rence on Computer graphics and inter activetechniques, the United States, ACM, 1996 years, p.429-438 Michael Bajura, Dy namic Registration Correction in Vid eo-Based Augmented Reality Systems, C omputer Graphics a nd Applications, USA, IEEE, 1995, Vol. 15, No. 5, p. 52-60 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 G06T 11/60- 17/50 H04N 13/00-17/06 G06F 3/00

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の作業者が所定の複合現実環境内で
仮想物体を共用しながら所定の作業を行うために、前記
仮想物体の3次元仮想画像を生成して、前記複数の作業
者の各々に装着されたシースルー型表示装置に表示する
複合現実感提示装置であって、 前記所定の作業で使用される前記複数の作業者の作業部
の個々の位置を、同一の撮影画像から画像処理により同
一座標系において検出する検出手段と、 前記複数の作業者個々に取り付けられ、前記作業者個々
の視点位置を検出するセンサと、 前記センサによって検出された視点位置を用いて、世界
座標系からカメラ座標系への変換を行うビューイング変
換係数を求め、前記作業者の個々の頭部に固定されたカ
メラの撮影画像を用いて該ビューイング変換係数を補正
することにより、前記複数の作業者個々について補正さ
れたビューイング変換係数を求める補正処理手段と、 前記同一座標系において検出された複数の作業者の作業
部の個々の位置を用いて前記所定の作業の進行を管理す
る進行管理手段と、 前記進行管理手段によって管理されている前記共用され
る仮想物体を示す3次元仮想画像を、前記複数の作業者
の個々について求められた補正されたビューイング係数
を用いて、前記複数の作業者の個々について生成し、該
複数の作業者各々のシースルー型表示装置に出力する生
成手段とを有することを特徴とする複合現実感提示装
置。
1. A plurality of workers within a predetermined mixed reality environment
In order to perform a predetermined work while sharing a virtual object ,
It is a mixed reality presentation apparatus which produces | generates the three-dimensional virtual image of a virtual object, and displays it on the see-through type display apparatus mounted | worn by each of the said some worker , Comprising: The said several plurality used for the said predetermined work . Detecting means for detecting individual positions of the working part of the worker in the same coordinate system by image processing from the same captured image, and a sensor attached to each of the plurality of workers and detecting a viewpoint position of the individual worker. Using the viewpoint position detected by the sensor, a viewing conversion coefficient for converting from the world coordinate system to the camera coordinate system is obtained, and a captured image of the camera fixed to each head of the worker is obtained. Correction processing means for correcting the viewing conversion coefficient using the correction processing means for obtaining the corrected viewing conversion coefficient for each of the plurality of workers; A progress management unit that manages the progress of the predetermined work by using the detected individual positions of the working units of the plurality of workers, and the shared management unit that is managed by the progress management unit.
A three-dimensional virtual image showing the virtual object is generated for each of the plurality of workers by using the corrected viewing coefficient obtained for each of the plurality of workers, and each of the plurality of workers is generated. A mixed reality presentation device, comprising: a generation unit for outputting to a see-through display device.
【請求項2】 前記センサは、個々の作業者の頭部の位
置および姿勢を検出し、該検出された位置および姿勢か
ら前記視点位置を演算することを特徴とする請求項1に
記載の複合現実感提示装置。
2. The composite according to claim 1, wherein the sensor detects a position and a posture of a head of an individual worker, and calculates the viewpoint position from the detected position and posture. Reality presentation device.
【請求項3】 前記検出手段は、 前記撮影画像における、位置を検出する作業部を操作す
る作業者に応じて限定されたローカル領域に対して、前
記画像処理により該作業部の位置を検出し、 前記ローカル領域内から前記作業部の位置が検出されな
かった場合は、前記撮影画像全体であるグローバル領域
に対して、前記画像処理により前記作業部の位置を検出
することを特徴とする請求項1記載の複合現実感提示装
置。
3. The detecting unit detects the position of the working unit by the image processing with respect to a local area in the photographed image, which is limited according to an operator who operates the working unit for detecting the position. The position of the working unit is detected by the image processing for a global region that is the entire captured image when the position of the working unit is not detected from within the local region. 1. The mixed reality presentation device according to 1.
【請求項4】 複数の作業者が所定の複合現実環境内で
仮想物体を共用しながら所定の作業を行うために、前記
仮想物体の3次元仮想画像を生成して、前記複数の作業
者の各々に装着されたシースルー型表示装置に表示する
複合現実感提示方法であって、 前記所定の作業で使用される前記複数の作業者の作業部
の個々の位置を、同一の撮影画像から画像処理により同
一座標系において検出する検出ステップと、 前記複数の作業者個々に取り付けられ、前記作業者個々
の視点位置を検出するセンサによって検出された視点位
置を用いて、世界座標系からカメラ座標系への変換を行
うビューイング変換係数を求め、前記作業者の個々の頭
部に固定されたカメラの撮影画像を用いて該ビューイン
グ変換係数を補正することにより、前記複数の作業者個
々について補正されたビューイング変換係数を求める補
正ステップと、 前記同一座標系において検出された複数の作業者の作業
部の個々の位置を用いて前記所定の作業の進行を管理す
る管理ステップと、 管理ステップによって管理されている前記共用される仮
想物体を示す3次元仮想画像を、前記複数の作業者の個
々について求められた補正されたビューイング係数を用
いて、前記複数の作業者の個々について生成し、該複数
の作業者各々のシースルー型表示装置に出力する生成ス
テップとを有することを特徴とする複合現実感提示方
法。
4. A plurality of workers within a predetermined mixed reality environment
In order to perform a predetermined work while sharing a virtual object ,
A mixed reality presentation method for generating a three-dimensional virtual image of a virtual object and displaying the virtual image on a see-through type display device attached to each of the plurality of workers, wherein the plurality of the plurality of workers are used in the predetermined work . A detection step of detecting individual positions of the working part of the worker in the same coordinate system by image processing from the same captured image; and a sensor attached to each of the plurality of workers and detecting a viewpoint position of the individual worker. Using the viewpoint position detected by the above, the viewing transformation coefficient for transforming from the world coordinate system to the camera coordinate system is obtained, and the view is obtained by using the image captured by the camera fixed to each head of the worker. A correction step of correcting the viewing conversion coefficient for each of the plurality of workers by correcting the viewing conversion coefficient; A management step of managing the progress of the predetermined work by using the individual position of the working portion of the number of workers, temporary the shared managed by the management step
A three-dimensional virtual image showing a virtual object is generated for each of the plurality of workers using the corrected viewing coefficient obtained for each of the plurality of workers, and the see-through of each of the plurality of workers is generated. Mixed reality presentation method, which comprises: a generation step of outputting to a type display device.
JP23637697A 1997-09-01 1997-09-01 Mixed reality presentation apparatus and method Expired - Fee Related JP3486536B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP23637697A JP3486536B2 (en) 1997-09-01 1997-09-01 Mixed reality presentation apparatus and method
US09/045,993 US6522312B2 (en) 1997-09-01 1998-03-23 Apparatus for presenting mixed reality shared among operators
DE69835321T DE69835321T2 (en) 1997-09-01 1998-03-24 Apparatus and method for displaying mixed virtual reality, shared by multiple operators
AT98302186T ATE334453T1 (en) 1997-09-01 1998-03-24 DEVICE AND METHOD FOR REPRESENTING MIXED VIRTUAL REALITY, USED TOGETHER BY SEVERAL OPERATORS
EP98302186A EP0899690B1 (en) 1997-09-01 1998-03-24 Apparatus and method for presenting mixed virtual reality shared among operators

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23637697A JP3486536B2 (en) 1997-09-01 1997-09-01 Mixed reality presentation apparatus and method

Publications (2)

Publication Number Publication Date
JPH1188913A JPH1188913A (en) 1999-03-30
JP3486536B2 true JP3486536B2 (en) 2004-01-13

Family

ID=16999883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23637697A Expired - Fee Related JP3486536B2 (en) 1997-09-01 1997-09-01 Mixed reality presentation apparatus and method

Country Status (1)

Country Link
JP (1) JP3486536B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350865A (en) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Game device for composite real space, image processing method therefor and program storage medium
JP4649050B2 (en) 2001-03-13 2011-03-09 キヤノン株式会社 Image processing apparatus, image processing method, and control program
JP4253567B2 (en) 2003-03-28 2009-04-15 オリンパス株式会社 Data authoring processor
US7574070B2 (en) 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP4401728B2 (en) 2003-09-30 2010-01-20 キヤノン株式会社 Mixed reality space image generation method and mixed reality system
JP4366165B2 (en) * 2003-09-30 2009-11-18 キヤノン株式会社 Image display apparatus and method, and storage medium
JP2007219082A (en) * 2006-02-15 2007-08-30 Canon Inc Composite reality feeling display system
JP4847192B2 (en) 2006-04-14 2011-12-28 キヤノン株式会社 Image processing system, image processing apparatus, imaging apparatus, and control method thereof
JP4958497B2 (en) * 2006-08-07 2012-06-20 キヤノン株式会社 Position / orientation measuring apparatus, position / orientation measuring method, mixed reality presentation system, computer program, and storage medium
JP4989417B2 (en) 2007-10-26 2012-08-01 キヤノン株式会社 Image display system, image display apparatus, control method therefor, and computer program
JP2010217719A (en) * 2009-03-18 2010-09-30 Ricoh Co Ltd Wearable display device, and control method and program therefor
KR101313797B1 (en) 2009-12-18 2013-10-01 한국전자통신연구원 Apparatus and method for presenting display of 3D image using head tracking
JP5418386B2 (en) * 2010-04-19 2014-02-19 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4869430B1 (en) 2010-09-24 2012-02-08 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
JP5891125B2 (en) * 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント Video processing apparatus, video processing method, and video processing system
WO2015139002A1 (en) * 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
US11468868B2 (en) * 2017-12-20 2022-10-11 Sony Corporation Information processing apparatus and information processing method to perform transition display control
WO2019150781A1 (en) * 2018-01-30 2019-08-08 ソニー株式会社 Information processing device, information processing method, and program
JP6940119B2 (en) * 2019-11-30 2021-09-22 株式会社Embedded Wings Multiplayer game execution system, multiplayer game execution method, and multiplayer game execution program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"CGと巧みにミックス 「複合現実感」成果相次ぐ",日本経済新聞,日本経済新聞社,1997年, 7月 7日,p.19
Andrei State,Superior Augmented Reality Registration by Integrating Landmark Tracking and Magnetic Tracking,Proceedings of the23rd annual conference on Computer graphics and interactivetechniques,米国,ACM,1996年,p.429−438
Michael Bajura,Dynamic Registration Correction in Video−Based Augmented Reality Systems,Computer Graphics and Applications,米国,IEEE,1995年,Vol.15,No.5,p.52−60

Also Published As

Publication number Publication date
JPH1188913A (en) 1999-03-30

Similar Documents

Publication Publication Date Title
JP3450704B2 (en) Position and orientation detection apparatus and information processing method
JP3486536B2 (en) Mixed reality presentation apparatus and method
EP0899690B1 (en) Apparatus and method for presenting mixed virtual reality shared among operators
JPH1184307A (en) Head-mounted optical device
JP3631151B2 (en) Information processing apparatus, mixed reality presentation apparatus and method, and storage medium
US7529387B2 (en) Placement information estimating method and information processing device
US7671875B2 (en) Information processing method and apparatus
You et al. Fusion of vision and gyro tracking for robust augmented reality registration
US7295697B1 (en) Depth information measurement apparatus and mixed reality presentation system
US7002551B2 (en) Optical see-through augmented reality modified-scale display
JP3530772B2 (en) Mixed reality device and mixed reality space image generation method
US20050261573A1 (en) Method and apparatus for determining position and orientation
WO2013027628A1 (en) Information processing device, information processing method, and program
US20050251030A1 (en) Method for augmented reality instrument placement using an image based navigation system
JP3793158B2 (en) Information processing method and information processing apparatus
CN109242887A (en) A kind of real-time body&#39;s upper limks movements method for catching based on multiple-camera and IMU
JP2021105887A (en) Three-dimensional pose obtaining method and device
US20050074161A1 (en) System and method for the measurement of the relative position of an object with respect to a point of reference
JP4205004B2 (en) Calibration method
JP2002259984A (en) Motion analyzing device and motion analyzing method
KR20220092053A (en) Method for Constructing Virtual Space Movement Platform Using Cross-covariance 3D Coordinate Estimation
EP1089215A1 (en) Optical sensing and control of movements using multiple passive sensors
Hu et al. Camera self-calibration from ellipse correspondences
Wang et al. Real-time registration of video with ultrasound using stereo disparity
JP2008122109A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031014

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081024

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091024

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091024

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101024

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101024

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees