JPH11136706A - Position attitude sensor, position attitude detection method, composite reality providing device, game machine, composite reality providing method and storage medium - Google Patents

Position attitude sensor, position attitude detection method, composite reality providing device, game machine, composite reality providing method and storage medium

Info

Publication number
JPH11136706A
JPH11136706A JP10065824A JP6582498A JPH11136706A JP H11136706 A JPH11136706 A JP H11136706A JP 10065824 A JP10065824 A JP 10065824A JP 6582498 A JP6582498 A JP 6582498A JP H11136706 A JPH11136706 A JP H11136706A
Authority
JP
Japan
Prior art keywords
marker
orientation
markers
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10065824A
Other languages
Japanese (ja)
Other versions
JP3450704B2 (en
Inventor
Kiyohide Sato
清秀 佐藤
Hiroyuki Yamamoto
裕之 山本
Toshiichi Oshima
登志一 大島
Takasato Taniguchi
尚郷 谷口
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Original Assignee
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MR SYSTEM KENKYUSHO KK, MR System Kenkyusho KK filed Critical MR SYSTEM KENKYUSHO KK
Priority to JP06582498A priority Critical patent/JP3450704B2/en
Priority to US09/045,993 priority patent/US6522312B2/en
Priority to EP98302186A priority patent/EP0899690B1/en
Priority to DE69835321T priority patent/DE69835321T2/en
Priority to AT98302186T priority patent/ATE334453T1/en
Publication of JPH11136706A publication Critical patent/JPH11136706A/en
Application granted granted Critical
Publication of JP3450704B2 publication Critical patent/JP3450704B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera

Abstract

PROBLEM TO BE SOLVED: To provide a system presenting composite reality that accurately catches a player moving over a wide range. SOLUTION: The game machine is provided with a work stand 1000 having pluralities of markers placed at known positions, attitude sensors 220 (220L, 220R) that are mounted on a player to sense a head attitude of the player, and cameras 240 (240L, 240R) that are set to receive at least one of pluralities of the markers within the visual field. Then the position of the head is detected based on an output from the attitude sensors 220, and the detected head position signal is corrected by applying image processing to an image signal from the cameras 240 to detect positions of the cameras 240 and a virtual image is generated to provide composite reality at a visual point depending on the corrected head position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばコンピュー
タグラフィックスによる仮想画像を現実の空間に結合さ
せた複合現実感を作業者に提示するなどの場合のよう
に、作業者の三次元上の位置もしくは姿勢を精度よく検
出する位置姿勢検出装置および位置姿勢検出方法に関
し、特に、複合現実感を提示される作業者の例えば頭部
位置検出の精度の改良に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of presenting a mixed reality in which a virtual image formed by computer graphics is combined with a real space to a worker, for example, and presenting the worker with a three-dimensional position. Also, the present invention relates to a position / posture detection device and a position / posture detection method for accurately detecting a posture, and more particularly, to an improvement in the accuracy of detecting, for example, a head position of an operator who is presented with mixed reality.

【0002】[0002]

【従来の技術】近年、現実空間と仮想空間の繋ぎ目のな
い(seemless)結合を目的とした複合現実感(以下、「M
R」(Mixed Reality)と称す)に関する研究が盛んにな
っている。MRは、従来、現実空間と切り離された状況
でのみ体験可能であったバーチャルリアリティ(以下V
Rと略す)の世界と現実空間との共存を目的とし、VR
を増強する技術として注目されている。
2. Description of the Related Art Recently, mixed reality (hereinafter referred to as "M") for the purpose of seamlessly connecting a real space and a virtual space.
R "(called Mixed Reality). MR is a virtual reality (hereinafter, referred to as V) that can be experienced only in a situation separated from the real space.
R) and VR for the coexistence of the real world
Has been attracting attention as a technology to enhance the quality of the product.

【0003】MRの応用としては、患者の体内の様子を
透視しているように医師に提示する医療補助の用途や、
工場において製品の組み立て手順を実物に重ねて表示す
る作業補助の用途など、今までのVRとは質的に全く異
なった新たな分野が期待されている。これらの応用に対
して共通に要求されるのは、現実空間と仮想空間の間の
“ずれ”をいかにして取り除くかという技術である。
“ずれ”は、位置ずれ、時間ずれ、質的ずれに分類可能
であり、この中でも最も基本的な要求といえる位置ずれ
の解消(即ち、位置合わせ)については、従来から多く
の取り組みが行われてきた。
[0003] Applications of MR include medical assistance for presenting to a physician a transparent view of the inside of a patient's body,
New fields that are completely different in quality from conventional VRs are expected, such as the use of work assistance to display the assembly procedure of a product on a real product in a factory. A common requirement for these applications is how to remove the "shift" between real space and virtual space.
The “displacement” can be classified into a displacement, a time displacement, and a qualitative displacement, and among these, a great deal of efforts have been made to eliminate the displacement (ie, positioning), which is the most basic requirement. Have been.

【0004】ビデオカメラで撮影された映像に仮想物体
を重畳するビデオシースルー(Video-See-Through)方式
のMRの場合、位置合せの問題は、そのビデオカメラの
3次元位置を正確に求める問題に帰結される。半透過型
のHMD(Head Mount Display)を用いる光学シースルー
(Optic-See-Through)方式のMRの場合における位置合
せの問題は、ユーザーの視点の3次元位置を求める問題
といえ、それらの計測法としては、磁気センサや超音波
センサ、ジャイロといった3次元位置方位センサ利用が
一般的であるが、これらの精度は必ずしも十分とはいえ
ず、その誤差が位置ずれの原因となる。
In the case of a video-see-through MR in which a virtual object is superimposed on an image shot by a video camera, the problem of alignment is that the three-dimensional position of the video camera is accurately determined. It is a consequence. Optical see-through using transflective HMD (Head Mount Display)
The problem of positioning in the case of (Optic-See-Through) type MR can be said to be the problem of finding the three-dimensional position of the user's viewpoint, and their measurement methods are three-dimensional such as magnetic sensors, ultrasonic sensors, and gyros. Although use of a position and orientation sensor is common, the accuracy of these is not always sufficient, and an error thereof causes a position shift.

【0005】一方、ビデオシースルー方式の場合には、
このようなセンサを用いずに画像情報を元に画像上での
位置合わせを直接行う手法も考えられる。この手法では
位置ずれを直接取り扱えるために、位置合わせが精度よ
く行える反面、実時間性や信頼性の欠如などの問題があ
った。近年になって、位置方位センサと画像情報の併用
により、両者の欠点を互いに補って精度よい位置合わせ
を実現する試みが報告されている。
On the other hand, in the case of the video see-through system,
A method of directly performing positioning on an image based on image information without using such a sensor is also conceivable. In this method, since the displacement can be directly handled, the positioning can be performed with high accuracy, but there are problems such as lack of real-time performance and reliability. In recent years, attempts have been reported to achieve accurate alignment by using both a position and orientation sensor and image information to compensate for the disadvantages of both.

【0006】1つの試みとして、「Dynamic Registrati
on Correction in Video-Based-Augmented Reality Sys
tems」(Bajura MichaelとUlrich Neuman, IEEE Compute
r Graphics and Applications 15, 5, pp. 52-60, 199
5)(以下、第1文献と呼ぶ)は、ビデオシースルー方式
のMRにおいて、磁気センサの誤差によって生じる位置
ずれを画像情報によって補正する手法を提案した。
As one attempt, “Dynamic Registrati
on Correction in Video-Based-Augmented Reality Sys
tems '' (Bajura Michael and Ulrich Neuman, IEEE Compute
r Graphics and Applications 15, 5, pp. 52-60, 199
5) (hereinafter referred to as the first document) proposed a method of correcting a position shift caused by an error of a magnetic sensor by image information in a video see-through type MR.

【0007】また、「Superior Augmented Reality Reg
istration by Integrating Landmark Tracking and Mag
netic Tracking」(State Andrei等, Proc. of SIGGRAPH
96,pp. 429-438, 1996)(以下、第2文献と呼ぶ)は、
さらにこの手法を発展させ、画像情報による位置推定の
曖昧性をセンサ情報によって補う手法を提案した。上記
第2文献は、位置方位センサposition-azimuth sensor
のみを用いてビデオシースルー方式のMR提示システム
を構築した場合において、そのセンサの誤差が原因とな
って画像上に発生する位置ずれを解消するために、3次
元位置が既知であるランドマークを現実空間に設定す
る。このランドマークは、その位置ずれを画像情報から
検出するための手掛かりとなる。
[0007] Also, "Superior Augmented Reality Reg"
istration by Integrating Landmark Tracking and Mag
netic Tracking '' (State Andrei et al., Proc. of SIGGRAPH
96, pp. 429-438, 1996) (hereinafter referred to as the second document)
We further developed this method and proposed a method to compensate for the ambiguity of position estimation by image information using sensor information. The above-mentioned second document describes a position-azimuth sensor.
When a video see-through type MR presentation system is constructed using only the three-dimensional position, a landmark whose three-dimensional position is known is actually removed in order to eliminate a position shift occurring on an image due to an error of the sensor. Set to space. The landmark serves as a clue for detecting the displacement from the image information.

【0008】位置方位センサの出力に誤差が含まれてい
ないとすると、画像上で実際に観測されるランドマーク
の座標(QIとする)と、そのセンサ出力に基づいて得
られるカメラ位置とランドマークの3次元位置とから導
きだされるランドマークの観測予測座標(PIとする)
とは、同一となるはずである。しかし、実際にはセンサ
出力に基づいて得られたカメラ位置は正確ではないた
め、ランドマークの座標QIと観測予測座標PIは一致し
ない。このPIとQIのずれは、ランドマーク位置におけ
る仮想空間と現実空間の位置ずれを表しており、このた
めに、画像からランドマーク位置を抽出することで、ず
れの向きと大きさが算出できる。
[0008] When the output of the position azimuth sensor does not contain errors, the landmarks are actually observed on the image coordinates (the Q I), a camera position obtained based on the sensor output lands observation predicted coordinate landmarks to Dasa led from the three-dimensional position of the mark (and P I)
Should be the same. However, since actually the camera position obtained based on the sensor output is not exact, the coordinates Q I and observation predicted coordinate P I landmarks do not match. The shift between P I and Q I represents the shift between the virtual space and the real space at the landmark position. For this reason, the direction and magnitude of the shift are calculated by extracting the landmark position from the image. it can.

【0009】このように、画像上での位置ずれを定量的
に計測することにより、位置ずれを解消するようなカメ
ラ位置の補正が可能となる。方位センサと画像を併用す
る最も単純な位置合わせ方式は、1点のランドマークを
用いたセンサ誤差の補正と考えられ、画像上のランドマ
ークの位置ずれに応じてカメラ位置を平行移動または回
転させる手法が第1文献によって提案されている。
As described above, by quantitatively measuring the displacement on the image, the camera position can be corrected so as to eliminate the displacement. The simplest alignment method that uses an azimuth sensor and an image is considered to be correction of a sensor error using a single landmark, and the camera position is translated or rotated according to the displacement of the landmark on the image. An approach has been proposed by the first document.

【0010】第1図に、1点のランドマークを用いた位
置ずれ補正の基本的な考え方を示す。以下では、カメラ
の内部パラメータを既知として、歪みなどの影響を除外
した理想的な撮像系によって画像撮影が行われているも
のと仮定する。カメラの視点位置をC、画像上でのラン
ドマークの観測座標をQI 、現実空間のランドマーク位
置をQIとすると、点QIは点Cと点QIを結ぶ直線lQ
に存在する。一方、位置方位センサによって与えられる
カメラ位置からは、カメラ座標系におけるランドマーク
位置PCと、その画像上での観測座標PIとが推測でき
る。以下では、点Cから点QI、点PIへの3次元ベクト
ルを、それぞれvl、v2と表記する。この方法では、補
正後のランドマークの観測予測座標符P'IがQIに一致
するように(すなわち、カメラ座標系における補正後の
ランドマーク予測位置P'Cが、直線lQ上に乗るよう
に)、カメラと物体の相対的な位置情報を修正する事に
よって、位置ずれが補正される。
FIG. 1 shows the basic concept of positional deviation correction using one landmark. In the following, it is assumed that the internal parameters of the camera are known, and the image is captured by an ideal imaging system excluding the influence of distortion and the like. Present the point of view of the camera C, and the observation coordinate of the landmark in the image Q I, the landmark position in real space and Q I, on the straight line l Q is the point Q I connecting the point C and the point Q I I do. On the other hand, from the camera position given by the position orientation sensor, and the landmark position P C in the camera coordinate system, and the observation coordinate P I on the image can be estimated. Hereinafter, the three-dimensional vectors from the point C to the point Q I and the point P I are denoted as v l and v 2 , respectively. In this method, the observed predicted coordinate mark P ′ I of the corrected landmark coincides with Q I (that is, the corrected landmark predicted position P ′ C in the camera coordinate system is on the straight line l Q ). By correcting the relative positional information between the camera and the object, the positional deviation is corrected.

【0011】ランドマークの位置ずれを、カメラ位置の
回転によって補正することを考える。これは、二つのベ
クトルvl、v2の成す角θだけカメラが回転するよう
に、カメラの位置情報に修正を加えることにより実現で
きる。実際の計算では、上記ベクトルvl、v2を正規化
したベクトルvln、v2nを用いて、その外積vln×v2n
を回転軸に、内積v1n・v2nを回転角として、点Cを中
心にカメラを回転させる。
It is considered that the displacement of the landmark is corrected by rotating the camera position. This can be realized by modifying the position information of the camera so that the camera rotates by the angle θ formed by the two vectors v l and v 2 . In the actual calculation, the vector v l, v 2 a normalized vector v ln, with v 2n, the cross product v ln × v 2n
Is rotated around the point C with the rotation axis as the rotation axis and the inner product v 1n .v 2n as the rotation angle.

【0012】ランドマークの位置ずれを、カメラ位置の
相対的な平行移動によって補正することを考える。これ
は、仮想世界中の物体位置をv=n(v1−v2)だけ平
行移動させることで実現できる。ここでnは、次式によ
って定義されるスケールファクタである。
It is considered that the displacement of the landmark is corrected by the relative translation of the camera position. This can be realized by translating the object positions in the virtual world by v = n (v 1 −v 2 ). Here, n is a scale factor defined by the following equation.

【0013】[0013]

【数1】 (Equation 1)

【0014】ここで、|AB|は点Aと点Bの間の距離
を示す記号とする。また、カメラが−vだけ平行移動す
るようにカメラの位置情報に修正を加えることでも、同
様の補正が可能となる。これは、この操作によって、相
対的に仮想物体がvだけ移動したことに等しくなるため
である。以上の2つの手法は、ランドマーク上での位置
ずれを2次元的に一致させる手法であり、3次元的に正
しい位置にカメラ位置を補正することではない。しか
し、センサ誤差が小さい場合には十分な効果が期待でき
るものであり、また、補正のための計算コストは非常に
小さなものであり、実時間性に優れた手法である。
Here, | AB | is a symbol indicating the distance between points A and B. The same correction can be made by modifying the position information of the camera so that the camera moves in parallel by −v. This is because this operation is equivalent to relatively moving the virtual object by v. The above two methods are methods for two-dimensionally matching positional displacements on landmarks, and do not correct camera positions to three-dimensionally correct positions. However, when the sensor error is small, a sufficient effect can be expected, and the calculation cost for correction is very small, so that the method is excellent in real time.

【0015】[0015]

【発明が解決しようとする課題】しかしながら、上記文
献に示された手法では、唯一のマーカの撮像画像内での
位置を捕捉することが必要であるから、そのマーカが常
にカメラに撮影されていなくてはならないという制約が
あるため、ごく限られた範囲の空間しか見ることができ
なかった。
However, in the technique disclosed in the above-mentioned document, it is necessary to capture the position of the only marker in the captured image, so that the marker is not always photographed by the camera. Due to the restriction that it must not be seen, only a very limited range of space could be seen.

【0016】ましてや、複数の作業者が共通の複合現実
空間を共有する場合には、1つのマーカのみでは上記制
約は致命的である。
Furthermore, when a plurality of workers share a common mixed reality space, the above restriction is fatal with only one marker.

【0017】[0017]

【課題を解決するための手段】本発明はこのような事態
に鑑みてなされたもので、その目的は、広い範囲で移動
する作業者の特定の作業部位を精度良く捕捉することを
可能にした位置姿勢検出装置、方法、さらには、この姿
勢検出に基づく複合現実感提示装置を提案することを目
的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to accurately capture a specific work site of a worker who moves in a wide range. It is an object of the present invention to propose a position and orientation detection apparatus and method, and a mixed reality presentation apparatus based on the orientation detection.

【0018】上記課題を達成するための、本発明の請求
項1にかかる、作業者が所定の複合現実環境内で行う作
業を表す3次元仮想画像を生成するために、該作業者の
作業位置を検出する位置姿勢検出装置は、該作業者の三
次元位置姿勢を計測して、作業者位置姿勢信号を出力す
る位置姿勢センサと、前記環境内の既知の位置に設けら
れた第1の複数のマーカを撮像するカメラと、前記カメ
ラからの画像信号を処理して、前記第1の複数のマーカ
の中の任意のマーカを追跡し、この追跡マーカの座標値
を検出する検出手段と、前記検出手段によって得られた
前記追跡マーカの座標値と前記位置姿勢センサからの作
業者位置姿勢信号とに基づいて、前記作業部位の位置姿
勢を表す部位位置姿勢を演算する演算手段とを具備す
る。
In order to achieve the above object, according to claim 1 of the present invention, in order to generate a three-dimensional virtual image representing a work performed by a worker in a predetermined mixed reality environment, the work position of the worker is generated. A position and orientation sensor that measures the three-dimensional position and orientation of the worker and outputs a worker position and orientation signal, and a first plurality of sensors provided at known positions in the environment. A camera that captures an image of the marker, a detection unit that processes an image signal from the camera to track an arbitrary marker among the first plurality of markers, and detects a coordinate value of the tracking marker; Calculating means for calculating a part position and orientation representing the position and orientation of the work part based on the coordinate value of the tracking marker obtained by the detecting means and an operator position and orientation signal from the position and orientation sensor.

【0019】また、同目的を達成するための本発明の請
求項40にかかる、作業者が所定の複合現実環境内で行
う作業に関連する3次元仮想画像を生成するために、該
作業者の作業位置を検出する位置姿勢検出方法は、該作
業者の三次元位置姿勢を計測して位置姿勢信号を出力す
る工程と、前記環境内の既知の位置に設けられた複数の
マーカを撮像するカメラからの画像信号を処理して、少
なくとも1つのマーカを追跡して、この追跡マーカの座
標を検出する工程と、この追跡マーカの座標と前記位置
姿勢信号とに基づいて、前記作業者の頭部の位置姿勢を
表す信号を出力する工程とを具備することを特徴とす
る。
In order to achieve the above object, according to claim 40 of the present invention, in order to generate a three-dimensional virtual image related to a work performed by the worker in a predetermined mixed reality environment, the worker is required to generate a three-dimensional virtual image. A position and orientation detection method for detecting a work position includes a step of measuring a three-dimensional position and orientation of the worker and outputting a position and orientation signal, and a camera for imaging a plurality of markers provided at known positions in the environment. Processing the at least one marker to detect the coordinates of the tracking marker, based on the coordinates of the tracking marker and the position / posture signal. And outputting a signal representing the position and orientation of (i).

【0020】また同目的を達成するための本発明の請求
項46に係る、作業者の作業位置を検出する位置姿勢検
出装置は、該作業者の三次元位置姿勢を計測して位置姿
勢信号を出力する位置姿勢センサと、前記環境内の既知
の位置に設けられた複数のマーカを撮像するカメラと、
前記カメラからの画像信号を処理して、前記複数のマー
カの中の任意のマーカを追跡し、この追跡マーカの座標
値を検出する検出手段と、前記検出手段によって得られ
た前記追跡マーカの座標値に基づいて、前記位置姿勢セ
ンサの出力信号を補正する補正手段とを具備する。
A position and orientation detecting apparatus for detecting a work position of an operator according to claim 46 of the present invention for achieving the object, measures a three-dimensional position and orientation of the worker and outputs a position and orientation signal. A position and orientation sensor that outputs, a camera that images a plurality of markers provided at known positions in the environment,
A detecting means for processing an image signal from the camera to track an arbitrary marker among the plurality of markers and detecting a coordinate value of the tracking marker; and a coordinate of the tracking marker obtained by the detecting means. Correction means for correcting the output signal of the position and orientation sensor based on the value.

【0021】また、上記課題を達成するための請求項2
5に係る本発明の複合現実感の提示装置は、既知の位置
に配置された第1の複数のマーカを有する作業台と、作
業者の頭部姿勢を検出するために作業者に装着される姿
勢センサと、前記第1の複数のマーカのうちの少なくと
も1つが視野に入るように設定されたカメラと、前記カ
メラからの画像信号を処理して、前記第1の複数のマー
カの中の任意のマーカを追跡し、この追跡マーカの座標
値を検出する検出手段と、前記検出手段によって得られ
た前記追跡マーカの座標値と前記位置姿勢センサからの
頭部位置姿勢信号とに基づいて、前記作業者の視点の位
置姿勢を表す視点の位置姿勢信号を演算する演算手段
と、前記視点の位置姿勢信号に応じた視点位置に、複合
現実感を提示するための仮想画像を生成する生成手段と
を具備することを特徴とする。
According to a second aspect of the present invention, there is provided the above-mentioned object.
5 is a workbench having a first plurality of markers arranged at a known position, and is attached to the worker to detect the posture of the head of the worker. An attitude sensor, a camera set so that at least one of the first plurality of markers is in a field of view, and processing an image signal from the camera so as to process any one of the first plurality of markers. Detecting a marker of the tracking marker, detecting a coordinate value of the tracking marker, based on a coordinate value of the tracking marker obtained by the detecting unit and a head position / posture signal from the position / posture sensor, Calculating means for calculating a position and orientation signal of the viewpoint representing the position and orientation of the viewpoint of the worker; and generating means for generating a virtual image for presenting mixed reality at a viewpoint position corresponding to the position and orientation signal of the viewpoint. It is characterized by having To.

【0022】上記請求項1,25,40及び46の構成
に因れば、少なくとも1つのマーカが画像中に捕捉され
るので、広い範囲で作業者が移動しても、作業者位置を
精度良く補正することが確実となる。本発明の好適な一
態様である請求項2に拠れば、前記第1の複数のマーカ
の内の、1つのマーカと他のマーカとの間の、作業者の
前方を横切る方向における距離は、作業者の前方におい
てより遠方にあるマーカ程、長くなるように設定されて
いる。画像内におけるマーカ間の距離を均等にすること
により、マーカの検出精度を均等にすることができる。
即ち、その結果、マーカ特定の精度の低下を防ぐことが
可能になる。
According to the arrangement of the first, second, third and fourth aspects, at least one marker is captured in the image, so that even if the worker moves over a wide range, the position of the worker can be accurately determined. Correction is assured. According to claim 2, which is a preferred aspect of the present invention, a distance between one marker and another marker among the first plurality of markers in a direction crossing the front of the worker is: The marker is set to be longer as the marker is farther in front of the worker. By equalizing the distance between the markers in the image, the marker detection accuracy can be equalized.
That is, as a result, it is possible to prevent a decrease in the accuracy of marker specification.

【0023】本発明の好適な一態様である請求項8に拠
れば、前記第1の複数のマーカの前記環境内における配
置分布密度は、作業者の前方のより遠方にあるマーカの
分布密度が、より近隣にあるマーカの分布密度よりも低
く設定されている。これによっても、マーカ特定の精度
の低下を防ぐことが可能になる。本発明の好適な一態様
である請求項3に拠れば、複数の作業者が協調作業を行
う場合において、同じ作業者のための複数のマーカは同
じ表現態様に統一されている。他の作業者のためのマー
カと区別が容易となる。
According to a preferred embodiment of the present invention, the distribution density of the first plurality of markers in the environment is such that the distribution density of the markers located farther in front of the worker is smaller than that of the first marker. , Is set lower than the distribution density of the markers in the vicinity. This also makes it possible to prevent a decrease in marker identification accuracy. According to claim 3, which is a preferred aspect of the present invention, when a plurality of workers perform cooperative work, a plurality of markers for the same worker are unified in the same expression form. It is easy to distinguish from markers for other workers.

【0024】本発明の好適な一態様に拠れば、前記部位
は作業者の頭部である。本発明の好適な一態様である請
求項5に拠れば、前記検出手段は、前記カメラが取得し
た画像中において最初に探索したマーカを用いる。本発
明では、特定のマーカが追跡され続ける必要はなく、ど
れか1つのマーカが発見されればよい。この一態様のよ
うに最初に探索したマーカを用いることによりマーカの
探索が容易となる。
According to a preferred aspect of the present invention, the site is a worker's head. According to claim 5, which is a preferred aspect of the present invention, the detecting means uses a marker first searched in an image acquired by the camera. In the present invention, a specific marker does not need to be kept tracked, but only one marker needs to be found. By using the marker searched first as in this embodiment, the marker search becomes easy.

【0025】本発明の好適な一態様である請求項6に拠
れば、前記検出手段は、前回のシーンの画像において探
索されたマーカを今回のシーンの画像中に探索する手段
を具備することを特徴とする。連続性が確保される。前
記位置姿勢センサは作業者のいずれの部分にも取り付け
可能であるが、本発明の好適な一態様である請求項7に
拠れば、前記位置姿勢センサは作業者の頭部に設けられ
ると、センサが作業者の視点位置と近接することとな
り、HMDへの適用が容易となる。
According to a preferred aspect of the present invention, the detecting means includes means for searching a marker searched in a previous scene image in a current scene image. Features. Continuity is ensured. The position and orientation sensor can be attached to any part of the worker, but according to claim 7, which is a preferred aspect of the present invention, when the position and orientation sensor is provided on the head of the worker, The sensor comes close to the worker's viewpoint position, which facilitates application to the HMD.

【0026】本発明の好適な一態様である請求項9に拠
れば、前記第1の複数のマーカは、前記カメラの視界内
に少なくとも1つが捕捉されるように前記環境内に配置
されたことを特徴とする。マーカの配置が、カメラの視
界内に少なくとも1つが捕捉されることを確保する。マ
ーカの検出は種々の座標系上で可能である。本発明の好
適な一態様である請求項10に拠れば、前記検出手段
は、前記追跡マーカの画像座標系での画像座標を検出す
ることを特徴とする。同じく、本発明の好適な一態様で
ある請求項11に拠れば、前記検出手段は、前記追跡マ
ーカのカメラ座標系での座標を検出することを特徴とす
る。
According to a preferred aspect of the present invention, the first plurality of markers are arranged in the environment such that at least one of the first plurality of markers is captured in the field of view of the camera. It is characterized by. The placement of the markers ensures that at least one is captured within the camera's field of view. Marker detection is possible on various coordinate systems. According to a tenth aspect of the present invention, the detecting means detects image coordinates of the tracking marker in an image coordinate system. Similarly, according to claim 11, which is a preferred aspect of the present invention, the detecting means detects coordinates of the tracking marker in a camera coordinate system.

【0027】本発明の好適な一態様である請求項12に
拠れば、前記第1の複数のマーカは前記環境内に配置さ
れた平面状のテーブルに描かれたマークである。共同作
業がテーブルの上で行われる場合に好適である。本発明
の好適な一態様である請求項13に拠れば、前記第1の
複数のマーカは前記環境内に三次元的位置に配置された
ことを特徴とする。マーカを三次元的に配置しなければ
ならない場合にも対処できる。
According to a twelfth aspect of the present invention, the first plurality of markers are marks drawn on a flat table arranged in the environment. It is suitable when joint work is performed on a table. According to a preferred embodiment of the present invention, the first plurality of markers are arranged at three-dimensional positions in the environment. It is possible to cope with a case where the markers must be arranged three-dimensionally.

【0028】本発明の好適な一態様である請求項14に
拠れば、前記検出手段は、追跡マーカを第1の複数のマ
ーカの中から同定する同定手段を有することを特徴とす
る。同じく、請求項15によれば、前記検出手段は、前
記カメラが捉えた画像内に第2の複数のマーカが検出さ
れた場合に、その第2の複数のマーカのなかから1つの
マーカを選択して追跡する手段を有することを特徴とす
る。
According to a fourteenth aspect of the present invention, the detecting means has an identifying means for identifying the tracking marker from the first plurality of markers. Similarly, according to claim 15, when the second plurality of markers are detected in the image captured by the camera, the detecting means selects one marker from the second plurality of markers. And means for tracking.

【0029】また、請求項16によれば、前記同定手段
は選択された追跡マーカを画像座標系で同定する。そし
て、更に、請求項18によれば、前記同定手段は、前記
作業者位置姿勢信号に基づいて前記カメラの位置姿勢信
号を求め、このカメラの位置姿勢信号により、前記第1
の複数のマーカの世界座標系における3次元座標を画像
座標値に変換し、この画像座標系における前記第1の複
数のマーカの座標と、前記追跡マーカの画像座標値とを
比較することにより、その追跡マーカを同定することを
特徴とする一方、請求項17によれば、前記同定手段
は、選択された追跡マーカを世界座標系で同定する。そ
して、請求項19によれば、前記同定手段は、前記作業
者位置姿勢信号に基づいて前記カメラの位置姿勢信号を
求め、このカメラの位置姿勢信号により前記追跡マーカ
のカメラ座標系における座標を世界座標系の値に変換
し、この世界座標系における前記追跡マーカの座標と、
前記第1の複数のマーカの世界座標系の座標値とを比較
することにより、その追跡マーカを同定することを特徴
とする。
According to the sixteenth aspect, the identification means identifies the selected tracking marker in an image coordinate system. Further, according to claim 18, the identification means obtains a position and orientation signal of the camera based on the worker position and orientation signal, and the first position is determined by the position and orientation signal of the camera.
By converting the three-dimensional coordinates of the plurality of markers in the world coordinate system into image coordinate values, and comparing the coordinates of the first plurality of markers in the image coordinate system with the image coordinate values of the tracking marker, According to a seventeenth aspect of the present invention, the identification means identifies the selected tracking marker in a world coordinate system. According to claim 19, the identification means obtains a position and orientation signal of the camera based on the worker position and orientation signal, and calculates the coordinates of the tracking marker in the camera coordinate system based on the position and orientation signal of the camera. Converted into a coordinate system value, the coordinates of the tracking marker in this world coordinate system,
The tracking marker is identified by comparing the coordinate values of the first plurality of markers with the world coordinate system.

【0030】また、画像座標系を用いる場合には、本発
明の好適な一態様である請求項20に拠れば、前記部位
は作業者の視点位置であって、前記演算手段は、前記作
業者位置姿勢信号と、前記同定手段によって同定された
追跡マーカの画像座標値と、当該追跡マーカの三次元位
置を画像座標系に変換した値との誤差距離とに基づい
て、作業者の視点位置での位置姿勢信号を求める。位置
姿勢センサの誤差は上記誤差距離に現れるからである。
In the case where an image coordinate system is used, according to a preferred aspect of the present invention, the part is a viewpoint position of a worker, and the calculating means includes Based on the position and orientation signal, the image coordinate value of the tracking marker identified by the identification means, and the error distance between the value obtained by converting the three-dimensional position of the tracking marker into an image coordinate system, the position of the worker's viewpoint is determined. Is obtained. This is because the error of the position and orientation sensor appears in the above error distance.

【0031】また、世界座標系を用いる場合には、本発
明の好適な一態様である請求項21に拠れば、前記部位
は作業者の視点位置であって、前記演算手段は、前記作
業者位置姿勢信号と、前記同定手段によって同定された
追跡マーカのカメラ座標系による座標を世界座標系に変
換した座標値と、当該追跡マーカの三次元位置との誤差
距離とに基づいて、作業者の視点位置での位置姿勢信号
を求める。
In a case where the world coordinate system is used, according to a preferred aspect of the present invention, the part is a viewpoint position of an operator, and the calculating means includes The position and orientation signal, a coordinate value obtained by converting the coordinates of the tracking marker identified by the identification means in the camera coordinate system into the world coordinate system, and an error distance between the three-dimensional position of the tracking marker and the A position and orientation signal at the viewpoint position is obtained.

【0032】カメラは1つである必要はない。而して、
本発明の好適な一態様である請求項23に拠れば、前記
カメラは作業者に装着される複数のユニットを有する。
追跡マーカの座標がカメラ座標値で検出できるため、位
置姿勢センサの誤差の修正を三次元に行うことができ
る。また、追跡マーカの同定を世界座標系で行えるた
め、特に、マーカが三次元的に配置された場合にも対処
できる。画像座標系での追跡マーカの同定と比べて精度
の向上が期待できる。
The camera need not be one. Thus,
According to claim 23, which is a preferred aspect of the present invention, the camera has a plurality of units mounted on an operator.
Since the coordinates of the tracking marker can be detected by the camera coordinate value, the error of the position and orientation sensor can be corrected three-dimensionally. Further, since the tracking marker can be identified in the world coordinate system, it is possible to cope particularly with the case where the markers are three-dimensionally arranged. The accuracy can be expected to be improved as compared with the identification of the tracking marker in the image coordinate system.

【0033】[0033]

【発明の実施の形態】以下、本発明の、複合現実感の提
示手法及びHMDを、エアーホッケーゲーム装置に適用
した実施形態に係わるシステムを説明する。エアーホッ
ケーゲームは相手の存在する対戦型のゲームであり、通
常、下部から圧縮空気を供給してパックを浮かして、こ
のパックを打ち合い、相手のゴールにパックを入れたら
得点が入る。得点の多い方を勝者とするゲームである。
本実施形態のMRを適用したエアホッケーゲームは、仮
想のパックを仮想3次元画像として現実環境のテーブル
の上に重畳表示してプレーヤーに提示して、その仮想パ
ックをプレーヤに現実のマレットで仮想的に打ち合わせ
るものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a system according to an embodiment in which a mixed reality presentation method and an HMD of the present invention are applied to an air hockey game device will be described. The air hockey game is a competitive game in which an opponent exists. Usually, a puck is floated by supplying compressed air from the lower part, the puck is beaten, and the puck is scored when the puck is put into the opponent's goal. In this game, the player with the highest score wins.
In the air hockey game to which the MR according to the present embodiment is applied, a virtual puck is displayed as a virtual three-dimensional image on a table in a real environment by superimposing the virtual puck on a table in a real environment, and the virtual puck is provided to a player by a real mallet. It is something to discuss.

【0034】このゲーム装置の特徴は、 :共通のカメラで複数の作業者に共通の現実世界を撮
影し、その共通の画像の中に複数の作業者によって操作
される作業用アクチュエータ(本実施形態ではマレッ
ト)を特定することによって、1つの複合現実世界を現
出させ、複数人で共有可能ならしめる。 :広範な現実空間内で大きく移動する作業者の視点位
置を精度良く検出するために、頭部の位置と姿勢とを検
出する磁気センサの他に、カメラを作業者の頭部に装着
し、このカメラが、ゲームプレー用テーブルの上に設け
られた複数のマーカの中の少なくとも1つのマーカを撮
像ならしめ、この撮像されたマーカの画像座標とそのマ
ーカの既知の位置との差異から、上記磁気センサが検出
した頭部の位置/姿勢(即ち、作業者の視点の位置及び
姿勢)を補正するものである。
The features of this game device are as follows: a common camera is used to photograph a real world common to a plurality of workers, and a working actuator operated by the plurality of workers in the common image (this embodiment) Then, by specifying the mallet), one mixed reality world appears and it can be shared by multiple people. : In order to accurately detect the viewpoint position of a worker who moves greatly in a wide real space, a camera is mounted on the worker's head in addition to a magnetic sensor that detects the position and posture of the head, The camera captures an image of at least one marker among the plurality of markers provided on the game play table. Based on a difference between the image coordinates of the captured marker and the known position of the marker, It corrects the position / posture of the head detected by the magnetic sensor (that is, the position and posture of the viewpoint of the worker).

【0035】〈ゲーム装置の構成〉第2図は、本実施形
態のシステムのゲーム装置部分を側面から見た図であ
る。複合現実感のエアーホッケーゲームは、テーブル1
000を挟んで、二人の対戦者2000,3000が手
にマレット(260L,260R)をもって向かい合
う。二人の対戦者2000,3000は頭部にヘッドマ
ウントデイスプレイ(以下HMDと略す)210L,2
10Rを装着する。本実施形態のマレットは、その先端
に赤外線発光器を有している。後述するように、本実施
形態では、画像処理によりマレット位置を検出するが、
マレットの形状や色に特徴があるのであれば、それらの
特徴を用いたパターン認識によるマレット位置の検出も
可能である。
<Structure of Game Apparatus> FIG. 2 is a side view of a game apparatus portion of the system according to the present embodiment. Mixed reality air hockey game is played on table 1
The two opponents 2000, 3000 face each other with a mallet (260L, 260R) in between. Two opponents 2000, 3000 have a head mounted display (hereinafter abbreviated as HMD) 210L, 2
Attach 10R. The mallet of the present embodiment has an infrared light emitter at its tip. As described later, in the present embodiment, the mallet position is detected by image processing.
If there is a characteristic in the shape and color of the mallet, it is also possible to detect the mallet position by pattern recognition using those characteristics.

【0036】実施形態のHMD210は、第4図に示す
ようにシースルー型である。両対戦者2000,300
0は、HMD210L,210Rを装着していても、テ
ーブル1000の表面を観察することができる。HMD
210には後述の画像処理システムから三次元仮想画像
が入力される。従って、対戦者2000,3000は、
HMD210の光学系(第2図には不図示)を通した現
実空間の映像に重ねて、HMD210の表示画面に表示
された三次元画像を見ることとなる。
The HMD 210 of the embodiment is of a see-through type as shown in FIG. Two opponents 2000, 300
0 indicates that the surface of the table 1000 can be observed even when the HMDs 210L and 210R are mounted. HMD
A three-dimensional virtual image is input to 210 from an image processing system described later. Therefore, the opponents 2000, 3000
The three-dimensional image displayed on the display screen of the HMD 210 is superimposed on the image of the real space passed through the optical system of the HMD 210 (not shown in FIG. 2).

【0037】第3図は、左側プレーヤ2000が自身の
HMD210Lからみた映像を示す。二人のプレーヤ2
000,3000は仮想のパック1500を打ち合う。
パック1500を打つのはプレーヤ2000(プレーヤ
3000)が手に握っている現実のマレット260L
(260R)を用いる。プレーヤ2000は手にマレッ
ト260Lを握っている。相手プレーヤ3000の直前
にはゴール1200Rが見える。後述の画像処理システ
ム(第3図には不図示)は、ゴール1200Rが相手方
近傍に見えるように、三次元CGを生成してHMD21
0Lに表示する。
FIG. 3 shows an image viewed from the HMD 210L by the left player 2000. Two players 2
000,3000 hit virtual pack 1500.
Hitting the pack 1500 is a real mallet 260L held by the player 2000 (player 3000).
(260R) is used. Player 2000 holds mallet 260L in his hand. The goal 1200R can be seen just before the opponent player 3000. An image processing system described later (not shown in FIG. 3) generates a three-dimensional CG and generates an HMD 21 so that the goal 1200R can be seen near the opponent.
Display at 0L.

【0038】対するプレーヤ3000も、HMD210
Rを介してプレーヤ3000の近傍にゴール1200L
を見ることとなる。パック1500も後述の画像処理シ
ステムにより生成されて、各々のHMDに表示される。 〈磁気センサ付きHMD〉第4図は、HMD210の構
成を示す。このHMD210は、例えば特開平7−33
3551号のHMDの本体に、磁気センサ220を支柱
221を介して取り付けたものである。図中、211は
LCD表示パネルである。LCD表示パネルからの光
は、光学部材212に入射し、全反射面214にて反射
して、凹面ミラー213の全反射面にて反射して、全反
射面214を透過して観察者の目に届く。
On the other hand, the player 3000 also has the HMD 210
Goal 1200L near the player 3000 via R
Will be seen. The pack 1500 is also generated by an image processing system described later and displayed on each HMD. <HMD with Magnetic Sensor> FIG. 4 shows the configuration of the HMD 210. The HMD 210 is disclosed in, for example,
The magnetic sensor 220 is attached to the main body of the HMD of No. 3551 via a column 221. In the figure, reference numeral 211 denotes an LCD display panel. The light from the LCD display panel enters the optical member 212, is reflected by the total reflection surface 214, is reflected by the total reflection surface of the concave mirror 213, passes through the total reflection surface 214, and passes through the eyes of the observer. Reaches

【0039】磁気センサ220は、本実施形態では、Po
lhemus社の磁気センサFastrackを用いた。磁気センサは
磁気ノイズに弱いので、プラスティック製の支柱221
により、ノイズ発生源である表示パネル211及びカメ
ラ240から離間した。尚、第4図に示したHMDに磁
気センサ及び(又は)カメラを取り付ける構成は、光学
的シースルー方式の(透視型の)HMDに限られず、ビ
デオシースルー方式の(遮蔽型の)HMDであっても、
磁気センサ及び(又は)カメラを、頭部位置及び姿勢を
正確に検出する目的で、そのHMDに装着することは可
能である。
In the present embodiment, the magnetic sensor 220 is Po
An lhemus magnetic sensor, Fastrack, was used. Since the magnetic sensor is vulnerable to magnetic noise, a plastic support 221 is used.
As a result, the display panel 211 and the camera 240, which are noise sources, were separated. The configuration in which the magnetic sensor and / or camera is attached to the HMD shown in FIG. 4 is not limited to the optical see-through (perspective) HMD, but is a video see-through (shielded) HMD. Also,
A magnetic sensor and / or camera can be attached to the HMD for the purpose of accurately detecting the head position and posture.

【0040】第2図において、夫々のHMD210はバ
ンド(不図示)によってプレーヤの頭部に固定される。
プレーヤの夫々の頭部には、第4図に示すように磁気セ
ンサ220が、第2図に示すようにCCDカメラ240
(240L,240R)が、それぞれ固定されている。
カメラ240の視界はプレーヤの前方方向に設定されて
いる。このような磁気センサ220とカメラ240とを
備えたHMDをエアホッケーゲームに用いる場合には、
プレーヤはそれぞれテーブル1000の上面を見ること
となるので、カメラ240もテーブル1000の表面の
画像を撮像する。磁気センサ220(220L,220
R)は、交流磁界発生源250が発する交流磁界の変化
をセンスする。
In FIG. 2, each HMD 210 is fixed to the player's head by a band (not shown).
A magnetic sensor 220 as shown in FIG. 4 and a CCD camera 240 as shown in FIG.
(240L, 240R) are respectively fixed.
The field of view of the camera 240 is set in the forward direction of the player. When an HMD having such a magnetic sensor 220 and a camera 240 is used for an air hockey game,
Since each player views the upper surface of the table 1000, the camera 240 also captures an image of the surface of the table 1000. The magnetic sensor 220 (220L, 220
R) senses a change in the AC magnetic field generated by the AC magnetic field generation source 250.

【0041】後述するように、カメラ240が撮影した
画像は、磁気センサ220が検出した頭部の位置/姿勢
を補正するために用いられる。プレーヤがテーブル10
00の表面を見るために斜め下方を向くと、HMD21
0を通した視界には、テーブル1000の表面と、前述
の仮想のパック1500、現実のマレット260(26
0L,260R)、仮想のゴール1200(1200
L,1200R)が見える。また、プレーヤが、頭部
を、水平二次元平面内において水平移動させ、あるいは
ティルティング運動、ヨー運動、ローリング運動を行わ
せると、その変化は先ず磁気センサ220によって検出
され、併せて、頭部の姿勢変化に伴ってCCDカメラ2
40が撮像する画像の変化として観測される。即ち、磁
気センサ220からの頭部位置を表す信号はカメラ24
0の画像を画像処理することによって補正される。
As will be described later, the image captured by the camera 240 is used to correct the position / posture of the head detected by the magnetic sensor 220. Player is at table 10
HMD21 when facing diagonally downward to see the surface of 00
0, the surface of the table 1000, the virtual pack 1500 described above, and the real mallet 260 (26
0L, 260R), virtual goal 1200 (1200
L, 1200R). When the player moves the head horizontally in a horizontal two-dimensional plane, or performs a tilting motion, a yaw motion, and a rolling motion, the change is first detected by the magnetic sensor 220, and CCD camera 2 according to the posture change
40 is observed as a change in the image taken. That is, a signal representing the head position from the magnetic sensor 220 is transmitted to the camera 24.
The image is corrected by performing image processing on the 0 image.

【0042】〈複数のマーカ〉夫々のプレーヤに把持さ
れる夫々のマレット260はその先端に赤外線発光器を
有しており、各マレットのテーブル1000上の位置
(二次元平面位置)は各マレットからの赤外線を検出す
るCCDカメラ230によって知られる。即ち、カメラ
230は各プレーヤの手の位置(マレットの位置)を検
出するためにある。マレット位置を検出することによ
り、本ホッケーゲームの進行を判断することができる。
<Plurality of Markers> Each mallet 260 gripped by each player has an infrared emitter at its tip, and the position (two-dimensional plane position) of each mallet on the table 1000 is determined from each mallet. Is known by a CCD camera 230 that detects infrared rays. That is, the camera 230 is for detecting the position of the hand of each player (the position of the mallet). By detecting the mallet position, the progress of the hockey game can be determined.

【0043】他方、CCDカメラ240はマーカ画像と
呼ばれる画像を出力する。第5図はテーブル1000上
に配置されたマーカの一例を示す。第5図において、○
印で示した5つのランドマーク即ちマーカ(1600〜
1604)はプレーヤ2000の頭部位置を補助的に検
出するために用いられるマーカを示し、□印で示した5
つのランドマーク即ちマーカ(1650〜1654)は
プレーヤ3000の頭部位置を補助的に検出するために
用いられるマーカを示す。マーカを第5図のように複数
配置すると、頭部の位置、特に姿勢によって、どのマー
カが見えるかが決まる。換言すれば、各々のプレーヤに
装着されたCCDカメラ240が写す画像中におけるマ
ーカを特定し、画像内での位置を検出することにより、
プレーヤの頭部姿勢を検出する磁気センサの出力信号の
補正を行うことができる。
On the other hand, the CCD camera 240 outputs an image called a marker image. FIG. 5 shows an example of a marker arranged on the table 1000. In FIG.
Five landmarks or markers (1600 to 1600) indicated by marks
Reference numeral 1604) denotes a marker used for detecting the head position of the player 2000 in an auxiliary manner.
Two landmarks or markers (1650 to 1654) indicate markers used for auxiliary detection of the head position of the player 3000. When a plurality of markers are arranged as shown in FIG. 5, the position of the head, particularly the posture, determines which marker is visible. In other words, by specifying a marker in an image captured by the CCD camera 240 attached to each player and detecting a position in the image,
The output signal of the magnetic sensor for detecting the player's head posture can be corrected.

【0044】尚、第5図の○印と□印とは図示のために
採用したものであり、その形状に特徴があるわけではな
く、任意の形状であってもよい。二人のプレーヤ(20
00,3000)に対してそれぞれ割り当てられたマー
カ群(1600〜1608)とマーカ群(1650〜1
658)とは、それぞれ、異なる色に着色されている。
本実施形態では、左側プレーヤ(#1プレーヤ)のため
のマーカは赤色に、右側プレーヤ(#2プレーヤ)のた
めのマーカは緑色に着色されている。画像処理における
マーカの区別を容易にするためである。尚、色でなく形
状やテクスチャによってマーカを区別することも可能で
ある。
The circles and squares in FIG. 5 are used for illustration purposes, and their shapes are not unique, and may be any shape. Two players (20
00,3000) and a marker group (1650-1608) and a marker group (1650-1
658) are respectively colored in different colors.
In the present embodiment, the marker for the left player (# 1 player) is colored red, and the marker for the right player (# 2 player) is green. This is to make it easy to distinguish markers in image processing. Note that markers can be distinguished not by color but by shape or texture.

【0045】本実施形態の大きな特徴は、マーカを複数
配置した点にある。複数配置することによって、プレー
ヤがテーブル1000上で本エアホッケーゲームの動作
範囲内で行動する限りにおいて、少なくとも1つのマー
カがCCDカメラ240の視野内に入ることが保証され
る。第6図は、プレーヤが頭部を色々と移動した場合に
おいて、頭部の移動に伴って、マーカを検出する画像処
理範囲が移動する様子が描かれてる。同図に示すよう
に、1つの画像には少なくとも1つのマーカが入ってい
る。換言すれば、マーカの数、マーカ間の間隔等は、テ
ーブル1000の大きさ、カメラ240の視野角、ゲー
ムの性質に基づくプレーヤの移動範囲の大きさに応じて
設定されるべきである。第5図の場合、プレーヤから遠
方であればあるほど、広い範囲が視野に入るので、マー
カ間の間隔を広くしなければならない。これは、近傍に
あるマーカ間の画像中での間隔距離と、遠方にあるマー
カ間の画像中での距離とを同じくすることにより、遠方
の視野の画像中に取り込まれるマーカの数を低く抑えて
マーカ検出精度の低下を防止するためである。このよう
にすることにより、画像中に取り込まれるマーカの密度
が遠方マーカでも近隣のマーカでも実質的に等しくする
ことができ、同じフレーム内に不必要に複数のマーカが
撮像されるのを防ぐことができる。
A major feature of the present embodiment is that a plurality of markers are arranged. The multiple placement ensures that at least one marker is within the field of view of the CCD camera 240 as long as the player acts on the table 1000 within the operating range of the present air hockey game. FIG. 6 illustrates a situation in which the image processing range for detecting a marker moves with the movement of the head when the player moves the head in various ways. As shown in the figure, one image contains at least one marker. In other words, the number of markers, the interval between markers, and the like should be set according to the size of the table 1000, the viewing angle of the camera 240, and the size of the player's movement range based on the nature of the game. In the case of FIG. 5, the farther from the player, the wider the field of view is, so the interval between the markers must be widened. This reduces the number of markers captured in an image of a distant field of view by making the distance between markers in the vicinity of the image in the image equal to the distance in the image between markers in the distance. This is to prevent a decrease in marker detection accuracy. By doing so, the density of the markers captured in the image can be made substantially the same between the distant marker and the nearby marker, thereby preventing unnecessary imaging of multiple markers in the same frame. Can be.

【0046】後述するように、本システムでは、カメラ
240L(240R)が得た画像中に少なくとも1つの
マーカが存在し、そのマーカを特定できれば十分であ
る。従って、特定のマーカをプレーヤが頭を移動させる
間(カメラ240を移動させる間)において追跡し続け
る必要はない。 〈MR画像生成システム〉第7図は、第2図に示したゲ
ーム装置における三次元画像の生成提示システムの構成
を示す。この画像生成提示システムは、左側プレーヤ2
000のHMD210L及び右側プレーヤ3000のH
MD210Rの夫々の表示装置に、三次元の仮想画像
(第3図のパック1500,ゴール1200)を出力す
るものである。三次元仮想画像のための左右の視差画像
の生成は、画像生成部5050L,5050Rに拠って
行われる。本実施形態では、画像生成部5050の夫々
に米国SiliconGraphics社製のコンピュータシステム「O
NYX2」を用いた。
As described later, in the present system, at least one marker exists in the image obtained by the camera 240L (240R), and it is sufficient if the marker can be specified. Therefore, it is not necessary to keep track of a specific marker while the player moves his / her head (while moving the camera 240). <MR Image Generation System> FIG. 7 shows a configuration of a system for generating and presenting a three-dimensional image in the game apparatus shown in FIG. This image generation / presentation system includes a left player 2
000 HMD210L and right player 3000 H
A three-dimensional virtual image (pack 1500, goal 1200 in FIG. 3) is output to each display device of the MD 210R. The generation of the left and right parallax images for the three-dimensional virtual image is performed by the image generation units 5050L and 5050R. In the present embodiment, each of the image generating units 5050 is provided with a computer system “O
NYX2 "was used.

【0047】画像生成部5050は、ゲーム状態管理部
5030が生成するパック位置情報等と、2つの補正処
理部5040L,5040Rが生成する補正後の視点位
置・頭部方向に関する情報とを入力する。ゲーム状態管
理部5030および補正処理部5040L,5040R
の夫々はコンピュータシステムONYX2により構成され
た。
The image generation unit 5050 inputs the pack position information and the like generated by the game state management unit 5030 and the information on the corrected viewpoint position and head direction generated by the two correction processing units 5040L and 5040R. Game state management unit 5030 and correction processing units 5040L, 5040R
Each consisted of a computer system ONYX2.

【0048】テーブル1000の中央上空に固定された
CCDカメラ230は、テーブル1000の表面を全て
視野に納める。カメラ230によって取得されたマレッ
ト情報はマレット位置計測部5010に入力される。こ
の計測部5010は、同じく、SiliconGraphics社製「O
2」コンピュータシステムにより構成された。計測部5
010は、二名のプレーヤのマレット位置、即ち、手の
位置を検出する。手の位置に関する情報はゲーム状態管
理部5030に入力されて、ここで、ゲーム状態が管理
される。即ち、ゲーム状態・ゲームの進行は基本的には
マレットの位置によって決定される。
The CCD camera 230 fixed above the center of the table 1000 covers the entire surface of the table 1000 in the field of view. Mallet information acquired by the camera 230 is input to the mallet position measurement unit 5010. The measuring unit 5010 is also provided with “O” manufactured by Silicon Graphics.
2 "Comprised of a computer system. Measurement unit 5
010 detects the mallet positions of the two players, that is, the positions of the hands. Information on the position of the hand is input to the game state management unit 5030, where the game state is managed. That is, the game state / progress of the game is basically determined by the position of the mallet.

【0049】SiliconGraphics社製コンピュータシステ
ムO2により構成された位置姿勢検出部5000は、2つ
の磁気センサ220L,220Rの夫々の出力(センサ
220自体の位置及び姿勢)を入力して、各プレーヤに
装着されたカメラ(240L,240R)での視点位置
(X,Y,Z)及び姿勢(p,r,φ)を検出し、補正
処理部5040L,5040Rに出力する。
A position / posture detection unit 5000 constituted by a computer system O2 manufactured by Silicon Graphics Co., Ltd. receives the outputs of the two magnetic sensors 220L and 220R (the position and posture of the sensor 220 itself) and is mounted on each player. The position (X, Y, Z) and posture (p, r, φ) of the camera (240L, 240R) are detected and output to the correction processing units 5040L, 5040R.

【0050】一方、各プレーヤの頭部に固定されたCC
Dカメラ240L,240Rはマーカ画像を取得し、こ
のマーカ画像は、夫々、マーカ位置検出部5060L,
5060Rにおいて処理され、夫々のカメラ240の視
野に納まっている夫々のプレーヤについての追跡マーカ
の位置が検出される。追跡マーカ位置に関する情報は補
正処理部5040(5040L,5040R)に入力さ
れる。
On the other hand, the CC fixed to the head of each player
The D cameras 240L and 240R acquire marker images, and the marker images are used as marker position detecting units 5060L and 5060L, respectively.
Processed at 5060R, the position of the tracking marker for each player within the field of view of each camera 240 is detected. Information on the tracking marker position is input to the correction processing unit 5040 (5040L, 5040R).

【0051】尚、マーカを追跡するマーカ位置検出部5
060(5060L,5060R)はO2コンピュータシ
ステムにより構成された。 〈マレット位置計測〉第8図乃至第10図は、マレット
位置を計測する制御手順を示すフローチャートである。
1つの共通カメラでマレットを追跡することにより、複
数作業者による共通の複合現実感を提示することが可能
となる。第8図乃至第10図のフローチャートにより、
本実施形態のマレット位置の計測について説明する。
The marker position detector 5 for tracking the marker
060 (5060L, 5060R) was configured with an O2 computer system. <Mallet Position Measurement> FIGS. 8 to 10 are flowcharts showing a control procedure for measuring the mallet position.
By tracking the mallet with one common camera, it is possible to present a common mixed reality by a plurality of workers. According to the flowcharts of FIGS. 8 to 10,
The measurement of the mallet position according to the present embodiment will be described.

【0052】エアホッケーゲームでは、プレーヤは自身
のマレットを他のプレーヤの領域まで進めることはな
い。そのために、左側プレーヤ2000(右側プレーヤ
3000)のマレット260L(260R)を探索する
処理は、第11図に示すように、左側フィールドの画像
データIL(画像データIR)に処理を集中すればよい。
固定位置にあるCCDカメラ230が取得した画像を第
11図に示すように2つの領域に分割することは容易で
ある。
In an air hockey game, a player does not advance his own mallet to the area of another player. For this purpose, the process of searching for the mallet 260L (260R) of the left player 2000 (right player 3000) may be performed by focusing on the image data IL (image data IR) of the left field as shown in FIG.
It is easy to divide the image acquired by the CCD camera 230 at the fixed position into two regions as shown in FIG.

【0053】従って、第8図のフローチャートにおい
て、プレーヤ#1(プレーヤ2000)のマレット26
0Lの探索についてはステップS100で、プレーヤ#
2(プレーヤ3000)のマレット260Rの探索につ
いてはステップS200で、夫々の処理が行われる。そ
こで、便宜上、右側プレーヤのマレットの探索(ステッ
プS200)を例にして説明する。
Accordingly, in the flowchart of FIG. 8, the mallet 26 of the player # 1 (player 2000)
Regarding the search for 0L, in step S100, the player #
Regarding the search for mallet 260R of player 2 (player 3000), respective processes are performed in step S200. Therefore, for convenience, the search for the mallet of the right player (step S200) will be described as an example.

【0054】先ず、ステップS210で、TVカメラ2
30が撮像したテーブル1000表面の多値画像を取得
する。ステップS212では、その多値画像の右半分の
画像データIRについて、サブルーチン「ローカル領域
での探索」を施す。「ローカル領域での探索」処理の詳
細は第9図に示される。ステップS212で画像座標系
でのマレット位置の座標(x,y)が見つかると、ステ
ップS214からステップS220に進み、画像座標系
でのマレット位置座標(x,y)を次式に従ってテーブ
ル1000の座標系(第13図を参照)の座標位置
(x’,y’)に変換する。
First, in step S210, the TV camera 2
30 obtains a multi-valued image of the surface of the table 1000 captured. In step S212, a subroutine "search in local area" is performed on the right half image data IR of the multi-valued image. The details of the "search in local area" process are shown in FIG. When the coordinates (x, y) of the mallet position in the image coordinate system are found in step S212, the process proceeds from step S214 to step S220, and the mallet position coordinates (x, y) in the image coordinate system are calculated according to the following equation. It is converted to the coordinate position (x ′, y ′) of the system (see FIG. 13).

【0055】[0055]

【数2】 (Equation 2)

【0056】ここで、マトリクスMTは画像座標系とテ
ーブル座標系とをキャリブレーションするための3×3
の変換行列で、既知である。ステップS220で得られ
た座標位置(x’,y’)(第3図では、(x’,
y’)は「手の位置」としてしめされている)はゲーム
状態管理部5030に送られる。ローカル領域でマレッ
トがみつからなかったならば、ステップS216で「グ
ローバル領域での探索」を行う。「グローバル領域での
探索」でマレットが見つかったならば、ステップS22
0でその座標位置をテーブル座標系に変換する。尚、ロ
ーカル又はグローバル領域で探索された座標位置は、次
のフレームでのローカル領域におけるマレットの探索に
用いられる。
[0056] Here, the matrix M T is 3 × 3 for calibrating the image coordinate system and table coordinate system
Which is known. The coordinate position (x ′, y ′) obtained in step S220 (in FIG. 3, (x ′, y ′)
y ′) is indicated as “hand position”) is sent to the game state management unit 5030. If no mallet is found in the local area, "search in global area" is performed in step S216. If a mallet is found in the "search in the global area", step S22
At 0, the coordinate position is converted to a table coordinate system. The coordinate position searched in the local or global area is used for searching for a mallet in the local area in the next frame.

【0057】第9図はマレットをローカル領域で探索す
る処理(ステップS212の詳細)を示す。但し、この
処理は便宜上右側フィールドにおける探索処理を示す
が、左側フィールドにおけるマレットの探索処理につい
ても実質的に同様である。ステップS222で、次式で
定義される大きさ(2A+1)×(2B+1)画素の矩
形領域を抽出する。
FIG. 9 shows processing for searching for a mallet in the local area (details of step S212). However, this process shows a search process in the right field for convenience, but the same applies to a mallet search process in the left field. In step S222, a rectangular area of size (2A + 1) × (2B + 1) pixels defined by the following equation is extracted.

【0058】[0058]

【数3】x=[Ix−A,Ix+A] y=[Iy−B,Iy+B] ここで、上記式中の、I'x,I'yは前フレームで検出さ
れたマレットの座標値であり、A,Bは探索領域の大き
さを決める定数であって、かかる探索領域は第12図の
ようになる。
Equation 3] x = [I x -A, I x + A] y = [I y -B, I y + B] where, in the formula, I 'x, I' y was detected in the previous frame The coordinates of the mallet, A and B are constants for determining the size of the search area, and the search area is as shown in FIG.

【0059】ステップS230は、ステップS222で
定義された矩形領域中の全ての画素(x,y)につい
て、特徴の評値値IS(x,y)が一定の条件を満足す
る画素を抽出する工程である。マレットを探索する目的
では、特徴量とは、画素値(赤外光の強度値)の類似度
が好適である。本実施形態では、マレットには赤外線発
光器を用いているので、その赤外光の強度の特徴を有す
るものは、一応マレットと判断する。
In step S230, with respect to all the pixels (x, y) in the rectangular area defined in step S222, a pixel whose characteristic evaluation value I S (x, y) satisfies a certain condition is extracted. It is a process. For the purpose of searching for a mallet, the feature amount is preferably a similarity between pixel values (infrared light intensity values). In the present embodiment, since an infrared light emitter is used for the mallet, the one having the characteristic of the intensity of the infrared light is determined to be a mallet.

【0060】即ち、ステップS232では、類似度IS
が所定の閾値以上にマレットに近い画素を見つける。そ
のような画素を見つけると、カウンタNに発生度数の累
積値を記憶する。また、そのような画素のx座標値及び
y座標値をレジスタSUMx及びSUMyに累積記憶する。即
ち、
That is, in step S232, the similarity I S
Find pixels closer to the mallet than a predetermined threshold. When such a pixel is found, the cumulative value of the frequency of occurrence is stored in the counter N. Further, the x coordinate value and the y coordinate value of such a pixel are cumulatively stored in the registers SUMx and SUMy. That is,

【0061】[0061]

【数4】N=N+1 SUMx= SUMx+x SUMy= SUMy+y とする。ステップS230を終了した時点で、第12図
の領域中でマレットからの赤外光のパターンに類似して
いる全ての画素の個数N、及び座標値の累積値SUMx,SU
Myが得られる。N=0であればステップS236で結果
“Not Found”が出力される。N>0であれば、マレッ
トらしいものが見つかったのであり、ステップS238
で、マレットの位置(Ix,Iy)を、
N = N + 1 SUMx = SUMx + x SUMy = SUMy + y When step S230 is completed, the number N of all the pixels similar to the pattern of the infrared light from the mallet in the region of FIG. 12 and the cumulative values SUMx, SU of the coordinate values
My is obtained. If N = 0, the result "Not Found" is output in step S236. If N> 0, a mallet-like thing has been found, and step S238
And the mallet position (I x , I y )

【0062】[0062]

【数5】 (Equation 5)

【0063】に従って演算する。そして、この演算され
たマレット位置(Ix,Iy)をステップS220(第8
図)でテーブル座標系に変換し、この変換値を「手の位
置」を表す信号として管理部5030に渡す。第10図
は、ステップS216のグローバル領域探索の詳細手順
を示す。第10図のステップS240で、右側フィール
ドの画像IR中の、
The calculation is performed according to Then, the calculated mallet position (I x , I y ) is stored in step S220 (eighth
FIG.), The data is converted into a table coordinate system, and the converted value is passed to the management unit 5030 as a signal representing the “hand position”. FIG. 10 shows a detailed procedure of the global area search in step S216. In step S240 of FIG. 10, in the image IR of the right field,

【0064】[0064]

【数6】(Equation 6)

【0065】 {(x,y)|x>0,x<Width,x=nC,y>
0,y<Height,y=mD (ただしn,mは整数)}を満足する画素の中で、特徴
の評値値ISの最大値をレジスタMaxに記憶する。ここ
で、C,Dは探索の粗さを決める定数であり、Widthお
よびHeightはその定義を第15図に示す。即ち、ステッ
プS242で、特徴量ISが閾値記憶レジスタMaxに記憶
されている閾値を超えるか否かを判断する。そのような
画素が見つかったならば、ステップS244で、その特
徴量を新たな閾値とすべく、ステップS244で、
{(X, y) | x> 0, x <Width, x = nC, y>
0, y <Height, y = mD (where n and m are integers)}, the maximum value of the characteristic evaluation value I S is stored in the register Max. Here, C and D are constants that determine the coarseness of the search, and Width and Height are defined in FIG. That is, in step S242, it is determined whether more than a threshold value characteristic amount I S is stored in the threshold storage register Max. If such a pixel is found, in step S244, in order to set the feature value as a new threshold value, in step S244,

【0066】[0066]

【数7】Max=IS(x,y) Ix=x Iy=y とする。ステップS246では、グローバル探索で見つ
かった最もマレットらしい画素(Ix,Iy )の座標値
をステップS220に渡す。
[Mathematical formula-see original document] Let Max = Is (x, y) Ix = xIy = y. In step S246, the coordinates of the most mallet-like pixel (Ix, Iy) found in the global search are passed to step S220.

【0067】このようにして、マレットを画像中で見つ
け、その座標値をテーブル座標系に変換したものをゲー
ム状態管理部5030に渡す。 〈ゲーム状態管理〉第13図は、本実施形態のエアホッ
ケーゲームのゲームフィールドを示す。このフィールド
は、テーブル1000の上の2次元平面上に定義され、
x,y軸を有する。また、左右の2つの仮想的ゴールラ
イン1200L,1200Rと、第13図の上下方向に
設けられた仮想的壁1300a,1300bとを有す
る。仮想的ゴールライン1200L,1200Rと仮想
的壁1300a,1300bとは、その座標値は既知で
あり、移動することはない。このフィールドの中で、マ
レット260R,260Lの移動に応じて、パック15
00の仮想画像が移動する。
As described above, the mallet is found in the image, and its coordinate value is converted to a table coordinate system and passed to the game state management unit 5030. <Game State Management> FIG. 13 shows a game field of the air hockey game of the present embodiment. This field is defined on a two-dimensional plane above the table 1000,
It has x and y axes. Further, it has two left and right virtual goal lines 1200L and 1200R, and virtual walls 1300a and 1300b provided in the vertical direction in FIG. The coordinate values of the virtual goal lines 1200L and 1200R and the virtual walls 1300a and 1300b are known, and do not move. In this field, according to the movement of the mallets 260R and 260L, the pack 15
The 00 virtual image moves.

【0068】パック1500は、現在位置の座標情報P
pと速度情報vpとを有し、左マレット260Lは現在位
置の座標情報PSLと速度情報vSLとを有し、右マレット
260Rは現在位置の座標情報PSRと速度情報vSRとを
有する。第14図は、ゲーム状態管理部5030におけ
る処理手順を説明するフローチャートである。
The pack 1500 stores the coordinate information P of the current position.
and a p and velocity information v p, left mallet 260L has coordinate information P SL and velocity information v SL of the current position, and the right mallet 260R has coordinate information P SR and the speed information v SR of the current position Have. FIG. 14 is a flowchart illustrating a processing procedure in the game state management unit 5030.

【0069】ステップS10において、パック1500
の初期位置Pp0及び初期速度vp0を設定する。尚、パッ
クは速度vpで等速度運動を行う。また、パックは、壁
又はマレットに当たると完全弾性衝突を行う、即ち、速
度方向が反転するものとする。ゲーム状態管理部503
0は、マレット位置計測部5010が計測した各マレッ
トの位置情報PSから速度情報vSを得る。
In step S10, pack 1500
The initial position P p0 and the initial speed v p0 are set. In addition, the pack performs a uniform motion at a speed v p. It is assumed that the pack makes a completely elastic collision when it hits a wall or a mallet, that is, the speed direction is reversed. Game state management unit 503
In the case of 0, the speed information v S is obtained from the position information P S of each mallet measured by the mallet position measuring unit 5010.

【0070】ステップS12は、ゲームでの勝敗が決定
する(ステップS50で一方が3点を先取する)迄の間
は、Δt時間毎に実行される。すると、ステップS12
では、パックの位置は、
Step S12 is executed at intervals of Δt until a win or loss in the game is determined (one of the points wins three points in step S50). Then, step S12
Then, the position of the pack is

【0071】[0071]

【数8】Pp=Pp0+vp0・Δt に更新される。初期位置及び初期速度設定後におけるパ
ックの位置は、一般には、
## EQU8 ## P p = P p0 + v p0 + Δt is updated. The position of the pack after setting the initial position and the initial speed is generally

【0072】[0072]

【数9】Pp=Pp+vp・Δt で表される。ステップS14では、更新されたパック位
置Ppがプレーヤの#1側(左プレーヤ)のフィールド
にあるか否かを調べる。パック1500が左プレーヤ側
にある場合について説明する。
## EQU9 ## It is expressed by P p = P p + v p · Δt. In step S14, it is checked whether or not the updated pack position Pp is in the field on the # 1 side (left player) of the player. The case where the puck 1500 is on the left player side will be described.

【0073】ステップS16では、現在のパック位置が
左プレーヤのマレット1100Lと干渉する位置にある
か否かを調べる。パック1500がマレット1100L
と干渉する位置にあるとは、左プレーヤ2000がマレ
ット260Lをパックに衝突させるようなマレット操作
を行ったことを意味するから、パック1500の運動を
反転させるために、ステップS18で、パック1500
の速度vpのx方向速度成分vpxの符号を反転させて、
ステップS20に進む。
In step S16, it is checked whether or not the current pack position is at a position where it interferes with the left player's mallet 1100L. Pack 1500 is Mallet 1100L
Means that the left player 2000 has performed a mallet operation to cause the mallet 260L to collide with the puck. Therefore, in order to reverse the movement of the puck 1500, the puck 1500 is
By inverting the sign of the x-direction velocity component v px of the velocity v p
Proceed to step S20.

【0074】尚、単に速度vpのx方向速度成分vpx
符号を反転させる代わりに、
Incidentally, instead of simply inverting the sign of the velocity component v px in the x direction of the velocity v p ,

【0075】[0075]

【数10】vpx=−vpx+vSLx として、パックの動作を、パックのx方向速度vpxにマ
レットのx方向の操作速度vSLxを重畳して、反対方向
に進ませるようにしても良い。一方、現在のパック位置
が左プレーヤのマレット1100Lと干渉する位置にな
い場合(ステップS16でNO)には、そのままステッ
プS20に進む。
[ Equation 10] Assuming that v px = −v px + v SLx , the pack operation may be performed in the opposite direction by superimposing the x-direction operation speed v SLx of the mallet on the pack x-direction speed v px. good. On the other hand, if the current pack position is not at the position where it interferes with the mallet 1100L of the left player (NO in step S16), the process directly proceeds to step S20.

【0076】ステップS20では、パックの位置Pp
仮想壁1300a又は1300bと衝突する位置にある
か否かを調べる。ステップS20の判断がYESの場合
には、ステップS22でパックの速度のy成分を反転さ
せる。次ぎにステップS24で、現在のパック位置が左
プレーヤのゴールライン内にあるか否かを調べる。YE
Sの場合には、ステップS26で相手側のプレーヤ、即
ち、右(#2)プレーヤの得点を加算する。ステップS
50では、いずれかの得点が3点以上先取したかを調べ
る。3点以上であればゲームを終了する。
In step S20, it is checked whether or not the pack position P p is at a position where it collides with the virtual wall 1300a or 1300b. If the determination in step S20 is YES, the y component of the speed of the pack is inverted in step S22. Next, in step S24, it is checked whether or not the current pack position is within the goal line of the left player. YE
In the case of S, the score of the opponent player, that is, the score of the right (# 2) player is added in step S26. Step S
At 50, it is checked whether any score has scored 3 or more points in advance. If the score is three or more, the game ends.

【0077】ステップS14での判断で、パックの位置
pが右プレーヤ側(#2プレーヤ側)にある場合に
は、ステップS30以下を実行する。ステップS30〜
ステップS40は、ステップS16〜ステップS26と
実質的に動作は同じである。かくして、ゲームの進行状
態は管理される。ゲームの進行状態は、パックの位置、
マレットの位置であり、前述したように、画像生成部5
050(5050L,5050R)に入力される。
If it is determined in step S14 that the puck position Pp is on the right player side (# 2 player side), step S30 and subsequent steps are executed. Step S30-
Step S40 has substantially the same operation as steps S16 to S26. Thus, the progress of the game is managed. The progress of the game depends on the position of the pack,
The position of the mallet, as described above, the image generation unit 5
050 (5050L, 5050R).

【0078】〈頭部位置の補正〉第16図は、補正処理
部5040(5040L,5040R)における処理の
制御手順の全体を示す。補正処理部5040における補
正とは、磁気センサ220の出力は誤差を伴うものであ
り、そのような出力に基づいて計測部5000が演算し
た視点位置データ及び頭部姿勢データを、CCDカメラ
240から得られた画像中のマーカ位置に基づいて補正
する処理をいう。即ち、この補正処理は、カメラ240
が取得した画像中のマーカ位置から、カメラ240の位
置(頭部の位置に密接に関連するものでもある)の補正
値を求め、その補正値を用いて、視点のビューイング変
換行列を変更する。変更されたビューイング変換行列は
補正された視点の位置及び姿勢データを表すものであ
り、換言すれば、この補正されたビューイング変換行列
は補正された視点位置での仮想画像を与える。
<Correction of Head Position> FIG. 16 shows the entire control procedure of the processing in the correction processing unit 5040 (5040L, 5040R). The correction in the correction processing unit 5040 means that the output of the magnetic sensor 220 involves an error, and the viewpoint position data and head posture data calculated by the measuring unit 5000 based on such output are obtained from the CCD camera 240. Refers to a process of correcting based on the marker position in the obtained image. That is, this correction processing is performed by the camera 240
Calculates the correction value of the position of the camera 240 (also closely related to the position of the head) from the marker position in the acquired image, and changes the viewpoint viewing transformation matrix of the viewpoint using the correction value. . The changed viewing transformation matrix represents the corrected viewpoint position and orientation data, in other words, the corrected viewing transformation matrix provides a virtual image at the corrected viewpoint position.

【0079】第26図は、第1実施形態における観察者
の視点位置/姿勢の補正の原理を説明する。ここで、実
施形態における観察者の視点位置/姿勢の補正とは、補
正されたビューイング変換行列を求めることと等値であ
る。第26図において、プレーヤのカメラ240がマー
カ1603を画像300に捉えているとする。マーカ1
603の位置はこの画像300内では画像座標系で例え
ば(x0,y0)と表される。一方、画像300が捉えて
いるマーカが1603であることが分かれば、そのマー
カ1603の世界座標系での座標(X0,Y0,Z0)は
既知である。(x0,y0)は画像座標値であり(X0
0,Z0)は世界座標であるから、これらの座標同士を
比較することはできない。第1実施形態では、磁気セン
サ220の出力からカメラ240のビューイング変換行
列MCを求め、世界座標系での座標(X0,Y0,Z0)を
このビューイング変換行列MCを用いて画像座標系の座
標(x' 0,y' 0)に変換する。そして、(x0,y0)と
(x' 0,y' 0)との誤差が磁気センサ22の出力の誤差
を表現するものであるから、これを補正する補正行列Δ
Cを求める。
FIG. 26 illustrates the principle of correction of the observer's viewpoint position / posture in the first embodiment. Here, the correction of the viewpoint position / posture of the observer in the embodiment is equivalent to obtaining a corrected viewing transformation matrix. In FIG. 26, it is assumed that the camera 240 of the player captures the marker 1603 in the image 300. Marker 1
The position 603 in the image 300 is represented by, for example, (x 0 , y 0 ) in the image coordinate system. On the other hand, if it is known that the marker captured by the image 300 is 1603, the coordinates (X 0 , Y 0 , Z 0 ) of the marker 1603 in the world coordinate system are known. (X 0 , y 0 ) is the image coordinate value (X 0 , y 0 )
Since Y 0 , Z 0 ) are world coordinates, these coordinates cannot be compared. In the first embodiment, the viewing transformation matrix M C of the camera 240 is obtained from the output of the magnetic sensor 220, and the coordinates (X 0 , Y 0 , Z 0 ) in the world coordinate system are calculated using the viewing transformation matrix M C. To the coordinates (x 0 , y 0 ) of the image coordinate system. Since the error between (x 0 , y 0 ) and (x 0 , y 0 ) represents an error in the output of the magnetic sensor 22, a correction matrix Δ for correcting this error
Seek M C.

【0080】尚、第26図から明らかなように、画像3
00内に捉えられたマーカがマーカ1603であること
を特定する必要があるが、第1実施形態では、後述する
ように、全てのマーカの世界座標系での三次元位置を上
記ビューイング変換行列MCにより画像座標系に変換し
て、変換後のカメラ座標値が上記(x0,y0)に最も近
いマーカを画像300内に捉えられたマーカと特定す
る。この処理は第19図及び第20図によって説明され
るであろう。
As apparent from FIG. 26, the image 3
It is necessary to specify that the marker caught in 00 is the marker 1603. However, in the first embodiment, as described later, the three-dimensional positions of all markers in the world coordinate system are determined by the above-mentioned viewing transformation matrix. is converted into the image coordinate system by M C, the camera coordinate values after conversion is specified as markers captured in the (x 0, y 0) closest marker image 300 within the. This process will be explained with reference to FIGS. 19 and 20.

【0081】第16図に従って補正処理部5040の処
理手順を詳細に説明する。即ち、ステップS400で
は、磁気センサ220の出力に基づいて、カメラ240
のビューイング変換行列(4×4)を計算する。ステッ
プS410では、ステップS400で求めたビューイン
グ変換行列と、カメラ240の理想的透視変換行列(既
知)と、各マーカの三次元位置(既知)とに基づいて、
各マーカが観測されるべき位置座標(画像座標系での)
を予測する。
The processing procedure of the correction processing unit 5040 will be described in detail with reference to FIG. That is, in step S400, based on the output of the magnetic sensor 220, the camera 240
Is calculated (4 × 4). In step S410, based on the viewing transformation matrix obtained in step S400, the ideal perspective transformation matrix (known) of the camera 240, and the three-dimensional position (known) of each marker,
Position coordinates (in image coordinate system) where each marker should be observed
Predict.

【0082】一方、マーカ位置検出部5060(506
0L,5060R)は、プレーヤの頭部に取り付けられ
たカメラ240(240L,240R)から得た画像中
でマーカを追跡している。マーカ位置検出部5060
は、検出したマーカ位置を、補正処理部5040(ステ
ップS420において)に渡す。補正処理部5040
(5040L,5040R)は、ステップS420にお
いて、渡されたマーカ位置情報に基づいて、現在観測し
ているマーカ、即ち補正の基準となるマーカを判別す
る。ステップS430では、ステップS410で演算さ
れたマーカの予測座標値とマーカ位置検出部5060が
検出したマーカの観測座標値との差異に基づいて、磁気
センサ220が検出したカメラ240の位置姿勢を補正
するための補正行列ΔMcを求める。カメラ240の位
置姿勢の補正ができるのは、マーカ位置検出部5060
が観測したマーカ(第26図の例ではマーカ1603)
の座標値と磁気センサが検出した頭部位置に基づくマー
カ座標とは、センサ出力が正確であれば一致している筈
であるから、ステップS430で演算する上記の差異は
磁気センサ220の誤差を反映するからである。カメラ
の位置姿勢と視点の位置姿勢との相対関係は既知であ
り、その関係は三次元座標変換で表される。従って、こ
のカメラの位置姿勢の補正行列ΔMcに基づいて、ステ
ップS440で、ステップS400で演算した視点のビ
ューイング変換行列を補正し、この補正された変換行列
を画像生成部5050(5050L,5050R)に渡
す。
On the other hand, the marker position detector 5060 (506
0L, 5060R) track markers in images obtained from cameras 240 (240L, 240R) attached to the player's head. Marker position detector 5060
Passes the detected marker position to the correction processing unit 5040 (in step S420). Correction processing unit 5040
(5040L, 5040R) determines the marker currently being observed, that is, the marker to be a reference for correction, based on the passed marker position information in step S420. In step S430, the position and orientation of the camera 240 detected by the magnetic sensor 220 is corrected based on the difference between the predicted coordinate value of the marker calculated in step S410 and the observed coordinate value of the marker detected by the marker position detection unit 5060. Correction matrix ΔMc is obtained. The position and orientation of the camera 240 can be corrected by the marker position detection unit 5060.
(Marker 1603 in the example of FIG. 26)
And the marker coordinates based on the head position detected by the magnetic sensor should match if the sensor output is accurate. Therefore, the above difference calculated in step S430 will Because it reflects. The relative relationship between the position and orientation of the camera and the position and orientation of the viewpoint is known, and the relationship is represented by three-dimensional coordinate conversion. Accordingly, in step S440, the viewing transformation matrix of the viewpoint calculated in step S400 is corrected based on the correction matrix ΔMc of the position and orientation of the camera, and the corrected conversion matrix is used as the image generation unit 5050 (5050L, 5050R). Pass to.

【0083】第17図はマーカ位置検出部5060にお
ける、マーカの位置検出のための処理手順である。ステ
ップS500では、カメラ240が取得したカラー画像
を取り込む。その後に、ステップS502では、「ロー
カル領域探索」を、ステップS506では「グローバル
領域探索」を行って、画像座標系によって表されたマー
カ位置(x,y)を検出する。ステップS502の「ロ
ーカル領域探索」、ステップS506の「グローバル領
域探索」は、手順としては、マレット探索における「ロ
ーカル領域探索」(第9図)、「グローバル領域探索」
(第10図)に実質的に同じであるので、この「ローカ
ル領域探索」(第9図)と「グローバル領域探索」(第
10図)とを援用することとし、図示を省略する。但
し、援用された制御手順(ステップS232)におけ
る、マーカ探索のための特徴量ISとして、プレーヤ#
1(左)について、注目画素の画素値の、
FIG. 17 shows a processing procedure for marker position detection in the marker position detection unit 5060. In step S500, the color image acquired by the camera 240 is captured. Thereafter, in step S502, "local area search" is performed, and in step S506, "global area search" is performed to detect the marker position (x, y) represented by the image coordinate system. The procedure of “local area search” in step S502 and “global area search” in step S506 include “local area search” (FIG. 9) and “global area search” in mallet search.
Since this is substantially the same as (FIG. 10), the “local area search” (FIG. 9) and the “global area search” (FIG. 10) are referred to, and are not shown. However, in the incorporated control procedure (step S232), the feature amount I S for marker discovery, player #
For 1 (left), the pixel value of the pixel of interest is

【0084】[0084]

【数11】 [Equation 11]

【0085】を用いる。プレーヤ#1については、マー
カ(1600〜1604)には赤色を用いているので、
この特徴量は赤らしさの程度を表す。また、プレーヤ#
2(右)については緑色のマーカ(1650〜165
4)を用いているので、
Is used. For player # 1, red is used for markers (1600-1604),
This feature quantity represents the degree of redness. Player #
Green marker (1650-165) for 2 (right)
Since 4) is used,

【0086】[0086]

【数12】 (Equation 12)

【0087】を用いる。また、グローバル探索における
特徴量IS(x,y)についても上記2つの量を用い
る。ステップS502及びステップS506で得られた
マーカの座標値は、ステップS510で、歪みを補正す
るための行列M(例えば3×3の大きさを有する)を用
いて歪みのない理想的な画像座標系に変換する。この時
の変換式は、
Is used. The above two quantities are also used for the feature quantity I s (x, y) in the global search. In step S510, the coordinate values of the markers obtained in steps S502 and S506 are converted into an ideal image coordinate system without distortion using a matrix M (for example, having a size of 3 × 3) for correcting distortion. Convert to The conversion formula at this time is

【0088】[0088]

【数13】 (Equation 13)

【0089】である。次ぎに、第16図のステップS4
10の処理の詳細について第18図を用いて説明する。
前述したように、ステップS400では世界座標系から
カメラ座標系への変換行列MC(4×4のビューイング
変換行列)が得られている。一方、カメラ座標系から画
像座標系への変換行列PC(4×4)も既知の値として
与えられている。また、注目するマーカの三次元座標位
置(X,Y,Z)も既知として与えられている。
Is as follows. Next, step S4 in FIG.
The details of the process 10 will be described with reference to FIG.
As described above, in step S400, a transformation matrix M C (4 × 4 viewing transformation matrix) from the world coordinate system to the camera coordinate system is obtained. On the other hand, a transformation matrix P C (4 × 4) from the camera coordinate system to the image coordinate system is also given as a known value. The three-dimensional coordinate position (X, Y, Z) of the marker of interest is also given as known.

【0090】即ち、角度rをカメラ240の位置でのZ
軸方向の回転(roll)とし、角度pをカメラ240の位置
でのX軸方向の回転(pitch)とし、角度φをカメラ24
0の位置でのZ軸方向の回転(yaw)とし、カメラ240
の位置を(X0,Y0,Z0)すると、カメラ240のビ
ューイング変換行列(即ち、世界座標系からカメラ座標
系への変換行列)Mcは、
That is, the angle r is set to Z at the position of the camera 240.
The rotation in the axial direction (roll), the angle p in the position of the camera 240 in the X-axis direction (pitch), and the angle φ in the camera 24
The rotation (yaw) in the Z-axis direction at the position of 0
Is (X 0 , Y 0 , Z 0 ), the viewing transformation matrix Mc of the camera 240 (ie, the transformation matrix from the world coordinate system to the camera coordinate system) Mc is

【0091】[0091]

【数14】 [Equation 14]

【0092】であり、dをカメラ240の焦点距離、w
をカメラの撮像面の幅、hを同じく高さとすると、カメ
ラ座標系から画像座標系への変換行列PCは、
Where d is the focal length of the camera 240, w
The camera of the imaging surface of the width, when the same height h, the transformation matrix P C from the camera coordinate system to the image coordinate system,

【0093】[0093]

【数15】 (Equation 15)

【0094】で表される。従って、第18図のステップ
S520(即ち第16図のステップS410)では、注
目マーカの座標位置(X,Y,Z)を、次式に従って、
画像面上での位置(xh,yh,zh)に変換する。
Is represented by Therefore, in step S520 of FIG. 18 (that is, step S410 of FIG. 16), the coordinate position (X, Y, Z) of the target marker is calculated according to the following equation.
It is converted to a position (x h , y h , z h ) on the image plane.

【0095】[0095]

【数16】 (Equation 16)

【0096】ステップS522では、画像座標系におけ
るマーカの観測予測座標値x、yとして、
In step S522, the observed observation coordinate values x and y of the marker in the image coordinate system are set as

【0097】[0097]

【数17】 [Equation 17]

【0098】を得る。かくして、ステップS410によ
り、各マーカiの画像座標系での観測予測座標値
(xi,yi)を得ることができる。次ぎに、ステップS
420における「マーカ判別」の処理を説明する。第1
9図は、テーブル1000上において、一方のプレーヤ
のカメラ240が画像600を取得した場合を示す。
Is obtained. Thus, at step S410, it is possible to obtain the predicted coordinate values (x i , y i ) of each marker i in the image coordinate system. Next, step S
The process of “marker determination” in 420 will be described. First
FIG. 9 shows a case where the camera 240 of one player has acquired an image 600 on the table 1000.

【0099】テーブル1000上に設けられているマー
カを、例えばM1〜M7とし、△印で表す。このマーカの
三次元位置Miは既知である。画像600内には、マー
カM2,M3,M6,M7が含まれている。一方、各マーカ
iの観測予測位置はステップS520で求められたも
のであり、それをPiとする。また、Qは、マーカ位置
検出部5060が検出し、検出部5060から渡された
マーカ位置を示す。
The markers provided on the table 1000 are, for example, M 1 to M 7 and are represented by a triangle. Three-dimensional position M i of this marker is known. The image 600 includes markers M 2 , M 3 , M 6 , and M 7 . On the other hand, observation prediction position of each marker M i are those calculated in step S520, that it and P i. Q indicates the marker position detected by the marker position detection unit 5060 and passed from the detection unit 5060.

【0100】ステップS420の「マーカの判別」は、
マーカ位置検出部5060が検出したマーカ位置Qが、
どのPi(即ち、どのMi)に対応するかを判断するもの
である。第19図において、ベクトルeiを、検出され
たマーカ位置Qから各マーカの予測位置Piに向かうベ
クトルの長さ、即ち、距離を表すものとする。ステップ
S420の詳細を第20図に示す。即ち、第20図の処
理は、画像6000内に入るマーカi(i=0〜n)の
距離eiのうち、最小値を示すマーカを探索し、そのマ
ーカの識別子iを出力するものである。即ち、
The “judgment of marker” in step S420 is as follows.
The marker position Q detected by the marker position detection unit 5060 is
It is to determine which P i (that is, which M i ) corresponds. In FIG. 19, the vector e i represents the length of the vector from the detected marker position Q to the predicted position P i of each marker, that is, the distance. FIG. 20 shows the details of step S420. That is, the process of FIG. 20, of the distance e i marker i entering image 6000 (i = 0 to n), and searches for a marker indicating the minimum value, and outputs the identifier i of the marker . That is,

【0101】[0101]

【数18】 (Equation 18)

【0102】である。第19図の例では、P2間での距
離e2が一番短いので、マーカM2を磁気センサ出力の補
正に用いるデータとする。かくして、プレーヤがどのよ
うに移動しても、その活動範囲(フィールド)内では、
カメラ240は少なくとも1つのマーカを画像中に捉え
るので、従来のように、フィールドの大きさを狭く限定
する必要が無くなる。
Is as follows. In the example of Fig. 19, since the shortest distance e 2 of between P 2, and data using the marker M 2 to the correction of the magnetic sensor output. Thus, no matter how the player moves, within their field of activity,
Since the camera 240 captures at least one marker in the image, it is not necessary to limit the size of the field to a narrow size as in the related art.

【0103】次ぎに、ステップS430では、第1図に
おいて説明した処理と同じであって、式18に基づいて
得られた誤差距離eminに基づいて、カメラの位置方位
の補正を表す変換行列ΔMcを求める。一方、ステップ
S432では、磁気センサ出力に基づいて、プレーヤの
視点位置でのビューイング変換行列MVを求める。ま
た、Mvcをカメラ座標系から視点座標系への変換行列
(既知である)とすると、ステップS440では、この
vcを用いて、次式によって補正後の視点のビューイン
グ変換行列Mv’を導出する。
Next, in step S430, a conversion matrix ΔMc representing the correction of the position and orientation of the camera based on the error distance e min obtained on the basis of the equation 18 is the same as the processing described in FIG. Ask for. On the other hand, in step S432, a viewing transformation matrix M V at the viewpoint position of the player is obtained based on the magnetic sensor output. Also, assuming that M vc is a transformation matrix (known) from the camera coordinate system to the viewpoint coordinate system, in step S440, using this M vc , the viewing transformation matrix M v ′ of the corrected viewpoint is calculated by the following equation. Is derived.

【0104】[0104]

【数19】 [Equation 19]

【0105】尚、第26図から明らかであり、また後述
の第2実施形態からも明らかになることであるが、第1
実施形態(第16図の処理)では、画像座標系に変換し
て、誤差距離eを求めたが、反対に世界座標系に変換し
て誤差距離eを求めても同じように補正後の視点のビュ
ーイング変換行列を得ることができる。 〈頭部位置の検出精度の向上〉…第2実施形態 上記第1実施形態では、HMD210L(210R)に
は前方モニタ用の1つのカメラ240L(240R)が
設けられていた。このカメラ240により取得されたテ
ーブル1000上のマーカの画像を、処理部5060が
処理して、画像中のマーカを特定(ステップS420)
して、プレーヤの頭部の姿勢、即ち、頭部に装着された
カメラの姿勢、換言すれば、この姿勢を有するカメラに
よるビューイング変換を表す行列を決定するというもの
であった。しかしながら、第1実施形態では画像座標系
での誤差のみを利用しているため、カメラとマーカの位
置関係に三次元的なずれが残ってしまう。
Incidentally, as is clear from FIG. 26 and also from a second embodiment described later, the first embodiment
In the embodiment (the processing in FIG. 16), the error distance e is obtained by converting the image into the image coordinate system. Can be obtained. <Improvement of Head Position Detection Accuracy> Second Embodiment In the first embodiment, the HMD 210L (210R) is provided with one camera 240L (240R) for a front monitor. The processing unit 5060 processes the image of the marker on the table 1000 acquired by the camera 240, and specifies the marker in the image (step S420).
Then, the attitude of the head of the player, that is, the attitude of the camera mounted on the head, in other words, the matrix representing the viewing transformation by the camera having this attitude is determined. However, in the first embodiment, since only the error in the image coordinate system is used, a three-dimensional shift remains in the positional relationship between the camera and the marker.

【0106】また、複合現実感を提示するための用途に
よっては、マーカが3次元空間の任意位置におかれる場
合もあり、このような場合は第1実施形態での第16図
に示されたマーカの同定手法は信頼性が低くなる。次に
提案する第2実施形態は、この三次元的なずれの問題を
解消する。即ち、一人のプレーヤに2台のカメラを装着
してマーカの検出を世界座標系で行うことで、上記の問
題を解消する。また、第2実施形態は、マーカが平面上
に配置されなくてはならないという拘束も緩和する。
Further, depending on the application for presenting the mixed reality, the marker may be placed at an arbitrary position in the three-dimensional space. In such a case, as shown in FIG. 16 in the first embodiment. The marker identification method has low reliability. The second proposed embodiment solves the problem of the three-dimensional displacement. That is, the above-mentioned problem is solved by mounting two cameras to one player and performing marker detection in the world coordinate system. The second embodiment also alleviates the constraint that the marker must be arranged on a plane.

【0107】具体的には、2つのカメラが左右に配置装
着された2台のHMDを二人のプレーヤに用いるもので
ある。即ち、第21図に示すように、プレーヤ2000
(3000)のHMD210L(210R)には、2台
のカメラ240LR,240LL(240RR,240
RL)を装着し、このカメラ240LR,240LL
(240RR,240RL)から得たステレオ画像か
ら、カメラ240LR,240LL(240RR,24
0RL)の姿勢を補正するものである。
More specifically, two HMDs in which two cameras are arranged and mounted on the left and right are used for two players. That is, as shown in FIG.
The (3000) HMD 210L (210R) has two cameras 240LR, 240LL (240RR, 240RR).
RL) and the cameras 240LR, 240LL
From the stereo images obtained from (240RR, 240RL), cameras 240LR, 240LL (240RR, 24RL)
0RL).

【0108】尚、第2実施形態のシステムは、マーカが
3次元的に配置された場合にも対処できるものである
が、第1実施形態の処理手順との異同を明瞭にするため
に、第1実施形態と同じく、平面上に配置された複数の
マーカを用いるエアホッケーゲームに適用する。第22
図は、第2実施形態に関わる画像処理システムの一部を
示す。即ち、第22図は、第1実施形態の画像処理シス
テム(第7図)のうちの変更部分を示す。即ち、第7図
と第22図とを対比すると、第2実施形態の画像処理シ
ステムは、各プレーヤに2台のカメラが設けられている
点のほかに、マーカ位置検出部5060L’(5060
R’)と、補正処理部5040L’(5040R’)と
を有する点で第1実施形態と異なるものの、第2実施形
態のマーカ位置検出部5060L’(5060R’)
と、補正処理部5040L’(5040R’)は第1実
施形態のマーカ位置検出部5060L(5060R)
と、補正処理部5040L(5040R)とソフトウエ
アの処理において異なっているに過ぎない。
The system of the second embodiment can cope with the case where the markers are arranged three-dimensionally. However, in order to clarify the difference from the processing procedure of the first embodiment, the system of the second embodiment will be described. As in the first embodiment, the present invention is applied to an air hockey game using a plurality of markers arranged on a plane. 22nd
The figure shows a part of the image processing system according to the second embodiment. That is, FIG. 22 shows a changed part of the image processing system (FIG. 7) of the first embodiment. That is, comparing FIG. 7 with FIG. 22, the image processing system according to the second embodiment has a marker position detecting unit 5060L ′ (5060L) in addition to the point that each player has two cameras.
R ′) and a correction processing unit 5040L ′ (5040R ′), but the marker position detection unit 5060L ′ (5060R ′) of the second embodiment is different from the first embodiment.
And the correction processing unit 5040L '(5040R') is the marker position detection unit 5060L (5060R) of the first embodiment.
The only difference is that the correction processing unit 5040L (5040R) is different from the software processing.

【0109】第23図は、第2実施形態の処理手順のう
ちの特に左側プレーヤ2000のための制御手順を示
し、特に、第1実施形態の第16図の制御手順に対応す
る部分であって、マーカ位置検出部5060’と位置・
姿勢検出部5000と補正処理部5040L’との連係
動作を説明する。第23図に於いて、第1実施形態と同
じところの位置・姿勢検出部5000は、ステップS3
98で磁気センサ220Lの出力に基づいて、視点のビ
ューイング変換行列を算出する。ステップS400’で
は、磁気センサ220Lの出力に基づいて、カメラ24
0LRのビューイング変換行列の逆行列を算出する。こ
の変換行列は補正処理部5040’に送られる。
FIG. 23 shows a control procedure for the left player 2000 in the processing procedure of the second embodiment, and particularly corresponds to the control procedure of FIG. 16 of the first embodiment. , The marker position detector 5060 'and the position
The link operation between the attitude detection unit 5000 and the correction processing unit 5040L 'will be described. In FIG. 23, the position / posture detection unit 5000, which is the same as that in the first embodiment, executes step S3.
At 98, a viewing transformation matrix of the viewpoint is calculated based on the output of the magnetic sensor 220L. In step S400 ', based on the output of the magnetic sensor 220L, the camera 24
The inverse matrix of the 0LR viewing transformation matrix is calculated. This transformation matrix is sent to the correction processing unit 5040 '.

【0110】2台のカメラ240LL(240LR)か
らの画像はマーカ位置検出部5060L’に送られる。
即ち、ステップS402では、検出部5060’が右側
カメラ240LRからの画像R中にマーカ画像mRを抽
出する。抽出されたマーカの座標(即ち、観測座標)を
mRで表す。ステップS404では、検出部5060’
が右側カメラ240LLからの画像L中に対応マーカ画
像mLを抽出する。抽出されたマーカの座標をImLで表
す。マーカ画像mRとマーカ画像mLとは本来同じマーカ
Xのものであるから、ステップS406では、観測さ
れた1組のマーカ座標(ImR,ImL)から、三角測量の
原理に基づいて、カメラ240LRの座標系における抽
出された観測マーカの三次元位置Cmを導出する。
The images from the two cameras 240LL (240LR) are sent to a marker position detecting unit 5060L '.
That is, in step S402, the detection unit 5060 'extracts a marker image m R in the image R for the right camera 240LR. The coordinates of the extracted marker (that is, the observation coordinates) are represented by ImR . In step S404, the detection unit 5060 '
Extracts the corresponding marker image m L from the image L from the right camera 240LL. The coordinates of the extracted marker are represented by I mL . Since the marker image m R and the marker image m L are originally of the same marker m X , in step S406, the set of observed marker coordinates (I mR , I mL ) is used based on the principle of triangulation. , The three-dimensional position C m of the extracted observation marker in the coordinate system of the camera 240LR is derived.

【0111】尚、ステップS404では、一般的なステ
レオ視による手法を用いてマーカ画像mLの対応点探索
を行うが、処理を高速に行うために、周知のエピポーラ
拘束epipolar bindを用いて探索範囲を限定してもよ
い。第23図のステップS410’,ステップS42
0’,ステップS422,ステップS430’は補正処
理部5040L’における処理を示す。
In step S404, a corresponding point search of the marker image m L is performed using a general stereoscopic method. However, in order to perform processing at high speed, a search range using a well-known epipolar constraint epipolar bind is used. May be limited. Steps S410 'and S42 in FIG. 23
0 ', step S422, and step S430' indicate processing in the correction processing unit 5040L '.

【0112】まず、ステップS410’では、観測され
たマーカのカメラ座標系における三次元位置Cmを、ス
テップS400’において導出された透視変換行列を用
いて、世界座標系の三次元位置Wmに変換する。ステッ
プS420’では、全てのマーカmiの世界座標系にお
ける3次元位置Wmi(既知)を所定のメモリから取り出
して、個々のマーカmiと観測マーカmXとのユークリッ
ド距離|Wmi−Wm|を最小とするようなWmiを決定す
る。即ち、観測マーカmX最も近い位置にある既知のマ
ーカを同定する。
[0112] First, 'in the three-dimensional position C m in the camera coordinate system of the observed marker, step S400' Step S410 by using the perspective transformation matrix derived in, the three-dimensional position W m of the world coordinate system Convert. In step S420 ', taken out three-dimensional position W mi in the world coordinate system of all the markers m i a (known) from a predetermined memory, the Euclidean distance between the individual markers m i and the observed marker m X | W mi -W W mi that minimizes m | is determined. That is, to identify the known marker in the observed marker m X closest position.

【0113】WmiとWmとは本来的には同じ位置ではあ
るが、センサの誤差によって誤差ベクトルD(第1実施
形態のeに相当)が発生しているものである。そこで、
ステップS420’では、観測された(追跡された)マ
ーカの3次元座標(世界座標)に最も近い座標値Wmi
有するマーカを決定し、ステップS430’では、観測
マーカと決定されたマーカとの距離差ベクトルDを、
Although W mi and W m are originally at the same position, an error vector D (corresponding to e in the first embodiment) is generated due to a sensor error. Therefore,
In step S420 ′, a marker having a coordinate value W mi closest to the three-dimensional coordinates (world coordinates) of the observed (tracked) marker is determined. In step S430 ′, the marker between the observed marker and the determined marker is determined. The distance difference vector D is

【0114】[0114]

【数20】D=Wmi−Wm により演算して、カメラ位置をこのベクトル量だけ移動
させるための変換行列ΔMcを求め、ステップS44
0’では、第1実施形態と同じ手法で視点のビューイン
グ変換行列を補正する。
Equation 20] was calculated by D = W mi -W m, obtains a transformation matrix ΔMc for moving the camera position by this vector quantity, step S44
At 0 ', the viewing transformation matrix of the viewpoint is corrected by the same method as in the first embodiment.

【0115】かくして、本発明は、2台のカメラを装着
したHMDを用いることにより、観測マーカの位置検出
を三次元的に行うことができ、このために、より正確な
視点の位置姿勢が検出可能となり、MRの仮想画像と実
画像とのつなぎが滑らかとなる。 〈変形例1〉本発明は上述の第1実施形態や第2実施形
態にのみ適用されるものではない。
As described above, according to the present invention, the position of the observation marker can be detected three-dimensionally by using the HMD equipped with two cameras, so that a more accurate viewpoint position and orientation can be detected. This makes it possible to smoothly connect the MR virtual image and the real image. <Modification 1> The present invention is not applied only to the above-described first and second embodiments.

【0116】上記第1実施形態では、画像中にマーカを
検出する処理は、第17図に示すように、最初に見つか
ったものを追跡対象のマーカとしていた。そのために、
例えば、第24図に示すように、あるフレームでマーカ
M1を含む画像800が得られた場合に、その後のフレ
ームの画像領域810には、マーカが領域810の端部
ではあるがその領域810内に含まれている場合には、
マーカMiを補正処理の基準用のマーカとして決定する
ことに不都合はない。しかし、その後のフレームで、例
えば画像820が得られ、その領域内にはマーカMi
外れ、代わりにマーカM2を含む場合には、補正のため
の基準マーカはそのマーカM2に変更せざるを得ない。
このようなマーカの変更は追跡に失敗した場合にも必要
となり、位置ずれの補正には、新たに追跡されたマーカ
が利用される。
In the first embodiment, in the process of detecting a marker in an image, as shown in FIG. 17, the marker that is found first is used as the marker to be tracked. for that reason,
For example, as shown in FIG. 24, when an image 800 including the marker M1 is obtained in a certain frame, the image area 810 of the subsequent frame includes the marker at the end of the area 810 but within the area 810. If included in
There is no problem in determining the marker Mi as a reference marker for the correction process. However, in a subsequent frame, for example, an image 820 is obtained, and the marker M i falls within the area, and instead includes the marker M 2 , the reference marker for correction is changed to the marker M 2. I have no choice.
Such a change of the marker is necessary even when tracking fails, and a newly tracked marker is used for correcting the positional deviation.

【0117】このように補正に使用するマーカを切り替
えることの問題点として、その切り替わりの際に、補正
値の急激な変化が原因となって、仮想物体が不自然に移
動してしまう場合がある。そこで、補正値の時間的整合
性を保つために、前フレームまでの補正値を次の補正値
の設定に反映させることを変形例として提案する。
As a problem of switching the marker used for correction as described above, the virtual object may move unnaturally at the time of the switching due to a sudden change in the correction value. . Therefore, in order to maintain the temporal consistency of the correction values, it is proposed as a modification that the correction values up to the previous frame are reflected in the setting of the next correction value.

【0118】即ち、あるフレームでの補正値(世界座標
系での平行移動を表す3次元ベクトル)をvt、前フレ
ームでの補正値をv't-1としたとき、次式で求められる
v'tを新たな補正値とする。
That is, assuming that the correction value (a three-dimensional vector representing a parallel movement in the world coordinate system) in a certain frame is v t and the correction value in the previous frame is v ′ t−1 , the following expression is obtained. Let v't be a new correction value.

【0119】[0119]

【数21】 (Equation 21)

【0120】ここでαは、過去の情報の影響の度合いを
定義する0≦α<1の定数である。上記式の意味すると
ころは、前フレームでの補正値v't-1に拠る寄与度をα
とし、今回のフレームで得られた補正値vtを(1−
α)の寄与度で用いるというものである。このようにす
ることにより、補正値の急激な変化が緩和され、三次元
仮想画像の急激な変化(不自然な移動)が解消する。新
たな補正値αを適当な値に設定することで、マーカの切
り替わりによる不自然な物体の移動を防ぐことができ
る。
Here, α is a constant of 0 ≦ α <1 which defines the degree of influence of past information. The above equation means that the contribution based on the correction value v ′ t−1 in the previous frame is α
And the correction value v t obtained in the current frame is (1−
α). By doing so, a sudden change in the correction value is reduced, and a sudden change (unnatural movement) of the three-dimensional virtual image is eliminated. By setting the new correction value α to an appropriate value, it is possible to prevent unnatural movement of the object due to switching of the marker.

【0121】〈変形例2〉上記実施形態では、画像中に
マーカを検出する処理は、第17図に示すように、ロー
カル探索でマーカを発見できなかった場合、前回のフレ
ームでのマーカの位置に関わらず、全画面中で最も類似
度の高い点を追跡対象のマーカとしていた。ここで、マ
ーカの探索を、前のフレームで見つかったマーカの位置
を中心にして、マーカ探索を行う変形例を提案する。こ
れは、プレーヤの移動に伴う画像フレームの移動があっ
ても、マーカは前フレームに存在した位置から大きくず
れていない位置に存在する可能性が高いからである。
<Modification 2> In the above embodiment, the process of detecting a marker in an image is performed, as shown in FIG. 17, when the marker cannot be found by the local search, the position of the marker in the previous frame. Regardless of this, the point with the highest similarity in the entire screen is used as the marker to be tracked. Here, a modified example in which the marker search is performed centering on the position of the marker found in the previous frame is proposed. This is because, even if the image frame moves along with the movement of the player, there is a high possibility that the marker exists at a position that is not largely shifted from the position existing in the previous frame.

【0122】第25図は、前回のフレームにおいて見つ
かったマーカを今回のフレームに探索する原理を説明す
る。このような探索経路で探索を行い、ある閾値以上の
類似度を持つ点を見つけたら、この点を追跡対象のマー
カとするのである。 〈変形例3〉上記実施形態は光学式HMDを用いたもの
であったが、本発明は光学式HMDの適用に限定される
ものではなく、ビデオシースルー方式のHMDにも適用
可能である。
FIG. 25 explains the principle of searching for a marker found in the previous frame in the current frame. When a search is performed along such a search path and a point having a similarity higher than a certain threshold is found, this point is used as a marker to be tracked. <Modification 3> Although the above embodiment uses the optical HMD, the present invention is not limited to the application of the optical HMD, but can be applied to a video see-through HMD.

【0123】〈変形例4〉上記実施形態は、エアホッケ
ーゲームに適用したものであったが、本発明はエアホッ
ケーゲームに限られない。本発明は、複数人の作業(例
えばマレット操作)を、1つのカメラ手段により撮像し
て捉えるので、その複数人の作業を1つの仮想空間に再
現することが可能である。従って、本発明は、2人以上
の作業者を前提とした協調作業(例えば、複数人による
設計作業のMRプレゼンテーション、あるいは複数人の
対戦型ゲーム)の実施例にも好適である。
<Modification 4> Although the above embodiment is applied to the air hockey game, the present invention is not limited to the air hockey game. According to the present invention, since a plurality of works (for example, mallet operation) are imaged and captured by one camera, it is possible to reproduce the works of the plurality of persons in one virtual space. Therefore, the present invention is also suitable for an embodiment of a cooperative work (for example, an MR presentation of a design work by a plurality of persons or a competitive game of a plurality of persons) on the premise of two or more workers.

【0124】本発明の、複数のマーカに基づいた頭部姿
勢位置を補正する処理は、複数人の協調作業にのみ好適
であることはない。一人の作業者(あるいはプレーヤ)
に複合現実感を提示するシステムにも適用可能である。 〈他の変形例〉第2実施形態では、2台のカメラを用い
ていたが、3台以上のカメラを用いてもよい。
The process of correcting the head posture position based on a plurality of markers according to the present invention is not suitable only for cooperative work by a plurality of persons. One worker (or player)
It is also applicable to a system that presents mixed reality. <Other Modifications> In the second embodiment, two cameras are used, but three or more cameras may be used.

【0125】前述したように、マーカはプレーヤのカメ
ラ240の少なくとも1つ捉えられれば十分である。マ
ーカの数が多すぎると、画像に捕捉されるマーカの数が
多くなり、第16図のS430や第23図のS430’
の追跡マーカの同定処理で、マーカを誤って同定してし
まう可能性が高くなる。従って、作業がカメラ240の
移動をある程度規制できるものであれば、そのカメラに
常に1つのマーカだけが捕捉されるように、マーカの数
を少なくすることも可能である。
As described above, it is sufficient for the marker to be captured by at least one of the player's cameras 240. If the number of markers is too large, the number of markers captured in the image increases, and S430 in FIG. 16 and S430 ′ in FIG.
In the tracking marker identification process, there is a high possibility that the marker is erroneously identified. Therefore, if the operation can regulate the movement of the camera 240 to some extent, it is possible to reduce the number of markers so that the camera always captures only one marker.

【0126】また、前述の実施形態としての位置姿勢検
出装置は、プレーヤの視点位置での補正されたビューイ
ング変換行列を出力するものであったが、本発明はこれ
に限定されず、プレーヤの視点位置を補正された値
(X,Y,Z,r,p,φ)の形式で出力する装置にも
適用できる。また、マーカは、上述のシステムがマーカ
若しくはマークとして認識できるものであれば、いかな
る形状を有してもよく、また、マークではなく、もので
あってもよい。
Although the position and orientation detection apparatus according to the above-described embodiment outputs a corrected viewing transformation matrix at the viewpoint position of the player, the present invention is not limited to this. The present invention can also be applied to a device that outputs a viewpoint position in the form of a corrected value (X, Y, Z, r, p, φ). The marker may have any shape as long as the marker can be recognized as a marker or a mark by the above-described system, and may be a mark instead of a mark.

【0127】[0127]

【発明の効果】以上説明したように本発明の位置姿勢検
出装置および位置姿勢検出方法に因れば、複数のマーカ
をカメラにより撮像するので、少なくとも1つのマーカ
がその画像中に取得されることとなる。そのために、作
業者が広い作業範囲又は広い移動範囲において移動して
も、作業者の頭部位置を追跡できる。特に、広範囲での
複合仮想現実感の提示を可能にするという特別の効果が
得られる。
As described above, according to the position and orientation detection apparatus and the position and orientation detection method of the present invention, since a plurality of markers are imaged by a camera, at least one marker is acquired in the image. Becomes Therefore, even if the worker moves in a wide working range or a wide moving range, the position of the head of the worker can be tracked. In particular, a special effect of enabling presentation of mixed virtual reality over a wide range is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 従来技術において、および本発明の実施形態
に適用されている、カメラ位置の補正の原理を説明する
図。
FIG. 1 is a view for explaining the principle of camera position correction applied to a conventional technique and to an embodiment of the present invention.

【図2】 本発明の実施形態に用いられているゲーム装
置の構成を示す側面図。
FIG. 2 is a side view showing the configuration of the game device used in the embodiment of the present invention.

【図3】 第2図のゲーム装置で左側プレーヤの視界に
見えるシーンを説明する図。
FIG. 3 is a view for explaining a scene seen in the field of view of a left player on the game device of FIG. 2;

【図4】 第2図のゲーム装置に用いられているHMD
の構成を説明する図。
FIG. 4 is an HMD used in the game device of FIG. 2;
FIG.

【図5】 第2図のゲーム装置のテーブルに設けられた
マーカの配置を説明する図。
FIG. 5 is a view for explaining an arrangement of markers provided on a table of the game device in FIG. 2;

【図6】 第5図のテーブル上で、プレーヤの移動につ
れて、プレーヤの頭部に装着されたカメラに捉えられる
画像中に含まれるマーカの変遷を説明する図。
FIG. 6 is a view for explaining changes in markers included in an image captured by a camera mounted on the player's head as the player moves on the table in FIG. 5;

【図7】 実施形態のゲーム装置のための、三次元画像
生成装置の構成を説明する図。
FIG. 7 is an exemplary view for explaining the configuration of a three-dimensional image generation device for the game device according to the embodiment;

【図8】 実施形態のマレット位置計測部に因る処理手
順を説明するフローチャート。
FIG. 8 is a flowchart illustrating a processing procedure performed by a mallet position measurement unit according to the embodiment.

【図9】 実施形態のマレット位置計測部に因る処理手
順の一部サブルーチン(ローカル探索)を説明するフロ
ーチャート。
FIG. 9 is an exemplary flowchart illustrating a subroutine (local search) of a processing procedure performed by the mallet position measurement unit according to the embodiment;

【図10】 実施形態のマレット位置計測部に因る処理
手順の一部サブルーチン(グローバル探索)を説明する
フローチャート。
FIG. 10 is an exemplary flowchart illustrating a subroutine (global search) of a processing procedure performed by the mallet position measurement unit according to the embodiment;

【図11】 第8図のフローチャートの処理において用
いられる処理対象領域の分割を説明する図。
FIG. 11 is a view for explaining division of a processing target area used in the processing of the flowchart in FIG. 8;

【図12】 第8図のフローチャートの処理において用
いられる対象領域の設定手法を示す図。
FIG. 12 is a diagram showing a setting method of a target area used in the processing of the flowchart in FIG. 8;

【図13】 本実施形態のゲームにおける仮想ゲームフ
ィールドの構成を説明する図。
FIG. 13 is an exemplary view for explaining the configuration of a virtual game field in the game according to the embodiment;

【図14】 実施形態のゲーム状態管理部におけるゲー
ム管理の制御手順を説明するフローチャート。
FIG. 14 is a flowchart illustrating a control procedure of game management in a game state management unit according to the embodiment.

【図15】 マレット検出ための手法を説明する図。FIG. 15 is a diagram illustrating a technique for detecting a mallet.

【図16】 実施形態における補正処理部の処理手順を
全体的に説明するフローチャート。
FIG. 16 is an exemplary flowchart for entirely explaining the processing procedure of a correction processing unit according to the embodiment;

【図17】 第16図のフローチャートの一部(マーカ
の追跡)を詳細に説明するフローチャート。
FIG. 17 is a flowchart for explaining in detail a part of the flowchart of FIG. 16 (tracking of a marker);

【図18】 第16図のフローチャートの一部(マーカ
位置の予測)を詳細に説明するフローチャート。
FIG. 18 is a flowchart for explaining in detail a part of the flowchart of FIG. 16 (prediction of a marker position);

【図19】 補正のために使用される基準となるマーカ
の検出の原理を説明する図。
FIG. 19 is a view for explaining the principle of detection of a marker serving as a reference used for correction.

【図20】 基準となるマーカの検出の原理を説明する
フローチャート。
FIG. 20 is a flowchart illustrating the principle of detection of a reference marker.

【図21】 第2の実施形態に用いられるHMDの構成
を示す図。
FIG. 21 is a diagram showing a configuration of an HMD used in the second embodiment.

【図22】 第2実施形態の画像処理システムの主要の
構成を示すブロック図。
FIG. 22 is a block diagram illustrating a main configuration of an image processing system according to a second embodiment.

【図23】 第2実施形態の画像処理システムの制御の
一部を示すフローチャート。
FIG. 23 is a flowchart illustrating a part of control of the image processing system according to the second embodiment;

【図24】 実施形態の変形例に適用される基準マーカ
の変遷を説明する図。
FIG. 24 is a view for explaining changes in reference markers applied to a modification of the embodiment.

【図25】 実施形態の変形例に適用されるマーカ探索
の原理を説明する図。
FIG. 25 is an exemplary view for explaining the principle of marker search applied to the modification of the embodiment;

【図26】 第1実施形態の補正処理の原理を説明する
図。
FIG. 26 is a view for explaining the principle of the correction processing according to the first embodiment.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06T 15/00 G06F 15/62 360 7/00 415 (72)発明者 大島 登志一 横浜市西区花咲町6丁目145番地 横浜花 咲ビル 株式会社エム・アール・システム 研究所内 (72)発明者 谷口 尚郷 横浜市西区花咲町6丁目145番地 横浜花 咲ビル 株式会社エム・アール・システム 研究所内 (72)発明者 片山 昭宏 横浜市西区花咲町6丁目145番地 横浜花 咲ビル 株式会社エム・アール・システム 研究所内──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification symbol FI G06T 15/00 G06F 15/62 360 7/00 415 (72) Inventor Toshiichi Oshima 6-145 Hanasaki-cho, Nishi-ku, Yokohama-shi Hanasaki Yokohama Building Inside M.R.Systems Co., Ltd. (72) Inventor Takasato Taniguchi 6-145 Hanasakicho, Nishi-ku, Yokohama-shi Hanasaki Yokohama Building Inside M.R.Systems Co., Ltd. (72) Akihiro Katayama Nishi-ku, Yokohama 6-145 Hanasakicho Yokohama Hanasaki Building M.R. System Co., Ltd.

Claims (46)

【特許請求の範囲】[Claims] 【請求項1】 作業者が所定の複合現実環境内で行う作
業を表す3次元仮想画像を生成するために、該作業者の
作業位置を検出する位置姿勢検出装置であって、 該作業者の三次元位置姿勢を計測して、作業者位置姿勢
信号を出力する位置姿勢センサと、 前記環境内の既知の位置に設けられた第1の複数のマー
カを撮像するカメラと、 前記カメラからの画像信号を処理して、前記第1の複数
のマーカの中の任意のマーカを追跡し、この追跡マーカ
の座標値を検出する検出手段と、 前記検出手段によって得られた前記追跡マーカの座標値
と前記位置姿勢センサからの作業者位置姿勢信号とに基
づいて、前記作業部位の位置姿勢を表す部位位置姿勢を
演算する演算手段とを具備する位置姿勢検出装置。
1. A position and orientation detection apparatus for detecting a work position of a worker in order to generate a three-dimensional virtual image representing a work performed by the worker in a predetermined mixed reality environment, the apparatus comprising: A position and orientation sensor that measures a three-dimensional position and orientation and outputs a worker position and orientation signal, a camera that captures a first plurality of markers provided at known positions in the environment, and an image from the camera A signal processing section for tracking an arbitrary marker among the first plurality of markers, detecting means for detecting a coordinate value of the tracking marker, and a coordinate value of the tracking marker obtained by the detecting means; A position and orientation detection device comprising: a computing unit that computes a part position and orientation representing the position and orientation of the work part based on an operator position and orientation signal from the position and orientation sensor.
【請求項2】 前記第1の複数のマーカの内の、1つの
マーカと他のマーカとの間の、作業者の前方を横切る方
向における距離は、作業者の前方のより遠方にあるマー
カ程、長くなるように設定されていることを特徴とする
請求項1に記載の位置姿勢検出装置。
2. A distance between one marker and another of the first plurality of markers in a direction crossing the front of the worker is greater than a distance of a marker farther ahead of the worker. The position and orientation detection device according to claim 1, wherein the position and orientation are set to be longer.
【請求項3】 複数の作業者が協調作業を行う場合にお
いて、同じ作業者のための第1の複数のマーカは同じ表
現態様に統一されていることを特徴とする請求項1に記
載の位置姿勢検出装置。
3. The position according to claim 1, wherein when a plurality of workers perform cooperative work, the first plurality of markers for the same worker are unified into the same expression form. Attitude detection device.
【請求項4】 前記作業部位は作業者の視点位置である
ことを特徴とする請求項1に記載の位置姿勢検出装置。
4. The position and orientation detection device according to claim 1, wherein the work site is a viewpoint position of a worker.
【請求項5】 前記検出手段は、前記カメラが取得した
画像中において最初に探索したマーカを用いることを特
徴とする請求項1に記載の位置姿勢検出装置。
5. The position and orientation detection apparatus according to claim 1, wherein the detection means uses a marker first searched in an image acquired by the camera.
【請求項6】 前記検出手段は、前回のシーンの画像に
おいて探索されたマーカを今回のシーンの画像中に探索
する手段を具備することを特徴とする請求項1に記載の
位置姿勢検出装置。
6. The position and orientation detection apparatus according to claim 1, wherein said detection means includes means for searching for a marker searched for in a previous scene image in a current scene image.
【請求項7】 前記位置姿勢センサは作業者の頭部に設
けられることを特徴とする請求項1に記載の位置姿勢検
出装置。
7. The position and orientation detection device according to claim 1, wherein the position and orientation sensor is provided on a head of an operator.
【請求項8】 前記第1の複数のマーカの前記環境内に
おける配置分布密度は、作業者の前方のより遠方にある
マーカの分布密度が、より近隣にあるマーカの分布密度
よりも低く設定されていることを特徴とする請求項1に
記載の位置姿勢検出装置。
8. The distribution density of the first plurality of markers in the environment is set such that a distribution density of a marker located farther in front of the worker is lower than a distribution density of a marker located closer thereto. The position and orientation detection device according to claim 1, wherein:
【請求項9】 前記第1の複数のマーカは、前記カメラ
の視界内に少なくとも1つが捕捉されるように前記環境
内に配置されたことを特徴とする請求項1に記載の位置
姿勢検出装置。
9. The position and orientation detection apparatus according to claim 1, wherein the first plurality of markers are arranged in the environment such that at least one of the markers is captured in a field of view of the camera. .
【請求項10】 前記検出手段は、前記追跡マーカの画
像座標系での画像座標を検出することを特徴とする請求
項1に記載の位置姿勢検出装置。
10. The position and orientation detection apparatus according to claim 1, wherein the detection means detects image coordinates of the tracking marker in an image coordinate system.
【請求項11】 前記検出手段は、前記追跡マーカのカ
メラ座標系での座標を検出することを特徴とする請求項
1に記載の位置姿勢検出装置。
11. The position and orientation detection apparatus according to claim 1, wherein the detection unit detects coordinates of the tracking marker in a camera coordinate system.
【請求項12】 前記第1の複数のマーカは前記環境内
に配置された平面状のテーブルに描かれたマークである
ことを特徴とする請求項1に記載の位置姿勢検出装置。
12. The position and orientation detection apparatus according to claim 1, wherein the first plurality of markers are marks drawn on a planar table arranged in the environment.
【請求項13】 前記第1の複数のマーカは前記環境内
に三次元的位置に配置されたことを特徴とする請求項1
1に記載の位置姿勢検出装置。
13. The apparatus according to claim 1, wherein the first plurality of markers are arranged at three-dimensional positions in the environment.
2. The position and orientation detection device according to claim 1.
【請求項14】 前記検出手段は、 前記追跡マーカを、前記第1の複数のマーカの中から同
定する同定手段を有することを特徴とする請求項1に記
載の位置姿勢検出装置。
14. The position and orientation detection apparatus according to claim 1, wherein said detection means has an identification means for identifying the tracking marker from among the first plurality of markers.
【請求項15】 前記検出手段は、 前記カメラが捉えた画像内に第2の複数のマーカが検出
された場合に、その第2の複数のマーカのなかから1つ
の追跡マーカを選択する手段を有することを特徴とする
請求項1に記載の位置姿勢検出装置。
15. The detecting means, when a second plurality of markers is detected in an image captured by the camera, selects one tracking marker from the second plurality of markers. The position and orientation detection device according to claim 1, further comprising:
【請求項16】 前記同定手段は、選択された追跡マー
カを画像座標系で同定することを特徴とする請求項1に
記載の位置姿勢検出装置。
16. The position and orientation detection apparatus according to claim 1, wherein the identification unit identifies the selected tracking marker in an image coordinate system.
【請求項17】 前記同定手段は、選択された追跡マー
カを世界座標系で同定することを特徴とする請求項1に
記載の位置姿勢検出装置。
17. The position and orientation detection apparatus according to claim 1, wherein the identification unit identifies the selected tracking marker in a world coordinate system.
【請求項18】 前記同定手段は、 前記作業者位置姿勢信号に基づいて前記カメラの位置姿
勢信号を求め、 このカメラの位置姿勢信号により、前記第1の複数のマ
ーカの世界座標系における3次元座標を画像座標値に変
換し、 この画像座標系における前記第1の複数のマーカの座標
と、前記追跡マーカの画像座標値とを比較することによ
り、その追跡マーカを同定することを特徴とする請求項
14に記載の位置姿勢検出装置。
18. The identification means obtains a position and orientation signal of the camera based on the worker position and orientation signal, and the three-dimensional marker in the world coordinate system of the first plurality of markers is determined based on the position and orientation signal of the camera. Converting the coordinates into image coordinate values, and identifying the tracking marker by comparing the coordinates of the first plurality of markers in the image coordinate system with the image coordinate values of the tracking marker. The position and orientation detection device according to claim 14.
【請求項19】 前記同定手段は、 前記作業者位置姿勢信号に基づいて前記カメラの位置姿
勢信号を求め、 このカメラの位置姿勢信号により前記追跡マーカのカメ
ラ座標系における座標を世界座標系の値に変換し、 この世界座標系における前記追跡マーカの座標と、前記
第1の複数のマーカの世界座標系の座標値とを比較する
ことにより、その追跡マーカを同定することを特徴とす
る請求項15に記載の位置姿勢検出装置。
19. The identification means obtains a position and orientation signal of the camera based on the worker position and orientation signal, and calculates the coordinates of the tracking marker in the camera coordinate system based on the position and orientation signal of the camera in a world coordinate system. The tracking marker is identified by comparing the coordinates of the tracking marker in the world coordinate system with the coordinate values of the first plurality of markers in the world coordinate system. The position and orientation detection device according to claim 15,
【請求項20】 前記部位は作業者の視点位置であっ
て、 前記演算手段は、前記作業者位置姿勢信号と、前記同定
手段によって同定された追跡マーカのカメラ座標家によ
る座標値と、当該追跡マーカの三次元位置を画像座標系
に変換した値との誤差距離とに基づいて、作業者の視点
位置での位置姿勢信号を求めることを特徴とする請求項
14に記載の位置姿勢検出装置。
20. The method according to claim 19, wherein the part is a viewpoint position of a worker, and the calculating means is configured to control the worker position and posture signal, a coordinate value of a tracking marker identified by the identifying means by a camera coordinater, and the tracking. 15. The position and orientation detection device according to claim 14, wherein a position and orientation signal at a viewpoint position of the worker is obtained based on an error distance from a value obtained by converting a three-dimensional position of the marker into an image coordinate system.
【請求項21】 前記部位は作業者の視点位置であっ
て、 前記演算手段は、前記作業者位置姿勢信号と、前記同定
手段によって同定された追跡マーカの画像座標を世界座
標系に変換した座標値と、当該追跡マーカの三次元位置
との誤差距離とに基づいて、作業者の視点位置での位置
姿勢信号を求めることを特徴とする請求項14に記載の
位置姿勢検出装置。
21. The part is a worker's viewpoint position, and the calculating means converts the worker position and orientation signal and image coordinates of the tracking marker identified by the identifying means into a world coordinate system. 15. The position and orientation detection apparatus according to claim 14, wherein a position and orientation signal at a viewpoint position of the worker is obtained based on the value and an error distance between the tracking marker and the three-dimensional position.
【請求項22】 前記位置姿勢センサは前記作業者の頭
部に設けられた磁気センサであることを特徴とする請求
項14に記載の位置姿勢検出装置。
22. The position and orientation detection device according to claim 14, wherein the position and orientation sensor is a magnetic sensor provided on a head of the worker.
【請求項23】 前記カメラは作業者に装着される複数
のユニットを有し、 前記同定手段は、選択された追跡マーカを世界座標系で
同定することを特徴とする請求項17に記載の位置姿勢
検出装置。
23. The position according to claim 17, wherein the camera has a plurality of units mounted on an operator, and wherein the identification means identifies the selected tracking marker in a world coordinate system. Attitude detection device.
【請求項24】 前記カメラユニットは2つであること
を特徴とする請求項23に記載の位置姿勢検出装置。
24. The apparatus according to claim 23, wherein the number of the camera units is two.
【請求項25】 既知の位置に配置された第1の複数の
マーカを有する作業台と、 作業者の頭部姿勢を検出するために作業者に装着される
姿勢センサと、 前記第1の複数のマーカのうちの少なくとも1つが視野
に入るように設定されたカメラと、 前記カメラからの画像信号を処理して、前記第1の複数
のマーカの中の任意のマーカを追跡し、この追跡マーカ
の座標値を検出する検出手段と、 前記検出手段によって得られた前記追跡マーカの座標値
と前記位置姿勢センサからの頭部位置姿勢信号とに基づ
いて、前記作業者の視点の位置姿勢を表す視点の位置姿
勢信号を演算する演算手段と、 前記視点の位置姿勢信号に応じた視点位置に、複合現実
感を提示するための仮想画像を生成する生成手段とを具
備することを特徴とする複合現実感提示装置。
25. A worktable having a first plurality of markers arranged at known positions, a posture sensor mounted on the worker for detecting a posture of the head of the worker, and the first plurality of markers. A camera set so that at least one of the markers is in the field of view; and processing an image signal from the camera to track any marker in the first plurality of markers. Detecting means for detecting the coordinate value of the operator; and representing the position and orientation of the viewpoint of the worker based on the coordinate value of the tracking marker obtained by the detecting means and the head position and orientation signal from the position and orientation sensor. A composite comprising: arithmetic means for calculating a position and orientation signal of a viewpoint; and generation means for generating a virtual image for presenting mixed reality at a viewpoint position corresponding to the position and orientation signal of the viewpoint. Reality presentation Location.
【請求項26】 前記第1の複数のマーカの内の、1つ
のマーカと他のマーカとの間の、作業者の前方を横切る
方向における距離は、作業者の前方のより遠方にあるマ
ーカ程、長くなるように前記作業台上に設定されている
ことを特徴とする請求項25に記載の複合現実感提示装
置。
26. A distance between one marker and another marker of the first plurality of markers in a direction crossing in front of the worker is greater than a distance of a marker farther ahead of the worker. 26. The mixed reality presentation apparatus according to claim 25, wherein the apparatus is set on the work table so as to be longer.
【請求項27】 複数の作業者が協調作業を行う場合に
おいて、同じ作業者のための複数のマーカは同じ表現態
様に統一されていることを特徴とする請求項25に記載
の複合現実感提示装置。
27. The mixed reality presentation according to claim 25, wherein when a plurality of workers perform cooperative work, a plurality of markers for the same worker are unified into the same expression form. apparatus.
【請求項28】 前記検出手段は、前記カメラが取得し
た画像中においてマーカを追跡してそのマーカの画像座
標値を出力する追跡手段を更に有することを特徴とする
請求項25に記載の複合現実感提示装置。
28. The mixed reality according to claim 25, wherein said detecting means further comprises a tracking means for tracking a marker in an image acquired by said camera and outputting an image coordinate value of said marker. Feeling presentation device.
【請求項29】 前記追跡手段は、前記画像中で最初に
探索されたマーカを追跡中のマーカと同定することを特
徴とする請求項28に記載の複合現実感提示装置。
29. The mixed reality presentation apparatus according to claim 28, wherein the tracking means identifies a marker first searched in the image as a marker being tracked.
【請求項30】 前記追跡手段は、前回のシーンの画像
において探索されたマーカを今回のシーンの画像中に探
索する手段を具備することを特徴とする請求項28に記
載の複合現実感提示装置。
30. The mixed reality presentation apparatus according to claim 28, wherein the tracking means includes means for searching a marker searched for in a previous scene image in a current scene image. .
【請求項31】 前記第1の複数のマーカの前記環境内
における配置分布密度は、作業者の前方のより遠方にあ
るマーカの分布密度が、より近隣にあるマーカの分布密
度よりも低く設定されていることを特徴とする請求項2
5に記載の複合現実感提示装置。
31. A distribution density of the first plurality of markers in the environment is set such that a distribution density of a marker located farther in front of the worker is lower than a distribution density of a marker located closer thereto. 3. The method according to claim 2, wherein
6. The mixed reality presentation device according to 5.
【請求項32】 前記第1の複数のマーカは、前記カメ
ラの視界内に少なくとも1つが捕捉されるように前記環
境内に配置されたことを特徴とする請求項25に記載の
複合現実感提示装置。
32. The mixed reality presentation of claim 25, wherein the first plurality of markers are located in the environment such that at least one is captured within a field of view of the camera. apparatus.
【請求項33】 前記検出手段は、前記追跡マーカの画
像座標系での画像座標を検出することを特徴とする請求
項25に記載の複合現実感提示装置。
33. The mixed reality presentation apparatus according to claim 25, wherein the detection means detects image coordinates of the tracking marker in an image coordinate system.
【請求項34】 前記検出手段は、前記追跡マーカのカ
メラ座標系での座標を検出することを特徴とする請求項
25に記載の複合現実感提示装置。
34. The mixed reality presentation apparatus according to claim 25, wherein the detection unit detects coordinates of the tracking marker in a camera coordinate system.
【請求項35】 前記第1の複数のマーカは前記環境内
に配置された平面状のテーブルに描かれたマークである
ことを特徴とする請求項25に記載の複合現実感提示装
置。
35. The mixed reality presentation apparatus according to claim 25, wherein the first plurality of markers are marks drawn on a planar table arranged in the environment.
【請求項36】 前記第1の複数のマーカは前記環境内
に三次元的位置に配置されたことを特徴とする請求項3
5に記載の複合現実感提示装置。
36. The system according to claim 3, wherein the first plurality of markers are arranged at three-dimensional positions in the environment.
6. The mixed reality presentation device according to 5.
【請求項37】 前記検出手段は、 前記追跡マーカを、前記第1の複数のマーカの中から同
定する同定手段を有することを特徴とする請求項25に
記載の複合現実感提示装置。
37. The mixed reality presentation apparatus according to claim 25, wherein the detection unit includes an identification unit that identifies the tracking marker from the first plurality of markers.
【請求項38】 前記同定手段は、画像座標系で同定す
ることを特徴とする請求項25に記載の複合現実感提示
装置。
38. The mixed reality presentation apparatus according to claim 25, wherein said identification means performs identification in an image coordinate system.
【請求項39】 前記同定手段は、世界座標系で同定す
ることを特徴とする請求項26に記載の複合現実感提示
装置。
39. The mixed reality presentation apparatus according to claim 26, wherein said identification means performs identification in a world coordinate system.
【請求項40】 作業者が所定の複合現実環境内で行う
作業に関連する3次元仮想画像を生成するために、該作
業者の作業位置を検出する位置姿勢検出方法であって、 該作業者の三次元位置姿勢を計測して位置姿勢信号を出
力する工程と、 前記環境内の既知の位置に設けられた複数のマーカを撮
像するカメラからの画像信号を処理して、少なくとも1
つのマーカを追跡して、この追跡マーカの座標を検出す
る工程と、 この追跡マーカの座標と前記位置姿勢信号とに基づい
て、前記作業者の頭部の位置姿勢を表す信号を出力する
工程とを具備することを特徴とする位置姿勢検出方法。
40. A position and orientation detection method for detecting a work position of a worker in order to generate a three-dimensional virtual image related to a work performed by the worker in a predetermined mixed reality environment, the method comprising: Measuring a three-dimensional position and orientation of the environment and outputting a position and orientation signal; and processing an image signal from a camera that captures a plurality of markers provided at known positions in the environment, and
Tracking the two markers and detecting the coordinates of the tracking marker; and outputting a signal representing the position and orientation of the worker's head based on the coordinates of the tracking marker and the position and orientation signal. A position and orientation detection method comprising:
【請求項41】 前記請求項40の位置姿勢検出法によ
り検出された前記作業者の頭部位置に従って、仮想現実
感を提示する複合現実感の提示方法。
41. A mixed reality presentation method for presenting virtual reality in accordance with the position of the worker's head detected by the position and orientation detection method according to claim 40.
【請求項42】 前記カメラは作業者に複数装着され、 前記検出工程は、複数のカメラユニットにより撮像され
た作業者前方の複数の画像を表す信号を三角測量の方法
を用いて処理することにより、少なくとも1つのマーカ
を追跡することを特徴とする請求項40に記載の位置姿
勢検出方法。
42. A plurality of cameras are mounted on an operator, and the detecting step is performed by processing signals representing a plurality of images in front of the worker, which are captured by a plurality of camera units, using a triangulation method. 41. The method according to claim 40, wherein at least one marker is tracked.
【請求項43】 請求項40に記載の方法を記述するコ
ンピュータプログラムを記憶する記憶媒体。
43. A storage medium storing a computer program describing the method of claim 40.
【請求項44】 請求項41に記載の方法を記述するコ
ンピュータプログラムを記憶する記憶媒体。
44. A storage medium storing a computer program describing the method according to claim 41.
【請求項45】 請求項42に記載の方法を記述するコ
ンピュータプログラムを記憶する記憶媒体。
45. A storage medium storing a computer program describing the method of claim 42.
【請求項46】 作業者の作業位置を検出する位置姿勢
検出装置であって、 該作業者の三次元位置姿勢を計測して位置姿勢信号を出
力する位置姿勢センサと、 前記環境内の既知の位置に設けられた複数のマーカを撮
像するカメラと、 前記カメラからの画像信号を処理して、前記複数のマー
カの中の任意のマーカを追跡し、この追跡マーカの座標
値を検出する検出手段と、 前記検出手段によって得られた前記追跡マーカの座標値
に基づいて、前記位置姿勢センサの出力信号を補正する
補正手段とを具備する位置姿勢検出装置。
46. A position and orientation detection device for detecting a work position of an operator, comprising: a position and orientation sensor that measures a three-dimensional position and orientation of the worker and outputs a position and orientation signal; A camera that captures a plurality of markers provided at a position, a detection unit that processes an image signal from the camera, tracks an arbitrary marker among the plurality of markers, and detects a coordinate value of the tracking marker A position and orientation detection device comprising: a correction unit configured to correct an output signal of the position and orientation sensor based on a coordinate value of the tracking marker obtained by the detection unit.
JP06582498A 1997-09-01 1998-03-16 Position and orientation detection apparatus and information processing method Expired - Fee Related JP3450704B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP06582498A JP3450704B2 (en) 1997-09-01 1998-03-16 Position and orientation detection apparatus and information processing method
US09/045,993 US6522312B2 (en) 1997-09-01 1998-03-23 Apparatus for presenting mixed reality shared among operators
EP98302186A EP0899690B1 (en) 1997-09-01 1998-03-24 Apparatus and method for presenting mixed virtual reality shared among operators
DE69835321T DE69835321T2 (en) 1997-09-01 1998-03-24 Apparatus and method for displaying mixed virtual reality, shared by multiple operators
AT98302186T ATE334453T1 (en) 1997-09-01 1998-03-24 DEVICE AND METHOD FOR REPRESENTING MIXED VIRTUAL REALITY, USED TOGETHER BY SEVERAL OPERATORS

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP23637597 1997-09-01
JP9-236375 1997-09-01
JP06582498A JP3450704B2 (en) 1997-09-01 1998-03-16 Position and orientation detection apparatus and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003037406A Division JP3793158B2 (en) 1997-09-01 2003-02-14 Information processing method and information processing apparatus

Publications (2)

Publication Number Publication Date
JPH11136706A true JPH11136706A (en) 1999-05-21
JP3450704B2 JP3450704B2 (en) 2003-09-29

Family

ID=26406969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06582498A Expired - Fee Related JP3450704B2 (en) 1997-09-01 1998-03-16 Position and orientation detection apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP3450704B2 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132487A (en) * 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
JP2002229730A (en) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc Information processing unit, complex reality providing device and method thereof, and storage medium
JP2003534594A (en) * 2000-05-22 2003-11-18 ホログラフイツク・イメージング・エル・エル・シー 3D human-computer interface
JP2003344018A (en) * 2003-04-04 2003-12-03 Canon Inc Unit and method for image processing as well as program and storage medium
WO2004001677A1 (en) * 2002-06-20 2003-12-31 West Unitis Co., Ltd. Job guiding system
JP2005230239A (en) * 2004-02-19 2005-09-02 Aruze Corp Game machine
JP2005293141A (en) * 2004-03-31 2005-10-20 Canon Inc Method and device for detecting marker, and method for estimating position and attitude
US6968084B2 (en) 2001-03-06 2005-11-22 Canon Kabushiki Kaisha Specific point detecting method and device
JP2005326274A (en) * 2004-05-14 2005-11-24 Canon Inc Arrangement information inferring method and information processor
JP2006127468A (en) * 2004-09-28 2006-05-18 Canon Inc Information processing method and apparatus
US7130754B2 (en) 2002-03-19 2006-10-31 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
JP2006313549A (en) * 2005-05-03 2006-11-16 Seac02 Srl Augmented reality system for identifying real marker object
JP2007163367A (en) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Camera information analyzer
JP2007271564A (en) * 2006-03-31 2007-10-18 Canon Inc Position and attitude measurement method, position and attitude measuring instrument
US7312795B2 (en) 2003-09-30 2007-12-25 Canon Kabushiki Kaisha Image display apparatus and method
JP2010522380A (en) * 2007-03-19 2010-07-01 ゼブラ・イメージング・インコーポレイテッド System and method for updating dynamic 3D display by user input
US7894661B2 (en) 2002-12-27 2011-02-22 Olympus Corporation Calibration apparatus, calibration method, program for calibration, and calibration jig
JP2011177579A (en) * 2011-06-20 2011-09-15 Nintendo Co Ltd Information processing system and program
US8098263B2 (en) 2004-05-28 2012-01-17 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2012033073A (en) * 2010-07-30 2012-02-16 Dainippon Printing Co Ltd Additional information service system and image pickup device
JP2014011655A (en) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Video processing apparatus, video processing method, and video processing system
WO2014050966A1 (en) * 2012-09-27 2014-04-03 京セラ株式会社 Display device, control system, and control program
KR101427730B1 (en) * 2012-05-25 2014-09-23 주식회사 고영테크놀러지 Camera registration method for augmented reality of surgical navigation system
WO2014175324A1 (en) * 2013-04-24 2014-10-30 川崎重工業株式会社 Workpiece machining work support system and workpiece machining method
JP2015537417A (en) * 2012-10-22 2015-12-24 ムン キ イ, Video processing device using difference camera
JP2016100024A (en) * 2014-11-25 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Computing apparatus and method for three-dimensional interaction
JP2018092584A (en) * 2017-07-19 2018-06-14 グリー株式会社 Application control program, application control method, and application control system
JP2018129043A (en) * 2014-03-14 2018-08-16 株式会社ソニー・インタラクティブエンタテインメント Game machine equipped with volumetric sensing
JP2019053603A (en) * 2017-09-15 2019-04-04 富士通株式会社 Display control program, apparatus and method
WO2019107942A1 (en) * 2017-12-01 2019-06-06 클릭트 주식회사 Method and program for providing augmented reality image by using depth data
JP2019169156A (en) * 2015-03-03 2019-10-03 コグネックス・コーポレイション Vision system for training assembly system through virtual assembly of objects
JP2021518778A (en) * 2018-03-16 2021-08-05 ソニー・インタラクティブエンタテインメント エルエルシー Asynchronous virtual reality interaction
WO2022153910A1 (en) * 2021-01-12 2022-07-21 日本電気株式会社 Detection system, detection method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6482307B2 (en) * 2015-02-06 2019-03-13 キヤノン株式会社 Information processing apparatus and method

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003534594A (en) * 2000-05-22 2003-11-18 ホログラフイツク・イメージング・エル・エル・シー 3D human-computer interface
JP2002132487A (en) * 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
US6853935B2 (en) 2000-11-30 2005-02-08 Canon Kabushiki Kaisha Information processing apparatus, mixed reality presentation apparatus, method thereof, and storage medium
JP2002229730A (en) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc Information processing unit, complex reality providing device and method thereof, and storage medium
US6968084B2 (en) 2001-03-06 2005-11-22 Canon Kabushiki Kaisha Specific point detecting method and device
US7454065B2 (en) 2001-03-06 2008-11-18 Canon Kabushiki Kaisha Specific point detecting method and device
US7130754B2 (en) 2002-03-19 2006-10-31 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
WO2004001677A1 (en) * 2002-06-20 2003-12-31 West Unitis Co., Ltd. Job guiding system
CN1313980C (en) * 2002-06-20 2007-05-02 韦斯特尤尼蒂斯株式会社 Job guiding system
US7894661B2 (en) 2002-12-27 2011-02-22 Olympus Corporation Calibration apparatus, calibration method, program for calibration, and calibration jig
JP2003344018A (en) * 2003-04-04 2003-12-03 Canon Inc Unit and method for image processing as well as program and storage medium
US7312795B2 (en) 2003-09-30 2007-12-25 Canon Kabushiki Kaisha Image display apparatus and method
JP2005230239A (en) * 2004-02-19 2005-09-02 Aruze Corp Game machine
JP2005293141A (en) * 2004-03-31 2005-10-20 Canon Inc Method and device for detecting marker, and method for estimating position and attitude
JP4537104B2 (en) * 2004-03-31 2010-09-01 キヤノン株式会社 Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method
US7519218B2 (en) 2004-03-31 2009-04-14 Canon Kabushiki Kaisha Marker detection method and apparatus, and position and orientation estimation method
JP2005326274A (en) * 2004-05-14 2005-11-24 Canon Inc Arrangement information inferring method and information processor
JP4532982B2 (en) * 2004-05-14 2010-08-25 キヤノン株式会社 Arrangement information estimation method and information processing apparatus
US8098263B2 (en) 2004-05-28 2012-01-17 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4689380B2 (en) * 2004-09-28 2011-05-25 キヤノン株式会社 Information processing method and apparatus
US7671875B2 (en) 2004-09-28 2010-03-02 Canon Kabushiki Kaisha Information processing method and apparatus
JP2006127468A (en) * 2004-09-28 2006-05-18 Canon Inc Information processing method and apparatus
JP2006313549A (en) * 2005-05-03 2006-11-16 Seac02 Srl Augmented reality system for identifying real marker object
JP2007163367A (en) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Camera information analyzer
JP2007271564A (en) * 2006-03-31 2007-10-18 Canon Inc Position and attitude measurement method, position and attitude measuring instrument
JP2010522380A (en) * 2007-03-19 2010-07-01 ゼブラ・イメージング・インコーポレイテッド System and method for updating dynamic 3D display by user input
JP2012033073A (en) * 2010-07-30 2012-02-16 Dainippon Printing Co Ltd Additional information service system and image pickup device
JP2011177579A (en) * 2011-06-20 2011-09-15 Nintendo Co Ltd Information processing system and program
KR101427730B1 (en) * 2012-05-25 2014-09-23 주식회사 고영테크놀러지 Camera registration method for augmented reality of surgical navigation system
JP2014011655A (en) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Video processing apparatus, video processing method, and video processing system
US9684173B2 (en) 2012-06-29 2017-06-20 Sony Corporation Image processing device, image processing method, and image processing system
US8912980B2 (en) 2012-06-29 2014-12-16 Sony Corporation Image processing device, image processing method, and image processing system
US9123158B2 (en) 2012-06-29 2015-09-01 Sony Corporation Image processing device, image processing method, and image processing system
US9311754B2 (en) 2012-06-29 2016-04-12 Sony Corporation Image processing device, image processing method, and image processing system
WO2014050966A1 (en) * 2012-09-27 2014-04-03 京セラ株式会社 Display device, control system, and control program
US9619941B2 (en) 2012-09-27 2017-04-11 Kyocera Corporation Virtual play area display device, control system, and control program
JP2015537417A (en) * 2012-10-22 2015-12-24 ムン キ イ, Video processing device using difference camera
WO2014175324A1 (en) * 2013-04-24 2014-10-30 川崎重工業株式会社 Workpiece machining work support system and workpiece machining method
US10140767B2 (en) 2013-04-24 2018-11-27 Kawasaki Jukogyo Kabushiki Kaisha Workpiece machining work support system and workpiece machining method
JPWO2014175324A1 (en) * 2013-04-24 2017-02-23 川崎重工業株式会社 Work processing support system and work processing method
JP2018129043A (en) * 2014-03-14 2018-08-16 株式会社ソニー・インタラクティブエンタテインメント Game machine equipped with volumetric sensing
JP2016100024A (en) * 2014-11-25 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Computing apparatus and method for three-dimensional interaction
JP2019169156A (en) * 2015-03-03 2019-10-03 コグネックス・コーポレイション Vision system for training assembly system through virtual assembly of objects
JP2018092584A (en) * 2017-07-19 2018-06-14 グリー株式会社 Application control program, application control method, and application control system
JP2019053603A (en) * 2017-09-15 2019-04-04 富士通株式会社 Display control program, apparatus and method
US10573083B2 (en) 2017-09-15 2020-02-25 Fujitsu Limited Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
WO2019107942A1 (en) * 2017-12-01 2019-06-06 클릭트 주식회사 Method and program for providing augmented reality image by using depth data
US11328487B2 (en) 2017-12-01 2022-05-10 Clicked, Inc. Method and program for providing augmented reality image by using depth data
JP2021518778A (en) * 2018-03-16 2021-08-05 ソニー・インタラクティブエンタテインメント エルエルシー Asynchronous virtual reality interaction
WO2022153910A1 (en) * 2021-01-12 2022-07-21 日本電気株式会社 Detection system, detection method, and program

Also Published As

Publication number Publication date
JP3450704B2 (en) 2003-09-29

Similar Documents

Publication Publication Date Title
JP3450704B2 (en) Position and orientation detection apparatus and information processing method
EP0899690B1 (en) Apparatus and method for presenting mixed virtual reality shared among operators
JP3631151B2 (en) Information processing apparatus, mixed reality presentation apparatus and method, and storage medium
JPH1184307A (en) Head-mounted optical device
JP3486536B2 (en) Mixed reality presentation apparatus and method
US7529387B2 (en) Placement information estimating method and information processing device
Neumann et al. A self-tracking augmented reality system
JP4708752B2 (en) Information processing method and apparatus
US6781618B2 (en) Hand-held 3D vision system
US7671875B2 (en) Information processing method and apparatus
US20040176925A1 (en) Position/orientation measurement method, and position/orientation measurement apparatus
US7295697B1 (en) Depth information measurement apparatus and mixed reality presentation system
US7671916B2 (en) Motion sensor using dual camera inputs
US8144238B2 (en) Image processing apparatus and method
US20050261573A1 (en) Method and apparatus for determining position and orientation
EP1596329A2 (en) Marker placement information estimating method and information processing device
JP2006214832A (en) Method of measuring marker arrangement, method of assuming position/attitude, device for measuring marker arrangement, device for assuming position/attitude
JP3793158B2 (en) Information processing method and information processing apparatus
JP7164045B2 (en) Skeleton Recognition Method, Skeleton Recognition Program and Skeleton Recognition System
JP4205004B2 (en) Calibration method
JP2022049793A (en) Trajectory calculation device, trajectory calculation method, trajectory calculation program
Siltanen et al. Automatic marker field calibration
JP4810403B2 (en) Information processing apparatus and information processing method
JP2024513328A (en) Method for calculating the spin of a golf ball moving after being hit and a spin calculating device using the same
Gan et al. Vision-based augmented reality visual guidance with keyframes

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100711

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100711

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees