JP3413128B2 - Mixed reality presentation method - Google Patents

Mixed reality presentation method

Info

Publication number
JP3413128B2
JP3413128B2 JP16471999A JP16471999A JP3413128B2 JP 3413128 B2 JP3413128 B2 JP 3413128B2 JP 16471999 A JP16471999 A JP 16471999A JP 16471999 A JP16471999 A JP 16471999A JP 3413128 B2 JP3413128 B2 JP 3413128B2
Authority
JP
Japan
Prior art keywords
player
image
mixed reality
space
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16471999A
Other languages
Japanese (ja)
Other versions
JP2000353249A (en
Inventor
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP16471999A priority Critical patent/JP3413128B2/en
Priority to US09/510,232 priority patent/US6972734B1/en
Priority to AT00103876T priority patent/ATE543546T1/en
Priority to EP00103876A priority patent/EP1060772B1/en
Publication of JP2000353249A publication Critical patent/JP2000353249A/en
Application granted granted Critical
Publication of JP3413128B2 publication Critical patent/JP3413128B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、現実空間と仮想空
間とを合成することにより表される複合現実空間をプレ
ーヤに提示する複合現実感提示方法に関し、特にユーザ
が複合現実空間中の任意の位置を容易に指示可能な複合
現実感提示方法に関する。
TECHNICAL FIELD The present invention relates to a real space and a virtual sky.
The mixed reality space represented by combining
The mixed reality presentation method presented to the user
Relates to a mixed reality presentation method capable of easily indicating an arbitrary position in a mixed reality space .

【0002】[0002]

【0003】[0003]

【従来の技術】近年、現実空間と仮想空間の継ぎ目のな
い結合を目的とした複合現実感(Mixed Reality、M
R)に関する研究が盛んになっている。MRは従来、現
実空間と切り離された状況でのみ体験可能であったバー
チャルリアリティ(VR)の世界と現実空間との共存を
目的とし、VRを増強する技術として注目されている。
In recent years, mixed reality for the purpose of seamless coupling of real space and virtual space (Mixed Reality, M
Research on R) has become popular. MR has been attracting attention as a technique for enhancing VR for the purpose of coexistence of the world of virtual reality (VR), which was conventionally available only in a situation separated from the physical space, and the physical space.

【0004】複合現実感を実現する装置として代表的な
ものは、ヘッドマウントディスプレイ(HMD)であ
る。すなわち、現実空間と仮想空間をHMDに合成して
表示することにより、複合現実感を実現するものであ
る。また、HMDを用いたMRの方式としては、半透過
型(シースルー型)のヘッドマウントディスプレイ(H
MD)にCG等の画像を重畳する光学シースルー方式
と、HMDに装着したビデオカメラで撮影した画像デー
タにCG等の画像を合成した後、HMDに表示するビデ
オシースルー方式がある。
A typical device for realizing mixed reality is a head mounted display (HMD). That is, the mixed reality is realized by synthesizing and displaying the real space and the virtual space on the HMD. As an MR method using the HMD, a semi-transmissive (see-through type) head mounted display (H
There are an optical see-through method of superimposing an image of CG or the like on the MD) and a video see-through method of displaying an image on the HMD after the image of the CG or the like is combined with image data taken by a video camera mounted on the HMD.

【0005】MRの用途としては、患者の体内の様子を
透過しているように医師に提示する医療補助の用途や、
工場において製品の組み立て手順を実物に重ねて表示す
る作業補助の用途など、今までのVRとは質的に全く異
なった新たな分野が期待されている。
[0005] The MR is used as a medical assistance to present to a doctor as if the patient's internal condition is seen through, and
It is expected that new fields will be qualitatively completely different from the VRs used up to now, such as the use of work assistance in which the assembly procedure of products is displayed on the actual product in a factory.

【0006】(ゲームアプリケーション)一方、MRを
用いて複数人が同じ空間を共有し、協調して動作を行う
例として、例えば特開平11−84307号公報に示さ
れるようなゲームがある。特開平11−84307号公
報には、MRを利用したゲーム装置として、図15に示
すようなエアホッケー装置が開示されている。
(Game Application) On the other hand, as an example in which a plurality of persons share the same space by using MR and perform operations in cooperation, there is a game as disclosed in, for example, Japanese Patent Laid-Open No. 11-84307. Japanese Patent Laid-Open No. 11-84307 discloses an air hockey device as shown in FIG. 15 as a game device using MR.

【0007】エアホッケーゲームはテーブルを挟んで通
常二人が対峙し、テーブル盤面に設けられた微細な穴か
ら供給される圧縮空気によって浮上したパックを、プレ
ーヤが手で操作するマレットで打ち返し、相手のゴール
にパックを入れあうゲームである。
In an air hockey game, usually two people face each other across a table, and a puck floated by compressed air supplied from minute holes provided on the table board is hit back by a mallet manually operated by the player, It is a game that puts packs in the goal of.

【0008】MRを適用したエアホッケーゲームは、パ
ックを仮想物体として現実環境に重畳してプレーヤーの
HMDに表示して、エアホッケーゲームを行うものであ
る。
In the air hockey game to which MR is applied, the puck is superimposed on the real environment as a virtual object and displayed on the HMD of the player to play the air hockey game.

【0009】(ゲーム装置の構成)図15は、MRエア
ホッケーゲーム装置を側面から見た図である。複合現実
感のエアホッケーゲームは、テープル1000を挟ん
で、二人の対戦者2000,3000が手にマレットと
して用いるコントロールボックス(260L,260
R)を持って向かい合う。二人の対戦者2000,30
00は頭部にヘッドマウントデイスプレイ(以下HMD
と略す)210L,210Rを装着する。
(Structure of Game Device) FIG. 15 is a side view of the MR air hockey game device. A mixed reality air hockey game is a control box (260L, 260L) that two opponents 2000, 3000 use as a mallet with a table 1000 in between.
R) face each other. Two opponents 2000, 30
00 is a head mount display (hereinafter HMD
210L and 210R are attached.

【0010】コントロールボックス(260L、260
R)はその先端に赤外線発光器を有しており、テーブル
上部に設けられた赤外線を検出するCCDカメラ230
によって取得した画像を処理することにより、その二次
元平面位置を知ることができる。コントロールボックス
の形状や色に特徴があるのであれば、それらの特徴を用
いたパターン認識による検出も可能である。
Control box (260L, 260
R) has an infrared ray emitter at its tip, and is a CCD camera 230 provided on the table for detecting infrared rays.
By processing the image acquired by, the position of the two-dimensional plane can be known. If the shape and color of the control box have characteristics, detection by pattern recognition using those characteristics is also possible.

【0011】HMD210は、例えばシースルー型であ
る。両対戦者2000,3000は、HMD210L,
210Rを装着していても、テープル1000の表面を
直接観察することができる。HMD210には図示しな
い画像処理システムから二次元仮想画像が入力される。
従って、対戦者2000,3000は、HMD210の
光学系(図15には不図示)を通して観察される現実空
間に重ねて、HMD210の表示画面に表示された二次
元画像を見ることとなる。
The HMD 210 is, for example, a see-through type. Both opponents 2000, 3000, HMD210L,
Even with the 210R attached, the surface of the table 1000 can be directly observed. A two-dimensional virtual image is input to the HMD 210 from an image processing system (not shown).
Therefore, the opponents 2000 and 3000 will see the two-dimensional image displayed on the display screen of the HMD 210, overlapping with the real space observed through the optical system (not shown in FIG. 15) of the HMD 210.

【0012】図16は、左側プレーヤ2000が自身の
HMD210Lを通して観察する複合現実空間を示す。
図16において、現実空間として認識されるのは対戦す
るプレーヤ3000及びテーブル1000と、視野に入
る自分の体、特にコントロールボックスを持った手であ
る。一方、相手ゴール1200R、パック1500は仮
想空間に表示される。
FIG. 16 shows the mixed reality space that the left player 2000 observes through his HMD 210L.
In FIG. 16, what is recognized as the real space is the player 3000 and the table 1000 who compete with each other, and one's own body in the field of view, especially the hand holding the control box. On the other hand, the opponent goal 1200R and the puck 1500 are displayed in the virtual space.

【0013】そして、二人のプレーヤは、各自が手に持
った現実のコントロールボックスを、画像処理システム
が表示する仮想のパック1500に当たるように移動
し、仮想のパックを打ち合う。仮想のパックの位置は画
像処理システムが演算し、両プレイヤーのHMDにおい
てテーブル上でパックがマレット及び周囲の壁面にはじ
かれて移動するように観察されるよう表示を行う。
Then, the two players move the actual control box held by each player so as to hit a virtual pack 1500 displayed by the image processing system, and strike the virtual packs. The position of the virtual puck is calculated by the image processing system and displayed on the HMDs of both players so that the puck can be observed to move while being repelled by the mallet and the surrounding wall surface on the table.

【0014】プレーヤが装着するHMD210は、例え
ば特開平7−333551号に開示されるHMDの本体
に、磁気センサ220を支柱221を介して取り付けた
ものである。HMDに磁気センサ及び(又は)カメラを
取り付ける構成は、ビデオシースルー方式のHMDに限
られず、光学シースルー方式のHMDであっても、頭部
位置及び姿勢を正確に検出する目的で採用することがで
きる。
The HMD 210 worn by the player is, for example, the HMD main body disclosed in Japanese Unexamined Patent Publication No. 7-333551, to which a magnetic sensor 220 is attached via a column 221. The configuration in which the magnetic sensor and / or the camera is attached to the HMD is not limited to the video see-through HMD, and even an optical see-through HMD can be adopted for the purpose of accurately detecting the head position and posture. .

【0015】夫々のHMD210はバンド(不図示)に
よってプレーヤの頭部に固定される。プレーヤの夫々の
頭部には、磁気センサ(220L,220R)及びCC
Dカメラ240(240L,240R)が、それぞれ固
定されている。カメラ240の視界はプレーヤの前方に
設定されている。エアホッケーゲームの場合には、それ
ぞれテープル1000の上面を見ることとなるので、カ
メラ240もテーブル1000の表面の画像を撮像す
る。磁気センサ220(220L, 220R)は、交
流磁界発生源250が発する交流磁界の変化をセンスす
る。
Each HMD 210 is fixed to the player's head by a band (not shown). Each player's head has a magnetic sensor (220L, 220R) and a CC.
The D cameras 240 (240L, 240R) are fixed. The field of view of the camera 240 is set in front of the player. In the case of the air hockey game, since the upper surface of the table 1000 is to be seen, the camera 240 also captures an image of the surface of the table 1000. The magnetic sensor 220 (220L, 220R) senses a change in the AC magnetic field generated by the AC magnetic field generation source 250.

【0016】プレーヤがテープル1000の表面を見る
ために斜め下方を向くと、HMD210を通した視界に
は、テーブル1000の表面と、前述の仮想のパック1
500、現実のマレット(コントロールボックス26
0)、仮想のゴール1200(1200L,1200
R)が見える。また、プレーヤが、頭部を、水平二次元
平面内において水平移動させ、あるいはティルティング
運動、ヨー運動、ローリング運動を行わせると、その変
化は先ず磁気センサ220によって検出され、併せて、
頭部の姿勢変化に伴ってCCDカメラ240が撮像する
画像の変化として観測される。
When the player turns diagonally downward to see the surface of the table 1000, the view through the HMD 210 shows the surface of the table 1000 and the virtual puck 1 described above.
500, real mallet (control box 26
0), virtual goal 1200 (1200L, 1200
R) is visible. When the player moves his head horizontally within a horizontal two-dimensional plane, or makes a tilting motion, a yaw motion, or a rolling motion, the change is first detected by the magnetic sensor 220.
This is observed as a change in the image captured by the CCD camera 240 as the posture of the head changes.

【0017】そして、検出された頭部の姿勢変化を用い
て、HMDに表示する仮想空間の画像データの表示位置
を変化させる。マーカをテーブル上に配置し、カメラ2
40が撮影したマーカ画像から姿勢変化を示す信号を補
正することも可能である。
Then, the detected position change of the head is used to change the display position of the image data of the virtual space displayed on the HMD. Place the marker on the table and use the camera 2
It is also possible to correct the signal indicating the posture change from the marker image captured by 40.

【0018】(指示表示)一方、複合現実空間において
所定の位置、あるいは物体等を指し示したい場合には、
現実空間において用いられているような指示棒や単なる
棒を模した3次元画像など、面を組み合わせて構成され
た画像を複合現実空間における指示棒として用いてい
た。
(Instruction Display) On the other hand, when it is desired to indicate a predetermined position or an object in the mixed reality space,
An image formed by combining surfaces, such as a pointing stick used in the real space or a three-dimensional image simulating a simple stick, is used as the pointing stick in the mixed reality space.

【0019】[0019]

【発明が解決しようとする課題】上述のMRエアホッケ
ーゲームにおいては、プレーヤーがいずれもHMDを装
着しており、相手プレーヤーの視線の方向がわからな
い。また、装着している機器がそのまま見えるため、臨
場感に乏しい。
In the MR air hockey game described above, all the players wear the HMD, and the direction of the line of sight of the opponent player cannot be known. Also, since the mounted device can be seen as it is, it is not realistic.

【0020】また、表示される仮想空間画像もマレット
とパック、ゴールのみであり、その表示内容(表示効
果)や画像がほとんど変化しない。
Further, the displayed virtual space image is only the mallet, the puck, and the goal, and the display contents (display effect) and the image hardly change.

【0021】さらに、相手プレーヤーの名前や、これま
での成績、現在の得点状況といったような、情報表示が
行われていなかったため、ゲームの状況や相手プレーヤ
ーのレベルなどを把握することが困難であった。
Further, since the information such as the name of the opponent player, the past record, and the current score condition is not displayed, it is difficult to grasp the situation of the game and the level of the opponent player. It was

【0022】加えて、3人以上のプレーヤーで同じ複合
現実空間を共有する場合の処理については何ら示唆され
ていない。
In addition, there is no suggestion of processing when three or more players share the same mixed reality space.

【0023】また、複合現実空間において、所定の位置
や物体を指し示す場合、棒などの立体物を模した画像を
用いていたため、遠近感がつかみにくい。更に複数の指
示棒が空間中に存在すると煩雑になりやすい上、面によ
って構成されるため重なった部分の視認が妨げられると
いう課題があった。
Further, when pointing to a predetermined position or object in the mixed reality space, since an image simulating a solid object such as a stick is used, it is difficult to grasp the perspective. Furthermore, if a plurality of pointing rods are present in the space, it tends to be complicated, and since they are composed of planes, there is a problem that the overlapping portion is hindered from being visually recognized.

【0024】[0024]

【0025】[0025]

【0026】[0026]

【0027】[0027]

【0028】本発明は、ユーザが、複合現実空間におけ
る位置の指示を簡単に行えるように、指示画像を遠近感
をつかみやすく表示するとともに、指示表示によって本
来の表示内容の視認の妨げがすくなくなるようにするこ
とを目的とする。
The present invention allows the user to save in a mixed reality space.
The perspective image so that you can easily
Is displayed in an easy-to-grasp manner and instructions are displayed
Make sure that the displayed contents are not obstructed.
aimed to.

【0029】[0029]

【課題を解決するための手段】すなわち、本発明の要旨
は、現実空間と仮想空間とを合成することにより表され
る複合現実空間をプレーヤに提示する複合現実感提示方
法であって、プレーヤの位置・姿勢情報を取得し、現実
空間の画像を入力し、プレーヤの位置・姿勢情報に応じ
た仮想画像を、プレーヤのモデル情報を用いて生成し、
現実空間の画像と仮想画像を合成する複合現実感提示方
法であり、プレーヤによって操作される操作部、正n角
形の頂点を通過するn本の平行線を含み、複合現実空間
の任意の場所を指し示すための指示画像を、操作部の位
置・姿勢情報に応じた仮想画像として生成し、現実空間
の画像に合成することを特徴とする複合現実感提示方法
に存する。
That is, the gist of the present invention is expressed by synthesizing a real space and a virtual space.
Mixed Reality Presentation Method for Presenting Mixed Reality Space to Players
It is a method of acquiring the position / orientation information of the player
Input the image of the space and according to the position / orientation information of the player
Generated virtual image using the model information of the player,
Mixed Reality Presentation Method Combining Images in Real Space and Virtual Images
Modular, operating section operated by player, regular n-square
A mixed reality space containing n parallel lines passing through the vertices of the shape
An instruction image to point to any place in the
Generated as a virtual image according to the position / posture information,
A mixed reality presentation method characterized by synthesizing the image with the image .

【0030】[0030]

【0031】[0031]

【0032】また、本発明の別の要旨は、本発明の複合
現実感提示方法をコンピュータ装置が実行可能なプログ
ラムとして格納したコンピュータ装置読み取り可能な
憶媒体に存する。
Another subject of the present invention is the composite of the present invention.
The present invention resides in a computer-readable storage medium that stores the reality presentation method as a program executable by the computer .

【0033】[0033]

【0034】[0034]

【発明の実施の形態】以下、図面を参照して本発明の好
ましい実施形態について説明する。本実施形態は、3人
のプレーヤーが同一仮想空間を共有して行うゲームであ
るが、本発明による複合現実感装置は、その他任意の用
途に適用することができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. Although the present embodiment is a game played by three players sharing the same virtual space, the mixed reality apparatus according to the present invention can be applied to any other application.

【0035】図1は、本発明の複合現実感装置の構成を
示す図である。図1は、プレーヤが3人の場合の構成を
示している。複合現実感装置は、各プレーヤごとに設け
られたプレーヤ処理部100〜300と、各プレーヤ処
理部に接続された制御部400とから構成されており、
プレーヤの増減によって制御部400に接続されるプレ
ーヤ処理部も増減する。
FIG. 1 is a diagram showing the configuration of the mixed reality apparatus of the present invention. FIG. 1 shows the configuration when there are three players. The mixed reality apparatus includes player processing units 100 to 300 provided for each player and a control unit 400 connected to each player processing unit.
As the number of players increases or decreases, the number of player processing units connected to the control unit 400 also increases or decreases.

【0036】プレーヤ処理部100〜300はそれぞれ
同一の構成を有しており、プレーヤの体に装着されたセ
ンサや表示装置などの入出力部分(102、103、1
05、1011、1021、1022)と、センサから
収集した信号処理及びこの信号処理結果と制御部から供
給される他プレーヤの情報を元にして表示装置に表示す
べき画像を生成する回路部分(101、104、10
6、107)とから構成される。
The player processing units 100 to 300 have the same structure, and input / output units (102, 103, 1) such as sensors and display devices mounted on the player's body.
05, 1011, 1021, 1022), a circuit part (101) for generating an image to be displayed on the display device based on the signal processing collected from the sensor and the result of this signal processing and the information of another player supplied from the control unit. , 104, 10
6, 107).

【0037】以下、図1と本実施形態において各プレー
ヤが装着する入出力機器の種類と装着場所を示す図2を
参照して、プレーヤ処理部の構成を説明する。図2に示
すように、本実施形態において各プレーヤは、頭部に現
実空間と仮想空間とを合成して表示するための表示装置
である頭部装着型画像表示装置(以下HMDと言う)1
05を装着する。本発明においてHMDはビデオシース
ルー型でも光学シースルー型でもよいが、以下の説明で
はビデオシースルー型HMDを用いた場合を例にして説
明する。
The configuration of the player processing section will be described below with reference to FIG. 1 and FIG. 2 showing the types of input / output devices and the mounting locations of the players in this embodiment. As shown in FIG. 2, in the present embodiment, each player has a head-mounted image display device (hereinafter, referred to as an HMD) 1 which is a display device for combining and displaying a real space and a virtual space on the head.
Wear 05. In the present invention, the HMD may be either a video see-through type or an optical see-through type, but in the following description, a case where a video see-through HMD is used will be described as an example.

【0038】HMD105の目に近い部分には、2つの
小型ビデオカメラ103が設けられている。このビデオ
カメラ103で撮影された、プレーヤの視点とほぼ同一
の視点による映像は、画像入力部104を介して後述す
る画像合成部106に供給され、仮想空間画像と重畳さ
れてプレーヤのHMD105に表示される。
Two small video cameras 103 are provided near the eyes of the HMD 105. An image captured by the video camera 103 from a viewpoint substantially the same as the viewpoint of the player is supplied to an image combining unit 106, which will be described later, via the image input unit 104, and is superimposed on the virtual space image and displayed on the HMD 105 of the player. To be done.

【0039】また、プレーヤの頭部にはさらに、例えば
磁気センサからなる頭部位置姿勢センサ1011が装着
されている。頭部位置センサ1011は、例えばHMD
105を利用して装着することができる。頭部位置セン
サ1011の出力信号は頭部位置姿勢計測部101が処
理し、プレーヤの頭部位置及び姿勢(傾き方向及び量)
の情報を得る。
Further, a head position / orientation sensor 1011 including, for example, a magnetic sensor is mounted on the player's head. The head position sensor 1011 is, for example, an HMD.
It can be attached using 105. The output signal of the head position sensor 1011 is processed by the head position / orientation measuring unit 101, and the head position and orientation of the player (tilt direction and amount).
Get information on.

【0040】一方、プレーヤの腕には、対話操作入力装
置102が装着されている。対話操作入力装置102
は、装着された部位の位置、姿勢を検出する位置姿勢セ
ンサ1021と、プレーヤがオン・オフ可能なスイッチ
(トリガ)1022とを有し、プレーヤが所定の動作を
行うことによってコマンド入力を行うための装置であ
る。
On the other hand, the interactive operation input device 102 is mounted on the player's arm. Interactive operation input device 102
Has a position / orientation sensor 1021 for detecting the position and orientation of the mounted part, and a switch (trigger) 1022 that can be turned on / off by the player, so that the player inputs a command by performing a predetermined operation. Device.

【0041】以下の説明においては、複数のプレーヤ
(本実施形態では3人)が同一の複合現実空間を共有
し、複合現実空間上に出現する敵からの攻撃を避けなが
ら、敵を撃破し、時間あるいは敵の攻撃によるダメージ
が所定量に達するまでに撃破した敵の数あるいは点数を
競うゲームであって、対話操作入力装置102を用いて
以下のようなコマンド入力が可能な場合を例にして説明
する。
In the following description, a plurality of players (three people in this embodiment) share the same mixed reality space, and destroy the enemy while avoiding the attack from the enemy appearing in the mixed reality space. Taking a case where the following commands can be input using the interactive operation input device 102, as an example, in a game in which the number or points of enemies destroyed by the time or the damage caused by the enemy's attack reaches a predetermined amount is competed. explain.

【0042】・コマンド1(照準コマンド) 照準位置を仮想空間上で指し示す照準線を表示するコマ
ンド。手の甲を上にした状態で、肘よりも手首を上方に
位置させることにより入力する。 ・コマンド2(射撃コマンド) 照準線が示す照準位置を射撃するコマンド。照準コマン
ドにより照準線が表示された状態で、一定の加速度以上
で腕(肘から手のひらにかけて)を前後に往復移動させ
ることにより入力する。 ・コマンド3(防御コマンド) 相手方の攻撃を防御するコマンド。手の甲を相手方に向
けた状態で、指先を上方に向けることにより入力する。 ・コマンド4(リセットコマンド) 射撃コマンドを入力した後、再度照準コマンドを入力す
る際に入力するコマンド。腕を下に垂らした状態にする
ことで入力する。
Command 1 (aiming command) A command for displaying an aiming line indicating the aiming position in the virtual space. With the back of the hand up, enter by placing the wrist above the elbow.・ Command 2 (shooting command) Command to shoot at the aiming position indicated by the line of sight. When the aiming line is displayed by the aiming command, the arm (from the elbow to the palm) is reciprocally moved back and forth with a certain acceleration or more to input. -Command 3 (defense command) A command that defends the opponent's attack. With the back of the hand facing the other party, point by pointing your finger upwards. -Command 4 (reset command) A command to be input when the aiming command is input again after the shooting command is input. Input by making the arm hang down.

【0043】すなわち、本実施形態のゲームにおけるプ
レーヤの動作としては通常、照準コマンド→射撃コマン
ド→リセットコマンド→照準コマンドというサイクルで
コマンドの入力を繰り返し、このサイクルの中で必要に
応じて防御コマンドを入力することになる。
That is, as a player's operation in the game of this embodiment, normally, command input is repeated in a cycle of aiming command → shooting command → reset command → aiming command, and a defense command is issued as necessary in this cycle. Will be input.

【0044】対話操作入力装置102によって入力され
たコマンドは、画像生成部107に供給される。
The command input by the interactive operation input device 102 is supplied to the image generator 107.

【0045】画像生成部107は、頭部位置姿勢計測部
101から供給されるプレーヤの頭部位置及び姿勢情報
と対話操作入力装置102から供給されるコマンド情報
を制御部400へ転送する。また、プレーヤの頭部位置
・姿勢情報及びコマンド情報と、制御部400から受信
した他プレーヤの頭部位置・姿勢情報並びにコマンド情
報とモデル情報、敵キャラクタの位置、移動方向、状態
情報、空間内に配置された障害物の位置、形状などの情
報を用いて、対応するプレーヤのHMD105に表示す
べき仮想空間画像を作成し、画像合成部106へ出力す
る。
The image generation unit 107 transfers the player's head position / posture information supplied from the head position / posture measurement unit 101 and the command information supplied from the interactive operation input device 102 to the control unit 400. Further, the head position / posture information of the player and the command information, the head position / posture information of the other player received from the control unit 400, the command information and the model information, the position, the moving direction, the state information of the enemy character, the space A virtual space image to be displayed on the HMD 105 of the corresponding player is created by using the information such as the position and shape of the obstacle arranged at, and is output to the image synthesizing unit 106.

【0046】画像合成部106は、プレーヤの視点に近
い位置に取り付けられたビデオカメラ103の画像(実
空間画像)と、画像生成部107が作成した仮想空間画
像とを合成し、プレーヤのHMD105に供給する。
The image synthesizing unit 106 synthesizes the image (real space image) of the video camera 103 attached at the position close to the player's viewpoint and the virtual space image created by the image creating unit 107, and the HMD 105 of the player. Supply.

【0047】制御部400は、上述のようなプレーヤ処
理部100〜300が接続された複合現実空間管理部1
と、現実物体位置計測部2とから構成されている。複合
現実空間管理部1は、各プレーヤ処理部100〜300
から受信したプレーヤの頭部位置、姿勢に関する情報
と、対話操作入力装置102の位置、姿勢及びコマンド
情報とを配信するとともに、仮想空間上に表示する敵キ
ャラクタの生成、消滅、制御及び射撃コマンドによる射
撃の当たり判定等のゲーム処理を行う。敵キャラクタの
モデルや位置、移動方向及び、状態(撃破されたか等)
の情報も各プレーヤの情報とともに接続される全てのユ
ーザに配信される。
The control unit 400 includes the mixed reality space management unit 1 to which the player processing units 100 to 300 as described above are connected.
And the physical object position measuring unit 2. The mixed reality space management unit 1 uses the player processing units 100 to 300.
The information regarding the position and posture of the player's head received from the player and the position, posture and command information of the interactive operation input device 102 are distributed, and the generation, disappearance, control and shooting commands of the enemy character displayed in the virtual space are used. Performs game processing such as shooting hit determination. Enemy character's model, position, movement direction, and state (whether it was destroyed)
Information is also distributed to all users who are connected together with the information of each player.

【0048】また、図3に示すように、ゲームの難易度
を調整するために射撃の障害となるような現実物体31
〜33を配置する様な場合には、この現実物体31〜3
3の形状及び位置に関する情報も複合現実空間管理部1
が管理する。
Further, as shown in FIG. 3, in order to adjust the difficulty level of the game, a real object 31 that may be an obstacle to shooting.
~ 33 are arranged, the physical objects 31 to 3
The information about the shape and position of 3 also includes the mixed reality space management unit 1
Managed by.

【0049】図3(a)はあるプレーヤから見たゲーム
フィールド(複合現実空間)の斜視図、図3(b)はそ
の上面図をそれぞれ示す。図3においては、(現実空間
の)テーブル30の上に、3つの現実空間物体31〜3
3を障害物として配置した場合を示す。本実施形態にお
いては、上述のように対話操作入力装置102を用いた
照準コマンドの入力動作が、肘より手首を高くする動作
であるため、一般的な体型において腰の高さ程度の高さ
を有するテーブル30の上に現実空間物体を配置してい
るが、対話操作入力装置によるコマンド入力動作によっ
てはテーブルが不要であることは言うまでもない。
FIG. 3A is a perspective view of a game field (mixed reality space) seen from a player, and FIG. 3B is a top view thereof. In FIG. 3, three physical space objects 31 to 3 are placed on a table 30 (in physical space).
The case where 3 is arranged as an obstacle is shown. In the present embodiment, since the aiming command input operation using the interactive operation input device 102 is an operation of raising the wrist higher than the elbow as described above, the height is about the same as the waist in a general figure. Although the physical space object is arranged on the table 30 that it has, it goes without saying that the table is unnecessary depending on the command input operation by the interactive operation input device.

【0050】図3において、現実空間物体31、32は
固定、33は可動とされている。可動の現実空間物体が
あると、ゲームの難易度を動的に変化させることができ
る。例えば、可動現実物体33がランダムなスピードで
左右に移動すれば、標的である敵キャラクタの射撃は静
的な現実物体31、32のみが配置されている場合より
も更に難しくなる。可動現実物体の移動制御は、複合現
実空間管理部1が行っても、他の制御回路によって行っ
てもよい。この場合、可動物体のモデルは複合現実空間
管理部1が管理し、またその位置は可動物体33に設け
た物体位置センサ331を現実物体位置計測部2によっ
て計測することになる。
In FIG. 3, physical space objects 31 and 32 are fixed, and 33 is movable. If there is a movable physical space object, the difficulty level of the game can be dynamically changed. For example, if the movable physical object 33 moves to the left and right at random speed, the shooting of the enemy character that is the target becomes more difficult than when only the static physical objects 31 and 32 are arranged. The movement control of the movable reality object may be performed by the mixed reality space management unit 1 or by another control circuit. In this case, the model of the movable object is managed by the mixed reality space management unit 1, and the position thereof is measured by the physical object position measuring unit 2 using the object position sensor 331 provided on the movable object 33.

【0051】以上説明したような複合現実感装置は、制
御部400をサーバー、プレーヤ処理部100〜300
(の回路部分)をクライアントとするクライアント=サ
ーバーシステムによって実現することができる。個々の
プレーヤに関する処理をクライアントで分散して処理す
ることにより、プレーヤの増減に柔軟に対処可能であ
る。より具体的に述べれば、プレーヤ処理部はビデオ入
出力機能及び各種センサからの信号受信機能を有する汎
用コンピュータ装置により、制御部400も各プレーヤ
処理部と通信可能なインタフェースと、物体位置計測部
2からの計測信号受信機能を有する汎用コンピュータ装
置により実現できる。
In the mixed reality apparatus as described above, the control unit 400 is the server, and the player processing units 100 to 300.
It can be realized by a client = server system in which (the circuit portion of) is a client. It is possible to flexibly deal with the increase and decrease of the players by distributing the processing related to each player among the clients. More specifically, the player processing unit is a general-purpose computer device having a video input / output function and a signal receiving function from various sensors, and the control unit 400 can also communicate with each player processing unit and an object position measuring unit 2. It can be realized by a general-purpose computer device having a function of receiving a measurement signal from.

【0052】ただし、3次元の画像表示に関する演算を
実時間で行う必要があるため、この様な演算に特化した
アクセラレータ(いわゆる3Dアクセラレータ)等を有
する比較的高速なコンピュータ装置を用いることが好ま
しい。また、制御部400とプレーヤ処理部100〜3
00との通信も100BASE−Tなど容量の大きな回
線による接続が好ましい。通信回線の容量が小さいとプ
レーヤ数の増加に伴い処理速度の低下が大きくなる。
However, since it is necessary to perform the calculation relating to the three-dimensional image display in real time, it is preferable to use a relatively high speed computer device having an accelerator (so-called 3D accelerator) specialized for such calculation. . Further, the control unit 400 and the player processing units 100 to 3
The communication with 00 is also preferably connected by a line with a large capacity such as 100BASE-T. If the capacity of the communication line is small, the processing speed will decrease as the number of players increases.

【0053】(コマンド入力による表示)次に、対話操
作入力部のコマンド入力による表示動作について図4を
用いて説明する。図4は、射撃コマンドの入力時に行わ
れる表示処理を示すフローチャートである。まず、射撃
コマンドの入力を判定し(ステップS101)、射撃コ
マンドが入力された場合には射撃表示を開始する(ステ
ップS103)。
(Display by Command Input) Next, the display operation by command input of the interactive operation input section will be described with reference to FIG. FIG. 4 is a flowchart showing a display process performed when a shooting command is input. First, the input of the shooting command is determined (step S101), and when the shooting command is input, the shooting display is started (step S103).

【0054】また、射撃方向に物体が存在するかを調べ
(ステップS104)、何もない場合にはあらかじめ定
めた射程距離に達するまで表示を行い(ステップS10
6)、所定時間後に表示を消去して射撃表示を終了する
(ステップS107)。一方、射程距離内に物体が存在
する場合には、標的であるかどうかを検出し(ステップ
S105)、標的である場合には射撃表示を終了して
(ステップS108)、標的表示を爆発表示等射撃が当
たったことがプレーヤに認識できるような表示に変更あ
るいは変形する(ステップS109)。一方、標的以外
の物体が射程距離内に存在する場合には、そこで射撃が
遮られるため、射撃表示を終了する(ステップS10
7)。標的以外の物体を射撃した場合には、「mis
s」等、ゲーム演出上の表示を行っても良い。
Further, it is checked whether or not there is an object in the shooting direction (step S104), and if there is nothing, display is performed until a predetermined range is reached (step S10).
6) After a predetermined time, the display is erased to end the shooting display (step S107). On the other hand, if an object exists within the range, it is detected whether or not it is a target (step S105), and if it is a target, the shooting display is ended (step S108), and the target display is displayed as an explosion. The display is changed or transformed so that the player can recognize that the shot is hit (step S109). On the other hand, when an object other than the target is within the range, the shooting is blocked at that range, and the shooting display is ended (step S10).
7). When shooting an object other than the target, "mis
Display on the game effect such as “s” may be performed.

【0055】射撃の弾道上に物体が存在するか否か、存
在する場合には位置及びその種類等の検出は、射撃表示
を行う前に行い、その結果に基づき表示を行うようにし
ても良い。
Whether or not an object is present on the trajectory of shooting, and if so, the position and type of the object may be detected before the shooting display is made, and the display may be made based on the result. .

【0056】(プレーヤに重畳した表示)本発明におけ
る複合現実感装置は、プレーヤに重畳して仮想空間画像
を表示し、またその表示内容を条件に応じて動的に変更
可能としたことを特徴とする。
(Display Superposed on Player) The mixed reality apparatus according to the present invention is characterized in that the virtual space image is displayed superposed on the player and the display content can be dynamically changed according to the conditions. And

【0057】複合現実感装置にはプレーヤに仮想空間と
現実空間とを合成して視認させるため、HMDなどの表
示装置の装着が不可欠である。さらに、複合現実空間に
おいて何らかの動作を行うためには、プレーヤの動作を
検出するためのセンサや、スイッチなどの装着も行われ
る。たとえば、本実施形態のゲームにおいては、プレー
ヤの頭部にはHMD等、腕には対話操作入力装置がそれ
ぞれ装着されている。このようなプレーヤに装着する装
置(装着デバイス)は、プレーヤが1人であれば余り意
識することはないが、プレーヤーが複数存在する場合に
は他のプレーヤの装着デバイスが見えることになる。そ
のため、特にゲームのようなアプリケーションにおいて
は、臨場感に欠け、プレーヤのゲームに対する感情移入
の妨げになる場合がある。
A display device such as an HMD is indispensable for the mixed reality apparatus so that the player can visually recognize the virtual space by synthesizing the virtual space and the real space. Further, in order to perform some action in the mixed reality space, a sensor for detecting the action of the player, a switch, etc. are also attached. For example, in the game of the present embodiment, the player's head is equipped with an HMD or the like, and the arm is equipped with an interactive operation input device. Such a device to be mounted on a player (a mounting device) is not so conscious of one player, but when there are a plurality of players, the mounting devices of other players can be seen. Therefore, especially in an application such as a game, there is a case where the player lacks a sense of realism and hinders the player's empathy for the game.

【0058】そのため、本発明では各プレーヤの少なく
とも装着デバイスを仮想空間画像によって覆い隠すこと
で、よりエンタテイメント性の高いアプリケーションを
可能としたものである。そして、表示する仮想空間画像
をアプリケーションによってふさわしい内容とすること
で、プレーヤの感情移入が促進される上、表示画像を動
的に変化させることによって新たな演出効果を付加する
ことが可能となる。
Therefore, in the present invention, at least the wearing device of each player is covered with the virtual space image, thereby enabling an application having a higher entertainment value. Then, by making the displayed virtual space image have appropriate content according to the application, the empathy of the player is promoted, and it is possible to add a new effect by dynamically changing the displayed image.

【0059】図5は、プレーヤの全身に仮想空間画像を
重畳した場合の表示例を示す図である。プレーヤの頭部
には仮想ヘルメット41が、両腕、両足、胴部にはそれ
ぞれ仮想のパーツ42〜46がそれぞれ重畳されてい
る。このような重畳表示を行う場合には、プレーヤを図
に示すような円柱や直方体など単純な形状で近似したモ
デルで管理するとプレーヤ処理部及び複合現実空間管理
部の処理負荷が軽減できる上、体型の異なるプレーヤに
も共通して使用することができる。プレーヤの装着デバ
イスを隠せばよい場合には、対応する部分のみに仮想画
像を重畳するようにすればよい。すなわち、本実施形態
の場合であればHMDを隠すための仮想ヘルメット41
と、左右いずれかの腕に装着された対話操作入力装置を
隠すための仮想パーツ42あるいは43のみでよい。
FIG. 5 is a diagram showing a display example when a virtual space image is superimposed on the player's whole body. A virtual helmet 41 is superimposed on the player's head, and virtual parts 42 to 46 are superimposed on both arms, both legs, and the body, respectively. When such a superimposed display is performed, if the player is managed by a model approximated by a simple shape such as a cylinder or a rectangular parallelepiped as shown in the figure, the processing load of the player processing unit and the mixed reality space management unit can be reduced, and the body shape can be reduced. It can be used in common by different players. If the player's wearing device should be hidden, the virtual image may be superimposed only on the corresponding portion. That is, in the case of this embodiment, the virtual helmet 41 for hiding the HMD
Then, only the virtual part 42 or 43 for hiding the interactive operation input device attached to either the left or right arm is required.

【0060】このような表示制御は、例えば他のプレー
ヤの頭部位置姿勢センサ1011や対話操作入力装置に
設けられた位置姿勢センサ1021により検出された位
置、姿勢情報と、前述のプレーヤモデルとを用い、重畳
する仮想物体を描画して画像生成を行うことにより実現
できる。
In such display control, for example, the position / orientation information detected by the head position / orientation sensor 1011 of another player or the position / orientation sensor 1021 provided in the interactive operation input device and the aforementioned player model are used. It can be realized by using and drawing a superposed virtual object to generate an image.

【0061】対話操作入力装置が装着された腕に重畳す
る仮想物体としては、単に腕部分を覆う物体とすること
もできるが、ゲームにおける機能を表す物体とすること
により、装着デバイスを隠す以上の効果を得ることがで
きる。すなわち、対話操作入力装置を隠す仮想物体にゲ
ーム中で使用する武器などの物体を含ませる(あるいは
武器などの物体で装着デバイスを隠す)ことにより、特
に複数種の武器を選択して使用できる場合など、プレー
ヤは自分の腕を見ることにより現在使用中の武器を容易
に確認する事が可能になる上、他のプレーヤがどのよう
な武器を選択しているかが判別できる。
As the virtual object to be superimposed on the arm to which the interactive operation input device is attached, the virtual object can be simply an object covering the arm portion, but by setting it as an object representing the function in the game, it is possible to hide the attached device. The effect can be obtained. In other words, when a virtual object that hides the interactive operation input device includes an object such as a weapon used in the game in the virtual object (or hides the attached device with an object such as a weapon), it is possible to select and use a plurality of weapons. As described above, the player can easily check the weapon currently in use by looking at his / her arm, and can determine what weapon another player has selected.

【0062】また、対話操作入力装置によって入力され
るコマンドに応じて表示する仮想物体を変化させたり、
変形することもできる。図6は、上述の防御コマンドが
入力された際に仮想物体を武器から楯に変化させる例を
示す図である。すなわち、リセットコマンド入力動作で
ある図6(a)の状態において、敵からの攻撃あるいは
敵の接近に備え、手の甲を外側にして指先を上方に向け
る防御コマンド入力動作をとると(図6(b))、武器
47の表示がなくなり、かわりに楯47’を含む仮想物
体が表示される(図6(c))。
Further, the virtual object to be displayed is changed according to the command input by the interactive operation input device,
It can also be transformed. FIG. 6 is a diagram showing an example of changing a virtual object from a weapon to a shield when the above-mentioned defense command is input. That is, in the state of FIG. 6A which is a reset command input operation, when a defense command input operation is performed in which the back of the hand is placed outside and the fingertip is directed upward in preparation for an attack from an enemy or the approach of the enemy (FIG. )), The weapon 47 is no longer displayed, and a virtual object including the shield 47 'is displayed instead (FIG. 6 (c)).

【0063】図6は防御コマンドを入力したプレーヤを
他のプレーヤから見た場合を示すものであるが、防御コ
マンドを入力したプレーヤ自身も楯’47の仮想物体を
裏から見ることになり、実際に楯を用いて防御している
ような感覚を味わうことができる。図7は、選択された
武器の種類(剣と銃)によって表示する仮想物体を変化
させた場合の表示例を示す。
FIG. 6 shows the case where the player who inputs the defense command is seen from another player, but the player himself who inputs the defense command also sees the virtual object of the shield '47 from the back side. You can feel as if you are defending with a shield. FIG. 7 shows a display example when the virtual object to be displayed is changed depending on the selected weapon type (sword and gun).

【0064】表示内容を変化させる条件としてはコマン
ドの入力というプレーヤの能動的なゲーム操作だけでは
なく、プレーヤの移動などによる位置変化入力部の位置
情報なども用いることができる。図8は、プレーヤの視
線方向情報を用いて表示を変化させる場合の例を示す図
である。
As the condition for changing the display contents, not only the player's active game operation of command input, but also the position information of the position change input unit due to the movement of the player can be used. FIG. 8 is a diagram showing an example in which the display is changed by using the player's line-of-sight direction information.

【0065】図8の例では仮想ヘルメット中に表示する
仮想の目の位置及び大きさ、それに付随する表示上の効
果などを変化させている。 具体的には、プレーヤの視
線方向にしたがって仮想の目を移動させる(図8
(a),(b))ことが考えられる。このような表示変
化を採用することにより、他のプレーヤが注視している
方向をプレーヤが認知することが可能となる。また、プ
レーヤの視線方向が他のプレーヤの方向に近づくに連れ
て仮想の目の表示を大きくしたり(図8(c))、視線
方向と他のプレーヤの方向が一致した場合には仮想の目
の表示輝度を上げる、あるいは点滅させる(図8
(d))などが考えられる。このような表示変化を採用
することにより、他のプレーヤが自分を見ているプレー
ヤを認知する事が可能となり、本実施形態のように照準
を定めるようなゲームでは、視線方向と照準方向は通常
接近しているため、ゲームの戦略を立てる上で有用な情
報となる。
In the example of FIG. 8, the position and size of virtual eyes displayed in the virtual helmet and the accompanying display effect are changed. Specifically, the virtual eyes are moved according to the player's line-of-sight direction (see FIG. 8).
(A) and (b)) are considered. By adopting such a display change, the player can recognize the direction in which another player is gazing. Further, the virtual eye display is enlarged as the player's line-of-sight direction approaches the direction of the other player (FIG. 8 (c)), or when the line-of-sight direction and the direction of the other player coincide. Increase the display brightness of the eyes or make them blink (Fig. 8
(D)) etc. are considered. By adopting such a display change, it becomes possible for another player to recognize the player who is looking at himself, and in the game in which the aim is set as in the present embodiment, the line-of-sight direction and the aim direction are normally set. Because they are close together, they are useful information for developing a game strategy.

【0066】このような表示変化を行うには、例えば図
9に示すように、表示を変化させる対象であるプレーヤ
1の、プレーヤ2に対する方向と視線方向とのずれ角a
の大きさを、各プレーヤの位置情報及びプレーヤ1の視
線情報から求め、角aの変化に応じて表示を変化させる
ことで実現できる。
In order to make such a display change, for example, as shown in FIG. 9, a shift angle a between the direction of the player 1 whose display is to be changed with respect to the player 2 and the line-of-sight direction.
Can be realized by obtaining the size of the player from the position information of each player and the line-of-sight information of the player 1, and changing the display according to the change of the angle a.

【0067】また、一般にプレーヤは照準方向を見るた
め、視線方向を検出しなくても、対話操作入力装置で照
準を定めている方向の情報に基づいて図8に示したよう
な表示制御を行うように構成することもできる。
Further, since the player generally looks at the sighting direction, the display control as shown in FIG. 8 is performed based on the information on the sighting direction by the interactive operation input device without detecting the sight line direction. It can also be configured as follows.

【0068】具体的な表示制御について、図10を参照
して説明する。図10は、視線情報及び位置情報を用い
て図9に示した条件に基づいて、図8の(a)→(c)
→(d)という表示を行う場合の処理を示すフローチャ
ートである。まず、他プレーヤ(図9におけるプレーヤ
1)並びに自分(図9におけるプレーヤ2)の頭部位置
姿勢情報及び視点位置情報を取得する(ステップS20
1、S202)。次に、他プレーヤとの距離が最短とな
る方向を検出する(ステップS203)。
Specific display control will be described with reference to FIG. FIG. 10 shows (a) → (c) of FIG. 8 based on the conditions shown in FIG. 9 using the line-of-sight information and the position information.
It is a flow chart which shows processing when displaying-(d). First, the head position / posture information and the viewpoint position information of the other player (player 1 in FIG. 9) and oneself (player 2 in FIG. 9) are acquired (step S20).
1, S202). Next, the direction in which the distance to the other player is the shortest is detected (step S203).

【0069】そして、他プレーヤの視線方向を求め(ス
テップS204)、ステップS203で求めた方向との
角度差(図9における角度a)を得る(ステップS20
5)。この角度差とあらかじめ画像生成部107に記憶
してある、角度差と仮想の目の大きさとのテーブルとを
比較し、仮想の目の大きさを取得する(ステップS20
6)。
Then, the line-of-sight direction of the other player is obtained (step S204), and the angle difference (angle a in FIG. 9) from the direction obtained in step S203 is obtained (step S20).
5). This angle difference is compared with a table of the angle difference and the virtual eye size stored in advance in the image generation unit 107 to acquire the virtual eye size (step S20).
6).

【0070】仮想の目の大きさを取得したら、重畳表示
している仮想の目の大きさを更新し、再度表示を行う
(ステップS207)。そして、角度差が所定の値以下
かどうかを調べ(ステップS208)、所定角度以下で
あった場合には、図8(d)の効果を追加表示する(ス
テップS209)。
When the size of the virtual eye is acquired, the size of the virtual eye that is displayed in a superimposed manner is updated and displayed again (step S207). Then, it is checked whether or not the angle difference is less than or equal to a predetermined value (step S208), and if it is less than or equal to the predetermined angle, the effect of FIG. 8D is additionally displayed (step S209).

【0071】重畳表示される仮想物体やプレーヤのモデ
ルは、複合現実空間管理部1が管理する。仮想物体のモ
デルは3次元モデルであり、視点位置によって見え方が
変化する。すなわち、横を向いているプレーヤを見た場
合には仮想ヘルメットの側面が見えることになる。
The mixed reality space management unit 1 manages the virtual object and the model of the player displayed in a superimposed manner. The model of the virtual object is a three-dimensional model, and the appearance changes depending on the viewpoint position. That is, the side of the virtual helmet can be seen when looking at the player facing sideways.

【0072】(指示表示)図11は、本実施形態におい
て、照準を定めるための指示表示の例を示す図である。
複数プレーヤで共有する空間上の1点を指し示す必要が
ある場合、どこを指しているかが指している本人はもち
ろんのこと、他のプレーヤからも明確に認識されること
が必要である。さらに、指示表示が大きかったり太かっ
たりすると、視界が非常に煩雑になり、ゲームの進行が
妨げられる可能性がある。また、空間上の一点を指示す
るため、距離感がつかみにくい。
(Instruction Display) FIG. 11 is a diagram showing an example of an instruction display for setting an aim in this embodiment.
When it is necessary to point to one point on a space shared by a plurality of players, it is necessary to be clearly recognized not only by the person who points, but also by other players. Furthermore, if the instruction display is large or thick, the field of view becomes very complicated and the progress of the game may be hindered. Also, since a single point in the space is designated, it is difficult to grasp the sense of distance.

【0073】本発明において、指示表示は互いに等間隔
となるように配置した複数本の平行線を用いて行う。図
11(a)には、プレーヤが装着する対話操作入力装置
を覆って表示される仮想パーツ43のほぼ先端部分を
にした所定長さの3本の平行線91〜93を指示表示
として用いた場合を示す。平行線91〜93は、図11
(b)に示すように、正面から見ると正三角形の頂点を
通るように配置されている。平行線91〜93の間隔d
は、指示しうる空間の広さによって適宜定めればよい
が、後述するように指示方向が明確になるよう、数セン
チメートル程度(3〜5cm程度)の間隔は必要であ
る。
In the present invention, instruction display is performed using a plurality of parallel lines arranged at equal intervals. In FIG. 11 (a), the virtual tip part 43 of the virtual part 43 displayed over the interactive operation input device worn by the player is started.
The case where three parallel lines 91 to 93 having a predetermined length and made into dots are used as an instruction display is shown. Parallel lines 91 to 93 are shown in FIG.
As shown in (b), they are arranged so as to pass through the vertices of an equilateral triangle when viewed from the front. Distance d between parallel lines 91 to 93
May be appropriately determined depending on the size of the space that can be pointed, but an interval of about several centimeters (about 3 to 5 cm) is necessary so that the pointing direction becomes clear as described later.

【0074】このような指示表示を行うことにより、指
示表示と重なった部分(仮想空間、現実空間を問わず)
も指示表示に隠されることがない上、距離感や指示方向
が認識しやすくなる。すなわち、図12(a)〜(c)
に示すように、指示を行うプレーヤからは図12(a)
の様に見え、空間のどの一点を指しているかがわかりや
すい。また、逆に指示をしているプレーヤの正面近傍に
いる他のプレーヤからは図12(b)の様に見えるた
め、手前に向かって指示がなされていることが認識でき
る。さらに、真正面からは図12(c)の様に見えるた
め、たとえば指示表示によって対戦するプレーヤに照準
を定めるようなゲームアプリケーションにおいては、ね
らわれたプレーヤがそれを認識することが可能となる。
By performing such an instruction display, a portion overlapping with the instruction display (in virtual space or real space)
Is not hidden by the indication display, and the sense of distance and the pointing direction can be easily recognized. That is, FIGS. 12A to 12C
As shown in FIG. 12, from the player who gives an instruction, FIG.
It is easy to see which point in the space you are pointing to. On the contrary, the other player in the vicinity of the front of the player giving the instruction looks as shown in FIG. 12B, so that it is possible to recognize that the instruction is given toward the front. Further, since it looks like FIG. 12 (c) from the front, the aimed player can recognize it in a game application in which the aiming player is aimed at by the instruction display, for example.

【0075】指示表示は空間中の一点を指すだけでな
く、物体の存在をより明確にするためにも用いることが
できる。図13は、指示表示の線を物体11(仮想物体
でも実空間に配置された物体でもよい)に接する位置ま
でのみ表示することにより、そこに物体があることがよ
り明確にプレーヤに認識される。
The indication display can be used not only to indicate a point in space but also to make the existence of an object clearer. In FIG. 13, the player can more clearly recognize that there is an object by displaying the instruction display line only up to a position in contact with the object 11 (which may be a virtual object or an object arranged in the real space). .

【0076】また、図14に示すように、所定の間隔で
指示表示の線に目盛り121、122を加えれば、より
明確に距離を把握することができる。この場合、目盛り
の間隔は等間隔である必要はなく、対数目盛などであっ
てもよい。
Further, as shown in FIG. 14, if the scales 121 and 122 are added to the line of the instruction display at predetermined intervals, the distance can be grasped more clearly. In this case, the intervals between the scales do not have to be equal, and may be logarithmic scales.

【0077】[0077]

【他の実施形態】上述の実施形態においては、プレーヤ
に対する物理的なフィードバックを与える手段を有して
いないが、例えばHMDを固定するためのバンドや、対
話操作入力装置に振動子などの物理的な刺激を与えるデ
バイスを内蔵させ、ゲームの状況に応じてプレーヤにフ
ィードバックを与えることも可能である。たとえば、敵
の攻撃を防御した場合やプレーヤの近傍で敵が撃破され
た場合に、衝撃としての振動をプレーヤに与えることに
より、よりリアルな演出効果を与えることができる。
Other Embodiments In the above-mentioned embodiment, there is no means for giving physical feedback to the player, but for example, a band for fixing the HMD, a physical unit such as a vibrator for the interactive operation input device, or the like. It is also possible to incorporate a device that gives various stimuli and give feedback to the player in accordance with the game situation. For example, when the enemy's attack is defended or the enemy is destroyed in the vicinity of the player, a more realistic effect can be provided by giving the player vibration as a shock.

【0078】また、制御部は全てのデータを全プレーヤ
処理部に配信しても、そのプレーヤ処理部に必要なデー
タのみを配信するようにしてもよい。全てのデータを配
信する場合には、プレーヤ処理部において必要なものの
みを選択して使用する。
Further, the control unit may deliver all the data to all the player processing units, or may deliver only the data necessary for the player processing unit. When all the data is distributed, only the necessary data is selected and used in the player processing section.

【0079】また、実施形態の構成においてはビデオカ
メラ103の出力が画像入力部104にのみ入力されて
いるが、頭部位置姿勢センサ1011の情報補正用とし
て頭部位置姿勢計測部101へも供給することができ
る。この場合、テーブルや障害物として配置された現実
空間物体など、絶対座標が変化しない物体に、画像処理
により検出しやすい色でマーキングしておくと、補正が
容易である。
Further, in the configuration of the embodiment, the output of the video camera 103 is input only to the image input unit 104, but it is also supplied to the head position / orientation measuring unit 101 for the information correction of the head position / orientation sensor 1011. can do. In this case, if an object whose absolute coordinates do not change, such as a physical space object arranged as a table or an obstacle, is marked with a color that can be easily detected by image processing, the correction is easy.

【0080】また、指示表示に用いる平行線の数は3つ
に限定されず、任意の数から選択することができる。但
し、遠近感を認識しやすくするため、3本以上の線を用
いることが好ましい。一方、線の数を多くしすぎると指
示表示と重なった部分が見づらくなったり、プレーヤの
数が多くなると煩雑さが増すので、空間の大きさやプレ
ーヤの人数によって適宜定めればよい。
Further, the number of parallel lines used for indication display is not limited to three, and any number can be selected. However, it is preferable to use three or more lines in order to easily recognize the perspective. On the other hand, if the number of lines is too large, it becomes difficult to see the portion overlapping the instruction display, and if the number of players increases, the complexity increases. Therefore, it may be appropriately determined depending on the size of the space and the number of players.

【0081】また、上述の実施形態においては、トリガ
1022を使用せず、対話操作入力装置の動きを検出し
てコマンドを入力したが、プレーヤがトリガ1022を
用いて各種コマンドを入力するようにしても、動作検出
とトリガのオン・オフとを組み合わせても良い。さら
に、対話操作入力装置に、プレーヤの動作に応じてオン
・オフするようなスイッチを組み込んでトリガとして用
いることもできる。
In the above embodiment, the trigger 1022 is not used, and the command is input by detecting the movement of the interactive operation input device. However, the player uses the trigger 1022 to input various commands. Alternatively, motion detection and trigger on / off may be combined. Further, the interactive operation input device may be incorporated with a switch that is turned on / off according to the player's operation and used as a trigger.

【0082】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。この場合、記憶媒体から読
み出されたプログラムコード自体が前述した実施形態の
機能を実現することになり、そのプログラムコードを記
憶した記憶媒体は本発明を構成することになる。また、
コンピュータが読み出したプログラムコードを実行する
ことにより、前述した実施形態の機能が実現されるだけ
でなく、そのプログラムコードの指示に基づき、コンピ
ュータ上で稼働しているオペレーティングシステム(OS)
などが実際の処理の一部または全部を行い、その処理に
よって前述した実施形態の機能が実現される場合も含ま
れることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiment to a system or apparatus, and to supply a computer of the system or apparatus ( Needless to say, this can also be achieved by the CPU or MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Also,
By executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code.
Needless to say, this also includes the case where the above-mentioned processes perform part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

【0083】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted in the computer or the function expansion unit connected to the computer, based on the instruction of the program code. Needless to say, this also includes a case where a CPU or the like included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments.

【0084】[0084]

【発明の効果】以上説明したように、請求項1に係る発
明によれば、複合現実空間の任意の位置を指示する指示
画像として、正n角形の頂点を通過するn本の平行線を
用いることにより、指示者が増加したり、空間が狭い場
合でも、指示表示によって本来の表示内容の視認が妨げ
られることがない。また、線で構成されているため、処
理負荷も小さい上、遠近感もつかみやすいという利点が
ある。
As described above, the invention according to claim 1
According to Ming, an instruction to indicate an arbitrary position in the mixed reality space
As an image, we show n parallel lines that pass through the vertices of a regular n-sided polygon.
By using it, if the number of instructors increases or the space is small,
Even if the display is instructed, the instruction display hinders the visibility of the original display content.
Never be. Also, because it is composed of lines,
It has the advantage that it is easy to bite, as well as having a small physical load
is there.

【0085】また、請求項2に係る発明によれば、プレ
ーヤの操作部を仮想画像で覆うようにしたため、操作部
と指示画像とがいずれも仮想画像で構成でき、両者の位
置あわせを高精度に行うことが可能となるという利点が
ある。
Further , according to the invention of claim 2,
Since the operation part of the player is covered with a virtual image,
Both the instruction image and the instruction image can be composed of virtual images.
The advantage is that the alignment can be performed with high accuracy.
is there.

【0086】[0086]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による複合現実感装置の構成例を示すブ
ロック図である。
FIG. 1 is a block diagram showing a configuration example of a mixed reality apparatus according to the present invention.

【図2】プレーヤが装着する装置の種類と装着部位を説
明する図である。
FIG. 2 is a diagram illustrating a type of a device worn by a player and a mounting site.

【図3】本発明の実施形態におけるゲームを説明する図
である。
FIG. 3 is a diagram illustrating a game according to the embodiment of the present invention.

【図4】コマンド入力による射撃表示処理を説明するフ
ローチャートである。
FIG. 4 is a flowchart illustrating a shooting display process by command input.

【図5】プレーヤの全身に仮想物体を重畳した場合の例
を示す図である。
FIG. 5 is a diagram showing an example in which a virtual object is superimposed on the player's entire body.

【図6】対話操作入力装置によるコマンド入力により表
示画像を変化させる場合の例を説明する図である。
FIG. 6 is a diagram illustrating an example of a case where a display image is changed by command input by an interactive operation input device.

【図7】プレーヤの選択に応じて表示画像を変化させる
場合の例を示す図である。
FIG. 7 is a diagram showing an example of a case where a display image is changed according to selection by a player.

【図8】他プレーヤの視線方向に応じて表示画像を変化
させる場合の例を示す図である。
FIG. 8 is a diagram showing an example of a case where a display image is changed according to the line-of-sight direction of another player.

【図9】図8の表示変化を実現する際の条件の例を説明
する図である。
9 is a diagram illustrating an example of conditions for realizing the display change of FIG.

【図10】図9に示す条件に従った表示処理を示すフロ
ーチャートである。
10 is a flowchart showing a display process according to the conditions shown in FIG.

【図11】本発明における指示表示方法を説明する図で
ある。
FIG. 11 is a diagram illustrating an instruction display method according to the present invention.

【図12】本発明における指示表示方法を用いた際の、
表示開始点に応じた見え方の変化を説明する図である。
FIG. 12 is a diagram showing a case where the instruction display method according to the present invention is used,
It is a figure explaining the change of the appearance according to a display starting point.

【図13】本発明における指示表示方法を用いて物体の
存在をより明確に認識させる例を示す図である。
FIG. 13 is a diagram showing an example in which the presence of an object is more clearly recognized by using the instruction display method according to the present invention.

【図14】本発明における指示表示方法の別の例を示す
図である。
FIG. 14 is a diagram showing another example of the instruction display method according to the present invention.

【図15】従来の複合現実感を利用したホッケーゲーム
を説明する図である。
FIG. 15 is a diagram illustrating a conventional hockey game using mixed reality.

【図16】従来の複合現実感を利用したホッケーゲーム
を説明する図である。
FIG. 16 is a diagram illustrating a conventional hockey game using mixed reality.

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 現実空間と仮想空間とを合成することに
より表される複合現実空間をプレーヤに提示する複合現
実感提示方法であって、 プレーヤの位置・姿勢情報を取得し、 前記現実空間の画像を入力し、 前記プレーヤの位置・姿勢情報に応じた仮想画像を、プ
レーヤのモデル情報を用いて生成し、 前記現実空間の画像と前記仮想画像を合成する複合現実
感提示方法であり、 前記プレーヤによって操作される操作部、 正n角形の頂点を通過するn本の平行線を含み、前記複
合現実空間の任意の場所を指し示すための指示画像を、
前記操作部の位置・姿勢情報に応じた仮想画像として生
成し、前記現実空間の画像に合成することを特徴とする
複合現実感提示方法。
1. Combining a real space and a virtual space
A mixed reality that presents the player with a mixed reality space represented by
This is a method of presenting a feeling, in which the player's position / orientation information is acquired, the image in the physical space is input, and a virtual image corresponding to the player's position / orientation information is displayed.
Mixed reality that is generated using model information of a layer and combines the image of the physical space with the virtual image
A sense presentation method, including an operation unit operated by the player , and n parallel lines passing through the vertices of a regular n-sided polygon,
An instruction image for pointing an arbitrary place in the augmented reality space,
Generates a virtual image according to the position / orientation information of the operation unit.
It is characterized in that it is created and combined with the image of the physical space.
Mixed reality presentation method.
【請求項2】 さらに、前記操作部を覆う仮想画像を生
成し、前記現実空間の画像に合成することを特徴とする
請求項1記載の複合現実感提示方法。
2. A virtual image for covering the operation unit is further created.
It is characterized in that it is created and combined with the image of the physical space.
The mixed reality presentation method according to claim 1.
【請求項3】 さらに、前記指示画像を構成するn本の
平行線は、前記操作部を覆う仮想画像のほぼ先端部を始
点とすることを特徴とする請求項2記載の複合現実感提
示方法。
3. The n number of images forming the instruction image
The parallel line starts almost at the tip of the virtual image covering the operation part.
The mixed reality presentation according to claim 2, characterized in that
How to show.
【請求項4】 前記指示画像には、さらに目盛りを表す
画像が含まれていることを特徴とする請求項1記載の複
合現実感提示方法。
4. A scale is further displayed on the instruction image.
The duplicate according to claim 1, wherein the image is included.
Method of presenting a sense of reality.
【請求項5】 前記複合現実空間は複数のプレーヤで共
有されることを特徴とする請求項1記載の複合現実感提
示方法。
5. The mixed reality space is shared by a plurality of players.
The mixed reality sense according to claim 1, wherein the mixed reality sense is provided.
How to show.
【請求項6】 請求項1記載の方法をコンピュータに実
現させるコンピュータプログラムを格納したコンピュー
タ装置読み取り可能な記録媒体。
6. The method according to claim 1 is implemented in a computer.
A computer that stores a computer program to appear
Computer-readable recording medium.
JP16471999A 1999-06-11 1999-06-11 Mixed reality presentation method Expired - Fee Related JP3413128B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP16471999A JP3413128B2 (en) 1999-06-11 1999-06-11 Mixed reality presentation method
US09/510,232 US6972734B1 (en) 1999-06-11 2000-02-22 Mixed reality apparatus and mixed reality presentation method
AT00103876T ATE543546T1 (en) 1999-06-11 2000-02-24 DEVICE AND METHOD FOR REPRESENTING A SPACE SHARED BY SEVERAL USERS WHERE REALITY IS PARTIALLY INCLUDED, CORRESPONDING GAME DEVICE AND CORRESPONDING INTERFACE METHOD
EP00103876A EP1060772B1 (en) 1999-06-11 2000-02-24 Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16471999A JP3413128B2 (en) 1999-06-11 1999-06-11 Mixed reality presentation method

Publications (2)

Publication Number Publication Date
JP2000353249A JP2000353249A (en) 2000-12-19
JP3413128B2 true JP3413128B2 (en) 2003-06-03

Family

ID=15798601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16471999A Expired - Fee Related JP3413128B2 (en) 1999-06-11 1999-06-11 Mixed reality presentation method

Country Status (1)

Country Link
JP (1) JP3413128B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4054585B2 (en) * 2002-02-18 2008-02-27 キヤノン株式会社 Information processing apparatus and method
JP2003305276A (en) * 2002-02-18 2003-10-28 Space Tag Inc Game system, game apparatus and recording medium
JP4351023B2 (en) * 2002-11-07 2009-10-28 パナソニック株式会社 Image processing method and apparatus
JP4635572B2 (en) * 2004-11-09 2011-02-23 コニカミノルタホールディングス株式会社 Video display device
JP4973622B2 (en) * 2007-08-29 2012-07-11 カシオ計算機株式会社 Image composition apparatus and image composition processing program
US8189864B2 (en) 2007-08-29 2012-05-29 Casio Computer Co., Ltd. Composite image generating apparatus, composite image generating method, and storage medium
JP4935647B2 (en) * 2007-11-29 2012-05-23 カシオ計算機株式会社 Composite image output apparatus and composite image output processing program
JP2011186533A (en) * 2010-03-04 2011-09-22 Nifty Corp Information processing apparatus and program
EP3243557B1 (en) * 2015-01-05 2020-03-04 Sony Corporation Information processing device, information processing method, and program
JP6788327B2 (en) * 2015-02-27 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control device, and display control method
JP6693718B2 (en) 2015-02-27 2020-05-13 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control device, and display control method
JP6560074B2 (en) * 2015-09-16 2019-08-14 グリー株式会社 GAME PROCESSING PROGRAM, GAME PROCESSING DEVICE, AND GAME PROCESSING METHOD
JP6356878B2 (en) * 2017-07-19 2018-07-11 グリー株式会社 Application control program, application control method, and application control system
JP7279530B2 (en) * 2019-06-07 2023-05-23 マツダ株式会社 Video processing method, video processing device, video processing program, and recording medium recording video processing program
WO2022123750A1 (en) * 2020-12-10 2022-06-16 マクセル株式会社 Display apparatus and display method

Also Published As

Publication number Publication date
JP2000353249A (en) 2000-12-19

Similar Documents

Publication Publication Date Title
JP3413127B2 (en) Mixed reality device and mixed reality presentation method
US6972734B1 (en) Mixed reality apparatus and mixed reality presentation method
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
CN109568944B (en) Game processing method, game processing device, game processing system, and recording medium
US9599821B2 (en) Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
EP1060772B1 (en) Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof
US6951515B2 (en) Game apparatus for mixed reality space, image processing method thereof, and program storage medium
JP6362631B2 (en) Image display system, image display system control method, image distribution system, and head-mounted display
US8834245B2 (en) System and method for lock on target tracking with free targeting capability
JP3413128B2 (en) Mixed reality presentation method
US20060223635A1 (en) method and apparatus for an on-screen/off-screen first person gaming experience
JP2019122496A (en) Simulation system and program
US20100069152A1 (en) Method of generating image using virtual camera, storage medium, and computer device
JP3530772B2 (en) Mixed reality device and mixed reality space image generation method
JP2000033184A (en) Whole body action input type game and event device
JP2000350859A (en) Marker arranging method and composite reality really feeling device
JP7071823B2 (en) Simulation system and program
JP2019152899A (en) Simulation system and program
CN110448907B (en) Method and device for displaying virtual elements in virtual environment and readable storage medium
JP2018171320A (en) Simulation system and program
JP7213013B2 (en) Program, computer system and game execution control method
JP2018097517A (en) Information processing method, device, and program for causing computer to execute the information processing method
Tedjokusumo et al. Immersive multiplayer games with tangible and physical interaction
JP7064265B2 (en) Programs, information processing devices, and information processing methods for providing virtual experiences
JP7194495B2 (en) Program, computer system and game execution control method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090328

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100328

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100328

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140328

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees