JP2018067060A - Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model - Google Patents

Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model Download PDF

Info

Publication number
JP2018067060A
JP2018067060A JP2016203836A JP2016203836A JP2018067060A JP 2018067060 A JP2018067060 A JP 2018067060A JP 2016203836 A JP2016203836 A JP 2016203836A JP 2016203836 A JP2016203836 A JP 2016203836A JP 2018067060 A JP2018067060 A JP 2018067060A
Authority
JP
Japan
Prior art keywords
virtual
dimensional
diorama
image
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016203836A
Other languages
Japanese (ja)
Inventor
俊八 生田
Toshiya Ikuta
俊八 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2016203836A priority Critical patent/JP2018067060A/en
Publication of JP2018067060A publication Critical patent/JP2018067060A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic composite-reality sense providing program wich uses a virtual 3D model and is expected to realize force and impact close to a real model for the virtual 3D model.SOLUTION: The stereoscopic composite-reality sense providing program for a virtual 3D model causes a computer to function as: virtual 3D diorama arrangement means for virtually arranging a virtual 3D diorama 70 containing a virtual 3D model 71 in a real space (L); virtual 3D model operating means for operating the virtual 3D model by a controller; HMD position and posture determining means for determining the position and posture of an HMD in the real space; real image capturing means for capturing a real image for a right eye and a real image for a left eye; virtual diorama image creating means for creating a virtual diorama image for the right eye and a virtual diorama image for the left eye; composite image creating means for creating a composite image for the right eye and a composite image for the left eye; stereoscopic video information creation means for creating the stereoscopic video information; and stereoscopic video reproducing means for reproducing the stereoscopic video on a 3D display device.SELECTED DRAWING: Figure 3

Description

本発明は、現実映像に、仮想3次元模型を対象とした仮想映像を重畳した複合映像を、さらに立体映像(3次元映像)で楽しむことができる、仮想3次元模型を対象とした立体複合現実感提供プログラムに関する。   The present invention provides a 3D mixed reality for a virtual 3D model, which allows a 3D video (3D video) to be further enjoyed by a composite video in which a virtual video for a virtual 3D model is superimposed on a real video. It relates to a feeling provision program.

従来より、鉄道模型等の種々の模型を趣味としている多くのユーザが居る。例えば鉄道模型を趣味としているユーザは、例えばNゲージやHOゲージと呼ばれるシリーズのレール(軌道)と列車(模型)を入手し、部屋内にレールを敷きつめ、モータで動作する列車をレール上で走行させ、その走行する姿を種々の位置で種々の角度から眺めて楽しんでいる。   Conventionally, there are many users whose hobbies are various models such as railroad models. For example, a user who has a hobby of a railroad model obtains a series of rails (tracks) and trains (models) called N gauges and HO gauges, lays the rails in the room, and runs a motor-operated train on the rails. I enjoyed watching it from various angles at various positions.

例えばNゲージの列車の模型を楽しむユーザには、よりリアル感を出すために、山岳地帯や市街地等の背景を含めた大掛かりな、いわゆるジオラマを部屋内に作成するユーザもいる。この場合、部屋がジオラマに占有されてしまう。また背景まで作成せずにレールのみのジオラマとした場合であっても、模型専用の部屋を持っていない一般的なユーザは、模型を楽しむためにはレールを部屋内に敷きつめる必要があり、模型を楽しんだ後はレールを片付ける必要がある。これは非常に面倒で手間のかかる作業であり、楽しみが半減してしまう。   For example, a user who enjoys a model of an N-gauge train may create a so-called diorama in a room that includes a background such as a mountainous area or an urban area in order to give a more realistic feeling. In this case, the room is occupied by a diorama. In addition, even if it is a diorama only with rails without creating the background, general users who do not have a model dedicated room need to lay rails in the room to enjoy the model, After enjoying the model, you need to clear the rails. This is a very tedious and time-consuming task and halves the fun.

また無線で操作可能な航空機や船舶等の模型を楽しむユーザは、部屋内で模型を動作させることが困難であるので、屋外に模型を持ち出して模型を動作させて楽しんでいる。しかし、周囲の人々等に迷惑をかけることなく安全に模型を動作させて楽しむことができる場所が近所にあるとは限らず、模型を動作可能な範囲も十分に広い場合でないことが多い。また、このような模型を楽しむ場合、墜落や水没等が発生して模型が破損する可能性がある。   In addition, since it is difficult for a user who enjoys a model such as an aircraft or a ship that can be operated wirelessly to operate the model in the room, he / she enjoys taking the model outdoors and operating the model. However, there is not always a place where the model can be operated safely and enjoyed without disturbing the surrounding people, and the range in which the model can be operated is often not sufficiently wide. In addition, when enjoying such a model, there is a possibility that the model may be damaged due to a crash or submergence.

近年では、仮想現実(VR:Virtual Reality)の技術が進歩し、映画等の比較的大規模なシステムから、パソコンやスマートフォン等の比較的小規模なシステムでも仮想現実を楽しむことができる。従って、仮想模型を仮想現実で楽しむことも可能である。   In recent years, virtual reality (VR) technology has progressed, and virtual reality can be enjoyed from a relatively large system such as a movie to a relatively small system such as a personal computer or a smartphone. Therefore, it is possible to enjoy the virtual model in virtual reality.

例えば特許文献1には、複数の観測者のそれぞれがヘッドマウントディスプレイ(以下、HMDと記載する)を装着し、それぞれが視認している仮想物体を操作する操作入力装置を持っている場合において、HMDと操作入力装置との対応付けをより簡便に行う、画像処理装置が開示されている。   For example, in Patent Document 1, each of a plurality of observers wears a head-mounted display (hereinafter referred to as HMD), and each has an operation input device that operates a virtual object that is visually recognized. An image processing apparatus that more easily associates an HMD and an operation input device is disclosed.

また特許文献2には、透過型のディスプレイ装置を利用して、ディスプレイを透過した現実空間にディスプレイに表示した仮想映像を重畳して表示する仮想現実画像表示装置が開示されている。なお、透過した現実空間に仮想映像を重畳している際、ユーザが視点方向を移動させると、現実空間の物体の位置と、仮想映像の物体の位置との位置関係が、処理遅れ等によって維持できない場合がある。この位置関係が維持できなかった場合、現実空間の物体の位置と、仮想映像の物体の位置との間に不規則な位置のズレが生じ、ユーザに違和感や酔いが生じる。特許文献2では、この位置のズレを大幅に減少させる仮想現実画像表示装置が開示されている。   Patent Document 2 discloses a virtual reality image display device that uses a transmissive display device to display a virtual image displayed on a display in a superposed real space. Note that when the virtual image is superimposed on the transmitted real space, if the user moves the viewpoint direction, the positional relationship between the position of the object in the real space and the position of the object in the virtual image is maintained due to a processing delay or the like. There are cases where it is not possible. If this positional relationship cannot be maintained, an irregular position shift occurs between the position of the object in the real space and the position of the object in the virtual image, and the user feels uncomfortable or sick. Patent Document 2 discloses a virtual reality image display device that greatly reduces the displacement of this position.

特許第4757115号公報Japanese Patent No. 4757115 特開2007−213407号公報JP 2007-213407 A

特許文献1に記載の発明は、仮想模型を用いることで、部屋内でも屋外でも手間なく仮想模型を楽しむことができると期待できる。しかし、現実映像に、仮想物体を含む仮想映像を重畳し、仮想物体を操作する操作入力装置を用いて仮想物体を操作しているが、立体映像(3次元映像)を提供できるものではないので、現実の模型と比較して、迫力やインパクトに欠け、期待したほど楽しむことができない可能性がある。   The invention described in Patent Document 1 can be expected to be able to enjoy the virtual model without trouble both in the room and outdoors by using the virtual model. However, a virtual image including a virtual object is superimposed on a real image, and the virtual object is operated using an operation input device that operates the virtual object. However, a stereoscopic image (three-dimensional image) cannot be provided. Compared to the actual model, there is a possibility that it lacks power and impact and cannot be enjoyed as much as expected.

特許文献2に記載の発明も、仮想模型を用いることで、部屋内でも屋外でも手間なく仮想模型を楽しむことができると期待できる。しかし、透過型ディスプレイを透過した現実映像に、仮想映像を重畳しているが、特許文献1と同様、立体映像(3次元映像)を提供できるものではないので、現実の模型と比較して、迫力やインパクトに欠け、期待したほど楽しむことができない可能性がある。   The invention described in Patent Document 2 can also be expected to be able to enjoy the virtual model without trouble both in the room and outdoors by using the virtual model. However, although the virtual video is superimposed on the real video that has passed through the transmissive display, as in Patent Document 1, a stereoscopic video (three-dimensional video) cannot be provided. Compared with a real model, Lack of power and impact, you may not be able to enjoy as much as you expected.

本発明は、このような点に鑑みて創案されたものであり、仮想3次元模型を用いて、現実の模型の迫力やインパクトに肉薄することが期待できる、仮想3次元模型を対象とした立体複合現実感提供プログラムを提供することを課題とする。   The present invention was devised in view of the above points, and a three-dimensional model for a virtual three-dimensional model that can be expected to be thinned by the force and impact of a real model using a virtual three-dimensional model. It is an object to provide a mixed reality providing program.

上記課題を解決するため、本発明の第1の発明は、ユーザの両目を覆うように装着される非透過型のヘッドマウントディスプレイであるHMDと、ユーザからの指示を入力可能なコントローラと、コンピュータと、を用いた仮想3次元模型を対象とした立体複合現実感提供プログラムであって、前記HMDは、ユーザに立体映像を視認させることが可能な3次元ディスプレイ装置と、ユーザの右目の正面視線方向を撮像する少なくとも1つの右撮像装置と、ユーザの左目の正面視線方向を撮像する少なくとも1つの左撮像装置と、現実空間内における前記HMDの位置と姿勢を前記コンピュータにて検出可能とする位置姿勢検出手段と、を有している。そして、前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記コンピュータにて記憶装置から読み込んだ、あるいは前記コンピュータにて通信回線を介して受信した、仮想3次元模型を含む仮想3次元ジオラマを、現実空間内における指定された位置に仮想的に配置する仮想3次元ジオラマ配置手段、前記仮想3次元模型を、前記コントローラに入力された指示に基づいて動作させる仮想3次元模型動作手段、前記位置姿勢検出手段からの検出信号に基づいて現実空間内における前記HMDの位置と前記HMDの姿勢を判定するHMD位置姿勢判定手段、前記右撮像装置で撮像した現実空間の右目用現実画像と、前記左撮像装置で撮像した現実空間の左目用現実画像と、を取り込む現実画像取り込み手段、判定した前記HMDの位置と姿勢に基づいて、前記HMDの右撮像装置の位置から見えるであろう前記仮想3次元ジオラマの画像である右目用仮想ジオラマ画像と、前記HMDの左撮像装置の位置から見えるであろう前記仮想3次元ジオラマの画像である左目用仮想ジオラマ画像と、を作成する仮想ジオラマ画像作成手段、判定した前記HMDの位置と姿勢に応じた、前記右目用現実画像に前記右目用仮想ジオラマ画像を重畳した右目用複合画像と、前記左目用現実画像に前記左目用仮想ジオラマ画像を重畳した左目用複合画像と、を作成する複合画像作成手段、前記右目用複合画像と前記左目用複合画像に基づいて、前記3次元ディスプレイ装置にて再生するための立体映像情報を作成する立体映像情報作成手段、作成した前記立体映像情報を用いて、前記3次元ディスプレイ装置に前記立体映像を再生させる立体映像再生手段、として機能させるための、仮想3次元模型を対象とした立体複合現実感提供プログラムである。   In order to solve the above-mentioned problem, a first invention of the present invention is an HMD that is a non-transmissive head mounted display that is mounted so as to cover both eyes of a user, a controller that can input instructions from the user, and a computer A stereoscopic mixed reality providing program for a virtual three-dimensional model using the HMD, wherein the HMD is a three-dimensional display device that allows a user to visually recognize a stereoscopic image, and a front view of the user's right eye At least one right imaging device that captures the direction, at least one left imaging device that captures the direction of the front line of sight of the user's left eye, and a position at which the computer can detect the position and orientation of the HMD in real space Posture detecting means. A virtual 3 including a virtual three-dimensional model read from a storage device by the computer or received by the computer via a communication line by cooperating the computer or the computer and the HMD. Virtual three-dimensional diorama placement means for virtually placing a three-dimensional diorama at a specified position in a real space, virtual three-dimensional model operation means for operating the virtual three-dimensional model based on an instruction input to the controller HMD position / orientation determination means for determining the position of the HMD and the attitude of the HMD based on a detection signal from the position / orientation detection means, and a real image for the right eye in the real space imaged by the right imaging device A real image capturing means for capturing the real image for the left eye in the real space imaged by the left imaging device; Based on the position and orientation of the HMD, it can be seen from the virtual diorama image for the right eye, which is an image of the virtual three-dimensional diorama that will be seen from the position of the right imaging device of the HMD, and from the position of the left imaging device of the HMD. Virtual diorama image for left eye, which is an image of the virtual three-dimensional diorama, and virtual diorama image creation means for creating the virtual diorama for right eye in the real image for right eye according to the determined position and orientation of the HMD. Composite image creation means for creating a composite image for the right eye in which an image is superimposed, and a composite image for the left eye in which the virtual diorama image for the left eye is superimposed on the real image for the left eye, the composite image for the right eye and the composite image for the left eye 3D video information creating means for creating 3D video information for reproduction on the 3D display device, and using the created 3D video information Te, stereoscopic image reproducing means for reproducing the stereoscopic image in the 3D display device, to function as a three-dimensional composite reality providing program for a virtual 3-dimensional model.

次に、本発明の第2の発明は、上記第1の発明に係る仮想3次元模型を対象とした立体複合現実感提供プログラムであって、前記仮想3次元模型は、汽車または列車または地下鉄列車、建設機械、車両または軍用車両、船舶または軍艦、ヘリコプターまたは航空機または軍用航空機、潜水艦、ロボット、ロケット、宇宙船、の少なくとも1つであり、前記コントローラには、前記仮想3次元模型の速度の指示、前記仮想3次元模型の前進または後退の指示、前記仮想3次元模型の右旋回または左旋回の指示、前記仮想3次元模型の上昇または下降の指示、前記仮想3次元模型における煙吐出位置からの仮想3次元煙の吐出の指示、前記仮想3次元模型における蒸気吐出位置からの仮想3次元蒸気の吐出の指示、前記仮想3次元模型における排気吐出位置からの仮想3次元排気の吐出の指示、前記仮想3次元模型における砲弾発射位置からの仮想3次元砲弾の発射の指示、前記仮想3次元模型における所定部位の指定方向への動作の指示、の少なくとも1つの指示を入力可能であり、前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記仮想3次元模型動作手段として機能させる際、前記コントローラに入力された指示に応じて前記仮想3次元模型を動作させる、仮想3次元模型を対象とした立体複合現実感提供プログラムである。   Next, a second invention of the present invention is a three-dimensional mixed reality providing program for the virtual three-dimensional model according to the first invention, wherein the virtual three-dimensional model is a train, train or subway train. , Construction machines, vehicles or military vehicles, ships or warships, helicopters or aircraft or military aircraft, submarines, robots, rockets, spacecrafts, and the controller indicates the speed of the virtual three-dimensional model. , An instruction to advance or retreat the virtual three-dimensional model, an instruction to turn the virtual three-dimensional model to the right or left, an instruction to raise or lower the virtual three-dimensional model, and a smoke discharge position in the virtual three-dimensional model Instructions for discharging virtual three-dimensional smoke, instructions for discharging virtual three-dimensional steam from the steam discharge position in the virtual three-dimensional model, and exhausting in the virtual three-dimensional model An instruction to discharge virtual three-dimensional exhaust from the discharge position, an instruction to fire virtual three-dimensional shell from the bullet firing position in the virtual three-dimensional model, an instruction to operate in a specified direction of a predetermined part in the virtual three-dimensional model, At least one instruction can be input, and when the computer or the computer and the HMD cooperate to function as the virtual three-dimensional model operation means, according to the instruction input to the controller It is a stereoscopic mixed reality providing program for a virtual three-dimensional model that operates the virtual three-dimensional model.

次に、本発明の第3の発明は、上記第1の発明または第2の発明に係る仮想3次元模型を対象とした立体複合現実感提供プログラムであって、前記記憶装置には、前記仮想3次元模型の動作に応じた音情報である動作対応音情報、または前記コントローラに入力された指示に応じた音情報である指示対応音情報、の少なくとも一方が記憶されており、あるいは前記動作対応音情報と前記指示対応音情報の少なくとも一方を生成可能な音生成プログラムが記憶されており、前記動作対応音情報と前記指示対応音情報とに基づいた音信号に応じた音を出力する音出力装置を用い、前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記仮想3次元模型動作手段として機能させる際、前記記憶装置に、前記動作対応音情報を有している、あるいは前記動作対応音情報を生成可能な前記音生成プログラムを有している場合、前記仮想3次元模型の動作に応じた前記動作対応音情報に基づいた音信号を前記音出力装置に出力させ、前記記憶装置に、前記指示対応音情報を有している、あるいは前記指示対応音情報を生成可能な前記音生成プログラムを有している場合、前記コントローラに入力された指示に応じた前記指示対応音情報に基づいた音信号を前記音出力装置に出力させる、仮想3次元模型を対象とした立体複合現実感提供プログラムである。   Next, a third invention of the present invention is a three-dimensional mixed reality providing program for the virtual three-dimensional model according to the first invention or the second invention, wherein the storage device stores the virtual At least one of motion corresponding sound information that is sound information corresponding to the motion of the three-dimensional model and instruction corresponding sound information that is sound information corresponding to the instruction input to the controller is stored, or the motion corresponding A sound generation program capable of generating at least one of sound information and instruction corresponding sound information is stored, and a sound output that outputs a sound corresponding to a sound signal based on the operation corresponding sound information and the instruction corresponding sound information When the apparatus is used and the computer or the computer and the HMD cooperate to function as the virtual three-dimensional model operation means, the storage device stores the operation-corresponding sound information. Or having the sound generation program capable of generating the motion-corresponding sound information, outputting the sound signal based on the motion-corresponding sound information according to the motion of the virtual three-dimensional model When the sound generation program that has the instruction corresponding sound information or can generate the instruction corresponding sound information is stored in the storage device, the instruction input to the controller A stereoscopic mixed reality providing program for a virtual three-dimensional model that causes the sound output device to output a sound signal based on the corresponding instruction corresponding sound information.

次に、本発明の第4の発明は、上記第1の発明〜第3の発明のいずれか1つに係る仮想3次元模型を対象とした立体複合現実感提供プログラムであって、前記仮想3次元ジオラマへの光源として、前記仮想3次元ジオラマ内において仮想的に設定した太陽である仮想太陽の水平方向の角度である方位角と、前記仮想太陽の垂直方向の角度である仰角または前記仰角を決める仮想時刻情報と、前記仮想ジオラマの天候として、晴天または曇天または雨または風または雪の少なくとも1つの天候である仮想天候と、を指定可能であり、前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記仮想ジオラマ画像作成手段として機能させる際、指定された方位角、及び指定された仰角または前記仮想時刻情報に基づいた仰角、に応じた位置に前記仮想太陽を配置した場合の仮想的な光である仮想太陽光が仮想的に照射されている前記仮想3次元ジオラマであって、指定された前記仮想天候が周囲に仮想的に再現された前記仮想3次元ジオラマ、に基づいて、前記右目用仮想ジオラマ画像と前記左目用仮想ジオラマ画像とを作成させる、仮想3次元模型を対象とした立体複合現実感提供プログラムである。   Next, a fourth invention of the present invention is a three-dimensional mixed reality providing program targeting a virtual three-dimensional model according to any one of the first to third inventions, wherein the virtual 3 As a light source for a three-dimensional diorama, an azimuth angle that is a horizontal angle of a virtual sun that is a virtually set sun in the virtual three-dimensional diorama and an elevation angle that is a vertical angle of the virtual sun or the elevation angle. The virtual time information to be determined and the weather of the virtual diorama can be designated as clear weather or cloudy weather or virtual weather which is at least one weather of rain, wind or snow, and the computer or the computer and the HMD. When functioning as the virtual diorama image creation means in cooperation with each other, the designated azimuth angle and the designated elevation angle or the elevation angle based on the virtual time information The virtual three-dimensional diorama is virtually irradiated with virtual sunlight, which is virtual light when the virtual sun is arranged at a position corresponding to the virtual sun, and the designated virtual weather is virtual around A stereoscopic mixed reality providing program for a virtual three-dimensional model that creates the right-eye virtual diorama image and the left-eye virtual diorama image based on the virtual three-dimensional diorama reproduced in FIG.

次に、本発明の第5の発明は、上記第1の発明〜第4の発明のいずれか1つに係る仮想3次元模型を対象とした立体複合現実感提供プログラムであって、1台以上の前記コンピュータに対して、複数の前記HMDと、それぞれの前記HMDに対応させたそれぞれの前記コントローラと、を用い、複数の前記HMDに対して共通の前記仮想3次元ジオラマであって前記HMD毎の前記仮想3次元模型を含む共通仮想3次元ジオラマを設定可能であり、前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記仮想3次元ジオラマ配置手段として機能させる際、前記共通仮想3次元ジオラマを仮想的に配置し、前記仮想3次元模型動作手段として機能させる際、前記共通仮想3次元ジオラマに含まれているそれぞれの前記仮想3次元模型を、それぞれの前記コントローラに対応させて動作させ、前記HMD位置姿勢判定手段として機能させる際、前記HMD毎の位置と姿勢を判定し、前記現実画像取り込み手段として機能させる際、前記HMD毎に前記右目用現実画像と前記左目用現実画像とを取り込み、前記仮想ジオラマ画像作成手段として機能させる際、仮想的に配置されている複数の前記仮想3次元模型を含む前記共通仮想3次元ジオラマを用いて、前記HMD毎に前記右目用仮想ジオラマ画像と前記左目用仮想ジオラマ画像とを作成させ、前記複合画像作成手段として機能させる際、前記HMD毎に前記右目用複合画像と前記左目用複合画像を作成させ、前記立体映像情報作成手段として機能させる際、前記HMD毎に前記立体映像情報を作成させ、前記立体映像再生手段として機能させる際、各HMDに対応する前記3次元ディスプレイ装置に、各HMDに対応する前記立体映像を再生させる、仮想3次元模型を対象とした立体複合現実感提供プログラムである。   Next, a fifth invention of the present invention is a three-dimensional mixed reality providing program targeting a virtual three-dimensional model according to any one of the first to fourth inventions, wherein one or more The virtual three-dimensional diorama common to the plurality of HMDs using the plurality of HMDs and the controllers corresponding to the respective HMDs for each of the HMDs. A common virtual three-dimensional diorama including the virtual three-dimensional model can be set, and when the computer or the computer and the HMD cooperate to function as the virtual three-dimensional diorama placement means, the common When the virtual three-dimensional diorama is virtually arranged and functions as the virtual three-dimensional model operating means, each of the virtual three-dimensional diorama included in the common virtual three-dimensional diorama When the virtual three-dimensional model is operated corresponding to each of the controllers and functions as the HMD position / orientation determination unit, the position and orientation of each HMD is determined, and when functioning as the actual image capturing unit, When the real image for the right eye and the real image for the left eye are captured for each HMD and function as the virtual diorama image creation means, the common virtual 3D including a plurality of the virtual 3D models that are virtually arranged When the diorama is used to create the virtual diorama image for the right eye and the virtual diorama image for the left eye for each HMD and function as the composite image creation means, the composite image for the right eye and the left eye for each HMD When creating a composite image and functioning as the 3D image information creating means, the 3D image information is created for each HMD. When caused to function as the stereoscopic image reproducing means, on the three-dimensional display device corresponding to the HMD, to reproduce the stereoscopic image corresponding to the HMD, a stereo composite reality providing program for a virtual 3-dimensional model.

第1の発明によれば、右撮像装置と左撮像装置を備えたHMDを用いて、右目用現実画像と右目用仮想ジオラマ画像とを重畳した右目用複合画像と、左目用現実画像と左目用仮想ジオラマ画像とを重畳した左目用複合画像と、を別々に作成して3次元ディスプレイ装置に立体映像を再生する。ユーザは、コントローラから仮想3次元模型の動作を指示しながら、当該仮想3次元模型を立体映像(3次元映像)にて、種々の位置にて種々の角度から楽しむことが可能である。また仮想3次元模型とユーザが実際に衝突する危険も無いので、ユーザは仮想3次元模型に思い切り接近して楽しむことができるので、現実の模型の迫力やインパクトに肉薄する(あるいは現実の模型の迫力やインパクトを超える)立体映像を楽しむことができる、と期待できる。   According to the first invention, using an HMD including a right imaging device and a left imaging device, a right-eye composite image in which a right-eye real image and a right-eye virtual diorama image are superimposed, a left-eye real image, and a left-eye image A composite image for the left eye on which a virtual diorama image is superimposed is created separately and a stereoscopic image is reproduced on a three-dimensional display device. The user can enjoy the virtual three-dimensional model from various angles at various positions on the stereoscopic video (three-dimensional video) while instructing the operation of the virtual three-dimensional model from the controller. In addition, since there is no danger of the user actually colliding with the virtual 3D model, the user can enjoy the virtual 3D model by approaching the virtual 3D model. It can be expected that you can enjoy stereoscopic images that exceed the power and impact.

第2の発明によれば、ユーザは、コントローラを操作することで、現実の模型では困難であった煙の吐出や砲弾の発射等を、仮想3次元煙の吐出や仮想3次元砲弾の発射等にて行うことができる。従って、よりリアル感を出すことが可能であり、現実の模型を超える迫力やインパクトを期待できる。   According to the second aspect of the present invention, the user operates the controller to discharge smoke, fire bullets, etc., which are difficult with an actual model, to discharge virtual 3D smoke, fire virtual 3D shells, etc. Can be done. Therefore, it is possible to give a more realistic feeling and to expect a force and impact exceeding the actual model.

第3の発明によれば、現実の模型による音ではなく、現実の汽車や現実の航空機等の音を出力させることで、よりリアル感を出すことが可能であり、現実の模型を超える迫力やインパクトを期待できる。   According to the third invention, it is possible to give a more realistic feeling by outputting the sound of an actual train or an actual aircraft instead of the sound of the actual model. You can expect an impact.

第4の発明によれば、夕焼けの空を飛行する航空機や、吹雪の中を疾走する汽車等、現実の模型では実現が困難な場面(ジオラマの周囲の環境)であっても、ユーザが所望する場面を自由に設定することができる。従って、ユーザが所望するリアル感を出すことが容易であり、現実の模型を超える迫力やインパクトを期待できる。   According to the fourth invention, the user desires even in a scene (environment around the diorama) that is difficult to realize with an actual model, such as an aircraft flying in the sunset sky or a train running in a snowstorm. The scene to be performed can be set freely. Therefore, it is easy to give the user a desired real feeling, and the force and impact exceeding the actual model can be expected.

第5発明によれば、複数のユーザで共通仮想3次元ジオラマ内で個々の仮想3次元模型を用いて対戦等を楽しむことができるので、複数のユーザで楽しみを共感することができる。   According to the fifth invention, a plurality of users can enjoy a battle or the like using each virtual three-dimensional model within the common virtual three-dimensional diorama, so that a plurality of users can sympathize with the enjoyment.

本発明の仮想3次元模型を対象とした立体複合現実感提供プログラムを実行させる立体複合現実感提供システムの全体構成を説明する図である。It is a figure explaining the whole structure of the three-dimensional mixed reality provision system which performs the three-dimensional mixed reality provision program for the virtual three-dimensional model of this invention. HMD(Head Mounted Display)の構造の例と、コントローラの構造の例を説明する斜視図である。It is a perspective view explaining the example of the structure of HMD (Head Mounted Display), and the example of the structure of a controller. 仮想3次元模型を対象とした立体複合現実感提供プログラムを実行させる立体複合現実感提供システムを部屋内で利用した場合の例を説明する図である。It is a figure explaining the example at the time of utilizing in the room the 3D mixed reality provision system which performs the 3D mixed reality provision program for the virtual three-dimensional model. 立体複合現実感提供システムにおけるPC(コンピュータに相当)の処理手順の例を説明するフローチャートである。It is a flowchart explaining the example of the process sequence of PC (equivalent to a computer) in a stereoscopic mixed reality provision system. 図4に示すフローチャートにおける処理SB000の処理手順の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the process sequence of process SB000 in the flowchart shown in FIG. 図4に示すフローチャートにおける処理SB100の処理手順の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the process sequence of process SB100 in the flowchart shown in FIG. 図4に示すフローチャートにおける処理SB200の処理手順の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the process sequence of process SB200 in the flowchart shown in FIG. 図4に示すフローチャートにおける処理SB300の処理手順の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the process sequence of process SB300 in the flowchart shown in FIG. 右目用現実画像に右目用仮想ジオラマ画像を重畳して右目用複合画像を作成する例を説明する図である。It is a figure explaining the example which superimposes the virtual diorama image for right eyes on the real image for right eyes, and produces the composite image for right eyes. 3次元ディスプレイ装置に再生された立体映像の例を説明する図である。It is a figure explaining the example of the stereo image reproduced | regenerated by the three-dimensional display apparatus. レール(軌道)が部屋の壁と交差する位置にトンネルを自動的に作成する例を説明する図である。It is a figure explaining the example which creates a tunnel automatically in the position where a rail (track) crosses the wall of a room. 現実の模型では動作状態を種々の位置から種々の角度で楽しむことができないようなものであっても、仮想3次元ジオラマであれば種々の位置から種々の角度で楽しむことができる例を説明する図である。Even if the actual model cannot be enjoyed at various angles from various positions, the virtual three-dimensional diorama can be enjoyed from various positions at various angles. FIG. 本発明の仮想3次元模型を対象とした立体複合現実感提供プログラムを実行させる立体複合現実感提供システムを屋外に持ち出して、屋外で仮想3次元ジオラマを楽しむ例を説明する図である。It is a figure explaining the example which takes out the 3D mixed reality provision system which performs the 3D mixed reality provision program for the virtual 3D model of this invention outdoors, and enjoys a virtual 3D diorama outdoors.

●[仮想3次元模型を対象とした立体複合現実感提供プログラムを実行させる立体複合現実感提供システム1の全体構成(図1)と、HMD10の構造とコントローラ20の構造(図2)]
以下に本発明を実施するための形態を図面を用いて説明する。図1に示すように、本発明の仮想3次元模型を対象とした立体複合現実感提供プログラム(以降、「仮想3次元模型を対象とした立体複合現実感提供プログラム」を「立体複合現実感提供プログラム」と記載する)を実行させる立体複合現実感提供システム1は、HMD10(Head Mounted Display)、コントローラ20、位置姿勢検出ユニット30、音出力装置40、PC50(コンピュータに相当し、例えばパーソナルコンピュータ)等にて構成されている。またPC50は、インターネット60を介してジオラマ提供サーバ80と情報(種々のデータを含む)の送受信が可能である。なお、点線にて示すように、HMD10及びコントローラ20は、1セットだけでなく複数のセットを利用することができる。
● [Overall Configuration of Stereo Mixed Reality Providing System 1 for Executing a Virtual Mixed Reality Providing Program for Virtual Three-Dimensional Model (FIG. 1), HMD 10 Structure, and Controller 20 Structure (FIG. 2)]
EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated using drawing. As shown in FIG. 1, the stereoscopic mixed reality providing program for the virtual three-dimensional model of the present invention (hereinafter referred to as the “stereo mixed reality providing program for the virtual three-dimensional model” is referred to as “stereo mixed reality providing”. 3D mixed reality providing system 1 that executes a program) is described as follows: HMD 10 (Head Mounted Display), controller 20, position and orientation detection unit 30, sound output device 40, PC 50 (corresponding to a computer, for example, a personal computer) Etc. The PC 50 can transmit and receive information (including various data) to and from the diorama providing server 80 via the Internet 60. As indicated by dotted lines, the HMD 10 and the controller 20 can use not only one set but also a plurality of sets.

HMD10は、非透過型のヘッドマウントディスプレイであり、図2に示すように、本体部11、3次元ディスプレイ装置12、右撮像装置13R、左撮像装置13L、ユーザ識別手段14、視点距離調整手段15、位置姿勢検出手段16、ベルト17、ケーブル18A、18B等を有している。本体部11は、ユーザの両目を覆うように装着される。   The HMD 10 is a non-transmissive head mounted display. As shown in FIG. 2, the main body unit 11, the three-dimensional display device 12, the right imaging device 13 </ b> R, the left imaging device 13 </ b> L, the user identification unit 14, and the viewpoint distance adjustment unit 15. , Position / orientation detecting means 16, belt 17, cables 18A, 18B and the like. The main body 11 is mounted so as to cover both eyes of the user.

3次元ディスプレイ装置12は、本体部11の内側、かつ本体部11を装着したユーザの目の前となる位置に設けられ、ユーザに立体映像を視認させることが可能である。3次元ディスプレイ装置は、例えば液晶シャッタ式である場合、右目用画像と左目用画像とを交互に表示する液晶表示装置と、右目用液晶シャッタと、左目用液晶シャッタと、を有している。また3次元ディスプレイ装置は、例えばパララックスバリア方式やレンチキュラーレンズ方式である場合、(右目用画像と左目用画像を左右方向に交互に並べて表示する)液晶表示装置とパララックスバリア、(右目用画像と左目用画像を左右方向に交互に並べて表示する)液晶表示装置とレンチキュラーレンズを有している。また3次元ディスプレイ装置は、例えば左右独立である場合、図2中に一点鎖線で示すように、右目用画像を表示する右目用液晶表示装置12Rと、左目用画像を表示する左目用液晶表示装置12Lと、を有している。3次元ディスプレイ装置12は、ユーザに立体映像を視認させることが可能であれば、どのような構造のものであってもよく、PC50は、3次元ディスプレイ装置12の構造に合わせた立体映像情報(液晶シャッタ式の場合は、映像とシャッタ制御信号を含む)を作成する。   The three-dimensional display device 12 is provided inside the main body 11 and at a position in front of the user wearing the main body 11, and allows the user to visually recognize a stereoscopic image. When the three-dimensional display device is, for example, a liquid crystal shutter type, it has a liquid crystal display device that alternately displays a right eye image and a left eye image, a right eye liquid crystal shutter, and a left eye liquid crystal shutter. Further, when the three-dimensional display device is, for example, a parallax barrier method or a lenticular lens method, a liquid crystal display device and a parallax barrier (a right-eye image and a left-eye image are alternately displayed in the left-right direction) (a right-eye image) And the left-eye image are alternately displayed in the left-right direction) and a liquid crystal display device and a lenticular lens. When the three-dimensional display device is independent of the left and right sides, for example, as shown by a one-dot chain line in FIG. 2, a right-eye liquid crystal display device 12R that displays a right-eye image and a left-eye liquid crystal display device that displays a left-eye image. 12L. The 3D display device 12 may have any structure as long as it allows the user to visually recognize a 3D image, and the PC 50 can display 3D image information (in accordance with the structure of the 3D display device 12). In the case of the liquid crystal shutter type, an image and a shutter control signal are included).

右撮像装置13Rは、本体部11の外側、かつHMD10の本体部11を装着したユーザの右目に相当する位置に、少なくとも1つが設けられており(単数または複数の右撮像装置が設けられており)、ユーザの右目の正面視線方向13RVの方向を撮像する。また、左撮像装置13Lは、本体部11の外側、かつ本体部11を装着したユーザの左目に相当する位置に、少なくとも1つが設けられており(単数または複数の左撮像装置が設けられており)、ユーザの左目の正面視線方向13LVの方向を撮像する。なお、右撮像装置13Rと左撮像装置13Lとの間隔は、ユーザの右目と左目の間隔に応じて調整可能な構成であると、より好ましい。   At least one right imaging device 13R is provided outside the main body 11 and at a position corresponding to the right eye of the user wearing the main body 11 of the HMD 10 (single or plural right imaging devices are provided. ), Image the direction of the front line-of-sight direction 13RV of the user's right eye. Also, the left imaging device 13L is provided at least one outside the main body 11 and at a position corresponding to the left eye of the user wearing the main body 11 (single or multiple left imaging devices are provided. ), Image the direction of the front line-of-sight direction 13LV of the user's left eye. It is more preferable that the interval between the right imaging device 13R and the left imaging device 13L is a configuration that can be adjusted according to the interval between the right eye and the left eye of the user.

ユーザ識別手段14は、複数のユーザにて複数のHMD10を利用する場合においてユーザを識別するための識別情報を設定するための装置である。図2は、ユーザ識別手段14が回転ダイヤル式であり、1〜4の番号のいずれかを設定できる例を示しているが、回転ダイヤル式に限定されず、スイッチ等で設定できる構成でもよい。また、設定内容も1〜4に限定されず、A〜D等であってもよい。例えば2人のユーザが、それぞれHMD10を利用する場合、第1ユーザは、装着するHMD10のユーザ識別手段14を「1」に設定し、第2ユーザは、装着するHMD10のユーザ識別手段14を「2」に設定する。   The user identification means 14 is an apparatus for setting identification information for identifying a user when a plurality of users use a plurality of HMDs 10. FIG. 2 shows an example in which the user identification means 14 is a rotary dial type and any one of the numbers 1 to 4 can be set. However, the configuration is not limited to the rotary dial type and may be set by a switch or the like. Also, the setting content is not limited to 1 to 4, and may be A to D or the like. For example, when two users use the HMD 10 respectively, the first user sets the user identification means 14 of the HMD 10 to be worn to “1”, and the second user sets the user identification means 14 of the HMD 10 to be worn “ 2 ”.

視点距離調整手段15は、HMD10の本体部11を装着したユーザの右目及び左目から、3次元ディスプレイ装置12までの距離を調整するための装置である。図2は、視点距離調整手段15が回転ダイヤル式の例を示しているが、回転ダイヤル式に限定されず、スライドレバー等で調整できる構成であってもよい。3次元ディスプレイ装置12がパララックスバリア方式やレンチキュラーレンズ方式である場合、ユーザが立体映像を適切に視認できるようにするために、ユーザの右目及び左目から3次元ディスプレイ装置12までの距離を微調整できると、より好ましい。また3次元ディスプレイ装置が右目用液晶表示装置12Rと左目用液晶表示装置12Lで左右独立の場合、ユーザの右目及び左目から3次元ディスプレイ装置までの距離と、右目用液晶表示装置12Rと左目用液晶表示装置12Lとの左右の間隔と、を微調整できると、より好ましく、右目から左目用液晶表示装置が見えないように(あるいは左目から右目用液晶表示装置が見えないように)遮蔽板を有していると、より好ましい。   The viewpoint distance adjusting unit 15 is an apparatus for adjusting the distance from the right eye and the left eye of the user wearing the main body 11 of the HMD 10 to the three-dimensional display device 12. Although FIG. 2 shows an example in which the viewpoint distance adjusting means 15 is a rotary dial type, the viewpoint distance adjusting unit 15 is not limited to the rotary dial type and may be configured to be adjustable with a slide lever or the like. When the 3D display device 12 is a parallax barrier method or a lenticular lens method, the distance from the user's right eye and left eye to the 3D display device 12 is finely adjusted so that the user can appropriately view the stereoscopic image. If possible, it is more preferable. In the case where the right-eye liquid crystal display device 12R and the left-eye liquid crystal display device 12L are left and right independent, the distance from the user's right eye and left eye to the three-dimensional display device, and the right-eye liquid crystal display device 12R and the left-eye liquid crystal display device. It is more preferable that the left and right spacing with the display device 12L can be finely adjusted, and a shielding plate is provided so that the left eye liquid crystal display device cannot be seen from the right eye (or the right eye liquid crystal display device cannot be seen from the left eye). It is more preferable.

位置姿勢検出手段16は、現実空間内におけるHMD10の位置と姿勢を検出するためのセンサであり、複数の位置姿勢検出手段16がHMD10に設けられている。例えば位置姿勢検出手段16は、磁気センサや加速度センサや傾斜センサである。例えば磁気センサは、(基準)磁気発生装置である位置姿勢検出ユニット30からの磁気を検出して検出信号を位置姿勢検出ユニット30に出力する。また例えば傾斜センサは、HMD10における直交3軸(X軸、Y軸、Z軸)方向に対するそれぞれの傾斜角度に応じた検出信号を位置姿勢検出ユニット30に出力する。また例えば加速度センサは、HMD10における直交3軸(X軸、Y軸、Z軸)のそれぞれの方向への加速度に応じた検出信号を位置姿勢検出ユニット30に出力する。   The position and orientation detection means 16 is a sensor for detecting the position and orientation of the HMD 10 in the real space, and a plurality of position and orientation detection means 16 are provided in the HMD 10. For example, the position / orientation detection means 16 is a magnetic sensor, an acceleration sensor, or a tilt sensor. For example, the magnetic sensor detects magnetism from the position / orientation detection unit 30 which is a (reference) magnetism generator, and outputs a detection signal to the position / orientation detection unit 30. Further, for example, the tilt sensor outputs a detection signal corresponding to each tilt angle with respect to the three orthogonal axes (X axis, Y axis, Z axis) directions in the HMD 10 to the position and orientation detection unit 30. Further, for example, the acceleration sensor outputs a detection signal corresponding to the acceleration in each of the three orthogonal axes (X axis, Y axis, Z axis) in the HMD 10 to the position and orientation detection unit 30.

位置姿勢検出ユニット30は、位置姿勢検出手段16からの検出信号に基づいて、HMD10の位置(直交3軸のX軸、Y軸、Z軸方向の位置)や姿勢(X軸回りの回転角度、Y軸回りの回転角度、Z軸回りの回転角度)を検出する装置である。なお本実施の形態では、位置姿勢検出ユニット30をPC50とは別体で設けた例を説明するが、PC50あるいはHMD10に位置姿勢検出ユニット30の機能を持たせるようにすることも可能である。位置姿勢検出ユニット30は、例えば磁気センサ(位置姿勢検出手段)からの検出信号と、自身が出力している(基準)磁気に基づいて、位置姿勢検出ユニット30に対するHMD10の位置(直交3軸のX軸、Y軸、Z軸方向の位置)や姿勢(X軸回りの回転角度、Y軸回りの回転角度、Z軸回りの回転角度)を検出できる。また、位置姿勢検出ユニット30は、例えば傾斜センサ(位置姿勢検出手段)やジャイロセンサ(位置姿勢検出手段)からの検出信号に基づいて、HMD10の姿勢(X軸回りの回転角度、Y軸回りの回転角度、Z軸回りの回転角度)を検出できる。また、位置姿勢検出ユニット30は、例えば加速度センサ(位置姿勢検出手段)やジャイロセンサ(位置姿勢検出手段)からの検出信号に基づいて、HMD10における3軸(X軸、Y軸、Z軸)のそれぞれに応じた運動量、すなわち移動方向と移動距離を検出できる。この移動距離を積算することで、初期位置に対するHMD10の位置(X軸方向の位置、Y軸方向の位置、Z軸方向の位置)を検出できる。そして位置姿勢検出ユニット30は、検出したHMD10の位置と姿勢を含む位置姿勢情報をPC50に出力する。なお、位置姿勢検出手段16及び位置姿勢検出ユニット30は、現実空間内におけるHMD10の位置と姿勢を検出できるものであればよく、上記の例に限定されるものではない。   The position / orientation detection unit 30 is based on the detection signal from the position / orientation detection means 16 and the position (position of the orthogonal three axes in the X-axis, Y-axis, and Z-axis directions) and attitude (the rotation angle around the X-axis, This is a device for detecting a rotation angle around the Y axis and a rotation angle around the Z axis. In this embodiment, an example in which the position / orientation detection unit 30 is provided separately from the PC 50 will be described. However, the PC 50 or the HMD 10 may be provided with the function of the position / orientation detection unit 30. The position / orientation detection unit 30 is based on, for example, the detection signal from the magnetic sensor (position / orientation detection means) and the (reference) magnetism output by the position / orientation detection unit 30. X-axis, Y-axis, and Z-axis positions) and postures (a rotation angle around the X axis, a rotation angle around the Y axis, and a rotation angle around the Z axis) can be detected. Further, the position / orientation detection unit 30 is based on the detection signal from, for example, an inclination sensor (position / orientation detection means) or a gyro sensor (position / orientation detection means). Rotation angle, rotation angle around the Z axis) can be detected. Further, the position / orientation detection unit 30 is based on detection signals from, for example, an acceleration sensor (position / orientation detection means) and a gyro sensor (position / orientation detection means), and the three axes (X axis, Y axis, and Z axis) of the HMD 10. The amount of motion corresponding to each, that is, the moving direction and the moving distance can be detected. By integrating the movement distance, the position of the HMD 10 with respect to the initial position (X-axis direction position, Y-axis direction position, Z-axis direction position) can be detected. Then, the position / orientation detection unit 30 outputs position / orientation information including the detected position and orientation of the HMD 10 to the PC 50. The position / orientation detection unit 16 and the position / orientation detection unit 30 are not limited to the above example as long as they can detect the position and orientation of the HMD 10 in the real space.

ベルト17は、本体部11に取り付けられ、長さを調整可能に構成され、本体部11をユーザの両目を覆う位置に保持する。   The belt 17 is attached to the main body 11 and is configured to be adjustable in length, and holds the main body 11 at a position covering both eyes of the user.

ケーブル18Aは、PC50に接続されている。PC50は、ケーブル18Aを介して右撮像装置13Rと左撮像装置13Lのそれぞれからの画像情報を取り込む。またPC50は、ケーブル18Aを介して3次元ディスプレイ装置12に立体映像情報を出力する。また、ケーブル18Bは、位置姿勢検出ユニット30に接続されている。位置姿勢検出ユニット30は、ケーブル18Bを介して位置姿勢検出手段16からの検出信号を取り込む。なお図1は、ケーブル18Aを介してHMD10とPC50を接続し、ケーブル18Bを介してHMD10と位置姿勢検出ユニット30を接続した例を示しているが、ケーブル18A、18Bを廃止して、無線にてPC50(及び位置姿勢検出ユニット30)と情報を送受信するようにしてもよい。   The cable 18A is connected to the PC 50. The PC 50 captures image information from each of the right imaging device 13R and the left imaging device 13L via the cable 18A. Further, the PC 50 outputs stereoscopic video information to the three-dimensional display device 12 via the cable 18A. The cable 18B is connected to the position / orientation detection unit 30. The position / orientation detection unit 30 takes in a detection signal from the position / orientation detection means 16 via the cable 18B. 1 shows an example in which the HMD 10 and the PC 50 are connected via the cable 18A, and the HMD 10 and the position / orientation detection unit 30 are connected via the cable 18B. However, the cables 18A and 18B are abolished and wirelessly connected. Thus, information may be transmitted to and received from the PC 50 (and the position / orientation detection unit 30).

コントローラ20は、ユーザが仮想3次元模型の動作の指示を入力するための装置であり、図2に示すように、本体部21、進行方向指示手段22、速度指示手段23、補助動作指示手段25A〜25D、ユーザ識別手段24等を有している。本体部21は、ユーザに把持され、ユーザからの各指示の入力を受け付ける。コントローラ20はケーブル28を介してPC50に接続されており、入力された各指示に対応する入力情報をPC50に出力する。なお入力情報には、ユーザ識別手段24にて設定されたユーザ番号が含まれている。コントローラ20は、コントロール対象とする仮想3次元模型に応じて種々の動作の指示を入力可能に構成されている。   The controller 20 is a device for a user to input an operation instruction of the virtual three-dimensional model. As shown in FIG. 2, the main body unit 21, the traveling direction instruction means 22, the speed instruction means 23, and the auxiliary operation instruction means 25A. ˜25D, user identification means 24 and the like. The main body 21 is held by the user and receives input of each instruction from the user. The controller 20 is connected to the PC 50 via the cable 28 and outputs input information corresponding to each input instruction to the PC 50. The input information includes the user number set by the user identification means 24. The controller 20 is configured to be able to input various operation instructions according to the virtual three-dimensional model to be controlled.

なお、仮想3次元模型の例としては、汽車(例えば蒸気機関車)、列車(例えば電車)、地下鉄列車、建設機械(例えばパワーショベル)、車両(例えばフォーミュラマシン)、軍用車両(例えば戦車)、船舶、軍艦(例えば戦艦)、ヘリコプター、航空機、軍用航空機(例えば戦闘機)、潜水艦、ロボット、ロケット、宇宙船(例えば宇宙戦艦)等、模型等を趣味としたユーザにとって遠隔操作が有意義な種々の模型がある。また仮想3次元ジオラマは、仮想3次元模型を含み、仮想3次元模型の他に、仮想3次元の軌道(列車用のレールや車両用のサーキットコース等)や、仮想3次元の背景(仮想3次元模型を動作させる空間や周囲環境であり、山岳地帯、森林、草原、荒野、市街地、空中、海中、海上、宇宙空間等)や、仮想3次元の背景補助パーツ(ビル、住宅、樹木、橋等)などを含んでもよい。   Examples of virtual three-dimensional models include trains (eg, steam locomotives), trains (eg, trains), subway trains, construction machines (eg, power shovels), vehicles (eg, formula machines), military vehicles (eg, tanks), Various remote control operations are meaningful for users who enjoy models, such as ships, warships (for example, battleships), helicopters, aircraft, military aircraft (for example, fighters), submarines, robots, rockets, spacecraft (for example, space battleships) There is a model. The virtual three-dimensional diorama includes a virtual three-dimensional model. In addition to the virtual three-dimensional model, a virtual three-dimensional track (such as a rail for a train or a circuit course for a vehicle) or a virtual three-dimensional background (virtual three-dimensional). The space and surrounding environment in which the 3D model is operated, such as mountains, forests, grasslands, wilderness, urban areas, air, sea, sea, outer space, etc.) and virtual 3D background auxiliary parts (buildings, houses, trees, bridges) Etc.).

進行方向指示手段22は、ユーザが仮想3次元模型の進行方向の指示を入力するためのものである。図2に示す進行方向指示手段22は、仮想3次元模型が列車の場合の例を示しており、前進、停止、後退の指示を入力可能な例を示しているが、前進、後退、停止、右旋回、左旋回、上昇、下降等、仮想3次元模型に応じて種々の進行方向の指示が入力可能とすることもできる。なお、進行方向指示手段22の外観や指示可能な進行方向の種類等は、図2の例に限定されるものではない。   The traveling direction instruction means 22 is for the user to input an instruction for the traveling direction of the virtual three-dimensional model. The traveling direction instructing means 22 shown in FIG. 2 shows an example in which the virtual three-dimensional model is a train, and an example in which instructions for forward, stop, and backward can be input, forward, backward, stop, It is also possible to input various traveling direction instructions according to the virtual three-dimensional model, such as right turn, left turn, ascending and descending. The appearance of the traveling direction instructing unit 22 and the types of traveling directions that can be instructed are not limited to the example in FIG.

例えば仮想3次元模型が汽車または列車または地下鉄列車等の場合、進行方向指示手段22は前進、後退、停止を指示可能である。また例えば仮想3次元模型が建設機械または車両または軍用車両または船舶または軍艦等の場合、進行方向指示手段22は前進、後退、停止、右旋回、左旋回を指示可能である。また例えば仮想3次元模型がヘリコプターまたは航空機または軍用航空機または潜水艦またはロボットまたはロケットまたは宇宙船等の場合、進行方向指示手段22は前進、後退、停止、右旋回、左旋回、上昇、下降を指示可能である。   For example, when the virtual three-dimensional model is a train, a train, a subway train, or the like, the traveling direction instruction means 22 can instruct forward, backward, and stop. For example, when the virtual three-dimensional model is a construction machine, a vehicle, a military vehicle, a ship, a warship, or the like, the traveling direction instruction means 22 can instruct forward, backward, stop, right turn, and left turn. For example, when the virtual three-dimensional model is a helicopter, an aircraft, a military aircraft, a submarine, a robot, a rocket, a spacecraft, or the like, the traveling direction instruction means 22 instructs forward, backward, stop, right turn, left turn, rise, and drop. Is possible.

速度指示手段23は、ユーザが仮想3次元模型の移動速度の指示を入力するためのものである。速度指示手段23の外観等は、図2の例に限定されるものではない。また、進行方向指示手段22と速度指示手段23とを一体化させてもよい。   The speed instruction means 23 is used by the user to input an instruction for the moving speed of the virtual three-dimensional model. The appearance and the like of the speed instruction means 23 are not limited to the example of FIG. Further, the traveling direction instruction means 22 and the speed instruction means 23 may be integrated.

補助動作指示手段25A〜25Dは、仮想3次元模型の補助的な動作の指示を入力するためのものである。例えば仮想3次元模型が汽車の場合、ユーザが補助動作指示手段25Aを操作すると仮想3次元模型の汽車の煙突(煙吐出位置に相当)から仮想3次元の黒煙が吐出され、ユーザが補助動作指示手段25Bを操作すると仮想3次元模型の汽車の下方の蒸気吐出口(蒸気吐出位置に相当)から仮想3次元の蒸気が吐出され、ユーザが補助動作指示手段25Cを操作すると仮想3次元模型の汽車の汽笛の音が音出力装置40から出力される。また例えば仮想3次元模型が建設機械または車両または軍用車両の場合、ユーザが補助動作指示手段25Aを操作すると仮想3次元模型の排気口(排気吐出位置に相当)から仮想3次元の排気が吐出される。また例えば仮想3次元模型が軍用車両または軍艦または軍用航空機または潜水艦またはロボットまたは宇宙船の場合、ユーザが補助動作指示手段25Dを操作すると仮想3次元模型の砲弾発射口(砲弾発射位置に相当)から仮想3次元の砲弾が発射される。また例えば仮想3次元模型がパワーショベル(建設機械)の場合、ユーザが補助動作指示手段25Dを操作すると、仮想3次元模型のショベルのアーム(所定部位に相当)が地面を掘削するように動作(指定方向への動作に相当)する。   The auxiliary operation instruction means 25A to 25D are for inputting an instruction of auxiliary operation of the virtual three-dimensional model. For example, when the virtual three-dimensional model is a train, when the user operates the auxiliary operation instruction means 25A, virtual three-dimensional black smoke is discharged from the chimney (corresponding to the smoke discharge position) of the virtual three-dimensional model train, and the user performs an auxiliary operation. When the instruction unit 25B is operated, virtual three-dimensional steam is discharged from the steam outlet (corresponding to the steam discharge position) below the virtual three-dimensional model train, and when the user operates the auxiliary operation instruction unit 25C, the virtual three-dimensional model The sound of the train whistle is output from the sound output device 40. For example, when the virtual three-dimensional model is a construction machine, a vehicle, or a military vehicle, the virtual three-dimensional exhaust is discharged from the exhaust port (corresponding to the exhaust discharge position) of the virtual three-dimensional model when the user operates the auxiliary operation instruction means 25A. The For example, when the virtual three-dimensional model is a military vehicle, a warship, a military aircraft, a submarine, a robot, or a spacecraft, when the user operates the auxiliary operation instruction means 25D, the virtual three-dimensional model is ejected from the bullet outlet (corresponding to the bullet launch position). A virtual 3D shell is fired. For example, when the virtual three-dimensional model is a power shovel (construction machine), when the user operates the auxiliary operation instruction means 25D, the excavator arm (corresponding to a predetermined part) of the virtual three-dimensional model operates so as to excavate the ground ( Equivalent to movement in the specified direction).

ユーザ識別手段24は、複数のユーザにて複数のコントローラ20を利用する場合においてユーザを識別(すなわち、操作対象の仮想3次元模型を識別)するための識別情報を設定するための装置である。図2は、ユーザ識別手段24が回転ダイヤル式であり、1〜4の番号のいずれかを設定できる例を示しているが、回転ダイヤル式に限定されず、スイッチ等で設定できる構成でもよい。また、設定内容も1〜4に限定されず、A〜D等であってもよい。例えば2人のユーザが、それぞれコントローラ20を利用する場合、第1ユーザは、使用するコントローラ20のユーザ識別手段24を「1」に設定し、第2ユーザは、使用するコントローラ20のユーザ識別手段24を「2」に設定する。なお図1は、ケーブル28を介してコントローラ20とPC50を接続した例を示しているが、ケーブル28を廃止して、無線にてPC50と情報を送受信するようにしてもよい。   The user identification unit 24 is an apparatus for setting identification information for identifying a user (that is, identifying a virtual three-dimensional model to be operated) when a plurality of controllers 20 are used by a plurality of users. FIG. 2 shows an example in which the user identification means 24 is a rotary dial type and any one of the numbers 1 to 4 can be set. However, the configuration is not limited to the rotary dial type and may be set by a switch or the like. Also, the setting content is not limited to 1 to 4, and may be A to D or the like. For example, when two users each use the controller 20, the first user sets the user identification means 24 of the controller 20 to be used to “1”, and the second user identifies the user identification means of the controller 20 to be used. 24 is set to “2”. Although FIG. 1 shows an example in which the controller 20 and the PC 50 are connected via the cable 28, the cable 28 may be eliminated and information may be transmitted and received with the PC 50 wirelessly.

音出力装置40は、例えば有線式または無線式のスピーカやイヤホンやヘッドホン等であり、上記のようにコントローラ20の補助動作指示手段25A〜25Dのいずれかに音が対応付けられている場合、音が対応付けられた補助動作指示手段がユーザから操作されると、対応付けられた音を出力する。PC50の記憶装置は、仮想3次元模型の動作に応じた音情報である動作対応音情報(例えば仮想3次元模型が汽車の場合、速度に応じた走行音や蒸気音データ)、またはコントローラ20に入力された指示に応じた音情報である指示対応音情報(例えば仮想3次元模型が汽車の場合、補助動作指示手段25Cに対応付けられた汽笛音データ)の少なくとも一方を有している。あるいは、PC50の記憶装置は、動作対応音情報と指示対応音情報の少なくとも一方を自動的に生成可能な音生成プログラム(例えばサウンドジェネレータ)を記憶している。そしてPC50は、記憶装置に、動作対応音情報を有している、あるいは動作対応音情報を生成可能な音生成プログラムを有している場合、3次元模型の動作に応じた動作対応音情報に基づいた音(音信号)を音出力装置40から出力する。またPC50は、記憶装置に、指示対応音情報を有している、あるいは指示対応音情報を生成可能な音生成プログラムを有している場合、コントローラに入力された指示に応じた指示対応音情報に基づいた音(音信号)を音出力装置40から出力する。   The sound output device 40 is, for example, a wired or wireless speaker, earphone, headphone, or the like. When the sound is associated with any one of the auxiliary operation instruction units 25A to 25D of the controller 20 as described above, When the auxiliary operation instruction means associated with is operated by the user, the associated sound is output. The storage device of the PC 50 stores motion-corresponding sound information that is sound information according to the motion of the virtual three-dimensional model (for example, when the virtual three-dimensional model is a train, traveling sound and steam sound data according to the speed) or the controller 20. It has at least one of instruction corresponding sound information (for example, when the virtual three-dimensional model is a train, the whistle sound data associated with the auxiliary operation instruction means 25C) which is sound information corresponding to the input instruction. Alternatively, the storage device of the PC 50 stores a sound generation program (for example, a sound generator) that can automatically generate at least one of operation-corresponding sound information and instruction-corresponding sound information. If the storage device has the sound generation program capable of generating the motion-corresponding sound information or the motion-corresponding sound information, the PC 50 stores the motion-corresponding sound information according to the motion of the three-dimensional model. Based on the sound (sound signal), the sound output device 40 outputs the sound. Further, when the PC 50 has the instruction corresponding sound information or the sound generation program capable of generating the instruction corresponding sound information in the storage device, the instruction corresponding sound information corresponding to the instruction input to the controller A sound (sound signal) based on the above is output from the sound output device 40.

PC50(コンピュータに相当)は、パーソナルコンピュータであり、位置姿勢検出ユニット30から各HMD10に対応する位置姿勢情報が入力され、各HMD10から右目用現実画像と左目用現実画像が入力され、各コントローラ20から入力情報が入力される。そしてPC50は、各HMD10に対応する立体映像情報を作成し、作成した各立体映像情報を、対応するHMD10に出力する。またPC50は、インターネット60を介してジオラマ提供サーバ80と情報の送受信が可能である。ユーザは、後述するように、ジオラマ提供サーバ80が提供している仮想3次元ジオラマの中から、所望する仮想3次元ジオラマを選択してジオラマ情報を受信し、ジオラマ情報をPC50の記憶装置に記憶させることができる。   The PC 50 (corresponding to a computer) is a personal computer, and position / orientation information corresponding to each HMD 10 is input from the position / orientation detection unit 30, a right-eye actual image and a left-eye actual image are input from each HMD 10, and each controller 20 Input information is input from. Then, the PC 50 creates stereoscopic video information corresponding to each HMD 10 and outputs each created stereoscopic video information to the corresponding HMD 10. Further, the PC 50 can send and receive information to and from the diorama providing server 80 via the Internet 60. As will be described later, the user selects a desired virtual 3D diorama from the virtual 3D diorama provided by the diorama providing server 80, receives the diorama information, and stores the diorama information in the storage device of the PC 50. Can be made.

ジオラマ提供サーバ80は、例えば仮想3次元ジオラマの情報(データ)を販売するメーカのサーバであり、仮想3次元模型を含む複数の仮想3次元ジオラマに対応する複数のジオラマ情報をユーザに提供している。仮想3次元ジオラマは、例えば仮想3次元模型である汽車と仮想3次元レールと仮想3次元の背景や、仮想3次元模型である車両と仮想3次元サーキットコースや、仮想3次元模型である軍用車両等である。以降では、仮想3次元模型として汽車(いわゆるSL)と仮想3次元軌道としてレールを含む仮想3次元ジオラマを例として説明する。   The diorama providing server 80 is, for example, a server of a manufacturer that sells virtual 3D diorama information (data), and provides a user with a plurality of diorama information corresponding to a plurality of virtual 3D diorama including a virtual 3D model. Yes. The virtual 3D diorama is, for example, a train, a virtual 3D rail, and a virtual 3D background that are virtual 3D models, a vehicle and virtual 3D circuit course that are virtual 3D models, and a military vehicle that is a virtual 3D model. Etc. Hereinafter, a virtual three-dimensional diorama including a train (so-called SL) as a virtual three-dimensional model and a rail as a virtual three-dimensional track will be described as an example.

図3に、立体複合現実感提供システム1を、リビングL内で使用した場合の例を示す。なお図3において、符号71は仮想3次元模型の汽車であり、符号72は仮想3次元軌道のレールであり、どちらも現実のものではないが、ユーザUから仮想的に視認できるイメージとして記載している。現実空間であるリビングL内には、テレビやソファー等の現実物体が配置されている。ユーザUは、リビングL内の適当な場所にPC50と位置姿勢検出ユニット30を配置し、HMD10を装着し、コントローラ20を持ち、仮想3次元模型71と仮想3次元軌道72を有する仮想3次元ジオラマ70をリビング内に仮想的に配置して楽しむことができる。以下、ユーザUが仮想3次元ジオラマを楽しむ際の、PC50の処理手順の例について説明する。   In FIG. 3, the example at the time of using the three-dimensional mixed reality provision system 1 in the living L is shown. In FIG. 3, reference numeral 71 is a virtual three-dimensional model train, and reference numeral 72 is a virtual three-dimensional track rail, both of which are not real, but are described as images that can be virtually visually recognized by the user U. ing. Real objects such as a television and a sofa are arranged in the living space L which is a real space. The user U arranges the PC 50 and the position / orientation detection unit 30 at an appropriate location in the living room L, wears the HMD 10, has the controller 20, and has a virtual three-dimensional diorama having a virtual three-dimensional model 71 and a virtual three-dimensional trajectory 72. 70 can be virtually arranged in the living room. Hereinafter, an example of the processing procedure of the PC 50 when the user U enjoys the virtual three-dimensional diorama will be described.

●[PC50の処理手順(図4〜図8)]
次に図4〜図8に示すフローチャートを用いて、本発明の立体複合現実感提供プログラムを実行するPC50の処理手順について説明する。なお、以下の説明では、図3の例に基づいて説明し、利用するユーザUが1人であり、リビングL内(屋内)にて、仮想3次元ジオラマの例として、仮想3次元模型71である汽車と仮想3次元軌道72であるレールを有する仮想3次元ジオラマ70を用いた例を説明する。図3に示すように、ユーザUは、リビングL内の適当な位置にPC50と位置姿勢検出ユニット30と音出力装置40を配置する。そしてユーザUは、HMD10のユーザ識別手段14を「1」に設定してケーブル18A、18BをPC50、位置姿勢検出ユニット30に接続し、コントローラ20のユーザ識別手段24を「1」に設定してケーブル28をPC50に接続する。そしてPC50は、ユーザUによって起動されると、ステップS10へと処理を進める。
● [PC50 processing procedure (FIGS. 4 to 8)]
Next, the processing procedure of the PC 50 that executes the stereoscopic mixed reality providing program of the present invention will be described using the flowcharts shown in FIGS. In the following description, the explanation is based on the example of FIG. 3, and there is one user U to use, and in the living room L (indoor), a virtual three-dimensional model 71 is used as an example of a virtual three-dimensional diorama. An example using a virtual three-dimensional diorama 70 having a train and a rail that is a virtual three-dimensional track 72 will be described. As shown in FIG. 3, the user U places the PC 50, the position / orientation detection unit 30, and the sound output device 40 at appropriate positions in the living room L. Then, the user U sets the user identification means 14 of the HMD 10 to “1”, connects the cables 18A and 18B to the PC 50 and the position / orientation detection unit 30, and sets the user identification means 24 of the controller 20 to “1”. Connect the cable 28 to the PC 50. Then, when activated by the user U, the PC 50 advances the process to step S10.

ステップS10にてPC50は、利用人数の入力待ち画面を表示し、ステップS15に進む。   In step S10, the PC 50 displays an input waiting screen for the number of users, and proceeds to step S15.

ステップS15にてPC50は、利用人数(n)の入力がされたか否かを判定し、利用人数が入力された場合(Yes)はステップS20に進み、利用人数がまだ入力されていない場合(No)はステップS15に戻る。この場合、ユーザUは利用人数として「1」を入力する。   In step S15, the PC 50 determines whether or not the number of users (n) has been input. If the number of users has been input (Yes), the process proceeds to step S20, and if the number of users has not been input yet (No ) Returns to step S15. In this case, the user U inputs “1” as the number of users.

ステップS20に進んだ場合、PC50は、入力された利用人数(この場合、「1」)を記憶装置に記憶し、ステップSB000に進む。なお、ステップS10〜S20の処理は、PC50が予めプラグアンドプレイ機能を有して自動的に接続機器を認識して利用人数を自動的に認識できる場合では、省略してもよい。   When the process proceeds to step S20, the PC 50 stores the input number of users (in this case, “1”) in the storage device, and proceeds to step SB000. Note that the processing in steps S10 to S20 may be omitted when the PC 50 has a plug-and-play function in advance and can automatically recognize the connected device and automatically recognize the number of users.

ステップSB000にてPC50は、ユーザU(m)による(共通)仮想3次元ジオラマの選定と、選定した仮想3次元ジオラマの配置を行い、ステップS25に進む。なお、ステップSB000にて扱う「(共通)仮想3次元ジオラマ」は、仮想3次元模型を含まないジオラマであり、後述するステップSB100にて、(共通)仮想3次元ジオラマ内に仮想3次元模型が配置される。また、ステップSB000の処理の詳細については後述する。   In step SB000, the PC 50 selects a (common) virtual three-dimensional diorama by the user U (m) and places the selected virtual three-dimensional diorama, and proceeds to step S25. The “(common) virtual three-dimensional diorama” handled in step SB000 is a diorama that does not include a virtual three-dimensional model. In step SB100 described later, a virtual three-dimensional model is included in the (common) virtual three-dimensional diorama. Be placed. Details of the process of step SB000 will be described later.

ステップS25にてPC50は、m(ユーザ番号)に「1」(初期値)を代入してステップSB100に進む。以降では、ユーザ番号「1」のユーザをユーザU(1)と記載し、ユーザ番号mのユーザをユーザU(m)と記載する。またユーザU(1)が装着するHMD10をHMD10(1)と記載し、ユーザU(1)が操作するコントローラ20をコントローラ20(1)と記載する。同様にユーザU(m)のHMD10をHMD10(m)、ユーザU(m)のコントローラ20をコントローラ20(m)と記載する。   In step S25, the PC 50 substitutes “1” (initial value) for m (user number) and proceeds to step SB100. Hereinafter, the user with the user number “1” is described as the user U (1), and the user with the user number m is described as the user U (m). The HMD 10 worn by the user U (1) is described as HMD10 (1), and the controller 20 operated by the user U (1) is described as controller 20 (1). Similarly, the HMD 10 of the user U (m) is described as HMD 10 (m), and the controller 20 of the user U (m) is described as the controller 20 (m).

ステップSB100にてPC50は、ユーザU(m)による、ユーザU(m)がコントローラ20(m)にて操作する仮想3次元模型(m)の選定と、選定した仮想3次元模型(m)の配置(ステップSB000にて配置した仮想3次元ジオラマ内への配置)を行い、ステップS30に進む。なお、ステップSB100の処理の詳細については後述する。   In step SB100, the PC 50 selects the virtual three-dimensional model (m) that the user U (m) operates with the controller 20 (m) by the user U (m) and the selected virtual three-dimensional model (m). Arrangement (arrangement in the virtual three-dimensional diorama arranged in step SB000) is performed, and the process proceeds to step S30. Details of the process of step SB100 will be described later.

ステップS30にてPC50は、m(ユーザ番号)に「1」を加算して、m(ユーザ番号)の値を更新して(次のユーザの準備をして)ステップS35に進む。   In step S30, the PC 50 adds “1” to m (user number), updates the value of m (user number) (preparation for the next user), and proceeds to step S35.

ステップS35にてPC50は、更新されたm(ユーザ番号)の値が、記憶されている利用人数n以下であるか否かを判定し、mがn以下である場合(Yes)は、次のユーザU(m)の仮想3次元模型(m)の選定と配置をするためにステップSB100に戻り、mがn以下でない場合(No)は、すべてのユーザの仮想3次元模型の選定と配置が完了したと判定してステップS40に進む。   In step S35, the PC 50 determines whether or not the updated value of m (user number) is less than or equal to the stored number of users n, and if m is less than or equal to n (Yes), Returning to step SB100 to select and arrange the virtual three-dimensional model (m) of the user U (m), if m is not less than n (No), the selection and arrangement of the virtual three-dimensional model of all users is completed. It is determined that the process has been completed, and the process proceeds to step S40.

ステップS40に進んだ場合、PC50は、仮想3次元ジオラマへの光源となる仮想太陽の水平方向の角度である方位角と、仮想太陽の垂直方向の角度である仰角または仰角を決める時刻(仮想時刻情報に相当。例えば時刻12時の場合、仰角=90度)の入力待ち画面を表示する。そしてPC50は、方位角及び仰角(または仮想時刻)が入力されると、仮想3次元ジオラマの環境となる天候(晴天、曇天、雨、風、雪の少なくとも1つの天候)の入力待ち画面を表示する。そしてPC50は、天候が入力されると、ステップS45に進む。なお、光源位置や天候の設定を特に所望しないユーザのために、ステップS40をスキップできるように構成してもよい。   When the process proceeds to step S40, the PC 50 determines the azimuth angle, which is the horizontal angle of the virtual sun that is the light source for the virtual three-dimensional diorama, and the elevation angle or elevation angle, which is the vertical angle of the virtual sun (virtual time). Corresponding to information, for example, at the time of 12:00, an input waiting screen of elevation angle = 90 degrees is displayed. When the azimuth angle and elevation angle (or virtual time) are input, the PC 50 displays a screen for waiting for input of weather (at least one weather of fine weather, cloudy weather, rain, wind, and snow) that becomes the environment of the virtual three-dimensional diorama. To do. When the weather is input, the PC 50 proceeds to step S45. In addition, you may comprise so that step S40 can be skipped for the user who does not specifically desire the setting of a light source position or a weather.

ステップS45にてPC50は、仮想3次元ジオラマに含まれている仮想3次元模型の動作開始(すなわち、立体複合現実感の提供の開始)の入力待ち画面を表示する。そしてPC50は、動作開始が入力された場合(Yes)はステップSB200に進み、動作開始の入力がまだの場合(No)はステップS45に戻る。   In step S45, the PC 50 displays an input waiting screen for starting the operation of the virtual three-dimensional model included in the virtual three-dimensional diorama (that is, starting the provision of stereoscopic mixed reality). When the operation start is input (Yes), the PC 50 proceeds to Step SB200, and when the operation start input is not yet (No), the PC 50 returns to Step S45.

ステップSB200に進んだ場合、PC50は、各ユーザU(m)のコントローラ20(m)から入力された指示に応じて、各ユーザU(m)の仮想3次元模型(m)をそれぞれ動作させ、ステップSB300に進む。なおステップSB200の処理の詳細については後述する。   When the process proceeds to step SB200, the PC 50 operates the virtual three-dimensional model (m) of each user U (m) according to the instruction input from the controller 20 (m) of each user U (m). Proceed to step SB300. Details of the processing in step SB200 will be described later.

ステップSB300にてPC50は、各ユーザU(m)のHMD10(m)の3次元ディスプレイ装置12にて立体映像(m)を再生するための立体映像情報(m)を、各ユーザU(m)に対応させて作成し、作成した各立体映像情報(m)を、対応するユーザU(m)のHMD10(m)に出力してステップS50に進む。なおステップSB300の処理の詳細については後述する。   In step SB300, the PC 50 provides each user U (m) with stereoscopic video information (m) for reproducing the stereoscopic video (m) on the 3D display device 12 of the HMD 10 (m) of each user U (m). The generated stereoscopic video information (m) is output to the HMD 10 (m) of the corresponding user U (m), and the process proceeds to step S50. Details of the processing in step SB300 will be described later.

ステップS50にてPC50は、終了の指示の有無を判定し、終了の指示が入力された場合(Yes)は処理を終了し、終了の指示が入力されていない場合(No)はステップSB200に戻り、立体複合現実感の提供を継続する。   In step S50, the PC 50 determines the presence / absence of an end instruction. If the end instruction is input (Yes), the process ends. If the end instruction is not input (No), the process returns to step SB200. Continue to provide 3D mixed reality.

●[ステップSB000((共通)仮想3次元ジオラマ(背景、場面)の選定と配置)の処理(図5)]
次に図5を用いて、図4におけるステップSB000の処理の詳細について説明する。以下に説明するステップSB000(特に、ステップSB055〜SB065)とステップSB100(特に、ステップSB155〜SB165)にて、立体複合現実感提供プログラムは、PC50を、PC50にて記憶装置から読み込んだ(あるいはPC50にて通信回線を介して受信した)、仮想3次元模型を含む3次元仮想3次元ジオラマを、現実空間内における指定された位置に仮想的に配置する仮想3次元ジオラマ配置手段、として機能させる。PC50はステップSB000に進んだ場合、まずステップSB010にて(共通)仮想3次元ジオラマ(背景、場面)の選択メニューを表示してステップSB015に進む。表示内容の例としては、記憶装置に記憶されている仮想3次元ジオラマ(背景、場面)の中から選択するか、インターネット60経由でジオラマ提供サーバ80にアクセスしてジオラマ提供サーバ80にて提供されている仮想3次元ジオラマ(背景、場面)の中から選択するか、のいずれにするか入力待ちの画面を表示する。なおステップSB000にて扱う仮想3次元ジオラマは、仮想3次元模型を含まない背景や場面(例えばレールや山岳地帯や市街地)である。また(共通)仮想3次元ジオラマの「(共通)」の意味は、ユーザU(m)が単数の場合、1人のユーザに対して1つの仮想3次元ジオラマを選定及び配置するので、この場合では対象となる仮想3次元ジオラマには「(共通)」が付与されない。しかしユーザが複数の場合、複数のユーザに対して1つの仮想3次元ジオラマを選定及び配置するので、この場合では対象となる仮想3次元ジオラマには「(共通)」が付与される。
● [Step SB000 ((Common) Virtual 3D Diorama (Background, Scene) Selection and Placement) Processing (FIG. 5)]
Next, details of the processing of step SB000 in FIG. 4 will be described with reference to FIG. In step SB000 (particularly, steps SB055 to SB065) and step SB100 (particularly, steps SB155 to SB165) described below, the stereoscopic mixed reality providing program reads the PC 50 from the storage device (or PC 50). And 3D virtual 3D diorama including the virtual 3D model is functioned as virtual 3D diorama placement means for virtually placing the 3D virtual 3D diorama including the virtual 3D model at a specified position in the real space. When the PC 50 proceeds to step SB000, first, at step SB010, a (common) virtual three-dimensional diorama (background, scene) selection menu is displayed, and the process proceeds to step SB015. As an example of the display content, it is selected from virtual three-dimensional diorama (background, scene) stored in the storage device, or is accessed by the diorama providing server 80 by accessing the diorama providing server 80 via the Internet 60. Either the virtual dimensional diorama (background or scene) that is being displayed is selected or a screen waiting for input is displayed. Note that the virtual three-dimensional diorama handled in step SB000 is a background or scene (for example, a rail, a mountainous area, or an urban area) that does not include a virtual three-dimensional model. Also, the meaning of “(common)” in the (common) virtual three-dimensional diorama means that when one user U (m) is singular, one virtual three-dimensional diorama is selected and arranged for one user. Then, “(common)” is not given to the target virtual three-dimensional diorama. However, when there are a plurality of users, one virtual three-dimensional diorama is selected and arranged for a plurality of users. In this case, “(common)” is assigned to the target virtual three-dimensional diorama.

ステップSB015にてPC50は、「記憶装置に記憶されている仮想3次元ジオラマ(背景、場面)の中からの選択」が選択されたか否かを判定し、「記憶装置に記憶されている仮想3次元ジオラマ(背景、場面)の中からの選択」が選択された場合(Yes)はステップSB020Aに進み、「ジオラマ提供サーバ80にて提供されている仮想3次元ジオラマ(背景、場面)の中から選択」が選択された場合(No)はステップSB020Bに進む。   In step SB015, the PC 50 determines whether or not “selection from the virtual three-dimensional diorama (background, scene) stored in the storage device” is selected, and the “virtual 3 stored in the storage device” is determined. When “selection from dimensional diorama (background, scene)” is selected (Yes), the process proceeds to step SB020A, and “from the virtual three-dimensional diorama (background, scene) provided by diorama providing server 80” When “select” is selected (No), the process proceeds to step SB020B.

なお、仮想3次元ジオラマ(背景、場面)を、ユーザがゼロから作成できるようにすることもできる。例えばジオラマ提供サーバ80には、仮想3次元ジオラマ(背景、場面)を作成するためのツールプログラム、各種の素材データ(背景、背景補助パーツ)、ジオラマ作成マニュアル等が用意されている。ユーザは時間をかけてコツコツと仮想3次元ジオラマ(背景、場面)を作成してPC50の記憶装置に記憶しておくことで、作成した仮想3次元ジオラマ(背景、場面)を使用することができる。   It is also possible to allow a user to create a virtual three-dimensional diorama (background, scene) from scratch. For example, the diorama providing server 80 includes a tool program for creating a virtual three-dimensional diorama (background, scene), various material data (background, background auxiliary parts), a diorama creation manual, and the like. The user can use the created virtual 3D diorama (background, scene) by creating a trick and a virtual 3D diorama (background, scene) over time and storing it in the storage device of the PC 50. .

ステップSB020Aに進んだ場合、PC50は、記憶装置に記憶している仮想3次元ジオラマ(背景、場面)のジオラマ名称の一覧等を画面に表示してステップSB025Aに進む。   When the process proceeds to step SB020A, the PC 50 displays a list of diorama names of virtual three-dimensional diorama (background, scene) stored in the storage device on the screen, and then proceeds to step SB025A.

ステップSB025AにてPC50は、画面に表示しているジオラマ名称の一覧等の中から選択指示(入力指示)がされたか否かを判定し、選択指示があった場合(Yes)はステップSB030Aに進み、選択指示がまだの場合(No)はステップSB025Aに戻る。   In step SB025A, the PC 50 determines whether or not a selection instruction (input instruction) has been given from a list of diorama names displayed on the screen, and if there is a selection instruction (Yes), the process proceeds to step SB030A. If the selection instruction has not yet been made (No), the process returns to step SB025A.

ステップSB030Aに進んだ場合、PC50は、選択された仮想3次元ジオラマ(背景、場面)の読み込みを実施して読み込みが終了すると、ステップSB055に進む。   When the process proceeds to step SB030A, the PC 50 performs reading of the selected virtual three-dimensional diorama (background, scene), and when the reading ends, the process proceeds to step SB055.

また、ステップSB020Bに進んだ場合、PC50は、インターネット60を介して、指定のサーバであるジオラマ提供サーバ80にアクセスしてジオラマ提供サーバ80から、提供されている仮想3次元ジオラマ(背景、場面)の一覧情報を受信し、受信した一覧情報を画面に表示してステップSB025Bに進む。   When the process proceeds to step SB020B, the PC 50 accesses the designated diorama providing server 80 via the Internet 60 and provides the virtual three-dimensional diorama (background, scene) provided from the diorama providing server 80. The list information is received, the received list information is displayed on the screen, and the process proceeds to step SB025B.

ステップSB025BにてPC50は、画面に表示している一覧情報の中から、いずれかの仮想3次元ジオラマ(背景、場面)の選択指示(入力指示)がされたか否かを判定し、選択指示があった場合(Yes)はステップSB030Bに進み、選択指示がまだの場合(No)はステップSB025Bに戻る。   In step SB025B, the PC 50 determines whether or not any virtual three-dimensional diorama (background, scene) selection instruction (input instruction) has been given from the list information displayed on the screen. If there is (Yes), the process proceeds to step SB030B, and if the selection instruction is not yet (No), the process returns to step SB025B.

ステップSB030Bに進んだ場合、PC50は、選択された仮想3次元ジオラマ(背景、場面)の情報(データ)の送信を要求する送信要求情報をジオラマ提供サーバ80に送信し、ジオラマ提供サーバ80から、選択された仮想3次元ジオラマ(背景、場面)の情報(データ)の受信(読み込み)を実施して受信が終了すると、ステップSB035Bに進む。   When the process proceeds to step SB030B, the PC 50 transmits transmission request information requesting transmission of information (data) of the selected virtual three-dimensional diorama (background, scene) to the diorama providing server 80, and from the diorama providing server 80, When the reception (reading) of the information (data) of the selected virtual three-dimensional diorama (background, scene) is performed and the reception ends, the process proceeds to step SB035B.

ステップSB035BにてPC50は、受信した仮想3次元ジオラマ(背景、場面)の名称の入力待ちの画面を表示し、ジオラマ名称の入力がされた場合(Yes)はステップSB040Bに進み、ジオラマ名称の入力がまだの場合(No)はステップSB035Bに戻る。   In step SB035B, the PC 50 displays a screen waiting for input of the name of the received virtual three-dimensional diorama (background, scene). If the diorama name is input (Yes), the process proceeds to step SB040B, where the diorama name is input. If not yet (No), the process returns to step SB035B.

ステップSB040Bに進んだ場合、PC50は、入力されたジオラマ名称を、受信した仮想3次元ジオラマ(背景、場面)の情報(データ)に対応付けて、ジオラマ名称と仮想3次元ジオラマ(背景、場面)の情報とを記憶装置に記憶してステップSB055に進む。記憶したジオラマ名称は、次回からステップSB020Aの一覧(記憶している仮想3次元ジオラマ(背景、場面)の一覧)に表示される。   When the process proceeds to step SB040B, the PC 50 associates the input diorama name with the information (data) of the received virtual three-dimensional diorama (background, scene), and the diorama name and virtual three-dimensional diorama (background, scene). Are stored in the storage device, and the process proceeds to Step SB055. The stored diorama name is displayed from the next time on the list of step SB020A (the list of stored virtual three-dimensional diorama (background, scene)).

ステップSB055にてPC50は、読み込んだ(または受信した)仮想3次元ジオラマ(背景、場面)を、現実空間内においてユーザU(m)から指示された位置に仮配置してステップSB060に進む。例えばPC50は、ユーザU(m)のHMD10(m)から、右撮像装置13Rが撮像した右目用現実画像と、左撮像装置13Lが撮像した左目用現実画像と、を取り込み、右目用現実画像または左目用現実画像である現実画像をPC50の画面(液晶ディスプレイ)に表示する。ユーザU(m)は、画面に表示されている現実画像中の任意の位置をマウス等の入力装置から指示することで、仮想3次元ジオラマ(背景、場面)を現実空間内に仮配置する。仮想3次元ジオラマ(背景、場面)の仮配置がされた場合、PC50は、現実画像を表示している画面に、仮想3次元ジオラマ(背景、場面)を重畳して表示する。   In step SB055, the PC 50 temporarily arranges the read (or received) virtual three-dimensional diorama (background, scene) at the position designated by the user U (m) in the real space, and proceeds to step SB060. For example, the PC 50 captures the right-eye actual image captured by the right imaging device 13R and the left-eye actual image captured by the left imaging device 13L from the HMD 10 (m) of the user U (m), and the right-eye actual image or A real image that is a real image for the left eye is displayed on the screen (liquid crystal display) of the PC 50. The user U (m) temporarily places a virtual three-dimensional diorama (background, scene) in the real space by instructing an arbitrary position in the real image displayed on the screen from an input device such as a mouse. When the virtual three-dimensional diorama (background, scene) is temporarily arranged, the PC 50 displays the virtual three-dimensional diorama (background, scene) superimposed on the screen displaying the real image.

ステップSB060にてPC50は、仮想3次元ジオラマ(背景、場面)の配置位置の調整が、ユーザU(m)から入力されたか否かを判定し、調整入力がされた場合(Yes)はステップSB065に進み、調整入力がされていない場合(No)はステップSB080に進む。例えばPC50は、位置姿勢検出ユニット30を基準とした直交座標系のX軸、Y軸、Z軸(図3参照)のそれぞれの方向へのスライド量が入力されると、入力された軸に沿って、入力されたスライド量に応じた距離だけ、現実画像に重畳されている仮想3次元ジオラマ(背景、場面)をスライド移動させて画面に表示する。また例えばPC50は、X軸回りの旋回角度、Y軸回りの旋回角度、Z軸回りの旋回角度、が入力されると、入力された軸回りに、入力された旋回角度に応じた角度だけ、現実画像に重畳されている仮想3次元ジオラマ(背景、場面)を旋回させて画面に表示する。   In step SB060, the PC 50 determines whether or not the adjustment of the arrangement position of the virtual three-dimensional diorama (background, scene) is input from the user U (m). If the adjustment is input (Yes), the PC 50 determines whether or not the adjustment is input (step SB065). If no adjustment input has been made (No), the process proceeds to step SB080. For example, when the PC 50 receives a sliding amount in each direction of the X axis, the Y axis, and the Z axis (see FIG. 3) of the orthogonal coordinate system with the position / orientation detection unit 30 as a reference, the PC 50 follows the input axis. Then, the virtual three-dimensional diorama (background, scene) superimposed on the real image is slid and displayed on the screen by a distance corresponding to the input slide amount. Further, for example, when the turning angle around the X axis, the turning angle around the Y axis, and the turning angle around the Z axis are input, the PC 50 has an angle corresponding to the inputted turning angle around the inputted axis. The virtual three-dimensional diorama (background, scene) superimposed on the real image is turned and displayed on the screen.

ステップSB080に進んだ場合、PC50は、現実空間内における仮想3次元ジオラマ(背景、場面)の配置位置の調整の完了がユーザU(m)から入力されたか否かを判定し、調整の完了が入力された場合(Yes)はステップSB000の処理を終了して図4におけるステップS30に進む。またPC50は、調整の完了が入力されていない場合(No)はステップSB060に戻る。例えばPC50は、自身の画面の一部に表示している「配置完了」ボタンが操作された場合、調整の完了が入力されたと判定する。   When the process proceeds to step SB080, the PC 50 determines whether or not the adjustment of the arrangement position of the virtual three-dimensional diorama (background, scene) in the real space is input from the user U (m), and the adjustment is completed. If it is input (Yes), the process of step SB000 is terminated and the process proceeds to step S30 in FIG. If the completion of adjustment is not input (No), the PC 50 returns to Step SB060. For example, the PC 50 determines that the completion of adjustment has been input when the “placement complete” button displayed on a part of its screen is operated.

●[ステップSB100(ユーザU(m)の仮想3次元模型(m)の選定と配置)の処理(図6)]
次に図6を用いて、図4におけるステップSB100の処理の詳細について説明する。PC50はステップSB100に進んだ場合、まずステップSB110にて仮想3次元模型の選択メニューを表示してステップSB115に進む。表示内容の例としては、記憶装置に記憶されている仮想3次元模型の中から選択するか、インターネット60経由でジオラマ提供サーバ80にアクセスしてジオラマ提供サーバ80にて提供されている仮想3次元模型の中から選択するか、のいずれにするか入力待ちの画面を表示する。なおステップSB100にて扱う仮想3次元ジオラマは、ステップSB155にて仮想3次元模型(1)を配置するまでは、仮想3次元模型を含まない背景や場面である。
[Step SB100 (selection and arrangement of virtual three-dimensional model (m) of user U (m)) (FIG. 6)]
Next, details of the processing in step SB100 in FIG. 4 will be described with reference to FIG. When the PC 50 proceeds to step SB100, first, the virtual three-dimensional model selection menu is displayed at step SB110, and the process proceeds to step SB115. As an example of display contents, a virtual three-dimensional model selected from a virtual three-dimensional model stored in a storage device or accessed by the diorama providing server 80 via the Internet 60 and provided by the diorama providing server 80 Either select from the models or select the model and display the screen waiting for input. The virtual three-dimensional diorama handled in step SB100 is a background or scene that does not include the virtual three-dimensional model until the virtual three-dimensional model (1) is arranged in step SB155.

ステップSB115にてPC50は、「記憶装置に記憶されている仮想3次元模型の中からの選択」が選択されたか否かを判定し、「記憶装置に記憶されている仮想3次元模型の中からの選択」が選択された場合(Yes)はステップSB120Aに進み、「ジオラマ提供サーバ80にて提供されている仮想3次元模型の中から選択」が選択された場合(No)はステップSB120Bに進む。   In step SB115, the PC 50 determines whether or not “selection from the virtual three-dimensional model stored in the storage device” has been selected. If “selection” is selected (Yes), the process proceeds to step SB120A. If “selection from the virtual three-dimensional model provided by the diorama providing server 80” is selected (No), the process proceeds to step SB120B. .

なお、仮想3次元模型を、ユーザがゼロから作成できるようにすることもできる。例えばジオラマ提供サーバ80には、仮想3次元模型を作成するためのツールプログラム、各種の素材データ(仮想3次元模型のベース、補助パーツ等)、模型作成マニュアル等が用意されている。ユーザは時間をかけてコツコツと仮想3次元模型を作成してPC50の記憶装置に記憶しておくことで、作成した仮想3次元模型を使用することができる。   Note that the virtual three-dimensional model can be created by the user from scratch. For example, the diorama providing server 80 includes a tool program for creating a virtual three-dimensional model, various material data (a base of the virtual three-dimensional model, auxiliary parts, etc.), a model creation manual, and the like. The user can use the created virtual three-dimensional model by creating a trick and a virtual three-dimensional model over time and storing it in the storage device of the PC 50.

ステップSB120Aに進んだ場合、PC50は、記憶装置に記憶している仮想3次元模型の模型名称の一覧等を画面に表示してステップSB125Aに進む。   When the process proceeds to step SB120A, the PC 50 displays a list of model names of the virtual three-dimensional model stored in the storage device on the screen and proceeds to step SB125A.

ステップSB125AにてPC50は、画面に表示している模型名称の一覧等の中から選択指示(入力指示)がされたか否かを判定し、選択指示があった場合(Yes)はステップSB130Aに進み、選択指示がまだの場合(No)はステップSB125Aに戻る。   In step SB125A, the PC 50 determines whether or not a selection instruction (input instruction) has been given from a list of model names displayed on the screen. If there is a selection instruction (Yes), the process proceeds to step SB130A. If the selection instruction has not yet been made (No), the process returns to step SB125A.

ステップSB130Aに進んだ場合、PC50は、選択された仮想3次元模型の読み込みを実施して読み込みが終了すると、ステップSB150に進む。   When the process proceeds to step SB130A, the PC 50 reads the selected virtual three-dimensional model, and when the reading is completed, the PC 50 proceeds to step SB150.

また、ステップSB120Bに進んだ場合、PC50は、インターネット60を介して、指定のサーバであるジオラマ提供サーバ80にアクセスしてジオラマ提供サーバ80から、提供されている仮想3次元模型の一覧情報を受信し、受信した一覧情報を画面に表示してステップSB125Bに進む。   When the process proceeds to step SB120B, the PC 50 accesses the designated diorama providing server 80 via the Internet 60 and receives the list information of the provided virtual 3D model from the diorama providing server 80. Then, the received list information is displayed on the screen, and the process proceeds to Step SB125B.

ステップSB125BにてPC50は、画面に表示している一覧情報の中から、いずれかの仮想3次元模型の選択指示(入力指示)がされたか否かを判定し、選択指示があった場合(Yes)はステップSB130Bに進み、選択指示がまだの場合(No)はステップSB125Bに戻る。   In step SB125B, the PC 50 determines whether or not any virtual 3D model selection instruction (input instruction) has been given from the list information displayed on the screen, and if there is a selection instruction (Yes) ) Proceeds to step SB130B, and if the selection instruction has not yet been made (No), the process returns to step SB125B.

ステップSB130Bに進んだ場合、PC50は、選択された仮想3次元模型の情報(データ)の送信を要求する送信要求情報をジオラマ提供サーバ80に送信し、ジオラマ提供サーバ80から、選択された仮想3次元模型の情報(データ)の受信(読み込み)を実施して受信が終了すると、ステップSB135Bに進む。   When the process proceeds to step SB130B, the PC 50 transmits transmission request information for requesting transmission of information (data) of the selected virtual three-dimensional model to the diorama providing server 80, and from the diorama providing server 80, the selected virtual 3 When the reception (reading) of the information (data) of the dimension model is performed and the reception ends, the process proceeds to step SB135B.

ステップSB135BにてPC50は、受信した仮想3次元模型の名称の入力待ちの画面を表示し、模型名称の入力がされた場合(Yes)はステップSB140Bに進み、模型名称の入力がまだの場合(No)はステップSB135Bに戻る。   In step SB135B, the PC 50 displays a screen waiting for input of the received virtual 3D model name. If the model name is input (Yes), the process proceeds to step SB140B, and if the model name has not yet been input ( No) returns to step SB135B.

ステップSB140Bに進んだ場合、PC50は、入力された模型名称を、受信した仮想3次元模型の情報(データ)に対応付けて、模型名称と仮想3次元模型の情報とを記憶装置に記憶してステップSB150に進む。記憶した模型名称は、次回からステップSB120Aの一覧(記憶している仮想3次元模型の一覧)に表示される。   When the process proceeds to step SB140B, the PC 50 stores the model name and the virtual three-dimensional model information in the storage device by associating the input model name with the received virtual three-dimensional model information (data). Proceed to step SB150. The stored model names are displayed in the list of the step SB120A (list of stored virtual three-dimensional models) from the next time.

ステップSB150に進んだ場合、PC50は、ユーザ番号「m(この場合、「1」)」に模型名称を対応付けて記憶して(ユーザ番号「1」のコントローラ20からの入力指示を、対応する模型名称の仮想3次元模型の動作に反映するため)ステップSB155に進む。以降、ユーザ(1)が選択&配置した仮想3次元模型を仮想3次元模型(1)と記載する。同様に、ユーザ(m)が選択&配置した仮想3次元模型を仮想3次元模型(m)と記載する。   When the process proceeds to step SB150, the PC 50 stores the model name in association with the user number “m (in this case,“ 1 ”)” (corresponding to the input instruction from the controller 20 of the user number “1”). Proceed to step SB155 (in order to reflect the model name in the operation of the virtual three-dimensional model). Hereinafter, the virtual three-dimensional model selected and arranged by the user (1) is referred to as a virtual three-dimensional model (1). Similarly, a virtual three-dimensional model selected and arranged by the user (m) is referred to as a virtual three-dimensional model (m).

ステップSB155にてPC50は、読み込んだ(または受信した)仮想3次元模型(m)を、現実空間内(またはステップSB000にて配置した(共通)仮想3次元ジオラマ(背景、場面)内)においてユーザU(m)から指示された位置に仮配置してステップSB160に進む。例えばPC50は、ユーザU(m)のHMD10(m)から、右撮像装置13Rが撮像した右目用現実画像と、左撮像装置13Lが撮像した左目用現実画像と、を取り込む。またPC50は、HMD10(m)の右撮像装置13Rから見えるであろう仮想3次元ジオラマの画像である右目用仮想ジオラマ画像と、HMD10(m)の左撮像装置13Lから見えるであろう仮想3次元ジオラマの画像である左目用仮想ジオラマ画像と、を作成する。そしてPC50は、右目用現実画像に右目用仮想ジオラマ画像を重畳した右目用複合画像と、左目用現実画像に左目用仮想ジオラマ画像を重畳した左目用複合画像と、を作成し、作成した右目用複合画像または左目用複合画像である複合画像をPC50の画面(液晶ディスプレイ)に表示する。ユーザU(m)は、画面に表示されている複合画像中の任意の位置をマウス等の入力装置から指示することで、仮想3次元模型(m)を現実空間内(または(共通)仮想3次元ジオラマ内)に仮配置する。仮想3次元模型(m)の仮配置がされた場合、PC50は、右目用仮想ジオラマ画像及び左目用仮想ジオラマ画像を作成する際、仮配置された仮想3次元模型(m)を含む仮想3次元ジオラマを用いて作成する。   In step SB155, the PC 50 reads the virtual three-dimensional model (m) read (or received) in the real space (or in the virtual three-dimensional diorama (background, scene) arranged in step SB000). The process temporarily moves to the position instructed by U (m) and proceeds to step SB160. For example, the PC 50 captures the right-eye actual image captured by the right imaging device 13R and the left-eye actual image captured by the left imaging device 13L from the HMD 10 (m) of the user U (m). The PC 50 also has a virtual diorama image for the right eye that is an image of a virtual three-dimensional diorama that will be seen from the right imaging device 13R of the HMD 10 (m), and a virtual three-dimensional that will be seen from the left imaging device 13L of the HMD 10 (m). A virtual diorama image for the left eye, which is a diorama image, is created. The PC 50 creates a right-eye composite image in which the right-eye virtual diorama image is superimposed on the right-eye real image, and a left-eye composite image in which the left-eye virtual diorama image is superimposed on the left-eye real image, and the created right-eye image The composite image that is the composite image or the composite image for the left eye is displayed on the screen (liquid crystal display) of the PC 50. The user U (m) designates an arbitrary position in the composite image displayed on the screen from an input device such as a mouse, so that the virtual three-dimensional model (m) is displayed in the real space (or (common) virtual 3). Temporary placement in the dimensional diorama). When the virtual three-dimensional model (m) is provisionally arranged, the PC 50 creates the virtual three-dimensional model (m) including the temporarily arranged virtual three-dimensional model (m) when creating the right-eye virtual diorama image and the left-eye virtual diorama image. Create with a diorama.

ステップSB160にてPC50は、仮想3次元模型(m)の配置位置の調整が、ユーザU(m)から入力されたか否かを判定し、調整入力がされた場合(Yes)はステップSB165に進み、調整入力がされていない場合(No)はステップSB180に進む。例えばPC50は、位置姿勢検出ユニット30を基準とした直交座標系のX軸、Y軸、Z軸(図3参照)のそれぞれの方向へのスライド量が入力されると、入力された軸に沿って、入力されたスライド量に応じた距離だけ、複合画像内の仮想3次元模型(m)をスライド移動させて画面に表示する。また例えばPC50は、X軸回りの旋回角度、Y軸回りの旋回角度、Z軸回りの旋回角度、が入力されると、入力された軸回りに、入力された旋回角度に応じた角度だけ、複合画像内の仮想3次元模型(m)を旋回させて画面に表示する。   In step SB160, the PC 50 determines whether or not the adjustment of the placement position of the virtual three-dimensional model (m) is input from the user U (m). If the adjustment input is made (Yes), the process proceeds to step SB165. If no adjustment input is made (No), the process proceeds to step SB180. For example, when the PC 50 receives a sliding amount in each direction of the X axis, the Y axis, and the Z axis (see FIG. 3) of the orthogonal coordinate system with the position / orientation detection unit 30 as a reference, the PC 50 follows the input axis. Then, the virtual three-dimensional model (m) in the composite image is slid and displayed on the screen by a distance corresponding to the input slide amount. Further, for example, when the turning angle around the X axis, the turning angle around the Y axis, and the turning angle around the Z axis are input, the PC 50 has an angle corresponding to the inputted turning angle around the inputted axis. The virtual three-dimensional model (m) in the composite image is turned and displayed on the screen.

ステップSB180に進んだ場合、PC50は、現実空間内(または(共通)仮想3次元ジオラマ内)における仮想3次元模型(m)の配置位置の調整の完了がユーザU(m)から入力されたか否かを判定し、調整の完了が入力された場合(Yes)はステップSB100の処理を終了して図4におけるステップS30に進む。またPC50は、調整の完了が入力されていない場合(No)はステップSB160に戻る。例えばPC50は、自身の画面の一部に表示している「配置完了」ボタンが操作された場合、調整の完了が入力されたと判定する。   When the process proceeds to step SB180, the PC 50 determines whether or not the completion of adjustment of the placement position of the virtual three-dimensional model (m) in the real space (or (common) virtual three-dimensional diorama) is input from the user U (m). If the completion of adjustment is input (Yes), the process of step SB100 is terminated and the process proceeds to step S30 in FIG. If the completion of adjustment is not input (No), the PC 50 returns to Step SB160. For example, the PC 50 determines that the completion of adjustment has been input when the “placement complete” button displayed on a part of its screen is operated.

●[ステップSB200(仮想3次元模型の動作)の処理(図7)]
次に図7を用いて、図4におけるステップSB200の処理の詳細について説明する。以下に説明するステップSB200(特に、ステップSB215、SB220)にて、立体複合現実感提供プログラムは、PC50を、仮想3次元模型を、コントローラ20に入力された指示に基づいて動作させる仮想3次元模型動作手段、として機能させる。PC50はステップSB200に進んだ場合、まずステップSB210にて利用人数である「n」の値を読み出し、ユーザ番号の「m」に初期値の「1」を代入し、ステップSB215に進む。
● [Step SB200 (Operation of Virtual 3D Model) (FIG. 7)]
Next, details of the processing of step SB200 in FIG. 4 will be described with reference to FIG. In step SB200 (particularly, steps SB215 and SB220) described below, the stereoscopic mixed reality providing program causes the PC 50 to operate the virtual three-dimensional model based on an instruction input to the controller 20. It functions as an operating means. When proceeding to step SB200, the PC 50 first reads the value of “n” as the number of users in step SB210, substitutes the initial value “1” for the user number “m”, and proceeds to step SB215.

ステップSB215にてPC50は、ユーザU(m)のコントローラ20(m)からの入力情報(m)を取り込み、ステップSB220に進む。PC50は、コントローラ20(m)からの入力情報(m)に基づいて、コントローラ(m)にどのような指示が入力されたか、を認識することができる。   In step SB215, the PC 50 captures input information (m) from the controller 20 (m) of the user U (m), and proceeds to step SB220. The PC 50 can recognize what instruction is input to the controller (m) based on the input information (m) from the controller 20 (m).

ステップSB220にてPC50は、(共通)仮想3次元ジオラマ内において、ユーザU(m)に対応する仮想3次元模型(m)を、コントローラ20(m)に入力された指示に応じて動作させ、ステップSB225に進む。例えば(共通)仮想3次元ジオラマが、仮想3次元模型の汽車(仮想3次元模型(m))と仮想3次元のレールを含んでおり、コントローラ20(m)から速度vにて前進の指示が入力された場合、PC50は、仮想3次元レールに沿って、仮想3次元模型の汽車を、速度vにて前進させる。   In step SB220, the PC 50 operates the virtual three-dimensional model (m) corresponding to the user U (m) in accordance with the instruction input to the controller 20 (m) in the (common) virtual three-dimensional diorama, Proceed to step SB225. For example, the (common) virtual three-dimensional diorama includes a virtual three-dimensional model train (virtual three-dimensional model (m)) and a virtual three-dimensional rail, and the controller 20 (m) gives an instruction to move forward at a speed v. When input, the PC 50 advances the virtual three-dimensional model train at a speed v along the virtual three-dimensional rail.

ステップSB225にてPC50は、m(ユーザ番号)に「1」を加算して、m(ユーザ番号)の値を更新して(次のユーザの準備をして)ステップSB230に進む。   In step SB225, the PC 50 adds “1” to m (user number), updates the value of m (user number) (preparation for the next user), and proceeds to step SB230.

ステップSB230にてPC50は、更新されたm(ユーザ番号)の値が、記憶されている利用人数n以下であるか否かを判定し、mがn以下である場合(Yes)は、(共通)仮想3次元ジオラマ内において、次のユーザU(m)に対応する仮想3次元模型(m)の動作をさせるためにステップSB215に戻り、mがn以下でない場合(No)は、すべてのユーザU(m)の仮想3次元模型(m)の動作が完了したと判定して、ステップSB200の処理を終了して図4におけるステップSB300に進む。   In step SB230, the PC 50 determines whether or not the updated value of m (user number) is equal to or less than the stored number of users n, and if m is equal to or less than n (Yes), (common) ) Return to step SB215 to operate the virtual 3D model (m) corresponding to the next user U (m) in the virtual 3D diorama, and if m is not less than n (No), all users It is determined that the operation of the virtual three-dimensional model (m) of U (m) is completed, the process of step SB200 is terminated, and the process proceeds to step SB300 in FIG.

●[ステップSB300(3次元ディスプレイ装置での立体映像の再生)(図8)]
次に図8を用いて、図4におけるステップSB300の処理の詳細について説明する。PC50はステップSB300に進んだ場合、まずステップSB310にて利用人数である「n」の値を読み出し、ユーザ番号の「m」に初期値の「1」を代入し、ステップSB315に進む。
[Step SB300 (Reproduction of stereoscopic video on a three-dimensional display device) (FIG. 8)]
Next, the details of the process of step SB300 in FIG. 4 will be described with reference to FIG. When the PC 50 proceeds to step SB300, it first reads the value of “n” as the number of users in step SB310, substitutes the initial value “1” for “m” of the user number, and proceeds to step SB315.

ステップSB315にてPC50は、位置姿勢検出ユニット30からユーザU(m)のHMD10(m)の位置姿勢情報(m)を取り込み、現実空間内におけるHMD10(m)の位置と姿勢を検出してステップSB320に進む。PC50は、位置姿勢情報(m)に基づいて、例えば位置姿勢検出ユニット30の現実空間内の位置を基準として、位置姿勢検出ユニット30からのX軸、Y軸、Z軸(図3参照)のそれぞれの方向における現実空間内のHMD10(m)の位置と、現実空間内におけるX軸回りの旋回、Y軸回りの旋回、Z軸回りの旋回、のそれぞれの旋回に応じたHMD10(m)の姿勢、を検出することができる。なお、位置姿勢検出ユニット30の機能をPC50またはHMD10に内蔵するようにしてもよい。ステップSB315にて、立体複合現実感提供プログラムは、PC50を、位置姿勢検出手段からの検出信号に基づいて現実空間内におけるHMD10の位置とHMD10の姿勢を判定するHMD位置姿勢判定手段、として機能させる。   In step SB315, the PC 50 captures the position and orientation information (m) of the HMD 10 (m) of the user U (m) from the position and orientation detection unit 30, and detects the position and orientation of the HMD 10 (m) in the real space. Proceed to SB320. Based on the position / orientation information (m), the PC 50 uses, for example, the position of the position / orientation detection unit 30 in the real space as a reference for the X, Y, and Z axes (see FIG. 3) from the position / orientation detection unit 30. The position of the HMD 10 (m) in the real space in each direction and the turn of the HMD 10 (m) corresponding to each of the turning around the X axis, the turning around the Y axis, and the turning around the Z axis in the real space. The posture can be detected. Note that the function of the position / orientation detection unit 30 may be built in the PC 50 or the HMD 10. In step SB315, the stereoscopic mixed reality providing program causes the PC 50 to function as an HMD position / orientation determination unit that determines the position of the HMD 10 and the attitude of the HMD 10 in the real space based on the detection signal from the position / orientation detection unit. .

ステップSB320にてPC50は、ユーザU(m)のHMD10(m)の右撮像装置13Rが撮像した右目用現実画像(m)と、HMD10(m)の左撮像装置13Lが撮像した左目用現実画像(m)を取り込み、ステップSB325に進む。ステップSB320にて、立体複合現実感提供プログラムは、PC50を、右撮像装置13Rで撮像した右目用現実画像と、左撮像装置13Lで撮像した左目用現実画像と、を取り込む現実画像取り込み手段、として機能させる。   In step SB320, the PC 50 causes the real image for the right eye (m) captured by the right imaging device 13R of the HMD 10 (m) of the user U (m) and the actual image for the left eye captured by the left imaging device 13L of the HMD 10 (m). (M) is captured, and the process proceeds to Step SB325. In step SB320, the stereoscopic mixed reality providing program uses the PC 50 as a real image capturing unit that captures the real image for the right eye captured by the right imaging device 13R and the real image for the left eye captured by the left imaging device 13L. Make it work.

ステップSB325にてPC50は、ステップSB315にて検出したHMD10(m)の位置と姿勢に基づいて、HMD10(m)の右撮像装置13Rから見えるであろう(仮想3次元模型(m)を含む)仮想3次元仮想ジオラマの画像である右目用仮想ジオラマ画像(m)と、HMD10(m)の左撮像装置13Lから見えるであろう(仮想3次元模型(m)を含む)仮想3次元仮想ジオラマの画像である左目用仮想ジオラマ画像(m)と、を作成してステップSB330に進む。例えばユーザU(m)が複数で仮想3次元模型(m)が複数の場合、(共通)仮想3次元ジオラマと複数の仮想3次元模型(1〜n)を含む右目用仮想ジオラマ画像(m)と左目用仮想ジオラマ画像(m)とを作成する。ステップSB325にて、立体複合現実感提供プログラムは、PC50を、判定したHMD10の位置と姿勢に基づいて、HMD10の右撮像装置13Rから見えるであろう仮想3次元ジオラマの画像である右目用仮想ジオラマ画像と、HMD10の左撮像装置13Lから見えるであろう仮想3次元ジオラマの画像である左目用仮想ジオラマ画像と、を作成する仮想ジオラマ画像作成手段、として機能させる。なお、立体複合現実感提供プログラムは、指定された方位角及び仰角(または仮想時刻)に仮想太陽を配置(ステップS40の説明参照)した場合の仮想的な光である仮想太陽光が、仮想的に照射されている仮想3次元ジオラマであって、指定された仮想天候が(仮想3次元ジオラマの)周囲に仮想的に再現された仮想3次元ジオラマに基づいて、右目用仮想ジオラマ画像と左目用仮想ジオラマ画像とを、PC50に作成させる。またPC50は、右目用仮想ジオラマ画像と左目用仮想ジオラマ画像とを作成する際、ステップS40にて設定した仮想太陽の位置や天候も反映して作成する。例えば仮想太陽の位置に応じて仮想3次元模型に明暗や、影や反射光等を付与し、設定した気候の背景を付与した右目用仮想ジオラマ画像と左目用仮想ジオラマ画像とを作成する。   In step SB325, the PC 50 will be visible from the right imaging device 13R of the HMD 10 (m) based on the position and orientation of the HMD 10 (m) detected in step SB315 (including the virtual three-dimensional model (m)). A right-eye virtual diorama image (m), which is an image of a virtual three-dimensional virtual diorama, and a virtual three-dimensional virtual diorama that will be visible from the left imaging device 13L of the HMD 10 (m) (including the virtual three-dimensional model (m)). The left-eye virtual diorama image (m), which is an image, is created, and the process proceeds to step SB330. For example, when there are a plurality of users U (m) and a plurality of virtual three-dimensional models (m), a virtual diorama for right eye (m) including a (common) virtual three-dimensional diorama and a plurality of virtual three-dimensional models (1 to n) And a left-eye virtual diorama image (m). In step SB325, the stereoscopic mixed reality providing program causes the PC 50 to determine the virtual diorama for the right eye, which is an image of a virtual three-dimensional diorama that will be seen from the right imaging device 13R of the HMD 10, based on the determined position and orientation of the HMD 10. It functions as a virtual diorama image creating means for creating an image and a left-eye virtual diorama image that is a virtual three-dimensional diorama image that will be visible from the left imaging device 13L of the HMD 10. Note that the 3D mixed reality providing program uses virtual sunlight, which is virtual light when a virtual sun is arranged at a specified azimuth angle and elevation angle (or virtual time) (see the description of step S40), A virtual 3D diorama for the right eye and a virtual diorama for the right eye and a left eye based on the virtual 3D diorama that is virtually reproduced around the virtual 3D diorama specified by the virtual weather. A virtual diorama image is created on the PC 50. In addition, when creating the right-eye virtual diorama image and the left-eye virtual diorama image, the PC 50 also creates the virtual sun position and weather set in step S40. For example, according to the position of the virtual sun, the virtual three-dimensional model is provided with brightness, shadow, reflected light, and the like, and a right-eye virtual diorama image and a left-eye virtual diorama image to which a set climate background is added are created.

ステップSB330にてPC50は、ステップSB315にて検出したHMD10(m)の位置と姿勢に基づいた、右目用現実画像(m)に右目用仮想ジオラマ画像(m)を重畳した右目用複合画像(m)と、左目用現実画像(m)に左目用仮想ジオラマ画像(m)を重畳した左目用複合画像(m)と、を作成してステップSB335に進む。例えば図9に示すように、PC50は、HMD10(m)の右撮像装置にて撮像した右目用現実画像(m)である現実画像R10Rに、HMD10(m)の位置と姿勢に基づいて右撮像装置から見えるであろう右目用仮想ジオラマ画像(m)である仮想ジオラマ画像V10Rを重畳して、右目用複合画像(m)である複合画像G10Rを作成する。ステップSB330にて、立体複合現実感提供プログラムは、PC50を、判定したHMD10の位置と姿勢に応じた、右目用現実画像に右目用仮想ジオラマ画像を重畳した右目用複合画像と、左目用現実画像に左目用仮想ジオラマ画像を重畳した左目用複合画像と、を作成する複合画像作成手段、として機能させる。   In step SB330, the PC 50 combines the right-eye virtual diorama image (m) with the right-eye virtual diorama image (m) based on the position and orientation of the HMD 10 (m) detected in step SB315 (m). ) And a left-eye composite image (m) in which the left-eye virtual diorama image (m) is superimposed on the left-eye real image (m), and the process proceeds to step SB335. For example, as shown in FIG. 9, the PC 50 captures the right image based on the position and orientation of the HMD 10 (m) in the real image R10R that is the real image for the right eye (m) captured by the right imaging device of the HMD 10 (m). A composite image G10R that is a composite image for right eye (m) is created by superimposing a virtual diorama image V10R that is a virtual diorama image for right eye (m) that will be visible from the device. In step SB330, the stereoscopic mixed reality providing program causes the PC 50 to determine the right-eye composite image in which the right-eye virtual diorama image is superimposed on the right-eye real image and the left-eye actual image in accordance with the determined position and orientation of the HMD 10. And a composite image creating means for creating a composite image for the left eye in which the virtual diorama image for the left eye is superimposed on.

ステップSB335にてPC50は、右目用複合画像(m)と左目用複合画像(m)に基づいて、HMD10(m)の3次元ディスプレイ装置12にて立体映像(m)を再生するための立体映像情報(m)を作成してステップSB340に進む。立体映像情報(m)は、HMD10(m)の3次元ディスプレイ装置12の再生方式に合うように作成される。例えばパララックスバリア方式やレンチキュラーレンズ方式の場合、立体映像情報(m)は、細長状の右目用複合画像(m)の一部と、細長状の左目用複合画像(m)の一部とが左右方向に交互に並べられている。また、例えば液晶シャッタ式の場合、立体映像情報(m)には、画像情報の他にもシャッタ制御情報等が含まれている。また、例えば右目用液晶表示装置と左目用液晶表示装置が左右独立の場合、右目用液晶表示装置に右目用複合画像(m)を表示させ、左目用液晶表示装置に左目用複合画像(m)を表示させる。ステップSB335にて、立体複合現実感提供プログラムは、PC50を、右目用複合画像と左目用複合画像に基づいて、3次元ディスプレイ装置にて再生するための立体映像情報を作成する立体映像情報作成手段、として機能させる。   In step SB335, the PC 50 reproduces the stereoscopic video (m) on the 3D display device 12 of the HMD 10 (m) based on the composite image for the right eye (m) and the composite image for the left eye (m). Information (m) is created and the process proceeds to step SB340. The stereoscopic video information (m) is created so as to match the playback method of the 3D display device 12 of the HMD 10 (m). For example, in the case of the parallax barrier method or the lenticular lens method, the stereoscopic image information (m) includes a part of the elongated right eye composite image (m) and a part of the elongated left eye composite image (m). They are arranged alternately in the left-right direction. For example, in the case of a liquid crystal shutter type, the stereoscopic video information (m) includes shutter control information in addition to image information. For example, when the right-eye liquid crystal display device and the left-eye liquid crystal display device are independent from each other, the right-eye liquid crystal display device displays the right-eye composite image (m), and the left-eye liquid crystal display device displays the left-eye composite image (m). Is displayed. In step SB335, the stereoscopic mixed reality providing program generates stereoscopic video information generating means for generating stereoscopic video information for reproducing the PC 50 on the three-dimensional display device based on the composite image for the right eye and the composite image for the left eye. To function as.

ステップSB340にてPC50は、作成した立体映像情報(m)を、ユーザ(m)のHMD10(m)に出力し、ユーザ(m)のHMD10(m)の3次元ディスプレイ装置12に、立体映像情報(m)に基づいた立体映像(m)を再生させ、ステップSB345に進む。ステップSB340にて、立体複合現実感提供プログラムは、PC50を、作成した立体映像情報を用いて、3次元ディスプレイ装置に立体映像を再生させる立体映像再生手段、として機能させる。   In step SB340, the PC 50 outputs the created stereoscopic video information (m) to the HMD 10 (m) of the user (m), and sends the stereoscopic video information to the 3D display device 12 of the HMD 10 (m) of the user (m). The stereoscopic video (m) based on (m) is reproduced, and the process proceeds to Step SB345. In step SB340, the stereoscopic mixed reality providing program causes the PC 50 to function as stereoscopic video reproduction means for reproducing the stereoscopic video on the three-dimensional display device using the created stereoscopic video information.

ステップSB345にてPC50は、m(ユーザ番号)に「1」を加算して、m(ユーザ番号)の値を更新して(次のユーザの準備をして)ステップSB350に進む。   In step SB345, the PC 50 adds “1” to m (user number), updates the value of m (user number) (preparation for the next user), and proceeds to step SB350.

ステップSB350にてPC50は、更新されたm(ユーザ番号)の値が、記憶されている利用人数n以下であるか否かを判定し、mがn以下である場合(Yes)は、次のユーザU(m)のHMD10(m)の3次元ディスプレイ装置で立体映像(m)を再生させるためにステップSB315に戻る。またPC50は、mがn以下でない場合(No)は、すべてのユーザU(m)のHMD10(m)の3次元ディスプレイ装置での立体映像(m)の再生が完了したので、ステップSB300の処理を終了して図4におけるステップS50に進む。   In step SB350, the PC 50 determines whether or not the updated value of m (user number) is less than or equal to the stored number of users n, and if m is less than or equal to n (Yes), In order to reproduce the stereoscopic video (m) on the 3D display device of the HMD 10 (m) of the user U (m), the process returns to Step SB315. Further, when m is not less than n (No), the PC 50 completes the reproduction of the stereoscopic video (m) on the three-dimensional display device of the HMD 10 (m) of all the users U (m). And the process proceeds to step S50 in FIG.

●[本願の効果、その他の例等(図10〜図13)]
本実施の形態にて説明した立体複合現実感提供プログラムを搭載した立体複合現実感提供システム1を利用することで、図3に示すように、ユーザUは、コントローラ20から指示を入力することで、仮想3次元模型71に所望する動作をさせることができる。またユーザUは、仮想3次元模型71を、種々の位置で、種々の角度から眺めて楽しむことができる。仮想3次元模型71は、現実の模型と比較して、細部まで実物に忠実に構成することができるので、現実の模型を超える迫力やインパクトが期待できる。
● [Effects of the present application, other examples (FIGS. 10 to 13)]
By using the 3D mixed reality providing system 1 equipped with the 3D mixed reality providing program described in the present embodiment, the user U can input an instruction from the controller 20 as shown in FIG. The virtual three-dimensional model 71 can be operated as desired. Further, the user U can enjoy the virtual three-dimensional model 71 from various angles at various positions. Compared with the actual model, the virtual three-dimensional model 71 can be configured to be faithful to the real thing up to the details, so that a force and impact exceeding the actual model can be expected.

また、仮想3次元模型71がユーザUに実際に衝突することはないので、ユーザUは思い切って仮想3次元模型71に接近することもできる。しかも、「立体」映像で楽しむことができるので、近接することで、図10の例に示すように、迫力かつインパクトのある立体映像を楽しむことができる。また図10の例に示すように、実際の模型では困難である、仮想3次元煙71Yの吐出や、仮想3次元蒸気71Zの吐出や、警笛音の出力等を、ユーザはコントローラ20の補助動作指示手段25A〜25Dから指示を入力するだけで行うことが可能であり、現実の模型を超える迫力やインパクトを楽しむことができる。   In addition, since the virtual three-dimensional model 71 does not actually collide with the user U, the user U can approach the virtual three-dimensional model 71 with all the way. In addition, since it can be enjoyed with a “stereoscopic” video, it is possible to enjoy a powerful and impactful stereoscopic video as shown in the example of FIG. Further, as shown in the example of FIG. 10, the user can perform the auxiliary operation of the controller 20 for the discharge of the virtual three-dimensional smoke 71Y, the discharge of the virtual three-dimensional steam 71Z, the output of the horn sound, etc., which are difficult with an actual model. It can be performed simply by inputting an instruction from the instruction means 25A to 25D, and the force and impact exceeding the actual model can be enjoyed.

また、仮想太陽の位置を自由に設定することができるので、セピア色の夕焼けの光を所望する方向から当てたり、気候の設定が可能であるので、背景の情景を吹雪としたり、現実の模型では困難あるいは不可能な周囲環境であっても、本実施の形態にて説明した立体複合現実感提供システムであれば、仮想環境で実現することが可能であり、仮想3次元ジオラマの雰囲気を盛り上げることができる。   In addition, since the position of the virtual sun can be set freely, it is possible to shine a sepia sunset light from the desired direction, and the climate can be set, so the background scene can be made snowstorm, or a real model Even if it is difficult or impossible in the surrounding environment, the 3D mixed reality providing system described in this embodiment can be realized in a virtual environment and excite the atmosphere of a virtual three-dimensional diorama. be able to.

図11は、現実空間のリビングLの壁L1に、仮想3次元ジオラマの仮想3次元軌道72(レール)が交差するように、仮想3次元ジオラマを配置した例を示している。この場合、PC50は、リビングLの壁L1と仮想3次元軌道72との交差する交差個所を判定し、判定した交差個所に、自動的に仮想3次元トンネル出入口73、74を作成する。そしてPC50は、仮想3次元トンネル出入口73、74よりも遠い位置の仮想3次元軌道の表示を消し、仮想3次元模型が仮想3次元トンネル出入口よりも遠い位置に移動した場合は仮想3次元模型の表示を消す。このように現実の模型では不可能な配置であっても、可能にすることができる。また、仮想3次元軌道72がリビングLの床面から所定高さとなるように仮装3次元ジオラマを配置することも可能であるので、現実の模型では困難であった下方から見上げる角度で仮想3次元模型を楽しむことができる。   FIG. 11 shows an example in which a virtual three-dimensional diorama is arranged so that a virtual three-dimensional trajectory 72 (rail) of the virtual three-dimensional diorama intersects the wall L1 of the living space L in the real space. In this case, the PC 50 determines an intersection where the wall L1 of the living room L1 intersects with the virtual three-dimensional trajectory 72, and automatically creates virtual three-dimensional tunnel entrances 73 and 74 at the determined intersection. Then, the PC 50 erases the display of the virtual three-dimensional trajectory at a position farther from the virtual three-dimensional tunnel entrances 73 and 74, and when the virtual three-dimensional model moves to a position farther than the virtual three-dimensional tunnel entrance, Turn off the display. In this way, even an arrangement impossible with an actual model can be made possible. Further, since the virtual 3D trajectory 72 can be arranged so that the virtual 3D trajectory 72 is at a predetermined height from the floor of the living room L, the virtual 3D can be viewed at an angle looking up from below, which is difficult with an actual model. You can enjoy the model.

図12は、仮想3次元模型として潜水艦71B、背景環境として深海75を有する仮想3次元ジオラマを、現実空間のリビングL内に配置した例を示している。このように現実の模型では動作を楽しむことが非常に困難なものであっても、容易に楽しむことができる。また、現実の模型を実際の水中で動作させた場合、ユーザが模型に接近して種々の位置で、種々の角度から楽しむことは非常に困難である。しかし、本実施の形態にて説明した立体複合現実感提供システムを利用することで、ユーザは、現実空間のリビングLに居ながら、仮想の深海75中を潜航する仮想3次元模型の潜水艦71Bを楽しむことができる。   FIG. 12 shows an example in which a virtual three-dimensional diorama having a submarine 71B as a virtual three-dimensional model and a deep sea 75 as a background environment is arranged in the living space L of the real space. Thus, even if it is very difficult to enjoy the operation with an actual model, it can be easily enjoyed. In addition, when a real model is operated in actual water, it is very difficult for the user to enjoy it from various angles at various positions by approaching the model. However, by using the three-dimensional mixed reality providing system described in the present embodiment, the user can use the virtual three-dimensional model submarine 71B submerged in the virtual deep sea 75 while staying in the living space L of the real space. I can enjoy it.

図13は、本実施の形態にて説明した立体複合現実感提供システム1を、公園等の屋外に持ち出して、種々の仮想3次元模型を、種々の現実空間で楽しむ様子の例を示している。図13の例は、ユーザU1が、仮想3次元模型の軍用航空機71C(戦闘機)を屋外の空中で動作させて楽しむ例を示し、ユーザU2が、仮想3次元模型の車両71D(フォーミュラマシン)を公園の広場等で動作させて楽しむ例を示し、ユーザU3が、仮想3次元模型の軍艦71E(戦艦)を公園の池等で動作させて楽しむ例を示している。仮想3次元模型の軍用航空機71C(及び車両71Dや軍艦71E)は、現実ではないので、周囲の人々に衝突等することなく迷惑をかけることがない。またイヤホンやヘッドホンを使用することで、周囲の人々に音の迷惑をかけることも無い。またユーザU1(及びU2やU3)は、周囲の現実空間の状況も見えているので、ユーザU1(及びU2やU3)が動き回っても、周囲の人に衝突することや、池に落ちる等することもなく、安全に楽しむことができる。   FIG. 13 shows an example of taking the 3D mixed reality providing system 1 described in the present embodiment out of the park or the like and enjoying various virtual three-dimensional models in various real spaces. . The example of FIG. 13 shows an example where the user U1 enjoys operating a virtual three-dimensional model military aircraft 71C (fighter) in the outdoors, and the user U2 is a virtual three-dimensional model vehicle 71D (formula machine). An example is shown in which a user U3 enjoys the game by operating a virtual three-dimensional model warship 71E (battleship) in a park pond or the like. Since the virtual three-dimensional model military aircraft 71C (and the vehicle 71D and the warship 71E) is not real, it does not cause trouble to the surrounding people without colliding. In addition, the use of earphones and headphones does not disturb the surrounding people. Moreover, since the user U1 (and U2 and U3) can also see the situation of the surrounding real space, even if the user U1 (and U2 and U3) moves around, the user U1 (and U2 and U3) may collide with surrounding people or fall into a pond. And you can enjoy it safely.

また、仮想3次元模型の動作に、視覚的効果や、音響的効果を追加すると、よりリアルになり、現実の模型の迫力やインパクトに肉薄する、あるいは現実の模型の迫力やインパクトを超えることも期待できる。なお、視覚的効果や音響的効果は、仮想3次元模型の種類(列車、車両、航空機、船舶等)に応じて、例えば以下のように追加すると、より好ましい。   In addition, adding visual and acoustic effects to the virtual 3D model's movements can make it more realistic and less than the force and impact of a real model, or can exceed the force and impact of a real model. I can expect. Note that visual effects and acoustic effects are more preferably added as follows, for example, according to the type of virtual three-dimensional model (train, vehicle, aircraft, ship, etc.).

例えば、仮想3次元模型が軍用航空機71Cの場合、コントローラ20から指示した速度の大きさに応じたエンジン音を音出力装置(例えばイヤホン)から出力する。また例えばコントローラ20の補助動作指示手段25A〜25Dのいずれかに、仮想3次元の排気(または飛行機雲)の発生指示を対応付け、仮想3次元模型の軍用航空機71Cの排気口(排気吐出位置に相当)から仮想3次元の排気(または飛行機雲)を吐出できるようにする。また例えばコントローラ20の補助動作指示手段25A〜25Dのいずれかに、仮想3次元の砲弾の発射指示を対応付け、仮想3次元模型の軍用航空機71Cの砲弾発射口(砲弾発射位置に相当)から仮想3次元の砲弾を発射音とともに発射できるようにする。   For example, when the virtual three-dimensional model is a military aircraft 71C, an engine sound corresponding to the magnitude of the speed instructed from the controller 20 is output from a sound output device (for example, an earphone). Further, for example, a virtual three-dimensional exhaust (or contrail) generation instruction is associated with one of the auxiliary operation instruction units 25A to 25D of the controller 20, and the exhaust port (exhaust discharge position) of the virtual three-dimensional model military aircraft 71C. The virtual three-dimensional exhaust (or contrail) can be discharged from the equivalent). Also, for example, a virtual three-dimensional bullet firing instruction is associated with any one of the auxiliary operation instruction means 25A to 25D of the controller 20, and the virtual bullet is ejected from the bullet launch port (corresponding to the bullet firing position) of the military aircraft 71C of the virtual three-dimensional model. Enable to fire 3D shells with sound.

また例えば、仮想3次元模型が車両71Dの場合、コントローラ20から指示した速度の大きさに応じたエンジン音を音出力装置(例えばイヤホン)から出力する。また例えばコントローラ20からの右旋回や左旋回の指示入力と速度の大きさに応じた、タイヤのスリップ音を音出力装置(例えばイヤホン)から出力する。また例えばコントローラ20の補助動作指示手段25A〜25Dのいずれかに、仮想3次元の排気ガスの発生指示を対応付け、仮想3次元模型の車両71Dの排気口(排気吐出位置に相当)から仮想3次元の排気を吐出できるようにする。   For example, when the virtual three-dimensional model is the vehicle 71D, an engine sound corresponding to the magnitude of the speed instructed from the controller 20 is output from a sound output device (for example, an earphone). Further, for example, a tire slip sound is output from a sound output device (for example, an earphone) according to a right turn or left turn instruction input from the controller 20 and the magnitude of the speed. Further, for example, a virtual three-dimensional exhaust gas generation instruction is associated with any one of the auxiliary operation instruction units 25A to 25D of the controller 20, and the virtual three-dimensional model 71D corresponds to the virtual three-dimensional model from the exhaust port (corresponding to the exhaust discharge position) of the vehicle 71D. Enable to discharge dimension exhaust.

また例えば、仮想3次元模型が軍艦71Eの場合、コントローラ20から指示した速度の大きさに応じたエンジン音を音出力装置(例えばイヤホン)から出力する。また例えばコントローラ20からの右旋回や左旋回の指示入力と速度の大きさに応じて、船体の先端に発生する波の状態を変化させたり、航行経路に軌跡を残すようにする。また例えばコントローラ20の補助動作指示手段25A〜25Dのいずれかに、仮想3次元の砲弾の発射指示を対応付け、仮想3次元模型の軍艦71Eの砲弾発射口(砲弾発射位置に相当)から仮想3次元の砲弾を発射音とともに発射できるようにする。そして仮想3次元模型同士の砲弾の着弾であれば、爆発音とともに着弾部位が破損する処理も可能であり、対戦型ゲーム等への発展も可能である。   For example, when the virtual three-dimensional model is the warship 71E, an engine sound corresponding to the magnitude of the speed instructed from the controller 20 is output from a sound output device (for example, an earphone). Further, for example, the state of the wave generated at the tip of the hull is changed or the trajectory is left in the navigation route according to the right turn or left turn instruction input from the controller 20 and the magnitude of the speed. Further, for example, a virtual three-dimensional bullet firing instruction is associated with any one of the auxiliary operation instruction means 25A to 25D of the controller 20, and the virtual three-dimensional model warship 71E has a bullet launch port (corresponding to the bullet firing position) to the virtual 3D. Dimensional shells can be fired with a firing sound. If the impact of the bullets between the virtual three-dimensional models is reached, the process of damaging the landing part can be performed together with the explosion sound, and development into a battle game or the like is also possible.

なお本実施の形態の説明では、図4〜図8に示す処理をPC50にて実行する例を説明したが、PC50とHMD10とを協働させて実行(一部の処理をHMD10にて実行)するようにしてもよい。   In the description of the present embodiment, the example in which the processing illustrated in FIGS. 4 to 8 is executed by the PC 50 has been described, but the PC 50 and the HMD 10 are executed in cooperation (part of the processing is executed by the HMD 10). You may make it do.

また本実施の形態の説明では、ユーザU(m)が複数の場合、各ユーザU(m)は複数の仮想3次元模型(1〜n)を含む(共通)仮想3次元ジオラマの立体映像を視認できる例を説明した。しかし、例えばユーザU(1)とユーザU(2)がそれぞれ仮想3次元ジオラマ(1)と仮想3次元ジオラマ(2)を配置し、ユーザU(1)は仮想3次元ジオラマ(1)のみを視認できるように設定し、ユーザU(2)は仮想3次元ジオラマ(2)のみを視認できるように設定することも可能である。この場合、リビング等の狭い現実空間内に、複数のユーザが、複数の仮想3次元ジオラマを重ねて配置しても、それぞれの仮想3次元ジオラマを楽しむことができる。   In the description of the present embodiment, when there are a plurality of users U (m), each user U (m) displays a (common) virtual 3D diorama stereoscopic image including a plurality of virtual 3D models (1 to n). The example which can be visually recognized was demonstrated. However, for example, user U (1) and user U (2) respectively arrange virtual three-dimensional diorama (1) and virtual three-dimensional diorama (2), and user U (1) only has virtual three-dimensional diorama (1). It is also possible to set so that the user U (2) can visually recognize only the virtual three-dimensional diorama (2). In this case, even if a plurality of users arrange a plurality of virtual three-dimensional diorama in a narrow real space such as a living room, they can enjoy each virtual three-dimensional diorama.

また本実施の形態の説明では、仮想3次元ジオラマは仮想3次元模型を含んでいる例を説明したが、現実の模型を用いて仮想3次元ジオラマは仮想3次元の背景を含むようにしてもよい。例えば、現実のNゲージのレール及び列車と、仮想3次元の背景(山岳地帯や市街地等の背景)や気候(雨、吹雪等の気候等)などを含む仮想3次元ジオラマを用いてもよい。   In the description of the present embodiment, an example in which a virtual three-dimensional diorama includes a virtual three-dimensional model has been described. However, a virtual three-dimensional diorama may include a virtual three-dimensional background using an actual model. For example, a virtual N-dimensional rail and train, and a virtual three-dimensional diorama including a virtual three-dimensional background (mountainous area, urban area, etc.) and climate (climate such as rain, snowstorm, etc.) may be used.

また図1の例、及び本実施の形態の説明では、1台のPC50に、単数のHMD及びコントローラ、または複数のHMD及びコントローラ、を接続した例を説明したが、複数のPC50をインターネット60等を介して接続し、複数のユーザで1つの(共通)仮想3次元ジオラマを用いて対戦等を楽しむように構成することもできる。つまり、1台以上のPC50に対して、複数のHMD(m)と、それぞれのHMD(m)に対応させたそれぞれのコントローラ(m)を用いて、HMD(m)に対応させた仮想3次元模型(m)を含む(共通)仮想3次元ジオラマで対戦等を楽しむことができる。   In the example of FIG. 1 and the description of the present embodiment, an example in which a single HMD and controller or a plurality of HMDs and controllers are connected to one PC 50 has been described. And a plurality of users can enjoy a battle or the like using one (common) virtual three-dimensional diorama. That is, for one or more PCs 50, a plurality of HMDs (m) and a virtual 3D corresponding to the HMD (m) using each controller (m) corresponding to each HMD (m). You can enjoy a battle in a (common) virtual three-dimensional diorama including the model (m).

本発明の、仮想3次元模型を対象とした立体複合現実感提供プログラムは、本実施の形態で説明した処理手順等に限定されず、本発明の要旨を変更しない範囲で種々の変更、追加、削除が可能である。   The three-dimensional mixed reality providing program for the virtual three-dimensional model of the present invention is not limited to the processing procedure described in the present embodiment, and various modifications, additions, and the like are within the scope of the present invention. Can be deleted.

また、本実施の形態の説明に用いた数値は一例であり、この数値に限定されるものではない。   The numerical values used in the description of the present embodiment are examples, and are not limited to these numerical values.

1 立体複合現実感提供システム
10 HMD(ヘッドマウントディスプレイ)
12 3次元ディスプレイ装置
13R 右撮像装置
13RV (右目の)正面視線方向
13L 左撮像装置
13LV (左目の)正面視線方向
14 ユーザ識別手段
16 位置姿勢検出手段
20 コントローラ
22 進行方向指示手段
23 速度指示手段
24 ユーザ識別手段
25A〜25D 補助動作指示手段
30 位置姿勢検出ユニット
40 音出力装置
50 PC(パーソナルコンピュータ)
60 インターネット
70 仮想3次元ジオラマ
71 仮想3次元模型
72 仮想3次元軌道
80 ジオラマ提供サーバ
1 3D mixed reality providing system 10 HMD (head mounted display)
12 three-dimensional display device 13R right imaging device 13RV (right eye) frontal line-of-sight direction 13L left imaging device 13LV (left eye) frontal line-of-sight direction 14 user identification means 16 position and orientation detection means 20 controller 22 travel direction instruction means 23 speed instruction means 24 User identification means 25A to 25D Auxiliary operation instruction means 30 Position and orientation detection unit 40 Sound output device 50 PC (personal computer)
60 Internet 70 Virtual 3D Diorama 71 Virtual 3D Model 72 Virtual 3D Trajectory 80 Diorama Provision Server

Claims (5)

ユーザの両目を覆うように装着される非透過型のヘッドマウントディスプレイであるHMDと、
ユーザからの指示を入力可能なコントローラと、
コンピュータと、を用いた仮想3次元模型を対象とした立体複合現実感提供プログラムであって、
前記HMDは、ユーザに立体映像を視認させることが可能な3次元ディスプレイ装置と、ユーザの右目の正面視線方向を撮像する少なくとも1つの右撮像装置と、ユーザの左目の正面視線方向を撮像する少なくとも1つの左撮像装置と、現実空間内における前記HMDの位置と姿勢を前記コンピュータにて検出可能とする位置姿勢検出手段と、を有しており、
前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、
前記コンピュータにて記憶装置から読み込んだ、あるいは前記コンピュータにて通信回線を介して受信した、仮想3次元模型を含む仮想3次元ジオラマを、現実空間内における指定された位置に仮想的に配置する仮想3次元ジオラマ配置手段、
前記仮想3次元模型を、前記コントローラに入力された指示に基づいて動作させる仮想3次元模型動作手段、
前記位置姿勢検出手段からの検出信号に基づいて現実空間内における前記HMDの位置と前記HMDの姿勢を判定するHMD位置姿勢判定手段、
前記右撮像装置で撮像した現実空間の右目用現実画像と、前記左撮像装置で撮像した現実空間の左目用現実画像と、を取り込む現実画像取り込み手段、
判定した前記HMDの位置と姿勢に基づいて、前記HMDの右撮像装置の位置から見えるであろう前記仮想3次元ジオラマの画像である右目用仮想ジオラマ画像と、前記HMDの左撮像装置の位置から見えるであろう前記仮想3次元ジオラマの画像である左目用仮想ジオラマ画像と、を作成する仮想ジオラマ画像作成手段、
判定した前記HMDの位置と姿勢に応じた、前記右目用現実画像に前記右目用仮想ジオラマ画像を重畳した右目用複合画像と、前記左目用現実画像に前記左目用仮想ジオラマ画像を重畳した左目用複合画像と、を作成する複合画像作成手段、
前記右目用複合画像と前記左目用複合画像に基づいて、前記3次元ディスプレイ装置にて再生するための立体映像情報を作成する立体映像情報作成手段、
作成した前記立体映像情報を用いて、前記3次元ディスプレイ装置に前記立体映像を再生させる立体映像再生手段、として機能させるための、
仮想3次元模型を対象とした立体複合現実感提供プログラム。
An HMD that is a non-transmissive head-mounted display worn so as to cover both eyes of the user;
A controller capable of inputting instructions from the user;
A three-dimensional mixed reality providing program for a virtual three-dimensional model using a computer,
The HMD is a three-dimensional display device that allows a user to visually recognize a stereoscopic image, at least one right imaging device that images the front line-of-sight direction of the user's right eye, and at least that images the front line-of-sight direction of the user's left eye. One left imaging device, and position and orientation detection means that enables the computer to detect the position and orientation of the HMD in the real space,
The computer, or the computer and the HMD cooperate,
A virtual that virtually arranges a virtual three-dimensional diorama, including a virtual three-dimensional model, read from a storage device by the computer or received via a communication line by the computer at a specified position in the real space. 3D diorama placement means,
Virtual three-dimensional model operating means for operating the virtual three-dimensional model based on an instruction input to the controller;
HMD position / posture determination means for determining the position of the HMD and the posture of the HMD in real space based on a detection signal from the position / posture detection means;
A real image capturing means for capturing the real image for the right eye in the real space captured by the right image capturing device and the real image for the left eye in the real space captured by the left image capturing device;
Based on the determined position and orientation of the HMD, from the virtual diorama image for the right eye that is an image of the virtual three-dimensional diorama that will be seen from the position of the right imaging device of the HMD, and from the position of the left imaging device of the HMD Virtual diorama image creation means for creating a left-eye virtual diorama image that is an image of the virtual three-dimensional diorama that will be visible;
According to the determined position and orientation of the HMD, a right-eye composite image in which the right-eye virtual diorama image is superimposed on the right-eye real image, and a left-eye virtual diorama image on the left-eye real image. A composite image creating means for creating a composite image;
3D image information creating means for creating 3D image information to be reproduced on the 3D display device based on the composite image for the right eye and the composite image for the left eye;
Using the created stereoscopic video information, the 3D display device functions as a stereoscopic video playback unit that plays back the stereoscopic video.
A 3D mixed reality providing program for virtual 3D models.
請求項1に記載の仮想3次元模型を対象とした立体複合現実感提供プログラムであって、
前記仮想3次元模型は、汽車または列車または地下鉄列車、建設機械、車両または軍用車両、船舶または軍艦、ヘリコプターまたは航空機または軍用航空機、潜水艦、ロボット、ロケット、宇宙船、の少なくとも1つであり、
前記コントローラには、前記仮想3次元模型の速度の指示、前記仮想3次元模型の前進または後退の指示、前記仮想3次元模型の右旋回または左旋回の指示、前記仮想3次元模型の上昇または下降の指示、前記仮想3次元模型における煙吐出位置からの仮想3次元煙の吐出の指示、前記仮想3次元模型における蒸気吐出位置からの仮想3次元蒸気の吐出の指示、前記仮想3次元模型における排気吐出位置からの仮想3次元排気の吐出の指示、前記仮想3次元模型における砲弾発射位置からの仮想3次元砲弾の発射の指示、前記仮想3次元模型における所定部位の指定方向への動作の指示、の少なくとも1つの指示を入力可能であり、
前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記仮想3次元模型動作手段として機能させる際、前記コントローラに入力された指示に応じて前記仮想3次元模型を動作させる、
仮想3次元模型を対象とした立体複合現実感提供プログラム。
A three-dimensional mixed reality providing program for the virtual three-dimensional model according to claim 1,
The virtual three-dimensional model is at least one of a train or train or subway train, a construction machine, a vehicle or military vehicle, a ship or warship, a helicopter or aircraft or military aircraft, a submarine, a robot, a rocket, a spacecraft,
The controller includes an instruction for the speed of the virtual three-dimensional model, an instruction to move the virtual three-dimensional model forward or backward, an instruction to turn the virtual three-dimensional model to the right or left, an ascent of the virtual three-dimensional model, Indication of lowering, instruction of virtual 3D smoke discharge from the smoke discharge position in the virtual 3D model, instruction of virtual 3D steam discharge from the vapor discharge position in the virtual 3D model, in the virtual 3D model Instructions for discharging virtual three-dimensional exhaust from the exhaust discharge position, instructions for discharging virtual three-dimensional shells from the bullet firing position in the virtual three-dimensional model, instructions for movement of a predetermined part in the virtual three-dimensional model in a specified direction , At least one instruction can be entered,
When the computer or the computer and the HMD cooperate to function as the virtual three-dimensional model operation means, the virtual three-dimensional model is operated according to an instruction input to the controller.
A 3D mixed reality providing program for virtual 3D models.
請求項1または2に記載の仮想3次元模型を対象とした立体複合現実感提供プログラムであって、
前記記憶装置には、前記仮想3次元模型の動作に応じた音情報である動作対応音情報、または前記コントローラに入力された指示に応じた音情報である指示対応音情報、の少なくとも一方が記憶されており、あるいは前記動作対応音情報と前記指示対応音情報の少なくとも一方を生成可能な音生成プログラムが記憶されており、
前記動作対応音情報と前記指示対応音情報とに基づいた音信号に応じた音を出力する音出力装置を用い、
前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記仮想3次元模型動作手段として機能させる際、
前記記憶装置に、前記動作対応音情報を有している、あるいは前記動作対応音情報を生成可能な前記音生成プログラムを有している場合、前記仮想3次元模型の動作に応じた前記動作対応音情報に基づいた音信号を前記音出力装置に出力させ、
前記記憶装置に、前記指示対応音情報を有している、あるいは前記指示対応音情報を生成可能な前記音生成プログラムを有している場合、前記コントローラに入力された指示に応じた前記指示対応音情報に基づいた音信号を前記音出力装置に出力させる、
仮想3次元模型を対象とした立体複合現実感提供プログラム。
A three-dimensional mixed reality providing program for a virtual three-dimensional model according to claim 1 or 2,
The storage device stores at least one of motion-corresponding sound information that is sound information corresponding to the motion of the virtual three-dimensional model or instruction-corresponding sound information that is sound information corresponding to an instruction input to the controller. Or a sound generation program capable of generating at least one of the action corresponding sound information and the instruction corresponding sound information is stored,
Using a sound output device that outputs a sound according to a sound signal based on the action-corresponding sound information and the instruction-corresponding sound information,
When the computer or the computer and the HMD cooperate to function as the virtual three-dimensional model operation means,
In the case where the storage device has the sound generation program that has the motion corresponding sound information or can generate the motion corresponding sound information, the motion corresponding to the motion of the virtual three-dimensional model Outputting a sound signal based on sound information to the sound output device;
In the case where the storage device has the instruction corresponding sound information or the sound generation program capable of generating the instruction corresponding sound information, the instruction corresponding to the instruction input to the controller Outputting a sound signal based on the sound information to the sound output device;
A 3D mixed reality providing program for virtual 3D models.
請求項1〜3のいずれか一項に記載の仮想3次元模型を対象とした立体複合現実感提供プログラムであって、
前記仮想3次元ジオラマへの光源として、前記仮想3次元ジオラマ内において仮想的に設定した太陽である仮想太陽の水平方向の角度である方位角と、前記仮想太陽の垂直方向の角度である仰角または前記仰角を決める仮想時刻情報と、
前記仮想ジオラマの天候として、晴天または曇天または雨または風または雪の少なくとも1つの天候である仮想天候と、を指定可能であり、
前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、前記仮想ジオラマ画像作成手段として機能させる際、
指定された方位角、及び指定された仰角または前記仮想時刻情報に基づいた仰角、に応じた位置に前記仮想太陽を配置した場合の仮想的な光である仮想太陽光が仮想的に照射されている前記仮想3次元ジオラマであって、指定された前記仮想天候が周囲に仮想的に再現された前記仮想3次元ジオラマ、に基づいて、前記右目用仮想ジオラマ画像と前記左目用仮想ジオラマ画像とを作成させる、
仮想3次元模型を対象とした立体複合現実感提供プログラム。
A three-dimensional mixed reality providing program for the virtual three-dimensional model according to any one of claims 1 to 3,
As a light source for the virtual three-dimensional diorama, an azimuth angle that is a horizontal angle of the virtual sun that is the sun virtually set in the virtual three-dimensional diorama, and an elevation angle that is an angle in the vertical direction of the virtual sun or Virtual time information for determining the elevation angle;
The weather of the virtual diorama can be specified as clear weather or cloudy weather or virtual weather which is at least one weather of rain or wind or snow,
When the computer or the computer and the HMD cooperate to function as the virtual diorama image creation means,
Virtual sunlight, which is virtual light when the virtual sun is arranged at a position corresponding to a designated azimuth angle and a designated elevation angle or an elevation angle based on the virtual time information, is virtually irradiated. The right-eye virtual diorama image and the left-eye virtual diorama image on the basis of the virtual three-dimensional diorama, which is the virtual three-dimensional diorama around which the designated virtual weather is virtually reproduced. Create
A 3D mixed reality providing program for virtual 3D models.
請求項1〜4のいずれか一項に記載の仮想3次元模型を対象とした立体複合現実感提供プログラムであって、
1台以上の前記コンピュータに対して、複数の前記HMDと、それぞれの前記HMDに対応させたそれぞれの前記コントローラと、を用い、
複数の前記HMDに対して共通の前記仮想3次元ジオラマであって前記HMD毎の前記仮想3次元模型を含む共通仮想3次元ジオラマを設定可能であり、
前記コンピュータを、または前記コンピュータと前記HMDとを協働させて、
前記仮想3次元ジオラマ配置手段として機能させる際、前記共通仮想3次元ジオラマを仮想的に配置し、
前記仮想3次元模型動作手段として機能させる際、前記共通仮想3次元ジオラマに含まれているそれぞれの前記仮想3次元模型を、それぞれの前記コントローラに対応させて動作させ、
前記HMD位置姿勢判定手段として機能させる際、前記HMD毎の位置と姿勢を判定し、
前記現実画像取り込み手段として機能させる際、前記HMD毎に前記右目用現実画像と前記左目用現実画像とを取り込み、
前記仮想ジオラマ画像作成手段として機能させる際、仮想的に配置されている複数の前記仮想3次元模型を含む前記共通仮想3次元ジオラマを用いて、前記HMD毎に前記右目用仮想ジオラマ画像と前記左目用仮想ジオラマ画像とを作成させ、
前記複合画像作成手段として機能させる際、前記HMD毎に前記右目用複合画像と前記左目用複合画像を作成させ、
前記立体映像情報作成手段として機能させる際、前記HMD毎に前記立体映像情報を作成させ、
前記立体映像再生手段として機能させる際、各HMDに対応する前記3次元ディスプレイ装置に、各HMDに対応する前記立体映像を再生させる、
仮想3次元模型を対象とした立体複合現実感提供プログラム。
A three-dimensional mixed reality providing program for the virtual three-dimensional model according to any one of claims 1 to 4,
For one or more computers, using a plurality of the HMDs and the controllers corresponding to the HMDs,
A common virtual three-dimensional diorama that is common to a plurality of the HMDs and that includes the virtual three-dimensional model for each HMD can be set;
The computer, or the computer and the HMD cooperate,
When functioning as the virtual three-dimensional diorama arranging means, the common virtual three-dimensional diorama is virtually arranged,
When functioning as the virtual three-dimensional model operation means, each virtual three-dimensional model included in the common virtual three-dimensional diorama is operated corresponding to each controller,
When functioning as the HMD position and orientation determination means, determine the position and orientation for each HMD,
When functioning as the real image capturing means, the real image for the right eye and the real image for the left eye are captured for each HMD,
When functioning as the virtual diorama image creating means, the virtual diorama image for the right eye and the left eye for each HMD using the common virtual three-dimensional diorama including a plurality of virtual three-dimensional models that are virtually arranged Create virtual diorama images for
When functioning as the composite image creation means, the right eye composite image and the left eye composite image are created for each HMD,
When functioning as the stereoscopic video information creation means, the stereoscopic video information is created for each HMD,
When functioning as the 3D video playback means, the 3D display device corresponding to each HMD is caused to play back the 3D video corresponding to each HMD.
A 3D mixed reality providing program for virtual 3D models.
JP2016203836A 2016-10-17 2016-10-17 Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model Pending JP2018067060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016203836A JP2018067060A (en) 2016-10-17 2016-10-17 Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203836A JP2018067060A (en) 2016-10-17 2016-10-17 Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model

Publications (1)

Publication Number Publication Date
JP2018067060A true JP2018067060A (en) 2018-04-26

Family

ID=62086227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203836A Pending JP2018067060A (en) 2016-10-17 2016-10-17 Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model

Country Status (1)

Country Link
JP (1) JP2018067060A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113566829A (en) * 2021-07-19 2021-10-29 上海极赫信息技术有限公司 High-precision positioning technology-based mixed reality navigation method and system and MR (magnetic resonance) equipment
CN113653150A (en) * 2021-09-17 2021-11-16 北京城乡建设集团有限责任公司 Construction method for drilling through sewage pipeline by rotary drilling machine
CN113760088A (en) * 2020-06-04 2021-12-07 史克威尔·艾尼克斯有限公司 Augmented reality display device and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005152318A (en) * 2003-11-26 2005-06-16 Namco Ltd Program, information storage medium, game machine, and server device
JP2005165776A (en) * 2003-12-03 2005-06-23 Canon Inc Image processing method and image processor
JP2007164582A (en) * 2005-12-15 2007-06-28 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2007280158A (en) * 2006-04-10 2007-10-25 Kimoto & Co Ltd Three-dimensional geographical information presenting system
JP2008009646A (en) * 2006-06-28 2008-01-17 Canon Inc Image processor and image processing method
WO2014016987A1 (en) * 2012-07-27 2014-01-30 Necソフト株式会社 Three-dimensional user-interface device, and three-dimensional operation method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005152318A (en) * 2003-11-26 2005-06-16 Namco Ltd Program, information storage medium, game machine, and server device
JP2005165776A (en) * 2003-12-03 2005-06-23 Canon Inc Image processing method and image processor
JP2007164582A (en) * 2005-12-15 2007-06-28 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2007280158A (en) * 2006-04-10 2007-10-25 Kimoto & Co Ltd Three-dimensional geographical information presenting system
JP2008009646A (en) * 2006-06-28 2008-01-17 Canon Inc Image processor and image processing method
WO2014016987A1 (en) * 2012-07-27 2014-01-30 Necソフト株式会社 Three-dimensional user-interface device, and three-dimensional operation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113760088A (en) * 2020-06-04 2021-12-07 史克威尔·艾尼克斯有限公司 Augmented reality display device and recording medium
CN113566829A (en) * 2021-07-19 2021-10-29 上海极赫信息技术有限公司 High-precision positioning technology-based mixed reality navigation method and system and MR (magnetic resonance) equipment
CN113653150A (en) * 2021-09-17 2021-11-16 北京城乡建设集团有限责任公司 Construction method for drilling through sewage pipeline by rotary drilling machine

Similar Documents

Publication Publication Date Title
US20200254353A1 (en) Synchronized motion simulation for virtual reality
CN109478340B (en) Simulation system, processing method, and information storage medium
JP6754678B2 (en) Simulation system and program
CN104781873B (en) Image display device, method for displaying image, mobile device, image display system
US20160292924A1 (en) System and method for augmented reality and virtual reality applications
US10510189B2 (en) Information processing apparatus, information processing system, and information processing method
JP6761340B2 (en) Simulation system and program
ES2656868T3 (en) Portable device, virtual reality system and method
KR101955368B1 (en) System for providing virtual drone stadium using augmented reality and method thereof
US20060223637A1 (en) Video game system combining gaming simulation with remote robot control and remote robot feedback
JP2018010488A (en) Simulation system and program
JP2004503307A (en) Mobile remote control video game system
JP2011215920A (en) Program, information storage medium and image generation system
JP2011036432A (en) Program, information storage medium, and image generation system
CN105080134A (en) Realistic remote-control experience game system
WO2015048890A1 (en) System and method for augmented reality and virtual reality applications
JP6712423B2 (en) Simulation system
JP2018067060A (en) Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model
CN112150885A (en) Cockpit system based on mixed reality and scene construction method
JP2013238828A (en) Traveling object training support system
JP6849317B2 (en) Game system
CN103002961B (en) Games system and control method thereof
US20220083055A1 (en) System and method for robot interactions in mixed reality applications
JP2018171320A (en) Simulation system and program
US11314082B2 (en) Motion signal generation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211005