JP2017146762A - Image display type simulation service providing system and image display type simulation service providing method - Google Patents

Image display type simulation service providing system and image display type simulation service providing method Download PDF

Info

Publication number
JP2017146762A
JP2017146762A JP2016027652A JP2016027652A JP2017146762A JP 2017146762 A JP2017146762 A JP 2017146762A JP 2016027652 A JP2016027652 A JP 2016027652A JP 2016027652 A JP2016027652 A JP 2016027652A JP 2017146762 A JP2017146762 A JP 2017146762A
Authority
JP
Japan
Prior art keywords
image information
information
image
image display
motion capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016027652A
Other languages
Japanese (ja)
Inventor
山口 聡
Satoshi Yamaguchi
山口  聡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acw-Deep Corp
Original Assignee
Acw-Deep Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acw-Deep Corp filed Critical Acw-Deep Corp
Priority to JP2016027652A priority Critical patent/JP2017146762A/en
Publication of JP2017146762A publication Critical patent/JP2017146762A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display type simulation service that allows persons interested in somesthetic experience to go around by themselves, makes it possible for the persons to attain somesthetic experience of a virtual space, resolves a picture-sickness symptom peculiar to a three-dimensional stereoscopic viewing, and makes it possible to avoid risks of usage in a real world by displaying images in combination of the real world with virtual space.SOLUTION: An image display type simulation service providing system is configured to: extract arbitrary image information from preliminarily shot image information; create three-dimensional virtual image information with reference to the extracted arbitrary image information; consecutively measure positions of persons or objects, or poses thereof by a motion capture device 200; perform synthesis processing of synthesizing image information actually shot by a camera as to measurement objects of the motion capture device 200 with the three-dimensional virtual image information with reference to information on the measurement, and create synthesis image information; and output the synthesis image information to an image display device 300 to display the output synthesis image information.SELECTED DRAWING: Figure 1

Description

本発明は、合成画像にて疑似体験を可能とする画像表示型シミュレーションサービス提供システム及び画像表示型シミュレーションサービス提供方法に関する。   The present invention relates to an image display type simulation service providing system and an image display type simulation service providing method that enable a simulated experience with a composite image.

従来より、例えばマンション等の集合住宅の販売に於いては、モデルルームが利用されている。モデルルームは、集合住宅建設現場の近くに広いスペースの商談会場として設けられるものである。販売されるマンションの部屋タイプには幾つかのバリエーションがあるのが実情ではあるのだが、それら全てをモデルルームとして用意することはなく、通常は、標準的な部屋タイプのモデルルームが一つ用意されるものである。   Conventionally, model rooms have been used in the sale of apartment houses such as condominiums. The model room is set up as a business meeting place with a large space near the apartment building construction site. There are actually some variations in the room types of condominiums sold, but not all of them are prepared as model rooms. Usually, one standard room type model room is prepared. It is what is done.

他の部屋タイプについては、標準的な部屋タイプのモデルルームを念頭に、販売業者の説明を受けたりパンフレットや図面を参考にして、モデルルーム見学者自らがイメージするしか術はなかった。   As for other room types, the model room tourer himself had to imagine the standard room type model room, receiving explanations from dealers and referring to brochures and drawings.

下記特許文献1には、建築予定等の建築物をコンピュータグラフィックスによる画像(CG画像)として作成し、立体像として表示するCG画像の作成表示方法の技術が開示されている。この特許文献1によれば、建築物に関する三次元形状データを予めCADシステムにより作成しておき、三次元形状データに対して設定した仮想的な視点位置を、オペレータの入力操作に応じて三次元形状データに対し停止または所望方向へ移動させ、三次元画像データと視点位置とに基づく演算により、建築物を所望位置から見た状態を表すCG画像に対応するCG画像用データを生成し、このCG画像用データに基づいて視点位置が停止しているときは建築物に関するCG画像を静止画として、視点位置が移動しているときは動画として表示するとともに、鑑賞者が立体化用メガネを着用することにより静止画または動画を立体像として認識できるようにしたものである。   Patent Document 1 listed below discloses a technique for creating and displaying a CG image in which a building such as a building schedule is created as an image (CG image) by computer graphics and displayed as a stereoscopic image. According to Patent Document 1, three-dimensional shape data relating to a building is created in advance by a CAD system, and a virtual viewpoint position set for the three-dimensional shape data is determined according to an input operation by an operator. CG image data corresponding to the CG image representing the state of the building viewed from the desired position is generated by calculation based on the three-dimensional image data and the viewpoint position by stopping or moving the shape data in the desired direction. When the viewpoint position is stopped based on the CG image data, the CG image related to the building is displayed as a still image, and when the viewpoint position is moving, it is displayed as a moving image and the viewer wears stereoscopic glasses. Thus, a still image or a moving image can be recognized as a stereoscopic image.

下記特許文献2には、建築予定等の建築物を、家庭用の遊戯機及びテレビジョンまたはヘッドマウントディスプレイ(HMD)等の表示装置を用いて、一般家庭内で静止画または動画として鑑賞できるようにする遊戯機を用いた建築物の表示方法に関する技術が開示されている。この特許文献2に開示されたものは、建築物に関する画像データを遊戯機の記録媒体に記録しておき、遊戯機に付属する操作手段を操作することにより、画像データに対する視点位置を停止または所望方向へ移動させ、視点位置と画像データとに基いて所定の演算を行い、遊戯機と連携する表示装置に建築物を表すCG画像を静止画または動画として表示するようにしたものである。   In Patent Document 2 below, a building such as a building schedule can be viewed as a still image or a moving image in a general home using a display device such as a home game machine and a television or a head mounted display (HMD). The technique regarding the display method of the building using the game machine to make is disclosed. In this document, image data relating to a building is recorded on a recording medium of a game machine, and the viewpoint position with respect to the image data is stopped or desired by operating an operation means attached to the game machine. The CG image representing the building is displayed as a still image or a moving image on the display device linked with the game machine by performing a predetermined calculation based on the viewpoint position and the image data.

特開平9−106464号公報JP-A-9-106464 特開平9−147141号公報Japanese Patent Laid-Open No. 9-147141

従来の集合住宅建設現場の近くに設けられるモデルルームにあっては、標準的な部屋タイプのものが一つ用意されているに過ぎず、他の部屋タイプについては、販売業者の説明や図面またはパンフレット等から見学者自らが想像するしか術はなかった。特に、生活していく上で重要な要素である間取りや日照状況については、このような状況下では的確に把握することは困難であった。   There is only one standard room type in the model room provided near the conventional apartment building construction site. For other room types, the description or drawings of the seller or The only way for visitors to imagine from pamphlets was to imagine. In particular, it was difficult to accurately grasp the floor plan and sunshine situation, which are important elements in living, under such circumstances.

特許文献1に開示されものにあっては、立体化用メガネを着用した鑑賞者は定点に位置することを前提として、オペレータによる操作によりCG画像を立体像として認識するようにしたものである。このため、鑑賞者自らが実際に動き回っての状況確認はできないものである。   In what is disclosed in Patent Document 1, a viewer wearing a 3D glasses is assumed to be positioned at a fixed point, and a CG image is recognized as a 3D image by an operation by an operator. For this reason, it is impossible to confirm the situation where the viewer himself / herself actually moves around.

特許文献2に開示されものにあっては、操作手段を操作して移動方向を指示することにより、定点に位置することを前提とする顧客自身があたかも建築物の内部等を歩き回っているのと同様の感覚で、主体的に建築物の各部を観察、評価することができるにしたものである。しかしながら、顧客自らが実際に動き回っての状況確認はできないものである。   In what is disclosed in Patent Document 2, by operating the operating means and instructing the moving direction, the customer who is presumed to be located at a fixed point is walking around the interior of the building. In the same way, each part of the building can be observed and evaluated independently. However, it is impossible to confirm the situation when the customer actually moves around.

ところで、近時、CGで周辺環境映像を生成し鑑賞者がその映像を見ることで架空世界を疑似体験するバーチャルリアルティ(VR)技術が、コンピュータの演算性能の向上等の技術進歩により急速に発展してきている。VRを応用したシステムは様々なものがあり、航空会社のパイロットが利用するフライトシミュレータや自動車運転教習所で運転技能向上に利用されるドライブシミュレータ等のような訓練用シミュレーションシステムはその典型的なものである。VR技術の向上によって、より現実に近いシミュレーションが可能になっているのが実情である。   By the way, recently, virtual reality (VR) technology, in which the surrounding environment image is generated by CG and the viewer sees the image, the virtual reality technology (VR) technology has been rapidly developed due to technological progress such as improvement of computer computing performance. It is developing. There are a variety of systems that apply VR, and training simulation systems such as flight simulators used by airline pilots and drive simulators used to improve driving skills at driving schools are typical. is there. The reality is that simulations closer to reality are possible due to improvements in VR technology.

また、近時、注目を集めているHMDの良さは、視界全てを覆うことによる没入感にあるといわれている。HMD装着者があたかも仮想世界にいる、という臨場感を体感可能としているからである。このHMDを利用することで訓練用シミュレータの活用の幅も広がりをみせてきている。   In addition, it is said that the goodness of HMD that has been attracting attention recently is the immersive feeling that covers the entire field of view. This is because the HMD wearer can feel the presence of being in a virtual world. By using this HMD, the range of use of training simulators has also expanded.

しかしながら、三次元立体視では、乗り物酔いに似た症状が出る傾向が強いものである。これは、利用者が例えば椅子に座った姿勢で激しく動くVR映像を見ると、人体の感覚は「動いていない」という情報が送られているのにもかかわらず、脳では映像から「動いているはずだ」という認識をしてしまい、混乱を起こすことによるためである。このために酔いの症状が現れ、健康被害の虞があるものである。   However, in 3D stereoscopic vision, there is a strong tendency for symptoms similar to motion sickness. For example, when a user sees a VR image that moves violently while sitting in a chair, the information that the human sense is “not moving” is sent from the image in the brain. This is due to the confusion that causes the confusion that “there should be”. For this reason, symptoms of sickness appear and there is a risk of health damage.

また、HMDは視界を全て覆うため、実際の周囲の環境を把握できない虞が大きいものである。装着者が見ているHMDに表示されている画像は仮想空間をCGで再現したものであり、実際の装着者の周りにある環境とは異なるものである。例えば、6畳程度の狭い部屋でVR体験を行う際、100畳以上の広い仮想空間を生成すれば、装着者が広い空間にいる意識で走り回ると、実際の壁に激突してしまう虞がある。このようなことを回避するため、現状では装着者には椅子等に座って定点位置にて動かないようにすることが求められている。このことが酔いの症状を生むことにもなり、HMDの利用範囲を狭めることにもなっている。   Further, since the HMD covers the entire field of view, there is a high possibility that the actual surrounding environment cannot be grasped. The image displayed on the HMD viewed by the wearer is a reproduction of the virtual space by CG, and is different from the environment around the actual wearer. For example, when performing a VR experience in a small room of about 6 tatami mats, if a large virtual space of 100 tatami mats or more is generated, if the wearer runs around in a wide space, there is a risk of colliding with an actual wall. . In order to avoid such a situation, the wearer is currently required to sit on a chair or the like so as not to move at a fixed position. This also causes sickness and narrows the range of use of HMD.

本発明は、上記事情を考慮してなされたもので、上述不具合を解消し、体感者が定点に位置することを前提とせず体感者自らが動き回って仮想空間を体感可能とする画像表示型シミュレーションサービス提供システム、及び画像表示型シミュレーションサービス提供方法を提供することを目的とする。
また、本発明は、三次元立体視特有の映像酔い症状を解消するとともに、現実空間と仮想空間を組合せて画像表示することにより、現実世界に於ける利用上の危険を回避可能とする画像表示型シミュレーションサービス提供システム、及び画像表示型シミュレーションサービス提供方法を提供することを目的とする。
The present invention has been made in view of the above circumstances, and solves the above-described problems, and does not assume that the sensation person is positioned at a fixed point, so that the sensation person can move around and experience the virtual space. It is an object to provide a service providing system and an image display type simulation service providing method.
In addition, the present invention eliminates video sickness symptoms peculiar to three-dimensional stereoscopic vision, and displays an image by combining the real space and the virtual space, thereby making it possible to avoid danger in use in the real world. An object is to provide a type simulation service providing system and an image display type simulation service providing method.

本発明は、上記目的を達成するために以下の通りの構成とすることを特徴とする。   In order to achieve the above object, the present invention has the following configuration.

(1) 各種画像情報を格納する画像情報記憶手段と、この画像情報記憶手段から任意の画像情報を抽出する画像情報抽出手段と、この画像情報抽出手段から抽出された上記任意の画像情報を参照して三次元仮想画像情報を生成する三次元仮想画像情報生成手段と、この三次元仮想画像情報生成手段にて生成された三次元仮想画像情報と現実の画像情報とを合成処理して合成画像情報として生成する合成画像情報生成手段とを具備するシミュレーション管理装置と、
人物や物体の位置や姿勢を時間連続的に計測し当該計測情報を上記シミュレーション管理装置に送出可能なモーションキャプチャ装置と、
上記シミュレーション管理装置から送出されてくる合成画像情報を出力表示する画像表示装置と、
この画像表示装置に設けられ、少なくとも当該画像表示装置の前方を撮影可能とし、当該撮影画像情報を上記シミュレーション管理装置に送出可能な撮影装置とから構成される画像表示型シミュレーションサービス提供システムであって、
上記シミュレーション管理装置の上記合成画像情報生成手段は上記撮影装置から送出されてくる撮影画像情報を上記現実の画像情報として認識するとともに上記モーションキャプチャ装置から送出されてくる計測情報に基いて合成画像情報を生成し、上記画像表示装置は当該合成画像情報を出力表示するように構成したことを特徴とする。
(1) Reference is made to image information storage means for storing various image information, image information extraction means for extracting arbitrary image information from the image information storage means, and the arbitrary image information extracted from the image information extraction means 3D virtual image information generating means for generating 3D virtual image information, and 3D virtual image information generated by the 3D virtual image information generating means and real image information are combined to generate a composite image A simulation management apparatus comprising synthetic image information generation means for generating information;
A motion capture device capable of continuously measuring the position and orientation of a person or object in time and sending the measurement information to the simulation management device;
An image display device for outputting and displaying the composite image information sent from the simulation management device;
An image display type simulation service providing system comprising: an imaging device provided in the image display device, capable of capturing at least the front of the image display device, and capable of transmitting the captured image information to the simulation management device. ,
The composite image information generating means of the simulation management apparatus recognizes the captured image information transmitted from the imaging apparatus as the actual image information and combines the composite image information based on the measurement information transmitted from the motion capture apparatus. The image display device is configured to output and display the composite image information.

(2) 上記(1)の構成にあって、上記モーションキャプチャ装置は、光学センサ式、慣性センサ式、超音波センサ式または磁気センサ式のモーションキャプチャ機能を有するよう構成したことを特徴とする。 (2) In the configuration of (1), the motion capture device is configured to have an optical sensor type, inertial sensor type, ultrasonic sensor type or magnetic sensor type motion capture function.

(3) 本発明の画像表示型シミュレーションサービス提供方法は、予め作成されたまたは撮影された各種画像情報の中から任意の画像情報を抽出し、この抽出された任意の画像情報を参照して三次元仮想画像情報を生成し、モーションキャプチャ装置により人物や物体の位置や姿勢を時間連続的に計測し、このモーションキャプチャ装置からの計測情報を参照して当該モーションキャプチャ装置の計測対象にて現実にカメラ撮影した画像情報と上記三次元仮想画像情報とを合成処理して合成画像情報を生成し、表示装置にこの合成画像情報を出力表示するようにしたことを特徴とする。 (3) The image display type simulation service providing method of the present invention extracts arbitrary image information from various image information created or photographed in advance, and refers to the extracted arbitrary image information to perform tertiary processing. Original virtual image information is generated, and the position and posture of a person or object are continuously measured with a motion capture device, and the measurement information of the motion capture device is actually measured with reference to the measurement information from the motion capture device. The image information captured by the camera and the three-dimensional virtual image information are combined to generate combined image information, and the combined image information is output and displayed on a display device.

(4) 上記(3)の構成にあって、上記表示装置に設けられた撮影装置により当該撮影装置前方の撮影情報を上記現実にカメラ撮影した画像情報とし、上記計測対象に装着される表示装置に上記合成画像情報が出力表示されるようにしたことを特徴とする。 (4) In the configuration of (3) above, a display device that is mounted on the measurement target using the imaging information in front of the imaging device as image information actually captured by the camera using the imaging device provided in the display device The above composite image information is output and displayed.

上記構成によれば、体感者(計測対象)が定点に位置することなく体感者自らが動き回って仮想空間を体感できるものである。
また、上記構成によれば、体感者が定点に位置する必要がないため、三次元立体視特有の映像酔い症状を解消するとともに、現実空間と仮想空間を組合せて画像表示することにより、現実世界に於ける利用上の危険を回避可能とするものである。
さらに、上記構成によれば、大規模なシミュレータ設備を必要とせず実現できるので、経済的且つ実用的に極めて有用なものである。
According to the above configuration, the sensation person (measurement target) can move around and experience the virtual space without being located at a fixed point.
In addition, according to the above configuration, since the sensation person does not need to be positioned at a fixed point, it eliminates video sickness symptoms peculiar to three-dimensional stereoscopic vision and displays an image by combining the real space and the virtual space, thereby realizing the real world It is possible to avoid the dangers of use in Japan.
Furthermore, according to the said structure, since it can implement | achieve, without requiring a large-scale simulator installation, it is very useful economically and practically.

本発明によれば、定点に位置することなく体感者自らが動き回って仮想空間を体感できるものである。
また、本発明によれば、三次元立体視特有の映像酔い症状を解消するとともに、現実空間と仮想空間を組合せて画像表示することにより、現実世界に於ける利用上の危険を回避可能とし、実用的に優れた効果を奏するものである。
According to the present invention, an experienced person can move around and experience a virtual space without being located at a fixed point.
In addition, according to the present invention, it eliminates video sickness symptoms peculiar to three-dimensional stereoscopic vision, and by displaying an image by combining a real space and a virtual space, it is possible to avoid dangers in use in the real world, It has a practically excellent effect.

本発明の一実施形態に係わる画像表示型シミュレーションサービス提供システムの全体構成を概念的に示す図である。It is a figure which shows notionally the whole structure of the image display type simulation service provision system concerning one Embodiment of this invention. 同実施形態に係わり、シミュレーション管理装置の概略構成を示す図である。It is a figure which shows the schematic structure of a simulation management apparatus in connection with the embodiment. 同実施形態に係わり、画像表示装置と撮影装置の概観構成を模式的に示す図であり、(a)は正面側からの、(b)は左側面側からの図である。It is a figure which shows typically the external appearance structure concerning an image display apparatus and an imaging device in connection with the embodiment, (a) is from the front side, (b) is a figure from the left side. 同実施形態に係わり、画像表示型シミュレーションサービス提供方法の全体の処理のおおよその流れを示す図である。It is a figure which shows the general flow of the whole process of the image display type simulation service providing method according to the embodiment. 同実施形態に係わり、光学センサ式のモーションキャプチャ装置による位置情報取得の様子を模式的に示す図である。It is a figure which shows typically the mode of the positional information acquisition by the optical sensor type motion capture apparatus in connection with the embodiment. 同実施形態に係わり、光学センサ式のモーションキャプチャ装置による位置情報取得の処理の流れを示す図である。It is a figure which shows the flow of the process of the positional information acquisition by the optical sensor type motion capture apparatus in connection with the embodiment. 同実施形態に係わり、慣性センサ式のモーションキャプチャ装置による位置情報取得の様子を模式的に示す図である。It is a figure which shows typically the mode of the positional information acquisition in connection with the embodiment by an inertial sensor type motion capture device. 同実施形態に係わり、慣性センサ式のモーションキャプチャ装置による位置情報取得の処理の流れを示す図である。It is a figure which shows the flow of the process of the positional information acquisition by the inertial sensor type motion capture apparatus in connection with the embodiment. 同実施形態に係わり、超音波センサ式のモーションキャプチャ装置による位置情報取得の様子を模式的に示す図である。It is a figure which shows typically the mode of the positional information acquisition in connection with the same embodiment by an ultrasonic sensor type motion capture apparatus. 同実施形態に係わり、超音波センサ式のモーションキャプチャ装置による位置情報取得の処理の流れを示す図である。It is a figure which shows the flow of the process of position information acquisition in connection with the same embodiment by an ultrasonic sensor type motion capture device. 同実施形態に係わり、合成画像の生成方法を模式的に示す図である。FIG. 4 is a diagram schematically illustrating a method for generating a composite image according to the embodiment.

以下、本発明の一実施形態につき、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

本実施形態に係わる画像表示型シミュレーションサービス提供システム10は、シミュレーション管理装置100、モーションキャプチャ装置200、画像表示装置300、撮影装置400及び操作装置500とから構成される。本システム10では、画像表示装置300としてHMDを採用し、このHMDを装着する人物(計測対象、即ち体感者)の位置をリアルタイムで検出するモーションキャプチャ装置200を組合せて、仮想空間(バーチャル空間)で例えばマンション等の集合住宅のモデルルームを体感できるようにしたものである。   The image display type simulation service providing system 10 according to the present embodiment includes a simulation management device 100, a motion capture device 200, an image display device 300, a photographing device 400, and an operation device 500. In this system 10, an HMD is adopted as the image display device 300, and a virtual space (virtual space) is combined with a motion capture device 200 that detects the position of a person (measurement target, that is, a sensible person) wearing the HMD in real time. For example, a model room of an apartment house such as an apartment can be experienced.

シミュレーション管理装置100は、図2に示すように中央制御処理部110、入力部120、出力部130、記憶部140、画像情報抽出部150、三次元仮想画像情報生成部160及び合成画像情報生成部170とからなり、夫々が信号性180を介して接続されている。   As shown in FIG. 2, the simulation management apparatus 100 includes a central control processing unit 110, an input unit 120, an output unit 130, a storage unit 140, an image information extraction unit 150, a 3D virtual image information generation unit 160, and a composite image information generation unit. 170, each of which is connected via a signal 180.

中央制御処理部110は、記憶部140に格納された所定のプログラム情報を参照してシステム全体の制御処理を司る機能を有する。また、中央制御処理部110は、外部から送出されてくる情報を入力部120を介して受信し記憶部140に格納させ、記憶部140に格納される情報や入力部120からの入力情報を出力部130を介して外部に送出させる機能を有する。   The central control processing unit 110 has a function of managing control processing of the entire system with reference to predetermined program information stored in the storage unit 140. In addition, the central control processing unit 110 receives information transmitted from the outside via the input unit 120 and stores it in the storage unit 140, and outputs information stored in the storage unit 140 and input information from the input unit 120. It has a function of sending to the outside via the unit 130.

入力部120は、中央制御処理部110の管理下で、外部から送出されてくる情報を受信し記憶部140に格納する機能を有する。例えば、モーションキャプチャ装置200や撮影装置400から送出されてくる情報を受信し、記憶部140に格納するよう構成されている。また、入力部120は、中央制御処理部110の管理下で、内設するキーボード等からのキー入力による入力情報を記憶部140に格納する機能を有する。   The input unit 120 has a function of receiving information transmitted from the outside and storing it in the storage unit 140 under the control of the central control processing unit 110. For example, it is configured to receive information transmitted from the motion capture device 200 or the imaging device 400 and store it in the storage unit 140. Further, the input unit 120 has a function of storing, in the storage unit 140, input information by key input from an internal keyboard or the like under the control of the central control processing unit 110.

出力部130は、中央制御処理部110の管理下で、記憶部140に格納された各種情報を出力したり外部へ送出等する出力機能を有する。例えば、記憶部140に格納された合成画像情報を画像表示装置300に送出するよう機能構成されている。   The output unit 130 has an output function for outputting various types of information stored in the storage unit 140 or sending the information to the outside under the management of the central control processing unit 110. For example, the function is configured to send the composite image information stored in the storage unit 140 to the image display device 300.

記憶部140は、リード/ライト可能なメモリ装置である。この記憶部140は、プログラム情報格納領域140a、画像情報格納領域140b、撮影情報格納領域140c、合成画像情報格納領域140d、計測情報格納領域140e及び作業領域140f等を内設している。   The storage unit 140 is a readable / writable memory device. The storage unit 140 includes a program information storage area 140a, an image information storage area 140b, a photographing information storage area 140c, a composite image information storage area 140d, a measurement information storage area 140e, a work area 140f, and the like.

而してプログラム情報格納領域140aは、中央制御処理部110が各種制御処理・管理をするために参照するプログラム情報を格納するための記憶領域である。   Thus, the program information storage area 140a is a storage area for storing program information that the central control processing unit 110 refers to for various control processes and management.

画像情報格納領域140bは、予め撮影または作成された各種画像情報を格納するための記憶領域である。また、画像情報格納領域140bは、各種画像コンテンツ情報やメニュー情報等を格納する記憶領域でもある。   The image information storage area 140b is a storage area for storing various types of image information that have been taken or created in advance. The image information storage area 140b is also a storage area for storing various image content information, menu information, and the like.

撮影情報格納領域140cは、撮影画像情報を格納するための記憶領域である。即ち、撮影装置400にて撮影され入力部120を介して送出されてくる撮影画像情報を格納するための記憶領域である。   The shooting information storage area 140c is a storage area for storing shot image information. That is, this is a storage area for storing photographed image information photographed by the photographing apparatus 400 and transmitted via the input unit 120.

合成画像情報格納領域140dは、合成画像情報を格納しておくための記憶領域である。即ち、合成画像情報生成部170にて生成された合成画像情報が格納される記憶領域である。   The composite image information storage area 140d is a storage area for storing composite image information. That is, it is a storage area in which the composite image information generated by the composite image information generation unit 170 is stored.

計測情報格納領域140eは、モーションキャプチャ装置200にて時間連続的に計測された人物や物体の位置や姿勢に関する計測情報を格納するための記憶領域である。   The measurement information storage area 140e is a storage area for storing measurement information related to the position and orientation of a person or an object measured continuously in time by the motion capture device 200.

作業領域140fは、内設する情報や送出されてくる情報に関し、各種作業を行うための領域である。   The work area 140f is an area for performing various kinds of work on information to be installed and information to be transmitted.

画像情報抽出部150は、中央制御処理部110の管理下で、記憶部140の画像情報格納領域140bに格納された画像情報の中から、入力部120を介して送出されてくる情報に基いて任意の画像情報を抽出する機能を有するものである。   The image information extraction unit 150 is based on information transmitted through the input unit 120 from the image information stored in the image information storage area 140b of the storage unit 140 under the control of the central control processing unit 110. It has a function of extracting arbitrary image information.

三次元仮想画像情報生成部160は、中央制御処理部110の管理下で、画像情報抽出部150にて抽出された任意の画像情報を参照して三次元仮想画像情報を生成する機能を有するものである。ここで、生成される三次元仮想画像情報は、右目用及び左目用の三次元仮想画像情報を二つ一組として生成されるものである。   The three-dimensional virtual image information generation unit 160 has a function of generating three-dimensional virtual image information with reference to arbitrary image information extracted by the image information extraction unit 150 under the control of the central control processing unit 110. It is. Here, the generated three-dimensional virtual image information is generated as a pair of three-dimensional virtual image information for right eye and left eye.

合成画像情報生成部170は、中央制御処理部110の管理下で、三次元仮想画像情報生成部160にて生成された三次元仮想画像情報と現実の画像情報とを合成処理して合成画像情報として生成する機能を有するものである。即ち、合成画像情報生成部170は、撮影装置400にて撮影された撮影画像情報を現実の画像情報として認識し、モーションキャプチャ装置200から送出されてくる計測情報に基いて三次元仮想画像情報生成部160にて生成された三次元仮想画像情報と撮影装置400からの撮影画像情報とを同期して合成処理し、当該合成処理して生成した合成画像情報を合成画像情報格納領域140dに格納するものである。ここで、生成される合成画像情報は、右目用及び左目用の合成画像情報を二つ一組として生成されるものである。   The composite image information generation unit 170 performs composite processing of the 3D virtual image information generated by the 3D virtual image information generation unit 160 and the real image information under the control of the central control processing unit 110 to generate composite image information. It has the function to produce | generate as. That is, the composite image information generation unit 170 recognizes the captured image information captured by the imaging apparatus 400 as actual image information, and generates 3D virtual image information based on the measurement information transmitted from the motion capture apparatus 200. The three-dimensional virtual image information generated by the unit 160 and the captured image information from the image capturing apparatus 400 are combined and synchronized, and the combined image information generated by the combining process is stored in the combined image information storage area 140d. Is. Here, the generated composite image information is generated by combining two sets of right-eye and left-eye composite image information.

斯様にして生成された合成画像情報は、中央制御処理部110の管理下で、シミュレーション管理装置100が出力部130を介して画像表示装置300に送出するよう構成されている。   The composite image information generated in this way is configured to be sent out to the image display device 300 via the output unit 130 by the simulation management device 100 under the control of the central control processing unit 110.

モーションキャプチャ装置200は、人物や物体の位置や姿勢を時間連続的にデジタル計測する機能を有し、画像表示装置300の位置情報を検出して当該計測情報をシミュレーション管理装置100に送出するよう構成されている。このモーションキャプチャ装置200は、非接触型の光学式の複数のモーションキャプチャカメラ202と画像表示装置300に取付けられたマーカ(センサ)204を有するよう構成されている。   The motion capture device 200 has a function of digitally measuring the position and orientation of a person or an object in a time-continuous manner, and is configured to detect position information of the image display device 300 and send the measurement information to the simulation management device 100. Has been. The motion capture device 200 includes a plurality of non-contact optical motion capture cameras 202 and a marker (sensor) 204 attached to the image display device 300.

なお、本実施形態では光学センサ式のモーションキャプチャ装置を用いているが、慣性センサ式のモーションキャプチャ装置、超音波センサ式または磁気センサ式の非接触型のモーションキャプチャ装置を用いてもよいことは勿論である。   In this embodiment, an optical sensor type motion capture device is used, but an inertial sensor type motion capture device, an ultrasonic sensor type or a magnetic sensor type non-contact type motion capture device may be used. Of course.

画像表示装置300は、装着者(体感者)が着脱自在に装着可能なHMDであり、シミュレーション管理装置100から送出されてくる合成画像情報を出力表示する機能を有する。   The image display device 300 is an HMD that can be detachably worn by a wearer (sensory user), and has a function of outputting and displaying composite image information sent from the simulation management device 100.

撮影装置400は、右目用カメラ420及び左目用カメラ440を有し画像表示装置300の前方部位に設けられて、画像表示装置300の前方を撮影可能なものである。撮影装置400による撮影画像情報は、シミュレーション管理装置100に送出されるよう構成されている。而して装着者が画像表示装置300を装着すると、右目用カメラ420は装着者の右目前方に、左目用カメラ440は装着者の左目前方に位置することになる。   The imaging device 400 includes a right-eye camera 420 and a left-eye camera 440 and is provided in a front portion of the image display device 300 so that the front of the image display device 300 can be captured. Image information captured by the imaging apparatus 400 is configured to be sent to the simulation management apparatus 100. Thus, when the wearer wears the image display device 300, the right-eye camera 420 is positioned in front of the wearer's right eye, and the left-eye camera 440 is positioned in front of the wearer's left eye.

操作装置500は、画像表示装置300の装着者(体感者)が操作可能なライト機能やハンドカメラ機能を有し、撮影画像情報をピクチャーインピクチャーとして画像表示装置300の映像画像中に表示可能とする機能を有するものである。   The operation device 500 has a light function and a hand camera function that can be operated by a wearer (sensory person) of the image display device 300, and can display captured image information as a picture-in-picture in a video image of the image display device 300. It has the function to do.

なお、画像表示型シミュレーションサービス提供システム10では、装着者以外の第三者は別モニターにて、同時に画像表示装置300の装着者が見ている画像情報を確認することができるよう機能構成されている。これにより、装着者が指摘する内容を第三者も見ながら情報共有することを可能となるよう機能構成されている。   The image display-type simulation service providing system 10 is configured so that a third party other than the wearer can simultaneously check image information viewed by the wearer of the image display device 300 on a separate monitor. Yes. Thereby, it is functionally configured so that the information pointed out by the wearer can be shared while also being viewed by a third party.

上記構成につき、その作用を以下に説明する。   The effect | action is demonstrated below about the said structure.

画像表示装置300の装着者が画像表示装置300に表示されるメニューの中から操作装置500を介して所望のモデルルームを選択すると(図4のステップS100参照)、シミュレーション管理装置100の画像情報抽出部150が記憶部140の画像情報格納領域140bから該当する画像情報を抽出することになる(ステップS200)。即ち、予め撮影または作成された該当するモデルルームの部屋の画像情報が用意されることになる。   When the wearer of the image display device 300 selects a desired model room from the menu displayed on the image display device 300 via the operation device 500 (see step S100 in FIG. 4), image information extraction of the simulation management device 100 is performed. The unit 150 extracts corresponding image information from the image information storage area 140b of the storage unit 140 (step S200). That is, the image information of the room of the corresponding model room that has been photographed or created in advance is prepared.

同時に、モーションキャプチャ装置200からの計測情報に基いて、右目の位置及び左目の位置が算出されることになる(ステップS300)。   At the same time, the position of the right eye and the position of the left eye are calculated based on the measurement information from the motion capture device 200 (step S300).

算出された右目及び左目の位置情報を参照して、抽出された画像情報に関し三次元仮想画像情報が作成されることになる(ステップS400)。即ち、モデルルームでの装着者が相当する位置に於ける右目用及び左目用の三次元仮想画像情報が三次元仮想画像情報生成部160により夫々生成されることになる。   With reference to the calculated position information of the right eye and the left eye, three-dimensional virtual image information is created for the extracted image information (step S400). That is, the three-dimensional virtual image information generation unit 160 generates the right-eye and left-eye three-dimensional virtual image information at a position corresponding to the wearer in the model room.

而して撮影装置400から送出されてくる右目用及び左目用撮影画像情報を取得して(ステップS500)、ステップS400にて作成された右目用及び左目用の三次元仮想画像情報との画像合成処理が合成画像情報生成部170にて行われることになる(ステップS600)。   Thus, the right-eye and left-eye photographed image information sent from the photographing device 400 is acquired (step S500), and image synthesis with the right-eye and left-eye three-dimensional virtual image information created in step S400 is performed. Processing is performed by the composite image information generation unit 170 (step S600).

合成された合成画像情報は、画像表示装置300に送出されて出力表示されることになる(ステップS700)。これにより、装着者は、あたかもモデルルーム内に位置しているよう体感できるものである。   The synthesized composite image information is sent to the image display device 300 and output and displayed (step S700). Thereby, the wearer can feel as if he / she is located in the model room.

ここで、装着者に動きがあると(ステップS800のY)、ステップS300に処理が移行し、あらたな画像合成処理がなされて出力表示されることになる。   If the wearer moves (Y in step S800), the process proceeds to step S300, where a new image composition process is performed and output and displayed.

また、操作装置500が操作されると(ステップS850)、当該操作に応じた処理がなされるものである(ステップS900)。   When the operation device 500 is operated (step S850), processing corresponding to the operation is performed (step S900).

さて、光学センサ式のモーションキャプチャ装置200の機能について、図5及び図6を参照して以下に詳述する。   The function of the optical sensor type motion capture device 200 will be described in detail below with reference to FIGS.

光学センサ式のものは、例えば部屋の周囲に設置された複数のカメラ202により装着者Aに取り付けたマーカ204を撮影し(図6のステップS602)、その画像を解析することによりマーカ204の位置情報を算出することになる(ステップS604)。而して当該位置情報から撮影装置400の位置を算出するものである(ステップS606)。斯様にして算出された位置情報がステップS300の位置情報取得処理に利用されることになる。
光学センサ式のモーションキャプチャ装置は、非常に正確なデータ取得が可能である。
In the optical sensor type, for example, the marker 204 attached to the wearer A is photographed by a plurality of cameras 202 installed around the room (step S602 in FIG. 6), and the position of the marker 204 is analyzed by analyzing the image. Information is calculated (step S604). Thus, the position of the photographing apparatus 400 is calculated from the position information (step S606). The position information calculated in this way is used for the position information acquisition process in step S300.
The optical sensor type motion capture device can obtain very accurate data.

光学センサ式のモーションキャプチャ装置は、例えば英国 Vicon Motion Systems社、米国 Motion Analysis社、米国 Natural Point社から提供されている。   Optical sensor type motion capture devices are provided by, for example, Vicon Motion Systems, UK, Motion Analysis, USA, and Natural Point, USA.

ところで、モーションキャプチャ装置は、光学センサ式のものの他に慣性センサ式のものや超音波センサ式のものが提供されている。   By the way, as the motion capture device, an inertial sensor type and an ultrasonic sensor type are provided in addition to the optical sensor type.

以下に、慣性センサ式のモーションキャプチャ装置の機能について、図7及び図8を参照して説明する。   Hereinafter, functions of the inertial sensor type motion capture device will be described with reference to FIGS.

慣性センサ式のものは、例えば装着者Bの身体に慣性センサ206を複数個装着し、各センサ206の移動量を受信し(図8のステップS802)、受信した移動量から装着者Bの動きの位置情報を算出する(ステップS804)。而して当該位置情報から撮影装置400の位置を算出するものである(ステップS806)。斯様にして算出された位置情報がステップS300の位置情報取得処理に利用されることになる。
慣性センサ式のモーションキャプチャ装置は、使用場所に制限がなく、予め設定された場所ではなく、所望の場所での使用が可能である。
In the inertial sensor type, for example, a plurality of inertial sensors 206 are mounted on the body of the wearer B, the movement amount of each sensor 206 is received (step S802 in FIG. 8), and the movement of the wearer B is determined from the received movement amount. Is calculated (step S804). Thus, the position of the photographing apparatus 400 is calculated from the position information (step S806). The position information calculated in this way is used for the position information acquisition process in step S300.
The inertial sensor type motion capture device is not limited in the place of use, and can be used in a desired place instead of a preset place.

例えば慣性センサ式のモーションキャプチャ装置は、オランダ Xsens社からMVNモーションキャプチャシステムとして提供されている。   For example, an inertial sensor type motion capture device is provided as an MVN motion capture system by Xsens of the Netherlands.

続いて、超音波センサ式のモーションキャプチャ装置の機能について、図9及び図10を参照して説明する。   Next, functions of the ultrasonic sensor type motion capture device will be described with reference to FIGS.

超音波センサ式のものは、例えば部屋の天井等に超音波発信機208を複数個設置して、装着者Cの身体に装着した超音波受信機210にて超音波発信機208からの超音波を受信し、(図10のステップS1002)、受信した超音波信号の位相差により受信機の位置情報を算出する(ステップS1004)。而して当該位置情報から撮影装置400の位置を算出するものである(ステップS1006)。斯様にして算出された位置情報がステップS300の位置情報取得処理に利用されることになる。
超音波センサ式のモーションキャプチャ装置は、光学センサ式よりも設置に手間がかからず移動も容易に可能であり、また慣性センサ式よりも高い精度で位置情報を算出できるものである。
In the ultrasonic sensor type, for example, a plurality of ultrasonic transmitters 208 are installed on the ceiling of a room and the ultrasonic wave from the ultrasonic transmitter 208 is received by the ultrasonic receiver 210 attached to the body of the wearer C. (Step S1002 in FIG. 10), and the position information of the receiver is calculated from the phase difference of the received ultrasonic signals (step S1004). Thus, the position of the photographing apparatus 400 is calculated from the position information (step S1006). The position information calculated in this way is used for the position information acquisition process in step S300.
The ultrasonic sensor type motion capture device is easier to move than the optical sensor type and can be moved easily, and can calculate position information with higher accuracy than the inertial sensor type.

ところで、ステップS600に於ける合成処理について、モデルルームを例に以下に説明する。   By the way, the composition processing in step S600 will be described below using a model room as an example.

例えば光学センサ式処理により算出された位置情報からHMD装着者の目の位置情報が算出される。そして、この算出された目の位置に対応したCG画像を生成することになる。ここでは、モデルルーム内に配置する家具などをCGで生成する(図11の(a)参照)。   For example, the position information of the eyes of the HMD wearer is calculated from the position information calculated by the optical sensor processing. Then, a CG image corresponding to the calculated eye position is generated. Here, furniture and the like to be arranged in the model room are generated by CG (see FIG. 11A).

画像表示装置300の前方部位に設けられた撮影装置400のカメラ420,440は、装着者の目の位置と合致するよう構成されているので、カメラ420,440で撮影する画像は実際に目で見る画像と一致することになる。ここでは、実際の室内の風景が撮影されることになる(図11の(b)参照)。   Since the cameras 420 and 440 of the imaging device 400 provided in the front part of the image display device 300 are configured to match the position of the wearer's eyes, the images captured by the cameras 420 and 440 are actually eyes. It will match the image you see. Here, an actual indoor landscape is photographed (see FIG. 11B).

生成されたCG画像とカメラ撮影された実際の画像は解像度を一致させてあるので、画素毎に重ね合わせることで合成画像を得られる。而して画像表示装置300に表示出力されて装着者は体感することになる(図11の(c)参照)。   Since the generated CG image and the actual image taken by the camera have the same resolution, a composite image can be obtained by superimposing each pixel. Thus, the image is displayed on the image display device 300 and the wearer feels it (see FIG. 11C).

上記実施形態によれば、HMD装着者(体感者)が定点に位置することなく体感者自らが動き回って仮想空間を体感できるものである。しかも、体感者が定点に位置する必要がないため、三次元立体視特有の映像酔い症状を解消できるものである。また、現実空間と仮想空間を組合せて画像表示するようにしたので、現実世界に於ける利用上の危険を回避できるものである。加えて、色々な場面を想定した空間を体感できるので、極めて有用なものである。   According to the above-described embodiment, the HMD wearer (sensation person) can move around and experience the virtual space without being positioned at a fixed point. In addition, since it is not necessary for the sensible person to be positioned at a fixed point, video sickness symptoms peculiar to 3D stereoscopic vision can be eliminated. Further, since the image is displayed by combining the real space and the virtual space, it is possible to avoid danger in use in the real world. In addition, it is extremely useful because you can experience a space that assumes various scenes.

例えば不動産販売店の会議室や応接室のように、販売物件とは全く異なる間取りの部屋であっても、本システムを利用することにより、マンションの部屋をバリエーション毎に確認することが可能となるものである。その際、実際の会議室や応接室にはテーブルや椅子等が設置されており、これらを認知できないと体感者が衝突する虞がある。このような事態を回避するために、本システムでは、カメラで撮影する会議室や応接室の画像とCGで生成するマンション物件のCG画像を合成して表示出力することで、その危険を回避できることになる。   For example, a condominium room can be confirmed for each variation by using this system, even if the room is completely different from the property being sold, such as a conference room or reception room in a real estate dealer. Is. At that time, tables, chairs, etc. are installed in the actual conference room or reception room, and if these cannot be recognized, there is a possibility that the experienced person may collide. In order to avoid such a situation, this system can avoid the danger by synthesizing and displaying the image of the conference room or reception room photographed with the camera and the CG image of the apartment building generated by CG. become.

さらに、上記実施形態によれば、従来のような大規模なショウルームや展示場を用意する必要もなく、また大規模なシミュレータ設備を必要とせず小規模空間で実現できるので、経済的且つ実用的に極めて有用なものである。   Furthermore, according to the above embodiment, it is not necessary to prepare a conventional large-scale showroom or exhibition hall, and can be realized in a small-scale space without requiring a large-scale simulator facility, so that it is economical and practical. It is extremely useful.

本発明は上記実施形態に限定されることなく、本発明の要旨を逸脱しない限り種々の変形が可能なことは勿論である。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

10 …画像表示型シミュレーションサービス提供システム
100 …シミュレーション管理装置
140 …記憶部
140b…画像情報格納領域
140c…撮影情報格納領域
140d…合成画像情報格納領域
140e…計測情報格納領域
150 …画像情報抽出部
160 …三次元仮想画像情報生成部
170 …合成画像情報生成部
200 …モーションキャプチャ装置
202 …カメラ
204 …マーカ
300 …画像表示装置
400 …撮影装置
420 …右目用カメラ
440 …左目用カメラ
500 …操作装置

DESCRIPTION OF SYMBOLS 10 ... Image display type simulation service provision system 100 ... Simulation management apparatus 140 ... Storage part 140b ... Image information storage area 140c ... Shooting information storage area 140d ... Composite image information storage area 140e ... Measurement information storage area 150 ... Image information extraction part 160 ... three-dimensional virtual image information generation unit 170 ... composite image information generation unit 200 ... motion capture device 202 ... camera 204 ... marker 300 ... image display device 400 ... imaging device 420 ... right-eye camera 440 ... left-eye camera 500 ... operating device

Claims (4)

各種画像情報を格納する画像情報記憶手段と、この画像情報記憶手段から任意の画像情報を抽出する画像情報抽出手段と、この画像情報抽出手段から抽出された上記任意の画像情報を参照して三次元仮想画像情報を生成する三次元仮想画像情報生成手段と、この三次元仮想画像情報生成手段にて生成された三次元仮想画像情報と現実の画像情報とを合成処理して合成画像情報として生成する合成画像情報生成手段とを具備するシミュレーション管理装置と、
人物や物体の位置や姿勢を時間連続的に計測し当該計測情報を上記シミュレーション管理装置に送出可能なモーションキャプチャ装置と、
上記シミュレーション管理装置から送出されてくる合成画像情報を出力表示する画像表示装置と、
この画像表示装置に設けられ、少なくとも当該画像表示装置の前方を撮影可能とし、当該撮影画像情報を上記シミュレーション管理装置に送出可能な撮影装置とから構成される画像表示型シミュレーションサービス提供システムであって、
上記シミュレーション管理装置の上記合成画像情報生成手段は、上記撮影装置から送出されてくる撮影画像情報を上記現実の画像情報として認識するとともに、上記モーションキャプチャ装置から送出されてくる計測情報に基いて合成画像情報を生成し、
上記画像表示装置は、当該合成画像情報を出力表示するようにしたことを特徴とする画像表示型シミュレーションサービス提供システム。
The image information storage means for storing various image information, the image information extraction means for extracting arbitrary image information from the image information storage means, and the tertiary with reference to the arbitrary image information extracted from the image information extraction means 3D virtual image information generating means for generating original virtual image information, and 3D virtual image information generated by the 3D virtual image information generating means and real image information are combined to generate composite image information. A simulation management device comprising synthetic image information generating means for performing,
A motion capture device capable of continuously measuring the position and orientation of a person or object in time and sending the measurement information to the simulation management device;
An image display device for outputting and displaying the composite image information sent from the simulation management device;
An image display type simulation service providing system comprising: an imaging device provided in the image display device, capable of capturing at least the front of the image display device, and capable of transmitting the captured image information to the simulation management device. ,
The composite image information generation means of the simulation management device recognizes the captured image information sent from the photographing device as the actual image information and combines it based on the measurement information sent from the motion capture device. Generate image information,
An image display type simulation service providing system, wherein the image display device outputs and displays the composite image information.
上記モーションキャプチャ装置は、光学センサ式、慣性センサ式、超音波センサ式または磁気センサ式のモーションキャプチャ機能を有することを特徴とする請求項1記載の画像表示型シミュレーションサービス提供システム。   2. The image display type simulation service providing system according to claim 1, wherein the motion capture device has an optical sensor type, inertial sensor type, ultrasonic sensor type or magnetic sensor type motion capture function. 予め作成されたまたは撮影された各種画像情報の中から任意の画像情報を抽出し、
この抽出された任意の画像情報を参照して三次元仮想画像情報を生成し、
モーションキャプチャ装置により人物や物体の位置や姿勢を時間連続的に計測し、
このモーションキャプチャ装置からの計測情報を参照して、当該モーションキャプチャ装置の計測対象にて現実にカメラ撮影した画像情報と上記三次元仮想画像情報とを合成処理して合成画像情報を生成し、
この合成画像情報を出力表示するようにしたことを特徴とする画像表示型シミュレーションサービス提供方法。
Arbitrary image information is extracted from various image information created in advance or taken,
3D virtual image information is generated by referring to the extracted arbitrary image information,
Measure the position and posture of a person or object continuously with a motion capture device,
With reference to the measurement information from the motion capture device, the image information actually captured by the measurement target of the motion capture device is combined with the three-dimensional virtual image information to generate composite image information,
An image display type simulation service providing method characterized in that the composite image information is output and displayed.
上記計測対象に装着される表示装置に上記合成画像情報が出力表示され、
上記表示装置に設けられた撮影装置により当該撮影装置前方の撮影情報を上記現実にカメラ撮影した画像情報としたことを特徴とする請求項3記載の画像表示型シミュレーションサービス提供方法。

The composite image information is output and displayed on a display device attached to the measurement target,
4. The image display type simulation service providing method according to claim 3, wherein the photographing information provided in front of the photographing device is used as the image information actually photographed by the camera by the photographing device provided in the display device.

JP2016027652A 2016-02-17 2016-02-17 Image display type simulation service providing system and image display type simulation service providing method Pending JP2017146762A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016027652A JP2017146762A (en) 2016-02-17 2016-02-17 Image display type simulation service providing system and image display type simulation service providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016027652A JP2017146762A (en) 2016-02-17 2016-02-17 Image display type simulation service providing system and image display type simulation service providing method

Publications (1)

Publication Number Publication Date
JP2017146762A true JP2017146762A (en) 2017-08-24

Family

ID=59682943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016027652A Pending JP2017146762A (en) 2016-02-17 2016-02-17 Image display type simulation service providing system and image display type simulation service providing method

Country Status (1)

Country Link
JP (1) JP2017146762A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088273A1 (en) * 2017-11-04 2019-05-09 ナーブ株式会社 Image processing device, image processing method and image processing program
CN111292424A (en) * 2018-12-06 2020-06-16 珀斯特传媒有限公司 Multi-view 360-degree VR content providing system
JP2021026527A (en) * 2019-08-06 2021-02-22 株式会社エクサウィザーズ Information processing device and program
CN113935097A (en) * 2021-10-26 2022-01-14 山东同圆数字科技有限公司 Building space analysis method and system based on BIM engine data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242865A (en) * 2012-04-27 2013-12-05 Canon Marketing Japan Inc Virtual space display system, method of controlling the same, and program
JP2014038523A (en) * 2012-08-17 2014-02-27 Institute Of Physical & Chemical Research Substitutional reality system control device, substitutional reality system, substitutional reality control method, program, and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242865A (en) * 2012-04-27 2013-12-05 Canon Marketing Japan Inc Virtual space display system, method of controlling the same, and program
JP2014038523A (en) * 2012-08-17 2014-02-27 Institute Of Physical & Chemical Research Substitutional reality system control device, substitutional reality system, substitutional reality control method, program, and storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088273A1 (en) * 2017-11-04 2019-05-09 ナーブ株式会社 Image processing device, image processing method and image processing program
JP6570161B1 (en) * 2017-11-04 2019-09-04 ナーブ株式会社 Image processing apparatus, image processing method, and image processing program
CN111292424A (en) * 2018-12-06 2020-06-16 珀斯特传媒有限公司 Multi-view 360-degree VR content providing system
JP2021026527A (en) * 2019-08-06 2021-02-22 株式会社エクサウィザーズ Information processing device and program
CN113935097A (en) * 2021-10-26 2022-01-14 山东同圆数字科技有限公司 Building space analysis method and system based on BIM engine data
CN113935097B (en) * 2021-10-26 2022-12-06 山东同圆数字科技有限公司 Building space analysis method and system based on BIM engine data

Similar Documents

Publication Publication Date Title
CN107340870B (en) Virtual reality display system fusing VR and AR and implementation method thereof
TWI567659B (en) Theme-based augmentation of photorepresentative view
JP7349793B2 (en) Image processing device, image processing method, and program
Piumsomboon et al. Superman vs giant: A study on spatial perception for a multi-scale mixed reality flying telepresence interface
US10701344B2 (en) Information processing device, information processing system, control method of an information processing device, and parameter setting method
JP7423683B2 (en) image display system
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
WO2015098807A1 (en) Image-capturing system for combining subject and three-dimensional virtual space in real time
KR20130098770A (en) Expanded 3d space based virtual sports simulation system
JP2017146762A (en) Image display type simulation service providing system and image display type simulation service providing method
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
CN108028910A (en) Information processing equipment, information processing method and program
JP5833526B2 (en) Video communication system and video communication method
CN108028906A (en) Information processing system and information processing method
CN106980378B (en) Virtual display method and system
WO2021096630A1 (en) Co-located pose estimation in a shared artificial reality environment
JP6775669B2 (en) Information processing device
Saggio et al. Augmented reality for restoration/reconstruction of artefacts with artistic or historical value
CN110682309A (en) Room viewing system and robot for viewing room
JP6695997B2 (en) Information processing equipment
KR20180010891A (en) 360 degree opera imaging providing method by VR devices
US11733772B2 (en) Viewing a virtual world through a virtual window
JP2003303356A (en) Exhibition system
US20230385011A1 (en) Information processing apparatus, information processing system, information processing method, and information processing terminal
Nesamalar et al. An introduction to virtual reality techniques and its applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180326

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180921