JP6011567B2 - Information processing apparatus, control method thereof, and program - Google Patents

Information processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP6011567B2
JP6011567B2 JP2014045802A JP2014045802A JP6011567B2 JP 6011567 B2 JP6011567 B2 JP 6011567B2 JP 2014045802 A JP2014045802 A JP 2014045802A JP 2014045802 A JP2014045802 A JP 2014045802A JP 6011567 B2 JP6011567 B2 JP 6011567B2
Authority
JP
Japan
Prior art keywords
real space
information processing
processing apparatus
space image
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014045802A
Other languages
Japanese (ja)
Other versions
JP2015170232A (en
Inventor
利光 向井
利光 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2014045802A priority Critical patent/JP6011567B2/en
Publication of JP2015170232A publication Critical patent/JP2015170232A/en
Application granted granted Critical
Publication of JP6011567B2 publication Critical patent/JP6011567B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置により撮像された現実空間上の対象物を含む現実空間画像を仮想空間に配置する仕組みにおいて、対象物が現実空間を移動したとしても、撮像装置から見た対象物の大きさと、仮想空間に設定される視点から見た現実空間画像に含まれる対象物の大きさとが略同一になるよう、現実空間画像のサイズを変更することの可能な仕組みを提供することの可能な情報処理装置、その制御方法、及びプログラムに関する。
The present invention is a mechanism for arranging a real space image including an object in a real space imaged by an imaging device in a virtual space, and even if the object moves in the real space, the size of the object viewed from the imaging device is large. And a mechanism capable of changing the size of the real space image so that the size of the object included in the real space image viewed from the viewpoint set in the virtual space is substantially the same. The present invention relates to an information processing apparatus, a control method thereof, and a program.

従来、映像において被写体の背景を変更する技術が考えられている。この技術の一つとしてクロマキー合成という技術が存在する。これは、均質な色(例えば、青や緑)の背景の前で被写体を撮像し、撮像により得られた映像において当該均質な色を透過する。そして、背景としたい他の映像に透過した映像を重畳することで、被写体の背景を変更する仕組みである。   Conventionally, a technique for changing the background of a subject in an image has been considered. One of these techniques is a technique called chroma key composition. In this case, a subject is imaged in front of a background of a homogeneous color (for example, blue or green), and the homogeneous color is transmitted in an image obtained by the imaging. Then, the background of the subject is changed by superimposing the transmitted image on another image desired to be used as the background.

下記の特許文献1では、このクロマキー合成に関する技術が開示されている。クロマキー合成では2つの映像を重畳するため、下の映像の一部が隠れてしまう問題がある。そこで下記の特許文献1では、透過されない被写体の部分を半透明にすることで、被写体によって下の映像が隠れることのないようにしている。   The following Patent Document 1 discloses a technique related to the chroma key composition. In the chroma key composition, since two images are superimposed, there is a problem that a part of the lower image is hidden. Therefore, in Patent Document 1 below, a portion of a subject that is not transmitted is made translucent so that the lower image is not hidden by the subject.

特開平7−222191号公報JP 7-222191 A

ところで、従来ヘッドマウントディスプレイ(HMD)やスマートフォンで撮像した現実の世界(以下、現実空間)の画像に、コンピュータで生成された仮想の世界(以下、仮想空間)の画像を重畳させて、HMDやスマートフォンの画面に表示する技術が存在する。例えば、複合現実感(Mixed Reality、以下、MR)技術や拡張現実感(Augmented Reality)技術などがある。   By the way, an image of a virtual world (hereinafter referred to as virtual space) generated by a computer is superimposed on an image of a real world (hereinafter referred to as real space) captured by a conventional head-mounted display (HMD) or a smartphone, and the HMD or There are technologies that display on the screen of a smartphone. For example, there are mixed reality (hereinafter referred to as MR) technology and augmented reality technology.

このMR技術では、複合現実感を高めるために、ユーザの位置及び姿勢をリアルタイムに取得し、現実空間を撮像した画像の変化に追従させて仮想空間の画像を生成し、HMDを通じてユーザに対してリアルタイムに表示する必要がある。そのため、MR技術では、センサ等によって計測したユーザの位置及び姿勢を仮想空間での仮想の位置及び姿勢として設定し、この設定に基づいて仮想空間の画像をCGにより描画し、現実空間の画像と合成している。この技術により、ユーザはあたかも現実空間の中に仮想の物体が存在しているかのような画像を観察することができる。   In this MR technology, in order to enhance mixed reality, the position and orientation of the user are acquired in real time, an image of the virtual space is generated following the change of the image captured in the real space, and the user is notified through the HMD. It is necessary to display in real time. Therefore, in MR technology, the position and orientation of a user measured by a sensor or the like are set as a virtual position and orientation in a virtual space, and based on this setting, an image in the virtual space is drawn by CG, Synthesizing. With this technology, the user can observe an image as if a virtual object exists in the real space.

このMR技術により複合現実感を体験している様子を撮像したいことがある。しかしながら、現実空間でHMDを装着しているユーザを撮像したとしても、当該ユーザと現実空間が撮像されるだけで、仮想空間に存在する3次元モデルのオブジェクト等を含めて撮像することはできない。   There is a case where it is desired to take a picture of experiencing mixed reality with this MR technology. However, even if the user wearing the HMD is imaged in the real space, the user and the real space are only imaged, and the image including the 3D model object and the like existing in the virtual space cannot be captured.

そこで前述したクロマキー合成を用いる方法が考えられる。すなわち、以下のような方法である。複合現実感を体験する部屋を青や緑といった均質な色にし、HMDを装着しているユーザを撮像する。そして、撮像した画像(映像)において当該均質な色を透過し、現実空間を撮像した位置に相当する仮想空間の位置から見た画像と重畳する。例えば、図12に示すような形態である。図12の1201は現実空間を撮像した現実空間画像であり、1202は仮想空間を撮像した仮想空間画像である。これらを重畳することで、1203に示すように複合現実感を体験しているユーザと同じ仮想空間を含めた画像を生成できる。   Therefore, a method using the above-described chroma key composition is conceivable. That is, the following method is used. The room where the mixed reality is experienced is made a uniform color such as blue or green, and the user wearing the HMD is imaged. Then, in the captured image (video), the homogeneous color is transmitted, and is superimposed on the image viewed from the position of the virtual space corresponding to the position where the real space is imaged. For example, it is a form as shown in FIG. 1201 in FIG. 12 is a real space image obtained by imaging a real space, and 1202 is a virtual space image obtained by imaging a virtual space. By superimposing these, it is possible to generate an image including the same virtual space as the user who is experiencing the mixed reality as shown by 1203.

しかしながら、この方法では仮想空間におけるユーザの位置を適切に表現することができない問題がある。図12のユーザ1205はオブジェクト1204よりも手前に表示されているが、正しくは図9の900に示すようにユーザはオブジェクトよりも後ろに表示されなければならない。ユーザは仮想空間を自由に歩き回ることができるため、仮想空間におけるユーザの位置を考慮しないと、図12の1203に示すような不自然な画像となってしまう。   However, there is a problem that this method cannot appropriately represent the position of the user in the virtual space. Although the user 1205 in FIG. 12 is displayed in front of the object 1204, the user must be displayed in the rear of the object as indicated by 900 in FIG. Since the user can freely walk around the virtual space, an unnatural image as shown at 1203 in FIG. 12 is generated unless the position of the user in the virtual space is taken into consideration.

本発明は、撮像装置により撮像された現実空間上の対象物を含む現実空間画像を仮想空間に配置する仕組みにおいて、対象物が現実空間を移動したとしても、撮像装置から見た対象物の大きさと、仮想空間に設定される視点から見た現実空間画像に含まれる対象物の大きさとが略同一になるよう、現実空間画像のサイズを変更することの可能な仕組みを提供することの可能な仕組みを提供することを目的とする。
The present invention is a mechanism for arranging a real space image including an object in a real space imaged by an imaging device in a virtual space, and even if the object moves in the real space, the size of the object viewed from the imaging device is large. And a mechanism capable of changing the size of the real space image so that the size of the object included in the real space image viewed from the viewpoint set in the virtual space is substantially the same. The purpose is to provide a mechanism.

上記の目的を達成するために本発明の情報処理装置は、撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置であって、撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置であって、現実空間における前記撮像装置の位置及び向きに対応する、前記仮想空間における位置及び向きを記憶する記憶手段と、現実空間における対象物であって、現実空間を移動する対象物現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定手段と、前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得手段と、前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定手段で特定された前記対象物の現在位置に従って、前記現実空間画像取得手段で取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定手段で特定した当該対象物の現在位置に移動して配置する配置手段と、前記配置手段で配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更手段と、前記サイズ変更手段でサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御手段とを備えることを特徴とする。
In order to achieve the above object, an information processing apparatus according to the present invention is an information processing apparatus that is communicably connected to an imaging apparatus and generates a virtual space in which a three-dimensional model is arranged. An information processing apparatus connected to generate a virtual space in which a three-dimensional model is arranged, and storing means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging apparatus in real space; Position specifying means for repeatedly acquiring a current position of a target object in the real space and moving in the real space, and repeatedly specifying the current position of the target object in the virtual space based on the acquired current position A real space image acquisition means for acquiring a real space image generated by imaging a real space including the object with the imaging device, and a virtual space. With arranging the three-dimensional model to a predetermined position that, according to the current position of the object specified by said position specifying means, the physical space image acquired in the real space image acquisition means disposed in the virtual space, Further, in accordance with the movement of the object, an arrangement unit that moves and arranges the arranged real space image to the current position of the object specified by the position specifying unit, and a real space image arranged by the arrangement unit The size changing means for changing the size of the image to a size substantially the same as the range at the current position where the real space image is arranged, in the field of view when the position and orientation stored in the storage means are used as a viewpoint And the virtual space including the real space image resized by the size changing means and the three-dimensional model, with the position and orientation stored in the storage means as a viewpoint. Characterized in that it comprises a display control means for controlling to display.

本発明によれば、撮像装置により撮像された現実空間上の対象物を含む現実空間画像を仮想空間に配置する仕組みにおいて、対象物が現実空間を移動したとしても、撮像装置から見た対象物の大きさと、仮想空間に設定される視点から見た現実空間画像に含まれる対象物の大きさとが略同一になるよう、現実空間画像のサイズを変更することの可能な仕組みを提供することが可能となる。
According to the present invention, in a mechanism for arranging a real space image including an object in the real space imaged by the imaging device in the virtual space, the object viewed from the imaging device even if the object moves in the real space . Providing a mechanism capable of changing the size of the real space image so that the size of the object and the size of the object included in the real space image viewed from the viewpoint set in the virtual space are substantially the same. It becomes possible.

本発明の実施形態におけるMRシステムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of MR system in embodiment of this invention. 第1の情報処理装置101のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a first information processing apparatus 101. FIG. 第2の情報処理装置105のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a second information processing apparatus 105. FIG. 第1の情報処理装置101、第2の情報処理装置105の機能構成の一例を示す図である。2 is a diagram illustrating an example of functional configurations of a first information processing apparatus 101 and a second information processing apparatus 105. FIG. 本発明の実施形態における一連の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a series of processes in embodiment of this invention. 現実空間画像から抽出したユーザとは異なる領域に透過色を設定する様子を示す図である。It is a figure which shows a mode that a transparent color is set to the area | region different from the user extracted from the real space image. HMD位置・姿勢700、客観カメラ位置・姿勢710を示す図である。It is a figure which shows HMD position and attitude | position 700, and objective camera position and attitude | position 710. FIG. 客観カメラ106の位置・姿勢とユーザの位置とに応じてテクスチャが配置された仮想空間を示す図である。It is a figure which shows the virtual space where the texture was arrange | positioned according to the position and attitude | position of the objective camera 106, and the user's position. 図8に示す仮想空間を仮想カメラ804から閲覧した場合を示す図である。It is a figure which shows the case where the virtual space shown in FIG. 8 is browsed from the virtual camera 804. 図8とは異なる位置にユーザが移動した場合の仮想空間を示す図である。It is a figure which shows the virtual space when a user moves to the position different from FIG. 図10に示す仮想空間を仮想カメラ804から閲覧した場合を示す図である。It is a figure which shows the case where the virtual space shown in FIG. 10 is browsed from the virtual camera 804. 誤った位置関係で画像データが生成されてしまう一例を示す図である。It is a figure which shows an example in which image data are produced | generated by the incorrect positional relationship.

以下、図面を参照しながら、本発明の実施形態の一例について説明する。   Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態におけるMRシステムのシステム構成の一例を示す図である。MRシステムは、複合現実感(Mixed Reality、以下、MR)をユーザに提供するシステムである。MRシステムは、第1の情報処理装置101、HMD102、光学式センサ104、第2の情報処理装置105、客観カメラ106(撮像装置)とを含む。第1の情報処理装置101にHMD102と光学式センサ104と第2の情報処理装置105とが接続されており、第1の情報処理装置101はこれらと相互にデータ通信可能に有線または無線で接続されている。また、第2の情報処理装置105に客観カメラ106が接続されており、第2の情報処理装置105はこれと相互にデータ通信可能に有線または無線で接続されている。尚、図1のシステム上に接続される各種端末の構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 1 is a diagram illustrating an example of a system configuration of an MR system according to an embodiment of the present invention. The MR system is a system that provides a user with mixed reality (hereinafter referred to as MR). The MR system includes a first information processing apparatus 101, an HMD 102, an optical sensor 104, a second information processing apparatus 105, and an objective camera 106 (imaging apparatus). The HMD 102, the optical sensor 104, and the second information processing apparatus 105 are connected to the first information processing apparatus 101, and the first information processing apparatus 101 is connected to each other by wire or wireless so that data communication is possible. Has been. In addition, an objective camera 106 is connected to the second information processing apparatus 105, and the second information processing apparatus 105 is connected to the second information processing apparatus 105 in a wired or wireless manner so as to be capable of data communication with each other. The configuration of various terminals connected on the system of FIG. 1 is an example, and there are various configuration examples depending on the application and purpose.

第1の情報処理装置101は、オペレーティングシステムを搭載する汎用的な装置である。第1の情報処理装置101は、現実空間の画像(以下、現実空間画像)と、仮想空間の画像(以下、仮想空間画像)とを重畳した画像(以下、複合現実画像)を生成し、HMD102に送信する。MRの技術に関しては従来技術を用いるため、詳細な説明は省略する。   The first information processing apparatus 101 is a general-purpose apparatus equipped with an operating system. The first information processing apparatus 101 generates an image (hereinafter, mixed reality image) in which a real space image (hereinafter, real space image) and a virtual space image (hereinafter, virtual space image) are superimposed, and the HMD 102. Send to. Since the conventional technique is used for the MR technique, a detailed description is omitted.

HMD102は、いわゆるヘッドマウントディスプレイである。HMD102は、ユーザの頭部に装着するディスプレイ装置であり、右目用と左目用のビデオカメラと、右目用と左目用のディスプレイを備えている。HMD102は、HMD102のビデオカメラで撮像された現実空間画像を第1の情報処理装置101に送信する。そして、第1の情報処理装置101から送信されてきた複合現実画像を受信し、ディスプレイに表示する。更に、右目用と左目用のビデオカメラとディスプレイを設けているので、視差によって立体感を得ることができる。尚、HMD102で撮像する現実空間画像、及び表示する複合現実画像は、動画が望ましいが、所定の間隔で撮像された静止画であってもよい。   The HMD 102 is a so-called head mounted display. The HMD 102 is a display device worn on the user's head, and includes a right-eye and left-eye video camera, and a right-eye and left-eye display. The HMD 102 transmits a real space image captured by the video camera of the HMD 102 to the first information processing apparatus 101. Then, the mixed reality image transmitted from the first information processing apparatus 101 is received and displayed on the display. Further, since the right-eye and left-eye video cameras and the display are provided, a stereoscopic effect can be obtained by parallax. The physical space image captured by the HMD 102 and the mixed reality image to be displayed are preferably moving images, but may be still images captured at predetermined intervals.

光学式センサ104は、現実空間を撮像し、光学式マーカ103の位置及び姿勢を検出する装置である。本実施形態では、光学式センサ104はHMD102が備える光学式マーカ103を検出し、HMD102の位置及び姿勢を特定する。どのような状況下でも光学式マーカ103を検出できるように、光学式センサ104を部屋の中に複数設置することが望ましい。尚、本実施形態では光学式センサ104とHMD102が備える光学式マーカ103とを用いてHMD102の位置及び姿勢を示す情報を取得するが、HMD102の位置及び姿勢が検出できればどのような形態でも構わない。例えば、磁気センサを用いてもよいし、HMD102で撮像された映像を解析して位置及び姿勢を特定してもよい。   The optical sensor 104 is an apparatus that images a real space and detects the position and orientation of the optical marker 103. In the present embodiment, the optical sensor 104 detects the optical marker 103 provided in the HMD 102 and specifies the position and orientation of the HMD 102. It is desirable to install a plurality of optical sensors 104 in the room so that the optical marker 103 can be detected under any circumstances. In this embodiment, information indicating the position and orientation of the HMD 102 is acquired using the optical sensor 104 and the optical marker 103 provided in the HMD 102. However, any form may be used as long as the position and orientation of the HMD 102 can be detected. . For example, a magnetic sensor may be used, or the position and orientation may be specified by analyzing an image captured by the HMD 102.

第2の情報処理装置105は、オペレーティングシステムを搭載する汎用的な装置である。第2の情報処理装置105は、第1の情報処理装置101が管理している仮想空間と同じ仮想空間を管理している。また、第1の情報処理装置101から取得したHMD102の位置を示す情報に応じて、客観カメラ106で撮像された現実空間画像を仮想空間に配置する。   The second information processing device 105 is a general-purpose device equipped with an operating system. The second information processing apparatus 105 manages the same virtual space as the virtual space managed by the first information processing apparatus 101. Further, the real space image captured by the objective camera 106 is arranged in the virtual space according to the information indicating the position of the HMD 102 acquired from the first information processing apparatus 101.

客観カメラ106は、現実空間を撮像する装置である。客観カメラ106で撮像した現実空間画像は、第2の情報処理装置105に送信する。尚、本実施形態においては、現実空間画像は動画が望ましいが、所定の間隔で撮像された静止画であってもよい。また、本実施形態における客観カメラ106は、単眼のカメラであり、更に所定の位置に固定されている。   The objective camera 106 is an apparatus that captures a real space. The real space image captured by the objective camera 106 is transmitted to the second information processing apparatus 105. In the present embodiment, the real space image is preferably a moving image, but it may be a still image captured at a predetermined interval. In addition, the objective camera 106 in the present embodiment is a monocular camera and is further fixed at a predetermined position.

図2は、第1の情報処理装置101のハードウェア構成を示す図である。尚、図2の第1の情報処理装置101のハードウェアの構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 2 is a diagram illustrating a hardware configuration of the first information processing apparatus 101. Note that the hardware configuration of the first information processing apparatus 101 in FIG. 2 is an example, and there are various configuration examples depending on the application and purpose.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 comprehensively controls each device and controller connected to the system bus 204.

また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムや、各種装置の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。   The ROM 202 or the external memory 211 stores a BIOS (Basic Input / Output System) that is a control program of the CPU 201, an operating system, and various programs described later that are necessary for realizing the functions executed by various devices. Yes. The RAM 203 functions as a main memory, work area, and the like for the CPU 201.

CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program.

また、入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。   An input controller (input C) 205 controls input from a pointing device (input device 210) such as a keyboard and a mouse.

ビデオコントローラ(VC)206は、HMD102が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。   A video controller (VC) 206 controls display on a display device such as the right eye / left eye display 222 provided in the HMD 102. For example, an external output terminal (for example, Digital Visual Interface) is used for output to the right eye / left eye display 222. The right-eye / left-eye display 222 includes a right-eye display and a left-eye display.

メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。   The memory controller (MC) 207 is an adapter to a hard disk (HD), flexible disk (FD) or PCMCIA card slot for storing boot programs, browser software, various applications, font data, user files, editing files, various data, and the like. Controls access to an external memory 211 such as a card-type memory connected via the.

通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。   A communication I / F controller (communication I / FC) 208 is connected to and communicates with an external device via a network, and executes communication control processing in the network. For example, Internet communication using TCP / IP is possible. The communication I / F controller 208 also controls communication with the optical sensor 104 through Gigabit Ethernet (registered trademark) or the like.

汎用バス209は、HMD102の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。   The general-purpose bus 209 is used for capturing video from the right-eye / left-eye video camera 221 of the HMD 102. Input from the right-eye / left-eye video camera 221 is performed using an external input terminal (for example, an IEEE 1394 terminal). The right-eye / left-eye video camera 221 includes a right-eye video camera and a left-eye video camera.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on a display by executing outline font rasterization processing on a display information area in the RAM 203, for example. In addition, the CPU 201 allows a user instruction with a mouse cursor (not shown) on the display.

本発明の第1の情報処理装置101が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。   Various programs and the like used by the first information processing apparatus 101 of the present invention to execute various processes to be described later are recorded in the external memory 211 and executed by the CPU 201 by being loaded into the RAM 203 as necessary. Is. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 211.

図3は、第2の情報処理装置105のハードウェア構成を示す図である。尚、図3の第2の情報処理装置101のハードウェアの構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 3 is a diagram illustrating a hardware configuration of the second information processing apparatus 105. Note that the hardware configuration of the second information processing apparatus 101 in FIG. 3 is merely an example, and there are various configuration examples depending on applications and purposes.

第2の情報処理装置105のハードウェア構成は、図2で前述した第1の情報処理装置101のハードウェア構成と同様であるので、同じ箇所については説明を省略する。第1の情報処理装置101とは異なり、第2の情報処理装置105のビデオコントローラ206には、右目・左目ディスプレイ222が接続されていない。また、第2の情報処理装置105の通信I/Fコントローラ208には、光学式センサ104が接続されていない。更には、第2の情報処理装置105の汎用バス209には、右目・左目ビデオカメラ221が接続されておらず、客観カメラ106が接続されている。   The hardware configuration of the second information processing apparatus 105 is the same as the hardware configuration of the first information processing apparatus 101 described above with reference to FIG. Unlike the first information processing apparatus 101, the right eye / left eye display 222 is not connected to the video controller 206 of the second information processing apparatus 105. Further, the optical sensor 104 is not connected to the communication I / F controller 208 of the second information processing apparatus 105. Furthermore, the right-eye / left-eye video camera 221 is not connected to the general-purpose bus 209 of the second information processing apparatus 105, and the objective camera 106 is connected.

図4は、第1の情報処理装置101、第2の情報処理装置105の機能構成を示す機能構成図である。尚、図4の第1の情報処理装置101、第2の情報処理装置105の機能構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 4 is a functional configuration diagram illustrating functional configurations of the first information processing apparatus 101 and the second information processing apparatus 105. Note that the functional configurations of the first information processing apparatus 101 and the second information processing apparatus 105 in FIG. 4 are merely examples, and there are various configuration examples depending on applications and purposes.

第1の情報処理装置101は機能部として、通信制御部401、HMD位置・姿勢取得部402、HMD現実空間画像取得部403、仮想空間画像取得部404、複合現実画像生成部405、仮想空間管理部406、表示制御部407を備えている。   The first information processing apparatus 101 functions as a communication control unit 401, an HMD position / attitude acquisition unit 402, an HMD real space image acquisition unit 403, a virtual space image acquisition unit 404, a mixed reality image generation unit 405, and a virtual space management. 406 and a display control unit 407.

通信制御部401は、第1の情報処理装置101と通信可能なHMD102と光学式センサ104と第2の情報処理装置105との各種情報の送受信を行う機能部である。通信制御部401は、前述したビデオコントローラ206、通信I/Fコントローラ208、汎用バス209等を通じてこれらの装置と情報の送受信を行う。   The communication control unit 401 is a functional unit that transmits and receives various types of information between the HMD 102, the optical sensor 104, and the second information processing device 105 that can communicate with the first information processing device 101. The communication control unit 401 transmits / receives information to / from these apparatuses through the video controller 206, the communication I / F controller 208, the general-purpose bus 209, and the like.

HMD位置・姿勢取得部402は、HMD102の現実空間における位置及び姿勢を示す情報を光学式センサ104から取得する機能部である。HMD現実空間画像取得部403は、HMD102の右目・左目ビデオカメラ221から現実空間画像を取得する機能部である。   The HMD position / posture acquisition unit 402 is a functional unit that acquires information indicating the position and posture of the HMD 102 in the real space from the optical sensor 104. The HMD real space image acquisition unit 403 is a functional unit that acquires a real space image from the right-eye / left-eye video camera 221 of the HMD 102.

仮想空間画像取得部404は、第1の情報処理装置101で生成する仮想空間の画像を取得する機能部である。仮想空間画像取得部404が仮想空間の画像を取得する場合には、HMD位置・姿勢取得部402で取得したHMD102の位置及び姿勢に基づいて仮想空間上の視点を決定し、当該視点から見た場合の仮想空間画像を生成し、これを取得する。   The virtual space image acquisition unit 404 is a functional unit that acquires an image of the virtual space generated by the first information processing apparatus 101. When the virtual space image acquisition unit 404 acquires an image of the virtual space, a viewpoint on the virtual space is determined based on the position and orientation of the HMD 102 acquired by the HMD position / orientation acquisition unit 402 and viewed from the viewpoint. A virtual space image of the case is generated and acquired.

複合現実画像生成部405は、HMD現実空間画像取得部403で取得した現実空間画像に仮想空間画像取得部404で取得した仮想空間画像を重畳することにより、複合現実画像を生成する機能部である。   The mixed reality image generation unit 405 is a functional unit that generates a mixed reality image by superimposing the virtual space image acquired by the virtual space image acquisition unit 404 on the real space image acquired by the HMD real space image acquisition unit 403. .

仮想空間管理部406は、第1の情報処理装置101において仮想空間を生成し、当該仮想空間に3次元モデルから成るオブジェクトを配置する機能部である。仮想空間管理部406で使用する各オブジェクトは、第1の情報処理装置101の外部メモリ211等に記憶されており、これらを適宜読み出して仮想空間を生成する。   The virtual space management unit 406 is a functional unit that generates a virtual space in the first information processing apparatus 101 and arranges an object including a three-dimensional model in the virtual space. Each object used in the virtual space management unit 406 is stored in the external memory 211 or the like of the first information processing apparatus 101, and these are appropriately read to generate a virtual space.

表示制御部407は、第1の情報処理装置101に接続されたHMD102の右目・左目ディスプレイ222や第1の情報処理装置101に接続されたディスプレイ212における各種情報の表示制御を行う機能部である。   The display control unit 407 is a functional unit that performs display control of various types of information on the right-eye / left-eye display 222 of the HMD 102 connected to the first information processing apparatus 101 and the display 212 connected to the first information processing apparatus 101. .

また、第2の情報処理装置105は機能部として、通信制御部451、客観カメラ位置・姿勢取得部452、客観カメラ現実空間画像取得部453、透過処理部454、テクスチャ生成部455、HMD位置取得部456、オブジェクト配置部457、テクスチャ制御部458、表示制御部459、仮想空間管理部460を備えている。   The second information processing apparatus 105 includes, as functional units, a communication control unit 451, an objective camera position / posture acquisition unit 452, an objective camera real space image acquisition unit 453, a transmission processing unit 454, a texture generation unit 455, and an HMD position acquisition. A unit 456, an object placement unit 457, a texture control unit 458, a display control unit 459, and a virtual space management unit 460.

通信制御部451は、第2の情報処理装置105と通信可能な第1の情報処理装置101と客観カメラ106との各種情報の送受信を行う機能部である。通信制御部401は、前述した通信I/Fコントローラ208、汎用バス209等を通じてこれらの装置と情報の送受信を行う。   The communication control unit 451 is a functional unit that transmits and receives various types of information between the first information processing apparatus 101 and the objective camera 106 that can communicate with the second information processing apparatus 105. The communication control unit 401 transmits / receives information to / from these apparatuses through the communication I / F controller 208, the general-purpose bus 209, and the like described above.

客観カメラ位置・姿勢取得部452は、客観カメラ106が設置されている現実空間上の位置及び姿勢を示す情報を取得する機能部である。本実施形態においては、客観カメラ106は所定の場所に固定されているので、あらかじめ外部メモリ211等に客観カメラ106の位置及び姿勢を示す情報を記憶されている。よって、客観カメラ位置・姿勢取得部452は、この記憶された情報を取得する。または、客観カメラ現実空間画像取得部453で取得した現実空間画像に含まれる情報に基づいて、客観カメラ106が設置されている位置及び姿勢を特定し、これを取得してもよい。この場合には、図1に示すような二次元マーカ107を仮想空間の所定の座標と対応付けておき、客観カメラ106の撮像範囲の床や壁等に当該二次元マーカ107を設置する。そして、客観カメラ106から取得した現実空間画像に含まれる二次元マーカ107の大きさや形状、対応付けた座標等に基づいて、二次元マーカ107との位置関係を算出し、客観カメラ106の位置及び姿勢を特定する。   The objective camera position / posture acquisition unit 452 is a functional unit that acquires information indicating the position and posture in the real space where the objective camera 106 is installed. In this embodiment, since the objective camera 106 is fixed at a predetermined location, information indicating the position and orientation of the objective camera 106 is stored in advance in the external memory 211 or the like. Therefore, the objective camera position / posture acquisition unit 452 acquires the stored information. Alternatively, based on information included in the real space image acquired by the objective camera real space image acquisition unit 453, the position and posture where the objective camera 106 is installed may be specified and acquired. In this case, the two-dimensional marker 107 as shown in FIG. 1 is associated with predetermined coordinates in the virtual space, and the two-dimensional marker 107 is installed on the floor or wall of the imaging range of the objective camera 106. Then, based on the size and shape of the two-dimensional marker 107 included in the real space image acquired from the objective camera 106, the coordinates associated with the two-dimensional marker 107, the positional relationship with the two-dimensional marker 107 is calculated, and the position of the objective camera 106 and Identify posture.

客観カメラ現実空間画像取得部453は、客観カメラ106から現実空間画像を取得する機能部である。   The objective camera real space image acquisition unit 453 is a functional unit that acquires a real space image from the objective camera 106.

透過処理部454は、客観カメラ現実空間画像取得部453で取得した現実空間画像に含まれる所定の色を透過する機能部である。例えば、現実空間の背景色を青にした場合、現実空間画像に含まれる画素のうち、青色の画素の透過度(アルファ値)を「0」にする。尚、透過度は必ずしも「0」である必要はないが、完全に透過させることで、本願発明の効果をより向上することができる。また、透過する色は複数色あってもよいし、色味や濃さによって透過する対象の色に幅を持たせてもよい。   The transmission processing unit 454 is a functional unit that transmits a predetermined color included in the real space image acquired by the objective camera real space image acquisition unit 453. For example, when the background color of the real space is blue, the transparency (alpha value) of the blue pixel among the pixels included in the real space image is set to “0”. The transmittance is not necessarily “0”, but the effect of the present invention can be further improved by transmitting completely. Further, there may be a plurality of colors to be transmitted, and the target color to be transmitted may be given a width depending on the color and density.

テクスチャ生成部455は、仮想空間に配置される平面の3次元モデル(オブジェクト)に貼り付け可能なテクスチャを生成する機能部である。テクスチャ生成部455は、透過処理部454で指定色が透過処理された現実空間画像をテクスチャとして生成する。   The texture generation unit 455 is a functional unit that generates a texture that can be pasted on a planar three-dimensional model (object) arranged in the virtual space. The texture generation unit 455 generates a physical space image in which the specified color is subjected to the transmission processing by the transmission processing unit 454 as a texture.

HMD位置取得部456は、HMD102の現実空間における位置を示す情報を第1の情報処理装置101から取得する機能部である。尚、本実施形態においては第1の情報処理装置101から取得する形態で説明を行うが、光学式センサ104と通信I/Fコントローラ208とを接続し、光学式センサ104からHMD102の位置を示す情報を直接取得してもよい。   The HMD position acquisition unit 456 is a functional unit that acquires information indicating the position of the HMD 102 in the real space from the first information processing apparatus 101. In the present embodiment, the description is given in the form acquired from the first information processing apparatus 101. However, the optical sensor 104 and the communication I / F controller 208 are connected to indicate the position of the HMD 102 from the optical sensor 104. Information may be obtained directly.

オブジェクト配置部457は、テクスチャ生成部455で生成したテクスチャを貼り付けるオブジェクトの位置を決定し、決定した位置に平面のオブジェクトを配置する機能部である。オブジェクト配置部457は、客観カメラ位置・姿勢取得部452で取得した客観カメラ106の位置及び姿勢を示す情報とHMD位置取得部456で取得したHMD102の位置を示す情報とを用いて、仮想空間上における客観カメラ106の光軸に垂直かつHMD102の位置を通る平面のオブジェクトを配置する。   The object placement unit 457 is a functional unit that determines the position of the object to which the texture generated by the texture generation unit 455 is pasted, and places a planar object at the determined position. The object placement unit 457 uses the information indicating the position and posture of the objective camera 106 acquired by the objective camera position / posture acquisition unit 452 and the information indicating the position of the HMD 102 acquired by the HMD position acquisition unit 456 on the virtual space. A plane object perpendicular to the optical axis of the objective camera 106 and passing through the position of the HMD 102 is arranged.

テクスチャ制御部458は、オブジェクト配置部457で配置したオブジェクトにテクスチャ生成部で生成されたテクスチャを貼り付ける機能部である。貼り付ける際には、テクスチャの中心点を、仮想空間上における客観カメラ106の光軸が通る位置に貼り付ける。また、仮想空間管理部460が客観カメラ106の位置・姿勢に応じて仮想空間上の視点を制御し、当該制御された視点から仮想空間を閲覧した場合の閲覧範囲を満たすように、テクスチャ制御部458がテクスチャのサイズを変更する。   The texture control unit 458 is a functional unit that pastes the texture generated by the texture generation unit on the object arranged by the object arrangement unit 457. When pasting, the center point of the texture is pasted at a position where the optical axis of the objective camera 106 passes in the virtual space. Further, the texture control unit 460 controls the viewpoint in the virtual space according to the position / orientation of the objective camera 106 and satisfies the viewing range when the virtual space is browsed from the controlled viewpoint. 458 changes the size of the texture.

表示制御部459は、仮想空間管理部460が客観カメラ106の位置及び姿勢に応じて仮想空間上の視点を制御し、当該制御された視点から閲覧した仮想空間をディスプレイ212に表示制御する機能部である。   The display control unit 459 is a functional unit that controls the viewpoint on the virtual space according to the position and orientation of the objective camera 106 by the virtual space management unit 460 and controls display on the display 212 of the virtual space viewed from the controlled viewpoint. It is.

仮想空間管理部460は、第2の情報処理装置105において第1の情報処理装置101と同様の仮想空間を生成し、当該仮想空間に第1の情報処理装置101と同様の3次元モデルから成るオブジェクトを配置する機能部である。仮想空間管理部406で使用する各オブジェクトは、第2の情報処理装置105の外部メモリ211等に記憶されており、これらを適宜読み出して仮想空間を生成する。そのため、あらかじめ第1の情報処理装置101から仮想空間を生成するための各種情報を外部メモリ211に複製しておくことが望ましい。   The virtual space management unit 460 generates a virtual space similar to that of the first information processing apparatus 101 in the second information processing apparatus 105 and includes the same three-dimensional model as that of the first information processing apparatus 101 in the virtual space. It is a functional unit that arranges objects. Each object used in the virtual space management unit 406 is stored in the external memory 211 or the like of the second information processing apparatus 105, and these are appropriately read to generate a virtual space. Therefore, it is desirable to copy various information for generating a virtual space from the first information processing apparatus 101 to the external memory 211 in advance.

次に、本発明の実施形態における第1情報処理装置101、第2の情報処理装置105によって行われる一連の処理について、図5に示すフローチャートを用いて説明する。   Next, a series of processing performed by the first information processing apparatus 101 and the second information processing apparatus 105 in the embodiment of the present invention will be described with reference to the flowchart shown in FIG.

まず、第1の情報処理装置101における処理の流れについて説明する。第1の情報処理装置101は、HMD102を装着するユーザに対して複合現実感を提示する。特に、本実施形態においては、ユーザは所定の色(青や緑等)の壁や床や天井、その他設置物から成る部屋でHMD102を装着し、複合現実感を体感することを前提として、以下説明を行う。   First, the flow of processing in the first information processing apparatus 101 will be described. The first information processing apparatus 101 presents mixed reality to the user wearing the HMD 102. In particular, in the present embodiment, the following description will be given on the assumption that the user wears the HMD 102 in a room composed of walls, floors, ceilings, and other installations of a predetermined color (blue, green, etc.) to experience mixed reality. I do.

ステップS501では、第1の情報処理装置101のCPU201は、光学式センサ104からHMD102の位置及び姿勢を示す情報を、HMD位置・姿勢取得部402を用いて取得し、RAM203等に記憶する。すなわちステップS501では、現実空間でHMD102を装着しているユーザの位置及び姿勢を示す情報を取得している。HMD102の位置及び姿勢を示す情報は、例えば図7のHMD位置・姿勢700に示す通りである。現実空間の所定の場所を原点とした場合のXYZ座標と、当該XYZ座標を用いたベクトルである。この2つをHMD102の位置及び姿勢とする。尚、HMD102の位置及び姿勢を示す情報の取得方法は、これに限らない。磁気センサや二次元マーカを用いてHMD102の位置及び姿勢を特定してもよい。現実空間における対象物の位置及び姿勢を示す情報の取得方法は従来技術であるので、説明は省略する。   In step S <b> 501, the CPU 201 of the first information processing apparatus 101 acquires information indicating the position and orientation of the HMD 102 from the optical sensor 104 using the HMD position / orientation acquisition unit 402 and stores the information in the RAM 203 or the like. That is, in step S501, information indicating the position and orientation of the user wearing the HMD 102 in the real space is acquired. Information indicating the position and orientation of the HMD 102 is, for example, as shown in the HMD position / orientation 700 of FIG. XYZ coordinates when a predetermined place in the real space is the origin, and a vector using the XYZ coordinates. Let these two be the position and orientation of the HMD 102. In addition, the acquisition method of the information which shows the position and attitude | position of HMD102 is not restricted to this. The position and orientation of the HMD 102 may be specified using a magnetic sensor or a two-dimensional marker. Since a method for acquiring information indicating the position and orientation of an object in the real space is a conventional technique, description thereof is omitted.

ステップS502では、第1の情報処理装置101のCPU201は、ステップS501で取得したHMD位置・姿勢700のうち、HMD102の位置を示す情報を、通信制御部401を用いて第2の情報処理装置105に送信する。   In step S <b> 502, the CPU 201 of the first information processing apparatus 101 uses the communication control unit 401 to obtain information indicating the position of the HMD 102 out of the HMD position / posture 700 acquired in step S <b> 501. Send to.

ステップS503では、第1の情報処理装置101のCPU201は、HMD102の右目・左目ビデオカメラ221から送信される現実空間画像を、HMD現実空間画像取得部403を用いて取得し、RAM203等に記憶する。右目・左目ビデオカメラ221はユーザの右目に相当するビデオカメラと左目に相当するビデオカメラとの2つが存在するため、これらから右目用と左目用の現実空間画像を取得する。   In step S503, the CPU 201 of the first information processing apparatus 101 acquires the real space image transmitted from the right-eye / left-eye video camera 221 of the HMD 102 using the HMD real-space image acquisition unit 403 and stores it in the RAM 203 or the like. . Since there are two right-eye / left-eye video cameras 221, that is, a video camera corresponding to the user's right eye and a video camera corresponding to the left eye, the real space images for the right eye and the left eye are acquired from these.

ステップS504では、第1の情報処理装置101のCPU201は、仮想空間画像取得部404を用いて仮想空間画像を取得し、RAM203等に記憶する。より具体的には、まずステップS501で取得したHMD位置・姿勢700をRAM203等から読み出し、当該HMD位置・姿勢700に対応する仮想空間上の位置及び姿勢を特定する。そして、特定した仮想空間上の位置及び姿勢で仮想空間上に仮想のカメラ(視点)を設置し、当該カメラにより仮想空間を撮像する。これにより仮想空間画像を生成する。尚、前述した現実空間画像と同様に、HMD102の右目・左目ディスプレイ222のそれぞれに表示するために右目用の仮想空間画像と左目用の仮想空間画像の2枚を取得する。   In step S504, the CPU 201 of the first information processing apparatus 101 acquires a virtual space image using the virtual space image acquisition unit 404 and stores it in the RAM 203 or the like. More specifically, first, the HMD position / orientation 700 acquired in step S501 is read from the RAM 203 or the like, and the position and orientation in the virtual space corresponding to the HMD position / orientation 700 are specified. Then, a virtual camera (viewpoint) is installed on the virtual space with the specified position and orientation on the virtual space, and the virtual space is imaged by the camera. Thereby, a virtual space image is generated. Similar to the above-described real space image, two images of the right eye virtual space image and the left eye virtual space image are acquired for display on the right eye and left eye display 222 of the HMD 102, respectively.

ステップS505では、第1の情報処理装置101のCPU201は、ステップS503で取得した現実空間画像とステップS504で取得した仮想空間画像とをRAM203等から読み出す。そして、複合現実画像生成部405を用いて当該現実空間画像に当該仮想空間画像を重畳し、複合現実画像を生成する。生成した複合現実画像はRAM203等に記憶する。尚、前述した通り、現実空間画像と仮想空間画像とは右目用と左目用の2枚ずつがRAM203等に記憶されているので、右目用の現実空間画像に右目用の仮想空間画像を重畳し、左目用の現実空間画像に左目用の仮想空間画像を重畳する。また、前述した通り本実施形態では、後述するステップS510を実行する都合上、現実空間の部屋の壁等は所定の色(青や緑等)になっている。よって、当該所定の色が見えないような仮想空間画像を重畳することが望ましい。すなわち、バーチャルリアリティのように現実空間が見えないほうが、より没入感が高くなる。   In step S505, the CPU 201 of the first information processing apparatus 101 reads the real space image acquired in step S503 and the virtual space image acquired in step S504 from the RAM 203 or the like. Then, the virtual space image is superimposed on the real space image using the mixed reality image generation unit 405 to generate a mixed reality image. The generated mixed reality image is stored in the RAM 203 or the like. As described above, since the real space image and the virtual space image are stored in the RAM 203 or the like for each of the right eye and the left eye, the virtual space image for the right eye is superimposed on the real space image for the right eye. The virtual space image for the left eye is superimposed on the real space image for the left eye. In addition, as described above, in the present embodiment, the wall of the room in the real space has a predetermined color (blue, green, etc.) for the convenience of executing step S510 described later. Therefore, it is desirable to superimpose a virtual space image in which the predetermined color cannot be seen. That is, the immersive feeling is higher when the real space is not visible like the virtual reality.

ステップS506では、第1の情報処理装置101のCPU201は、ステップS505で生成した複合現実画像をRAM203等から読み出し、ビデオコントローラ206を通じてHMD102の右目・左目ディスプレイ222に表示する。RAM203等に記憶された複合現実画像は、右目用と左目用の2枚が存在する。そのため表示制御部407を用いて、右目用の複合現実画像を右目・左目ディスプレイ222の右目のディスプレイに表示するよう制御し、左目用の複合現実画像を右目・左目ディスプレイ222の左目のディスプレイに表示するよう制御する。   In step S <b> 506, the CPU 201 of the first information processing apparatus 101 reads the mixed reality image generated in step S <b> 505 from the RAM 203 or the like and displays it on the right eye / left eye display 222 of the HMD 102 through the video controller 206. The mixed reality image stored in the RAM 203 or the like has two sheets for the right eye and the left eye. Therefore, the display controller 407 is used to control the right-eye mixed reality image to be displayed on the right-eye display of the right-eye / left-eye display 222, and the left-eye mixed reality image is displayed on the left-eye display of the right-eye / left-eye display 222. Control to do.

ステップS507では、第1の情報処理装置101のCPU201は、HMD102を装着しているユーザに複合現実感を提示する処理(前述したステップS501乃至ステップS506)の終了指示があったか否かを判定する。例えば、前述したステップS501乃至ステップS506の処理を実行する第1の情報処理装置101のアプリケーションの停止指示や終了指示があったか否かを判定する。終了指示があったと判定した場合には、本一連の処理を終了する。終了指示があったと判定しなかった場合、すなわち終了指示がなかった場合にはステップS501に処理を戻し、終了指示があるまでステップS501乃至ステップS507を繰り返す。   In step S507, the CPU 201 of the first information processing apparatus 101 determines whether or not there is an instruction to end the process of presenting mixed reality to the user wearing the HMD 102 (steps S501 to S506 described above). For example, it is determined whether or not there has been an instruction to stop or end the application of the first information processing apparatus 101 that executes the processes of steps S501 to S506 described above. If it is determined that an end instruction has been issued, the series of processes ends. If it is not determined that there is an end instruction, that is, if there is no end instruction, the process returns to step S501, and steps S501 to S507 are repeated until there is an end instruction.

次に、第1の情報処理装置101とは非同期で動作する第2の情報処理装置105の処理について説明する。   Next, processing of the second information processing apparatus 105 that operates asynchronously with the first information processing apparatus 101 will be described.

ステップS508では、第2の情報処理装置105のCPU201は、通信制御部451を用いて、ステップS502において第1の情報処理装置101から送信されたHMD102の位置を示す情報(位置情報)を受信し、RAM203等(記憶手段)に記憶する。本実施形態では、HMD102の位置を示す情報を第1の情報処理装置から受信することで取得するが、客観カメラ106が複眼カメラであった場合には、三角測量により客観カメラ106からHMD102に対する距離を取得し、客観カメラ106の位置及び姿勢を示す情報を用いて、HMD102の位置を算出してもよい。   In step S508, the CPU 201 of the second information processing apparatus 105 receives information (position information) indicating the position of the HMD 102 transmitted from the first information processing apparatus 101 in step S502 using the communication control unit 451. And stored in the RAM 203 or the like (storage means). In the present embodiment, information indicating the position of the HMD 102 is acquired by receiving the information from the first information processing apparatus. However, when the objective camera 106 is a compound eye camera, the distance from the objective camera 106 to the HMD 102 is determined by triangulation. And the position of the HMD 102 may be calculated using information indicating the position and orientation of the objective camera 106.

ステップS509では、第2の情報処理装置105のCPU201は、第2の情報処理装置105に接続された客観カメラ106で現実空間を撮像することにより生成された現実空間画像を、客観カメラ現実空間画像取得部453を用いて取得し、RAM203等に記憶する(現実空間画像取得手段)。前述した通り、客観カメラ106は本実施形態では単眼カメラであるので、HMD102のような複眼カメラとは異なり、出力される画像(または映像)は1つである。   In step S <b> 509, the CPU 201 of the second information processing apparatus 105 converts the real space image generated by imaging the real space with the objective camera 106 connected to the second information processing apparatus 105 to the objective camera real space image. It acquires using the acquisition part 453, and memorize | stores it in RAM203 etc. (real space image acquisition means). As described above, since the objective camera 106 is a monocular camera in the present embodiment, unlike a compound eye camera such as the HMD 102, one image (or video) is output.

ステップS510では、第2の情報処理装置105のCPU201は、ステップS509で取得した現実空間画像をRAM203等から読み出し、透過処理部454を用いて当該現実空間画像の所定の色(青や緑等)を透過する(透過処理手段)。現実空間画像は、HMD102を装着するユーザ以外の部分は所定の色となっているため、この所定の色のアルファ値を変更することで現実空間画像の所定の色を透過する。こうすると、ユーザだけを現実空間画像から抽出できる。図6はステップS510の概要を示している。図6の600は、ステップS509で取得した現実空間画像である。この現実空間画像にはHMD102を装着したユーザ601が含まれており、床や壁や天井等はステップS510で透過処理される所定の色である。この現実空間画像に対してステップS510の処理を実行すると、所定の色が透過されるので、610に示す通りの現実空間画像となる。すなわち、ユーザ以外の床や壁や天井等が透過された画像となる。   In step S510, the CPU 201 of the second information processing apparatus 105 reads the real space image acquired in step S509 from the RAM 203 or the like, and uses the transmission processing unit 454 to determine a predetermined color (blue, green, or the like) of the real space image. (Transmission processing means). Since the portion other than the user wearing the HMD 102 has a predetermined color in the real space image, the predetermined color of the real space image is transmitted by changing the alpha value of the predetermined color. In this way, only the user can be extracted from the real space image. FIG. 6 shows an overview of step S510. 6 in FIG. 6 is the real space image acquired in step S509. The real space image includes the user 601 wearing the HMD 102, and the floor, wall, ceiling, and the like are the predetermined colors that are subjected to the transmission processing in step S510. When the process of step S510 is executed on this real space image, a predetermined color is transmitted, so that a real space image as shown at 610 is obtained. That is, the image is transmitted through the floor, wall, ceiling, etc. other than the user.

ステップS511では、第2の情報処理装置105のCPU201は、ステップS510で透過した現実空間画像を用いて仮想空間で表示可能なテクスチャを生成する(テクスチャ生成手段)。テクスチャとは、3次元モデルから成るオブジェクトの表面に貼り付ける模様である。テクスチャ生成部455を用いて現実空間画像からこのテクスチャを生成する。   In step S511, the CPU 201 of the second information processing apparatus 105 generates a texture that can be displayed in the virtual space using the real space image transmitted in step S510 (texture generation unit). A texture is a pattern to be pasted on the surface of an object composed of a three-dimensional model. The texture generation unit 455 is used to generate this texture from the real space image.

ステップS512では、第2の情報処理装置105のCPU201は、客観カメラ106の位置及び姿勢を示す情報(位置姿勢情報)を、客観カメラ位置・姿勢取得部452を用いて取得する。前述した通り、本実施形態では外部メモリ211等(記憶手段)に客観カメラ106の位置及び姿勢を示す情報が記憶されているので、これを取得するものとする。尚、前述した通り、客観カメラ106の位置及び姿勢を取得する方法はこれに限らない。すなわち、現実空間の壁等に貼り付けられた二次元マーカ107を客観カメラ106で撮像することにより、当該客観カメラ106の位置及び姿勢を特定してもよいし、これ以外の方法で特定してもよい。客観カメラ106の位置及び姿勢を示す情報は、例えば図7の客観カメラ位置・姿勢710に示す通りである。客観カメラ位置・姿勢710は、HMD位置・姿勢700と同様の情報であるため、説明は省略する。   In step S <b> 512, the CPU 201 of the second information processing apparatus 105 acquires information (position and orientation information) indicating the position and orientation of the objective camera 106 using the objective camera position and orientation acquisition unit 452. As described above, in the present embodiment, information indicating the position and orientation of the objective camera 106 is stored in the external memory 211 or the like (storage means), and this is acquired. As described above, the method for acquiring the position and orientation of the objective camera 106 is not limited to this. That is, the objective camera 106 may be identified by imaging the two-dimensional marker 107 attached to the wall or the like of the real space with the objective camera 106, or may be identified by other methods. Also good. Information indicating the position and orientation of the objective camera 106 is, for example, as shown in the objective camera position / orientation 710 of FIG. The objective camera position / posture 710 is the same information as the HMD position / posture 700, and the description thereof is omitted.

ステップS513では、第2の情報処理装置105のCPU201は、仮想空間における客観カメラ106の光軸を、仮想空間管理部460を用いて特定する。すなわち、ステップS512で取得した客観カメラ位置・姿勢710に対応する仮想空間上の位置及び姿勢を特定し、当該位置及び姿勢で仮想空間を撮像した場合の光軸のベクトルを特定する。   In step S 513, the CPU 201 of the second information processing apparatus 105 specifies the optical axis of the objective camera 106 in the virtual space using the virtual space management unit 460. That is, the position and posture in the virtual space corresponding to the objective camera position / posture 710 acquired in step S512 are specified, and the vector of the optical axis when the virtual space is imaged with the position and posture is specified.

ステップS514では、第2の情報処理装置105のCPU201は、ステップS508で受信したHMD102の位置を示す情報をRAM203等から読み出す。   In step S514, the CPU 201 of the second information processing apparatus 105 reads information indicating the position of the HMD 102 received in step S508 from the RAM 203 or the like.

ステップS515では、第2の情報処理装置105のCPU201は、オブジェクト配置部457を用いて、ステップS513で特定した客観カメラ106の仮想空間上における光軸に垂直で、かつステップS514で読み出したHMD102の位置を通る平面のオブジェクトを生成し、配置する(オブジェクト配置手段)。   In step S515, the CPU 201 of the second information processing apparatus 105 uses the object placement unit 457 to be perpendicular to the optical axis in the virtual space of the objective camera 106 specified in step S513 and read the HMD 102 read in step S514. A plane object passing through the position is generated and placed (object placement means).

ステップS516では、第2の情報処理装置105のCPU201は、テクスチャ制御部458を用いて、ステップS515で配置したオブジェクトにステップS511で生成したテクスチャを貼り付ける(テクスチャ貼付手段)。貼り付ける際には、客観カメラ106の仮想空間上における光軸がテクスチャの中心点を通るように貼り付ける。   In step S516, the CPU 201 of the second information processing apparatus 105 uses the texture control unit 458 to paste the texture generated in step S511 on the object placed in step S515 (texture pasting unit). When pasting, the optical axis in the virtual space of the objective camera 106 is pasted so that it passes through the center point of the texture.

ステップS517では、第2の情報処理装置105のCPU201は、テクスチャ制御部458を用いて、ステップS516で貼り付けたテクスチャのサイズをディスプレイ212に表示する仮想空間の範囲に応じて変更する(テクスチャサイズ変更手段)。すなわち、仮想空間を撮像する仮想のカメラの撮像範囲と同等のサイズにテクスチャを拡大または縮小する。テクスチャの位置が仮想のカメラ(客観カメラ106の現実空間上の位置・姿勢に対応する仮想空間上の視点)に近ければ近いほどテクスチャのサイズを縮小し、テクスチャの位置が仮想のカメラから遠ければ遠いほどテクスチャのサイズを拡大することになる。   In step S517, the CPU 201 of the second information processing apparatus 105 uses the texture control unit 458 to change the size of the texture pasted in step S516 according to the range of the virtual space displayed on the display 212 (texture size). Change means). That is, the texture is enlarged or reduced to the same size as the imaging range of the virtual camera that images the virtual space. The closer the texture position is to the virtual camera (the viewpoint in the virtual space corresponding to the position and orientation of the objective camera 106 in the real space), the smaller the size of the texture, and the farther the texture position is from the virtual camera. The farther away, the larger the texture size.

客観カメラ106で撮像した現実空間画像において、すでに被写体であるユーザの遠近感は表現されている。しかしながら、仮想空間上においても遠近感が存在するので、テクスチャのサイズを変更しないと遠近感が単純に2倍となる。つまり、客観カメラ106が捉えた遠近感を崩さないためにも、テクスチャの位置が仮想カメラに近ければテクスチャを縮小して仮想空間上の遠近感を相殺し、テクスチャの位置が仮想カメラから遠ければテクスチャを拡大して仮想空間上の遠近感を相殺している。   In the real space image captured by the objective camera 106, the perspective of the user who is already the subject is expressed. However, since there is a perspective in the virtual space, the perspective is simply doubled unless the size of the texture is changed. That is, in order not to destroy the perspective captured by the objective camera 106, if the texture position is close to the virtual camera, the texture is reduced to cancel the perspective in the virtual space, and if the texture position is far from the virtual camera. The texture is magnified to offset the perspective in the virtual space.

ステップS518では、第2の情報処理装置105のCPU201は、ステップS512で取得した客観カメラ位置・姿勢710をRAM203等から読み出し、当該客観カメラ位置・姿勢710に応じて仮想空間上に仮想のカメラ(視点)を設定し、当該カメラから見た仮想空間を撮像する。これにより仮想空間画像を生成し、RAM203等に記憶する。   In step S518, the CPU 201 of the second information processing apparatus 105 reads out the objective camera position / posture 710 acquired in step S512 from the RAM 203 and the like, and in accordance with the objective camera position / posture 710, a virtual camera ( (Viewpoint) is set, and the virtual space viewed from the camera is imaged. Thereby, a virtual space image is generated and stored in the RAM 203 or the like.

ステップS519では、第2の情報処理装置105のCPU201は、ステップS518で撮像した仮想空間画像をRAM203等から取得し、ビデオコントローラ206を介してディスプレイ212に当該仮想空間画像を表示する(表示手段)。   In step S519, the CPU 201 of the second information processing apparatus 105 acquires the virtual space image captured in step S518 from the RAM 203 or the like, and displays the virtual space image on the display 212 via the video controller 206 (display unit). .

ステップS520では、第2の情報処理装置105のCPU201は、HMD102を装着しているユーザが仮想空間を移動する様子を表示する処理(前述したステップS508乃至ステップS518)の終了指示があったか否かを判定する。例えば、前述したステップS508乃至ステップS518の処理を実行する第2の情報処理装置105のアプリケーションの停止指示や終了指示があったか否かを判定する。終了指示があったと判定した場合には、本一連の処理を終了する。終了指示があったと判定しなかった場合、すなわち終了指示がなかった場合にはステップS508に処理を戻し、終了指示があるまでステップS508乃至ステップS519を繰り返す。   In step S520, the CPU 201 of the second information processing apparatus 105 determines whether or not there has been an instruction to end the process (steps S508 to S518 described above) for displaying the state in which the user wearing the HMD 102 moves in the virtual space. judge. For example, it is determined whether or not there has been an instruction to stop or end the application of the second information processing apparatus 105 that executes the processes of steps S508 to S518 described above. If it is determined that an end instruction has been issued, the series of processes ends. If it is not determined that there is an end instruction, that is, if there is no end instruction, the process returns to step S508, and steps S508 to S519 are repeated until there is an end instruction.

図8から図11を用いて、ステップS508乃至ステップS519の処理の一例を説明する。   An example of processing in steps S508 to S519 will be described with reference to FIGS.

図8の斜視イメージ800は、ステップS508乃至ステップS517の処理を実行した結果の仮想空間を示す図である。この仮想空間には3次元モデルから成るオブジェクト801、オブジェクト802、オブジェクト803が配置されている。また、客観カメラ106の位置及び姿勢に応じて仮想空間上に仮想のカメラ804が設置されている。当該仮想のカメラ804を視点とした映像がディスプレイ212に表示される。   A perspective image 800 in FIG. 8 is a diagram illustrating a virtual space as a result of executing the processing in steps S508 to S517. In this virtual space, an object 801, an object 802, and an object 803 made of a three-dimensional model are arranged. A virtual camera 804 is installed in the virtual space according to the position and orientation of the objective camera 106. An image viewed from the viewpoint of the virtual camera 804 is displayed on the display 212.

ステップS513では、客観カメラ106の光軸を仮想空間上で特定する。すなわち、光軸805が客観カメラ106の光軸である。この光軸に垂直で、かつHMD102の位置を通る平面のオブジェクトがオブジェクト806である。上面イメージ810に示すように、光軸805に垂直で、かつHMD102の位置811を通る平面がオブジェクト806である。   In step S513, the optical axis of the objective camera 106 is specified on the virtual space. That is, the optical axis 805 is the optical axis of the objective camera 106. A plane object perpendicular to the optical axis and passing through the position of the HMD 102 is an object 806. As shown in the top image 810, a plane perpendicular to the optical axis 805 and passing through the position 811 of the HMD 102 is an object 806.

そして、オブジェクト806には図6の610に示す透過された現実空間画像のテクスチャをオブジェクト806に貼り付けて(ステップS516)、仮想のカメラ804の撮像範囲807となるよう、貼り付けた現実空間画像のサイズを変更する(ステップS517)。図8に示す撮像範囲807が示す4つの線分を含む内側の空間が仮想のカメラ804の撮像可能な範囲である。この範囲を満たすよう、現実空間画像のサイズを調整する。このようにすることで、オブジェクト802とオブジェクト803との間に、テクスチャの貼り付けられたオブジェクト806が配置されるので、仮想のカメラ804で撮像すると、図9の仮想空間画像900が示すような画像がディスプレイ212に表示されることとなる。仮想空間画像900は、前述した図12の1203の画像とは異なり、適切な奥行き位置にHMD102を装着するユーザ601を配置することができている。   Then, the texture of the transmitted real space image indicated by reference numeral 610 in FIG. 6 is pasted on the object 806 (step S516), and the real space image pasted so as to become the imaging range 807 of the virtual camera 804 is pasted. Is changed (step S517). An inner space including the four line segments indicated by the imaging range 807 illustrated in FIG. 8 is a range in which the virtual camera 804 can capture images. The size of the real space image is adjusted to satisfy this range. By doing so, the texture-attached object 806 is arranged between the object 802 and the object 803, and therefore when the image is taken with the virtual camera 804, the virtual space image 900 of FIG. An image is displayed on the display 212. In the virtual space image 900, unlike the image 1203 in FIG. 12 described above, the user 601 who wears the HMD 102 can be placed at an appropriate depth position.

HMD102を装着するユーザ601が移動すれば、オブジェクト806の位置も変わる。図10に示す斜視イメージ1000は、ユーザ601がオブジェクト801とオブジェクト802との間に移動した場合を示す。客観カメラ106は固定なので、仮想のカメラ804の位置及び姿勢は変わらない。そのため、光軸805や撮像範囲807は図8と同じである。HMD102を装着するユーザ601が、上面イメージ1010の1011が示す位置に移動すると、オブジェクト806は1001に示す位置に移動する。そのため、この仮想空間を仮想のカメラ804で撮像すると、図11の仮想空間画像1100が示すような画像がディスプレイ212に表示されることとなる。図11の仮想空間画像1100に映るユーザ601が、オブジェクト801とオブジェクト802との間に位置していることが確認できる。   If the user 601 wearing the HMD 102 moves, the position of the object 806 also changes. A perspective image 1000 illustrated in FIG. 10 illustrates a case where the user 601 moves between the object 801 and the object 802. Since the objective camera 106 is fixed, the position and posture of the virtual camera 804 are not changed. Therefore, the optical axis 805 and the imaging range 807 are the same as those in FIG. When the user 601 wearing the HMD 102 moves to the position indicated by 1011 of the upper surface image 1010, the object 806 moves to the position indicated by 1001. Therefore, when this virtual space is imaged by the virtual camera 804, an image as shown by the virtual space image 1100 in FIG. 11 is displayed on the display 212. It can be confirmed that the user 601 shown in the virtual space image 1100 in FIG. 11 is located between the object 801 and the object 802.

このように、通常のクロマキー合成では表現できない奥行きを、現実空間画像のテクスチャと仮想空間とを用いることにより表現することができるようになる。   As described above, the depth that cannot be expressed by normal chroma key composition can be expressed by using the texture of the real space image and the virtual space.

以上説明したように、本実施形態によれば、現実空間のユーザを撮像することにより生成される画像を仮想空間上の適切な位置に表示することの可能な効果を奏する。   As described above, according to the present embodiment, there is an effect that an image generated by imaging a user in the real space can be displayed at an appropriate position in the virtual space.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 第1の情報処理装置
102 HMD
103 光学式マーカ
104 光学式センサ
105 第2の情報処理装置
106 客観カメラ
107 二次元マーカ
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 汎用バス
210 入力デバイス
211 外部メモリ
212 ディスプレイ
221 右目・左目ビデオカメラ
222 右目・左目ディスプレイ
101 First information processing apparatus 102 HMD
103 optical marker 104 optical sensor 105 second information processing apparatus 106 objective camera 107 two-dimensional marker 201 CPU
202 ROM
203 RAM
204 System bus 205 Input controller 206 Video controller 207 Memory controller 208 Communication I / F controller 209 General-purpose bus 210 Input device 211 External memory 212 Display 221 Right-eye / left-eye video camera 222 Right-eye / left-eye display

Claims (8)

撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置であって、
現実空間における前記撮像装置の位置及び向きに対応する、前記仮想空間における位置及び向きを記憶する記憶手段と、
現実空間における対象物であって、現実空間を移動する対象物現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定手段と、
前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得手段と、
前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定手段で特定された前記対象物の現在位置に従って、前記現実空間画像取得手段で取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定手段で特定した当該対象物の現在位置に移動して配置する配置手段と、
前記配置手段で配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更手段と、
前記サイズ変更手段でサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus that is communicably connected to an imaging apparatus and generates a virtual space in which a three-dimensional model is arranged,
Storage means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging device in real space;
Position specifying means for repeatedly acquiring a current position of a target object in the real space and moving in the real space, and repeatedly specifying the current position of the target object in the virtual space based on the acquired current position When,
Real space image acquisition means for acquiring a real space image generated by imaging the real space including the object with the imaging device;
The three-dimensional model is arranged at a predetermined position in the virtual space, and the real space image acquired by the real space image acquiring unit is placed in the virtual space according to the current position of the object specified by the position specifying unit. Arranging means for moving and arranging the arranged real space image to the current position of the object specified by the position specifying means according to the movement of the object ;
The size of the real space image arranged by the arrangement means is the range at the current position where the real space image is arranged, out of the range of field of view when the position and orientation stored in the storage means are taken as viewpoints Resizing means for changing to substantially the same size;
Display control means for controlling the virtual space including the real space image resized by the size changing means and the three-dimensional model so as to display the position and orientation stored in the storage means as a viewpoint. An information processing apparatus characterized by that.
前記配置手段は、前記仮想空間に配置される3次元モデルとの前後関係が表現されるように、前記現実空間画像取得手段で取得した現実空間画像を前記仮想空間に配置することを特徴とする請求項1に記載の情報処理装置。   The arrangement means arranges the real space image acquired by the real space image acquisition means in the virtual space so that the context with the three-dimensional model arranged in the virtual space is expressed. The information processing apparatus according to claim 1. 前記配置手段は、前記記憶手段に記憶された位置及び向きを視点とした視線方向に垂直な位置で、かつ前記位置特定手段で特定された前記対象物の現在位置に前記現実空間画像取得手段で取得した現実空間画像を前記仮想空間に配置することを特徴とする請求項1または2に記載の情報処理装置。 The placement means is a position perpendicular to the line-of-sight direction with the position and orientation stored in the storage means as a viewpoint, and the real space image acquisition means at the current position of the object specified by the position specifying means. The information processing apparatus according to claim 1, wherein the acquired real space image is arranged in the virtual space. 前記現実空間画像取得手段は、前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された画像から前記対象物を抽出した現実空間画像を取得することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   The real space image acquisition unit acquires a real space image obtained by extracting the object from an image generated by imaging the real space including the object by the imaging device. 4. The information processing apparatus according to any one of 3. 前記現実空間画像取得手段は、前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された画像の所定の色を透過することにより、前記対象物を抽出した現実空間画像を生成することを特徴とする請求項4に記載の情報処理装置。   The real space image acquisition means generates a real space image in which the object is extracted by transmitting a predetermined color of the image generated by imaging the real space including the object with the imaging device. The information processing apparatus according to claim 4. 前記配置手段は、前記位置特定手段で特定された前記対象物の現在位置に従って、オブジェクトを前記仮想空間に配置し、当該オブジェクトに前記現実空間画像を貼り付けることで、当該現実空間画像を当該仮想空間に配置することを特徴とする請求項1乃至5に記載の情報処理装置。 The arrangement unit arranges an object in the virtual space according to a current position of the target object specified by the position specifying unit, and pastes the real space image on the object, whereby the real space image is attached to the virtual space. 6. The information processing apparatus according to claim 1, wherein the information processing apparatus is disposed in a space. 現実空間における撮像装置の位置及び向きに対応する、仮想空間における位置及び向きを記憶する記憶手段を備え、
撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置の制御方法であって、
前記情報処理装置の位置特定手段が、現実空間における対象物であって、現実空間を移動する対象物現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定ステップと、
前記情報処理装置の現実空間画像取得手段が、前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得ステップと、
前記情報処理装置の配置手段が、前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定ステップで特定された前記対象物の現在位置に従って、前記現実空間画像取得ステップで取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定ステップで特定した当該対象物の現在位置に移動して配置する配置ステップと、
前記情報処理装置のサイズ変更手段が、前記配置ステップで配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更ステップと、
前記情報処理装置の表示制御手段が、前記サイズ変更ステップでサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御ステップと
を備えることを特徴とする情報処理装置の制御方法。
Storage means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging device in the real space;
A control method for an information processing apparatus that is communicably connected to an imaging apparatus and generates a virtual space in which a three-dimensional model is arranged,
The position specifying unit of the information processing apparatus is an object in the real space , repeatedly acquires the current position of the object moving in the real space, and based on the acquired current position, the object in the virtual space A position identifying step for repeatedly identifying the current position of
A real space image acquisition step of acquiring a real space image generated by imaging a real space including the object by the imaging device;
The arrangement unit of the information processing apparatus arranges the three-dimensional model at a predetermined position in the virtual space, and acquires in the real space image acquisition step according to the current position of the object specified in the position specifying step. An arrangement step of arranging the arranged real space image in the virtual space and further moving and arranging the arranged real space image to the current position of the object specified in the position specifying step according to the movement of the object. When,
The real space image in the range of the field of view when the size changing unit of the information processing apparatus uses the size and size of the real space image arranged in the arrangement step as the viewpoint stored in the storage unit. A resizing step for changing to a size substantially the same as the range at the current position where
The display control means of the information processing apparatus displays the virtual space including the real space image and the three-dimensional model whose size has been changed in the size changing step, with the position and orientation stored in the storage means as a viewpoint. And a display control step for controlling the information processing apparatus.
現実空間における撮像装置の位置及び向きに対応する、仮想空間における位置及び向きを記憶する記憶手段を備え、
撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置の制御方法を実行可能なプログラムであって、
前記情報処理装置を、
現実空間における対象物であって、現実空間を移動する対象物現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定手段と、
前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得手段と、
前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定手段で特定された前記対象物の現在位置に従って、前記現実空間画像取得手段で取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定手段で特定した当該対象物の現在位置に移動して配置する配置手段と、
前記配置手段で配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更手段と、
前記サイズ変更手段でサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御手段
として機能させることを特徴とするプログラム。
Storage means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging device in the real space;
A program capable of executing a control method of an information processing device that is communicably connected to an imaging device and generates a virtual space in which a three-dimensional model is arranged,
The information processing apparatus;
Position specifying means for repeatedly acquiring a current position of a target object in the real space and moving in the real space, and repeatedly specifying the current position of the target object in the virtual space based on the acquired current position When,
Real space image acquisition means for acquiring a real space image generated by imaging the real space including the object with the imaging device;
The three-dimensional model is arranged at a predetermined position in the virtual space, and the real space image acquired by the real space image acquiring unit is placed in the virtual space according to the current position of the object specified by the position specifying unit. Arranging means for moving and arranging the arranged real space image to the current position of the object specified by the position specifying means according to the movement of the object ;
The size of the real space image arranged by the arrangement means is the range at the current position where the real space image is arranged, out of the range of field of view when the position and orientation stored in the storage means are taken as viewpoints Resizing means for changing to substantially the same size;
Causing the virtual space including the real space image resized by the size changing means and the three-dimensional model to function as display control means for controlling the position and orientation stored in the storage means to be displayed as a viewpoint. A program characterized by that.
JP2014045802A 2014-03-10 2014-03-10 Information processing apparatus, control method thereof, and program Expired - Fee Related JP6011567B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014045802A JP6011567B2 (en) 2014-03-10 2014-03-10 Information processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014045802A JP6011567B2 (en) 2014-03-10 2014-03-10 Information processing apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2015170232A JP2015170232A (en) 2015-09-28
JP6011567B2 true JP6011567B2 (en) 2016-10-19

Family

ID=54202883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014045802A Expired - Fee Related JP6011567B2 (en) 2014-03-10 2014-03-10 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6011567B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068824A1 (en) * 2015-10-21 2017-04-27 シャープ株式会社 Image generation device, method for controlling image generation device, display system, image generation control program, and computer-readable recording medium
JP6590324B2 (en) * 2017-12-28 2019-10-16 株式会社コナミデジタルエンタテインメント Information processing apparatus, information processing apparatus program, information processing system, and display method
JP6857795B2 (en) * 2017-12-28 2021-04-14 株式会社コナミデジタルエンタテインメント Information processing device, information processing device program, information processing system, and display method
JP7364218B2 (en) 2017-12-28 2023-10-18 株式会社コナミデジタルエンタテインメント Information processing device, program for information processing device, information processing system, and display method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628449A (en) * 1992-07-08 1994-02-04 Matsushita Electric Ind Co Ltd Image synthesizing device
JP2000023037A (en) * 1998-07-06 2000-01-21 Sony Corp Video compositing device
JP3363861B2 (en) * 2000-01-13 2003-01-08 キヤノン株式会社 Mixed reality presentation device, mixed reality presentation method, and storage medium
JP2002271694A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, studio device, storage medium and program
JP4649050B2 (en) * 2001-03-13 2011-03-09 キヤノン株式会社 Image processing apparatus, image processing method, and control program
JP5145444B2 (en) * 2011-06-27 2013-02-20 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing apparatus control method, and program

Also Published As

Publication number Publication date
JP2015170232A (en) 2015-09-28

Similar Documents

Publication Publication Date Title
AU2021203688B2 (en) Volumetric depth video recording and playback
KR102230416B1 (en) Image processing device, image generation method, and computer program
EP3460761A1 (en) Image processing apparatus, image processing method, image processing system, and program
JP6920057B2 (en) Image processing equipment, image processing method, computer program
JP6677890B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
JP7208549B2 (en) VIRTUAL SPACE CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP2015125641A (en) Information processing device, control method therefor, and program
JP7353782B2 (en) Information processing device, information processing method, and program
JP7060778B2 (en) Information processing system, information processing system control method and program
KR102382247B1 (en) Image processing apparatus, image processing method, and computer program
JP6011567B2 (en) Information processing apparatus, control method thereof, and program
TW201921318A (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
US20190295324A1 (en) Optimized content sharing interaction using a mixed reality environment
JP6357412B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP7119854B2 (en) Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program
JP2017084215A (en) Information processing system, control method thereof, and program
JP2020074108A (en) Information processing system, control method thereof, and program
JP6638326B2 (en) Information processing system, control method thereof, and program
JP2015121892A (en) Image processing apparatus, and image processing method
JP6164177B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP7119853B2 (en) Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program
JP6741939B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6372131B2 (en) Information processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6011567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees