JP6011567B2 - Information processing apparatus, control method thereof, and program - Google Patents
Information processing apparatus, control method thereof, and program Download PDFInfo
- Publication number
- JP6011567B2 JP6011567B2 JP2014045802A JP2014045802A JP6011567B2 JP 6011567 B2 JP6011567 B2 JP 6011567B2 JP 2014045802 A JP2014045802 A JP 2014045802A JP 2014045802 A JP2014045802 A JP 2014045802A JP 6011567 B2 JP6011567 B2 JP 6011567B2
- Authority
- JP
- Japan
- Prior art keywords
- real space
- information processing
- processing apparatus
- space image
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、撮像装置により撮像された現実空間上の対象物を含む現実空間画像を仮想空間に配置する仕組みにおいて、対象物が現実空間を移動したとしても、撮像装置から見た対象物の大きさと、仮想空間に設定される視点から見た現実空間画像に含まれる対象物の大きさとが略同一になるよう、現実空間画像のサイズを変更することの可能な仕組みを提供することの可能な情報処理装置、その制御方法、及びプログラムに関する。
The present invention is a mechanism for arranging a real space image including an object in a real space imaged by an imaging device in a virtual space, and even if the object moves in the real space, the size of the object viewed from the imaging device is large. And a mechanism capable of changing the size of the real space image so that the size of the object included in the real space image viewed from the viewpoint set in the virtual space is substantially the same. The present invention relates to an information processing apparatus, a control method thereof, and a program.
従来、映像において被写体の背景を変更する技術が考えられている。この技術の一つとしてクロマキー合成という技術が存在する。これは、均質な色(例えば、青や緑)の背景の前で被写体を撮像し、撮像により得られた映像において当該均質な色を透過する。そして、背景としたい他の映像に透過した映像を重畳することで、被写体の背景を変更する仕組みである。 Conventionally, a technique for changing the background of a subject in an image has been considered. One of these techniques is a technique called chroma key composition. In this case, a subject is imaged in front of a background of a homogeneous color (for example, blue or green), and the homogeneous color is transmitted in an image obtained by the imaging. Then, the background of the subject is changed by superimposing the transmitted image on another image desired to be used as the background.
下記の特許文献1では、このクロマキー合成に関する技術が開示されている。クロマキー合成では2つの映像を重畳するため、下の映像の一部が隠れてしまう問題がある。そこで下記の特許文献1では、透過されない被写体の部分を半透明にすることで、被写体によって下の映像が隠れることのないようにしている。 The following Patent Document 1 discloses a technique related to the chroma key composition. In the chroma key composition, since two images are superimposed, there is a problem that a part of the lower image is hidden. Therefore, in Patent Document 1 below, a portion of a subject that is not transmitted is made translucent so that the lower image is not hidden by the subject.
ところで、従来ヘッドマウントディスプレイ(HMD)やスマートフォンで撮像した現実の世界(以下、現実空間)の画像に、コンピュータで生成された仮想の世界(以下、仮想空間)の画像を重畳させて、HMDやスマートフォンの画面に表示する技術が存在する。例えば、複合現実感(Mixed Reality、以下、MR)技術や拡張現実感(Augmented Reality)技術などがある。 By the way, an image of a virtual world (hereinafter referred to as virtual space) generated by a computer is superimposed on an image of a real world (hereinafter referred to as real space) captured by a conventional head-mounted display (HMD) or a smartphone, and the HMD or There are technologies that display on the screen of a smartphone. For example, there are mixed reality (hereinafter referred to as MR) technology and augmented reality technology.
このMR技術では、複合現実感を高めるために、ユーザの位置及び姿勢をリアルタイムに取得し、現実空間を撮像した画像の変化に追従させて仮想空間の画像を生成し、HMDを通じてユーザに対してリアルタイムに表示する必要がある。そのため、MR技術では、センサ等によって計測したユーザの位置及び姿勢を仮想空間での仮想の位置及び姿勢として設定し、この設定に基づいて仮想空間の画像をCGにより描画し、現実空間の画像と合成している。この技術により、ユーザはあたかも現実空間の中に仮想の物体が存在しているかのような画像を観察することができる。 In this MR technology, in order to enhance mixed reality, the position and orientation of the user are acquired in real time, an image of the virtual space is generated following the change of the image captured in the real space, and the user is notified through the HMD. It is necessary to display in real time. Therefore, in MR technology, the position and orientation of a user measured by a sensor or the like are set as a virtual position and orientation in a virtual space, and based on this setting, an image in the virtual space is drawn by CG, Synthesizing. With this technology, the user can observe an image as if a virtual object exists in the real space.
このMR技術により複合現実感を体験している様子を撮像したいことがある。しかしながら、現実空間でHMDを装着しているユーザを撮像したとしても、当該ユーザと現実空間が撮像されるだけで、仮想空間に存在する3次元モデルのオブジェクト等を含めて撮像することはできない。 There is a case where it is desired to take a picture of experiencing mixed reality with this MR technology. However, even if the user wearing the HMD is imaged in the real space, the user and the real space are only imaged, and the image including the 3D model object and the like existing in the virtual space cannot be captured.
そこで前述したクロマキー合成を用いる方法が考えられる。すなわち、以下のような方法である。複合現実感を体験する部屋を青や緑といった均質な色にし、HMDを装着しているユーザを撮像する。そして、撮像した画像(映像)において当該均質な色を透過し、現実空間を撮像した位置に相当する仮想空間の位置から見た画像と重畳する。例えば、図12に示すような形態である。図12の1201は現実空間を撮像した現実空間画像であり、1202は仮想空間を撮像した仮想空間画像である。これらを重畳することで、1203に示すように複合現実感を体験しているユーザと同じ仮想空間を含めた画像を生成できる。 Therefore, a method using the above-described chroma key composition is conceivable. That is, the following method is used. The room where the mixed reality is experienced is made a uniform color such as blue or green, and the user wearing the HMD is imaged. Then, in the captured image (video), the homogeneous color is transmitted, and is superimposed on the image viewed from the position of the virtual space corresponding to the position where the real space is imaged. For example, it is a form as shown in FIG. 1201 in FIG. 12 is a real space image obtained by imaging a real space, and 1202 is a virtual space image obtained by imaging a virtual space. By superimposing these, it is possible to generate an image including the same virtual space as the user who is experiencing the mixed reality as shown by 1203.
しかしながら、この方法では仮想空間におけるユーザの位置を適切に表現することができない問題がある。図12のユーザ1205はオブジェクト1204よりも手前に表示されているが、正しくは図9の900に示すようにユーザはオブジェクトよりも後ろに表示されなければならない。ユーザは仮想空間を自由に歩き回ることができるため、仮想空間におけるユーザの位置を考慮しないと、図12の1203に示すような不自然な画像となってしまう。
However, there is a problem that this method cannot appropriately represent the position of the user in the virtual space. Although the user 1205 in FIG. 12 is displayed in front of the
本発明は、撮像装置により撮像された現実空間上の対象物を含む現実空間画像を仮想空間に配置する仕組みにおいて、対象物が現実空間を移動したとしても、撮像装置から見た対象物の大きさと、仮想空間に設定される視点から見た現実空間画像に含まれる対象物の大きさとが略同一になるよう、現実空間画像のサイズを変更することの可能な仕組みを提供することの可能な仕組みを提供することを目的とする。
The present invention is a mechanism for arranging a real space image including an object in a real space imaged by an imaging device in a virtual space, and even if the object moves in the real space, the size of the object viewed from the imaging device is large. And a mechanism capable of changing the size of the real space image so that the size of the object included in the real space image viewed from the viewpoint set in the virtual space is substantially the same. The purpose is to provide a mechanism.
上記の目的を達成するために本発明の情報処理装置は、撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置であって、撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置であって、現実空間における前記撮像装置の位置及び向きに対応する、前記仮想空間における位置及び向きを記憶する記憶手段と、現実空間における対象物であって、現実空間を移動する対象物の現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定手段と、前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得手段と、前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定手段で特定された前記対象物の現在位置に従って、前記現実空間画像取得手段で取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定手段で特定した当該対象物の現在位置に移動して配置する配置手段と、前記配置手段で配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更手段と、前記サイズ変更手段でサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御手段とを備えることを特徴とする。
In order to achieve the above object, an information processing apparatus according to the present invention is an information processing apparatus that is communicably connected to an imaging apparatus and generates a virtual space in which a three-dimensional model is arranged. An information processing apparatus connected to generate a virtual space in which a three-dimensional model is arranged, and storing means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging apparatus in real space; Position specifying means for repeatedly acquiring a current position of a target object in the real space and moving in the real space, and repeatedly specifying the current position of the target object in the virtual space based on the acquired current position A real space image acquisition means for acquiring a real space image generated by imaging a real space including the object with the imaging device, and a virtual space. With arranging the three-dimensional model to a predetermined position that, according to the current position of the object specified by said position specifying means, the physical space image acquired in the real space image acquisition means disposed in the virtual space, Further, in accordance with the movement of the object, an arrangement unit that moves and arranges the arranged real space image to the current position of the object specified by the position specifying unit, and a real space image arranged by the arrangement unit The size changing means for changing the size of the image to a size substantially the same as the range at the current position where the real space image is arranged, in the field of view when the position and orientation stored in the storage means are used as a viewpoint And the virtual space including the real space image resized by the size changing means and the three-dimensional model, with the position and orientation stored in the storage means as a viewpoint. Characterized in that it comprises a display control means for controlling to display.
本発明によれば、撮像装置により撮像された現実空間上の対象物を含む現実空間画像を仮想空間に配置する仕組みにおいて、対象物が現実空間を移動したとしても、撮像装置から見た対象物の大きさと、仮想空間に設定される視点から見た現実空間画像に含まれる対象物の大きさとが略同一になるよう、現実空間画像のサイズを変更することの可能な仕組みを提供することが可能となる。
According to the present invention, in a mechanism for arranging a real space image including an object in the real space imaged by the imaging device in the virtual space, the object viewed from the imaging device even if the object moves in the real space . Providing a mechanism capable of changing the size of the real space image so that the size of the object and the size of the object included in the real space image viewed from the viewpoint set in the virtual space are substantially the same. It becomes possible.
以下、図面を参照しながら、本発明の実施形態の一例について説明する。 Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の実施形態におけるMRシステムのシステム構成の一例を示す図である。MRシステムは、複合現実感(Mixed Reality、以下、MR)をユーザに提供するシステムである。MRシステムは、第1の情報処理装置101、HMD102、光学式センサ104、第2の情報処理装置105、客観カメラ106(撮像装置)とを含む。第1の情報処理装置101にHMD102と光学式センサ104と第2の情報処理装置105とが接続されており、第1の情報処理装置101はこれらと相互にデータ通信可能に有線または無線で接続されている。また、第2の情報処理装置105に客観カメラ106が接続されており、第2の情報処理装置105はこれと相互にデータ通信可能に有線または無線で接続されている。尚、図1のシステム上に接続される各種端末の構成は一例であり、用途や目的に応じて様々な構成例がある。
FIG. 1 is a diagram illustrating an example of a system configuration of an MR system according to an embodiment of the present invention. The MR system is a system that provides a user with mixed reality (hereinafter referred to as MR). The MR system includes a first
第1の情報処理装置101は、オペレーティングシステムを搭載する汎用的な装置である。第1の情報処理装置101は、現実空間の画像(以下、現実空間画像)と、仮想空間の画像(以下、仮想空間画像)とを重畳した画像(以下、複合現実画像)を生成し、HMD102に送信する。MRの技術に関しては従来技術を用いるため、詳細な説明は省略する。
The first
HMD102は、いわゆるヘッドマウントディスプレイである。HMD102は、ユーザの頭部に装着するディスプレイ装置であり、右目用と左目用のビデオカメラと、右目用と左目用のディスプレイを備えている。HMD102は、HMD102のビデオカメラで撮像された現実空間画像を第1の情報処理装置101に送信する。そして、第1の情報処理装置101から送信されてきた複合現実画像を受信し、ディスプレイに表示する。更に、右目用と左目用のビデオカメラとディスプレイを設けているので、視差によって立体感を得ることができる。尚、HMD102で撮像する現実空間画像、及び表示する複合現実画像は、動画が望ましいが、所定の間隔で撮像された静止画であってもよい。
The HMD 102 is a so-called head mounted display. The
光学式センサ104は、現実空間を撮像し、光学式マーカ103の位置及び姿勢を検出する装置である。本実施形態では、光学式センサ104はHMD102が備える光学式マーカ103を検出し、HMD102の位置及び姿勢を特定する。どのような状況下でも光学式マーカ103を検出できるように、光学式センサ104を部屋の中に複数設置することが望ましい。尚、本実施形態では光学式センサ104とHMD102が備える光学式マーカ103とを用いてHMD102の位置及び姿勢を示す情報を取得するが、HMD102の位置及び姿勢が検出できればどのような形態でも構わない。例えば、磁気センサを用いてもよいし、HMD102で撮像された映像を解析して位置及び姿勢を特定してもよい。
The
第2の情報処理装置105は、オペレーティングシステムを搭載する汎用的な装置である。第2の情報処理装置105は、第1の情報処理装置101が管理している仮想空間と同じ仮想空間を管理している。また、第1の情報処理装置101から取得したHMD102の位置を示す情報に応じて、客観カメラ106で撮像された現実空間画像を仮想空間に配置する。
The second
客観カメラ106は、現実空間を撮像する装置である。客観カメラ106で撮像した現実空間画像は、第2の情報処理装置105に送信する。尚、本実施形態においては、現実空間画像は動画が望ましいが、所定の間隔で撮像された静止画であってもよい。また、本実施形態における客観カメラ106は、単眼のカメラであり、更に所定の位置に固定されている。
The
図2は、第1の情報処理装置101のハードウェア構成を示す図である。尚、図2の第1の情報処理装置101のハードウェアの構成は一例であり、用途や目的に応じて様々な構成例がある。
FIG. 2 is a diagram illustrating a hardware configuration of the first
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
The
また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムや、各種装置の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
The
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
The
また、入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。 An input controller (input C) 205 controls input from a pointing device (input device 210) such as a keyboard and a mouse.
ビデオコントローラ(VC)206は、HMD102が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。
A video controller (VC) 206 controls display on a display device such as the right eye /
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
The memory controller (MC) 207 is an adapter to a hard disk (HD), flexible disk (FD) or PCMCIA card slot for storing boot programs, browser software, various applications, font data, user files, editing files, various data, and the like. Controls access to an
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。
A communication I / F controller (communication I / FC) 208 is connected to and communicates with an external device via a network, and executes communication control processing in the network. For example, Internet communication using TCP / IP is possible. The communication I /
汎用バス209は、HMD102の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。
The general-
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。
Note that the
本発明の第1の情報処理装置101が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
Various programs and the like used by the first
図3は、第2の情報処理装置105のハードウェア構成を示す図である。尚、図3の第2の情報処理装置101のハードウェアの構成は一例であり、用途や目的に応じて様々な構成例がある。
FIG. 3 is a diagram illustrating a hardware configuration of the second
第2の情報処理装置105のハードウェア構成は、図2で前述した第1の情報処理装置101のハードウェア構成と同様であるので、同じ箇所については説明を省略する。第1の情報処理装置101とは異なり、第2の情報処理装置105のビデオコントローラ206には、右目・左目ディスプレイ222が接続されていない。また、第2の情報処理装置105の通信I/Fコントローラ208には、光学式センサ104が接続されていない。更には、第2の情報処理装置105の汎用バス209には、右目・左目ビデオカメラ221が接続されておらず、客観カメラ106が接続されている。
The hardware configuration of the second
図4は、第1の情報処理装置101、第2の情報処理装置105の機能構成を示す機能構成図である。尚、図4の第1の情報処理装置101、第2の情報処理装置105の機能構成は一例であり、用途や目的に応じて様々な構成例がある。
FIG. 4 is a functional configuration diagram illustrating functional configurations of the first
第1の情報処理装置101は機能部として、通信制御部401、HMD位置・姿勢取得部402、HMD現実空間画像取得部403、仮想空間画像取得部404、複合現実画像生成部405、仮想空間管理部406、表示制御部407を備えている。
The first
通信制御部401は、第1の情報処理装置101と通信可能なHMD102と光学式センサ104と第2の情報処理装置105との各種情報の送受信を行う機能部である。通信制御部401は、前述したビデオコントローラ206、通信I/Fコントローラ208、汎用バス209等を通じてこれらの装置と情報の送受信を行う。
The
HMD位置・姿勢取得部402は、HMD102の現実空間における位置及び姿勢を示す情報を光学式センサ104から取得する機能部である。HMD現実空間画像取得部403は、HMD102の右目・左目ビデオカメラ221から現実空間画像を取得する機能部である。
The HMD position /
仮想空間画像取得部404は、第1の情報処理装置101で生成する仮想空間の画像を取得する機能部である。仮想空間画像取得部404が仮想空間の画像を取得する場合には、HMD位置・姿勢取得部402で取得したHMD102の位置及び姿勢に基づいて仮想空間上の視点を決定し、当該視点から見た場合の仮想空間画像を生成し、これを取得する。
The virtual space image acquisition unit 404 is a functional unit that acquires an image of the virtual space generated by the first
複合現実画像生成部405は、HMD現実空間画像取得部403で取得した現実空間画像に仮想空間画像取得部404で取得した仮想空間画像を重畳することにより、複合現実画像を生成する機能部である。
The mixed reality
仮想空間管理部406は、第1の情報処理装置101において仮想空間を生成し、当該仮想空間に3次元モデルから成るオブジェクトを配置する機能部である。仮想空間管理部406で使用する各オブジェクトは、第1の情報処理装置101の外部メモリ211等に記憶されており、これらを適宜読み出して仮想空間を生成する。
The virtual
表示制御部407は、第1の情報処理装置101に接続されたHMD102の右目・左目ディスプレイ222や第1の情報処理装置101に接続されたディスプレイ212における各種情報の表示制御を行う機能部である。
The
また、第2の情報処理装置105は機能部として、通信制御部451、客観カメラ位置・姿勢取得部452、客観カメラ現実空間画像取得部453、透過処理部454、テクスチャ生成部455、HMD位置取得部456、オブジェクト配置部457、テクスチャ制御部458、表示制御部459、仮想空間管理部460を備えている。
The second
通信制御部451は、第2の情報処理装置105と通信可能な第1の情報処理装置101と客観カメラ106との各種情報の送受信を行う機能部である。通信制御部401は、前述した通信I/Fコントローラ208、汎用バス209等を通じてこれらの装置と情報の送受信を行う。
The
客観カメラ位置・姿勢取得部452は、客観カメラ106が設置されている現実空間上の位置及び姿勢を示す情報を取得する機能部である。本実施形態においては、客観カメラ106は所定の場所に固定されているので、あらかじめ外部メモリ211等に客観カメラ106の位置及び姿勢を示す情報を記憶されている。よって、客観カメラ位置・姿勢取得部452は、この記憶された情報を取得する。または、客観カメラ現実空間画像取得部453で取得した現実空間画像に含まれる情報に基づいて、客観カメラ106が設置されている位置及び姿勢を特定し、これを取得してもよい。この場合には、図1に示すような二次元マーカ107を仮想空間の所定の座標と対応付けておき、客観カメラ106の撮像範囲の床や壁等に当該二次元マーカ107を設置する。そして、客観カメラ106から取得した現実空間画像に含まれる二次元マーカ107の大きさや形状、対応付けた座標等に基づいて、二次元マーカ107との位置関係を算出し、客観カメラ106の位置及び姿勢を特定する。
The objective camera position /
客観カメラ現実空間画像取得部453は、客観カメラ106から現実空間画像を取得する機能部である。
The objective camera real space
透過処理部454は、客観カメラ現実空間画像取得部453で取得した現実空間画像に含まれる所定の色を透過する機能部である。例えば、現実空間の背景色を青にした場合、現実空間画像に含まれる画素のうち、青色の画素の透過度(アルファ値)を「0」にする。尚、透過度は必ずしも「0」である必要はないが、完全に透過させることで、本願発明の効果をより向上することができる。また、透過する色は複数色あってもよいし、色味や濃さによって透過する対象の色に幅を持たせてもよい。
The
テクスチャ生成部455は、仮想空間に配置される平面の3次元モデル(オブジェクト)に貼り付け可能なテクスチャを生成する機能部である。テクスチャ生成部455は、透過処理部454で指定色が透過処理された現実空間画像をテクスチャとして生成する。
The
HMD位置取得部456は、HMD102の現実空間における位置を示す情報を第1の情報処理装置101から取得する機能部である。尚、本実施形態においては第1の情報処理装置101から取得する形態で説明を行うが、光学式センサ104と通信I/Fコントローラ208とを接続し、光学式センサ104からHMD102の位置を示す情報を直接取得してもよい。
The HMD
オブジェクト配置部457は、テクスチャ生成部455で生成したテクスチャを貼り付けるオブジェクトの位置を決定し、決定した位置に平面のオブジェクトを配置する機能部である。オブジェクト配置部457は、客観カメラ位置・姿勢取得部452で取得した客観カメラ106の位置及び姿勢を示す情報とHMD位置取得部456で取得したHMD102の位置を示す情報とを用いて、仮想空間上における客観カメラ106の光軸に垂直かつHMD102の位置を通る平面のオブジェクトを配置する。
The
テクスチャ制御部458は、オブジェクト配置部457で配置したオブジェクトにテクスチャ生成部で生成されたテクスチャを貼り付ける機能部である。貼り付ける際には、テクスチャの中心点を、仮想空間上における客観カメラ106の光軸が通る位置に貼り付ける。また、仮想空間管理部460が客観カメラ106の位置・姿勢に応じて仮想空間上の視点を制御し、当該制御された視点から仮想空間を閲覧した場合の閲覧範囲を満たすように、テクスチャ制御部458がテクスチャのサイズを変更する。
The
表示制御部459は、仮想空間管理部460が客観カメラ106の位置及び姿勢に応じて仮想空間上の視点を制御し、当該制御された視点から閲覧した仮想空間をディスプレイ212に表示制御する機能部である。
The
仮想空間管理部460は、第2の情報処理装置105において第1の情報処理装置101と同様の仮想空間を生成し、当該仮想空間に第1の情報処理装置101と同様の3次元モデルから成るオブジェクトを配置する機能部である。仮想空間管理部406で使用する各オブジェクトは、第2の情報処理装置105の外部メモリ211等に記憶されており、これらを適宜読み出して仮想空間を生成する。そのため、あらかじめ第1の情報処理装置101から仮想空間を生成するための各種情報を外部メモリ211に複製しておくことが望ましい。
The virtual
次に、本発明の実施形態における第1情報処理装置101、第2の情報処理装置105によって行われる一連の処理について、図5に示すフローチャートを用いて説明する。
Next, a series of processing performed by the first
まず、第1の情報処理装置101における処理の流れについて説明する。第1の情報処理装置101は、HMD102を装着するユーザに対して複合現実感を提示する。特に、本実施形態においては、ユーザは所定の色(青や緑等)の壁や床や天井、その他設置物から成る部屋でHMD102を装着し、複合現実感を体感することを前提として、以下説明を行う。
First, the flow of processing in the first
ステップS501では、第1の情報処理装置101のCPU201は、光学式センサ104からHMD102の位置及び姿勢を示す情報を、HMD位置・姿勢取得部402を用いて取得し、RAM203等に記憶する。すなわちステップS501では、現実空間でHMD102を装着しているユーザの位置及び姿勢を示す情報を取得している。HMD102の位置及び姿勢を示す情報は、例えば図7のHMD位置・姿勢700に示す通りである。現実空間の所定の場所を原点とした場合のXYZ座標と、当該XYZ座標を用いたベクトルである。この2つをHMD102の位置及び姿勢とする。尚、HMD102の位置及び姿勢を示す情報の取得方法は、これに限らない。磁気センサや二次元マーカを用いてHMD102の位置及び姿勢を特定してもよい。現実空間における対象物の位置及び姿勢を示す情報の取得方法は従来技術であるので、説明は省略する。
In step S <b> 501, the
ステップS502では、第1の情報処理装置101のCPU201は、ステップS501で取得したHMD位置・姿勢700のうち、HMD102の位置を示す情報を、通信制御部401を用いて第2の情報処理装置105に送信する。
In step S <b> 502, the
ステップS503では、第1の情報処理装置101のCPU201は、HMD102の右目・左目ビデオカメラ221から送信される現実空間画像を、HMD現実空間画像取得部403を用いて取得し、RAM203等に記憶する。右目・左目ビデオカメラ221はユーザの右目に相当するビデオカメラと左目に相当するビデオカメラとの2つが存在するため、これらから右目用と左目用の現実空間画像を取得する。
In step S503, the
ステップS504では、第1の情報処理装置101のCPU201は、仮想空間画像取得部404を用いて仮想空間画像を取得し、RAM203等に記憶する。より具体的には、まずステップS501で取得したHMD位置・姿勢700をRAM203等から読み出し、当該HMD位置・姿勢700に対応する仮想空間上の位置及び姿勢を特定する。そして、特定した仮想空間上の位置及び姿勢で仮想空間上に仮想のカメラ(視点)を設置し、当該カメラにより仮想空間を撮像する。これにより仮想空間画像を生成する。尚、前述した現実空間画像と同様に、HMD102の右目・左目ディスプレイ222のそれぞれに表示するために右目用の仮想空間画像と左目用の仮想空間画像の2枚を取得する。
In step S504, the
ステップS505では、第1の情報処理装置101のCPU201は、ステップS503で取得した現実空間画像とステップS504で取得した仮想空間画像とをRAM203等から読み出す。そして、複合現実画像生成部405を用いて当該現実空間画像に当該仮想空間画像を重畳し、複合現実画像を生成する。生成した複合現実画像はRAM203等に記憶する。尚、前述した通り、現実空間画像と仮想空間画像とは右目用と左目用の2枚ずつがRAM203等に記憶されているので、右目用の現実空間画像に右目用の仮想空間画像を重畳し、左目用の現実空間画像に左目用の仮想空間画像を重畳する。また、前述した通り本実施形態では、後述するステップS510を実行する都合上、現実空間の部屋の壁等は所定の色(青や緑等)になっている。よって、当該所定の色が見えないような仮想空間画像を重畳することが望ましい。すなわち、バーチャルリアリティのように現実空間が見えないほうが、より没入感が高くなる。
In step S505, the
ステップS506では、第1の情報処理装置101のCPU201は、ステップS505で生成した複合現実画像をRAM203等から読み出し、ビデオコントローラ206を通じてHMD102の右目・左目ディスプレイ222に表示する。RAM203等に記憶された複合現実画像は、右目用と左目用の2枚が存在する。そのため表示制御部407を用いて、右目用の複合現実画像を右目・左目ディスプレイ222の右目のディスプレイに表示するよう制御し、左目用の複合現実画像を右目・左目ディスプレイ222の左目のディスプレイに表示するよう制御する。
In step S <b> 506, the
ステップS507では、第1の情報処理装置101のCPU201は、HMD102を装着しているユーザに複合現実感を提示する処理(前述したステップS501乃至ステップS506)の終了指示があったか否かを判定する。例えば、前述したステップS501乃至ステップS506の処理を実行する第1の情報処理装置101のアプリケーションの停止指示や終了指示があったか否かを判定する。終了指示があったと判定した場合には、本一連の処理を終了する。終了指示があったと判定しなかった場合、すなわち終了指示がなかった場合にはステップS501に処理を戻し、終了指示があるまでステップS501乃至ステップS507を繰り返す。
In step S507, the
次に、第1の情報処理装置101とは非同期で動作する第2の情報処理装置105の処理について説明する。
Next, processing of the second
ステップS508では、第2の情報処理装置105のCPU201は、通信制御部451を用いて、ステップS502において第1の情報処理装置101から送信されたHMD102の位置を示す情報(位置情報)を受信し、RAM203等(記憶手段)に記憶する。本実施形態では、HMD102の位置を示す情報を第1の情報処理装置から受信することで取得するが、客観カメラ106が複眼カメラであった場合には、三角測量により客観カメラ106からHMD102に対する距離を取得し、客観カメラ106の位置及び姿勢を示す情報を用いて、HMD102の位置を算出してもよい。
In step S508, the
ステップS509では、第2の情報処理装置105のCPU201は、第2の情報処理装置105に接続された客観カメラ106で現実空間を撮像することにより生成された現実空間画像を、客観カメラ現実空間画像取得部453を用いて取得し、RAM203等に記憶する(現実空間画像取得手段)。前述した通り、客観カメラ106は本実施形態では単眼カメラであるので、HMD102のような複眼カメラとは異なり、出力される画像(または映像)は1つである。
In step S <b> 509, the
ステップS510では、第2の情報処理装置105のCPU201は、ステップS509で取得した現実空間画像をRAM203等から読み出し、透過処理部454を用いて当該現実空間画像の所定の色(青や緑等)を透過する(透過処理手段)。現実空間画像は、HMD102を装着するユーザ以外の部分は所定の色となっているため、この所定の色のアルファ値を変更することで現実空間画像の所定の色を透過する。こうすると、ユーザだけを現実空間画像から抽出できる。図6はステップS510の概要を示している。図6の600は、ステップS509で取得した現実空間画像である。この現実空間画像にはHMD102を装着したユーザ601が含まれており、床や壁や天井等はステップS510で透過処理される所定の色である。この現実空間画像に対してステップS510の処理を実行すると、所定の色が透過されるので、610に示す通りの現実空間画像となる。すなわち、ユーザ以外の床や壁や天井等が透過された画像となる。
In step S510, the
ステップS511では、第2の情報処理装置105のCPU201は、ステップS510で透過した現実空間画像を用いて仮想空間で表示可能なテクスチャを生成する(テクスチャ生成手段)。テクスチャとは、3次元モデルから成るオブジェクトの表面に貼り付ける模様である。テクスチャ生成部455を用いて現実空間画像からこのテクスチャを生成する。
In step S511, the
ステップS512では、第2の情報処理装置105のCPU201は、客観カメラ106の位置及び姿勢を示す情報(位置姿勢情報)を、客観カメラ位置・姿勢取得部452を用いて取得する。前述した通り、本実施形態では外部メモリ211等(記憶手段)に客観カメラ106の位置及び姿勢を示す情報が記憶されているので、これを取得するものとする。尚、前述した通り、客観カメラ106の位置及び姿勢を取得する方法はこれに限らない。すなわち、現実空間の壁等に貼り付けられた二次元マーカ107を客観カメラ106で撮像することにより、当該客観カメラ106の位置及び姿勢を特定してもよいし、これ以外の方法で特定してもよい。客観カメラ106の位置及び姿勢を示す情報は、例えば図7の客観カメラ位置・姿勢710に示す通りである。客観カメラ位置・姿勢710は、HMD位置・姿勢700と同様の情報であるため、説明は省略する。
In step S <b> 512, the
ステップS513では、第2の情報処理装置105のCPU201は、仮想空間における客観カメラ106の光軸を、仮想空間管理部460を用いて特定する。すなわち、ステップS512で取得した客観カメラ位置・姿勢710に対応する仮想空間上の位置及び姿勢を特定し、当該位置及び姿勢で仮想空間を撮像した場合の光軸のベクトルを特定する。
In step S 513, the
ステップS514では、第2の情報処理装置105のCPU201は、ステップS508で受信したHMD102の位置を示す情報をRAM203等から読み出す。
In step S514, the
ステップS515では、第2の情報処理装置105のCPU201は、オブジェクト配置部457を用いて、ステップS513で特定した客観カメラ106の仮想空間上における光軸に垂直で、かつステップS514で読み出したHMD102の位置を通る平面のオブジェクトを生成し、配置する(オブジェクト配置手段)。
In step S515, the
ステップS516では、第2の情報処理装置105のCPU201は、テクスチャ制御部458を用いて、ステップS515で配置したオブジェクトにステップS511で生成したテクスチャを貼り付ける(テクスチャ貼付手段)。貼り付ける際には、客観カメラ106の仮想空間上における光軸がテクスチャの中心点を通るように貼り付ける。
In step S516, the
ステップS517では、第2の情報処理装置105のCPU201は、テクスチャ制御部458を用いて、ステップS516で貼り付けたテクスチャのサイズをディスプレイ212に表示する仮想空間の範囲に応じて変更する(テクスチャサイズ変更手段)。すなわち、仮想空間を撮像する仮想のカメラの撮像範囲と同等のサイズにテクスチャを拡大または縮小する。テクスチャの位置が仮想のカメラ(客観カメラ106の現実空間上の位置・姿勢に対応する仮想空間上の視点)に近ければ近いほどテクスチャのサイズを縮小し、テクスチャの位置が仮想のカメラから遠ければ遠いほどテクスチャのサイズを拡大することになる。
In step S517, the
客観カメラ106で撮像した現実空間画像において、すでに被写体であるユーザの遠近感は表現されている。しかしながら、仮想空間上においても遠近感が存在するので、テクスチャのサイズを変更しないと遠近感が単純に2倍となる。つまり、客観カメラ106が捉えた遠近感を崩さないためにも、テクスチャの位置が仮想カメラに近ければテクスチャを縮小して仮想空間上の遠近感を相殺し、テクスチャの位置が仮想カメラから遠ければテクスチャを拡大して仮想空間上の遠近感を相殺している。
In the real space image captured by the
ステップS518では、第2の情報処理装置105のCPU201は、ステップS512で取得した客観カメラ位置・姿勢710をRAM203等から読み出し、当該客観カメラ位置・姿勢710に応じて仮想空間上に仮想のカメラ(視点)を設定し、当該カメラから見た仮想空間を撮像する。これにより仮想空間画像を生成し、RAM203等に記憶する。
In step S518, the
ステップS519では、第2の情報処理装置105のCPU201は、ステップS518で撮像した仮想空間画像をRAM203等から取得し、ビデオコントローラ206を介してディスプレイ212に当該仮想空間画像を表示する(表示手段)。
In step S519, the
ステップS520では、第2の情報処理装置105のCPU201は、HMD102を装着しているユーザが仮想空間を移動する様子を表示する処理(前述したステップS508乃至ステップS518)の終了指示があったか否かを判定する。例えば、前述したステップS508乃至ステップS518の処理を実行する第2の情報処理装置105のアプリケーションの停止指示や終了指示があったか否かを判定する。終了指示があったと判定した場合には、本一連の処理を終了する。終了指示があったと判定しなかった場合、すなわち終了指示がなかった場合にはステップS508に処理を戻し、終了指示があるまでステップS508乃至ステップS519を繰り返す。
In step S520, the
図8から図11を用いて、ステップS508乃至ステップS519の処理の一例を説明する。 An example of processing in steps S508 to S519 will be described with reference to FIGS.
図8の斜視イメージ800は、ステップS508乃至ステップS517の処理を実行した結果の仮想空間を示す図である。この仮想空間には3次元モデルから成るオブジェクト801、オブジェクト802、オブジェクト803が配置されている。また、客観カメラ106の位置及び姿勢に応じて仮想空間上に仮想のカメラ804が設置されている。当該仮想のカメラ804を視点とした映像がディスプレイ212に表示される。
A
ステップS513では、客観カメラ106の光軸を仮想空間上で特定する。すなわち、光軸805が客観カメラ106の光軸である。この光軸に垂直で、かつHMD102の位置を通る平面のオブジェクトがオブジェクト806である。上面イメージ810に示すように、光軸805に垂直で、かつHMD102の位置811を通る平面がオブジェクト806である。
In step S513, the optical axis of the
そして、オブジェクト806には図6の610に示す透過された現実空間画像のテクスチャをオブジェクト806に貼り付けて(ステップS516)、仮想のカメラ804の撮像範囲807となるよう、貼り付けた現実空間画像のサイズを変更する(ステップS517)。図8に示す撮像範囲807が示す4つの線分を含む内側の空間が仮想のカメラ804の撮像可能な範囲である。この範囲を満たすよう、現実空間画像のサイズを調整する。このようにすることで、オブジェクト802とオブジェクト803との間に、テクスチャの貼り付けられたオブジェクト806が配置されるので、仮想のカメラ804で撮像すると、図9の仮想空間画像900が示すような画像がディスプレイ212に表示されることとなる。仮想空間画像900は、前述した図12の1203の画像とは異なり、適切な奥行き位置にHMD102を装着するユーザ601を配置することができている。
Then, the texture of the transmitted real space image indicated by
HMD102を装着するユーザ601が移動すれば、オブジェクト806の位置も変わる。図10に示す斜視イメージ1000は、ユーザ601がオブジェクト801とオブジェクト802との間に移動した場合を示す。客観カメラ106は固定なので、仮想のカメラ804の位置及び姿勢は変わらない。そのため、光軸805や撮像範囲807は図8と同じである。HMD102を装着するユーザ601が、上面イメージ1010の1011が示す位置に移動すると、オブジェクト806は1001に示す位置に移動する。そのため、この仮想空間を仮想のカメラ804で撮像すると、図11の仮想空間画像1100が示すような画像がディスプレイ212に表示されることとなる。図11の仮想空間画像1100に映るユーザ601が、オブジェクト801とオブジェクト802との間に位置していることが確認できる。
If the
このように、通常のクロマキー合成では表現できない奥行きを、現実空間画像のテクスチャと仮想空間とを用いることにより表現することができるようになる。 As described above, the depth that cannot be expressed by normal chroma key composition can be expressed by using the texture of the real space image and the virtual space.
以上説明したように、本実施形態によれば、現実空間のユーザを撮像することにより生成される画像を仮想空間上の適切な位置に表示することの可能な効果を奏する。 As described above, according to the present embodiment, there is an effect that an image generated by imaging a user in the real space can be displayed at an appropriate position in the virtual space.
本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。 Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。 Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
101 第1の情報処理装置
102 HMD
103 光学式マーカ
104 光学式センサ
105 第2の情報処理装置
106 客観カメラ
107 二次元マーカ
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 汎用バス
210 入力デバイス
211 外部メモリ
212 ディスプレイ
221 右目・左目ビデオカメラ
222 右目・左目ディスプレイ
101 First
103
202 ROM
203 RAM
204
Claims (8)
現実空間における前記撮像装置の位置及び向きに対応する、前記仮想空間における位置及び向きを記憶する記憶手段と、
現実空間における対象物であって、現実空間を移動する対象物の現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定手段と、
前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得手段と、
前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定手段で特定された前記対象物の現在位置に従って、前記現実空間画像取得手段で取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定手段で特定した当該対象物の現在位置に移動して配置する配置手段と、
前記配置手段で配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更手段と、
前記サイズ変更手段でサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御手段と
を備えることを特徴とする情報処理装置。 An information processing apparatus that is communicably connected to an imaging apparatus and generates a virtual space in which a three-dimensional model is arranged,
Storage means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging device in real space;
Position specifying means for repeatedly acquiring a current position of a target object in the real space and moving in the real space, and repeatedly specifying the current position of the target object in the virtual space based on the acquired current position When,
Real space image acquisition means for acquiring a real space image generated by imaging the real space including the object with the imaging device;
The three-dimensional model is arranged at a predetermined position in the virtual space, and the real space image acquired by the real space image acquiring unit is placed in the virtual space according to the current position of the object specified by the position specifying unit. Arranging means for moving and arranging the arranged real space image to the current position of the object specified by the position specifying means according to the movement of the object ;
The size of the real space image arranged by the arrangement means is the range at the current position where the real space image is arranged, out of the range of field of view when the position and orientation stored in the storage means are taken as viewpoints Resizing means for changing to substantially the same size;
Display control means for controlling the virtual space including the real space image resized by the size changing means and the three-dimensional model so as to display the position and orientation stored in the storage means as a viewpoint. An information processing apparatus characterized by that.
撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置の制御方法であって、
前記情報処理装置の位置特定手段が、現実空間における対象物であって、現実空間を移動する対象物の現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定ステップと、
前記情報処理装置の現実空間画像取得手段が、前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得ステップと、
前記情報処理装置の配置手段が、前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定ステップで特定された前記対象物の現在位置に従って、前記現実空間画像取得ステップで取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定ステップで特定した当該対象物の現在位置に移動して配置する配置ステップと、
前記情報処理装置のサイズ変更手段が、前記配置ステップで配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更ステップと、
前記情報処理装置の表示制御手段が、前記サイズ変更ステップでサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御ステップと
を備えることを特徴とする情報処理装置の制御方法。 Storage means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging device in the real space;
A control method for an information processing apparatus that is communicably connected to an imaging apparatus and generates a virtual space in which a three-dimensional model is arranged,
The position specifying unit of the information processing apparatus is an object in the real space , repeatedly acquires the current position of the object moving in the real space, and based on the acquired current position, the object in the virtual space A position identifying step for repeatedly identifying the current position of
A real space image acquisition step of acquiring a real space image generated by imaging a real space including the object by the imaging device;
The arrangement unit of the information processing apparatus arranges the three-dimensional model at a predetermined position in the virtual space, and acquires in the real space image acquisition step according to the current position of the object specified in the position specifying step. An arrangement step of arranging the arranged real space image in the virtual space and further moving and arranging the arranged real space image to the current position of the object specified in the position specifying step according to the movement of the object. When,
The real space image in the range of the field of view when the size changing unit of the information processing apparatus uses the size and size of the real space image arranged in the arrangement step as the viewpoint stored in the storage unit. A resizing step for changing to a size substantially the same as the range at the current position where
The display control means of the information processing apparatus displays the virtual space including the real space image and the three-dimensional model whose size has been changed in the size changing step, with the position and orientation stored in the storage means as a viewpoint. And a display control step for controlling the information processing apparatus.
撮像装置と通信可能に接続され、3次元モデルが配置される仮想空間を生成する情報処理装置の制御方法を実行可能なプログラムであって、
前記情報処理装置を、
現実空間における対象物であって、現実空間を移動する対象物の現在位置を繰り返し取得し、当該取得した現在位置に基づいて、前記仮想空間における前記対象物の現在位置を繰り返し特定する位置特定手段と、
前記撮像装置で前記対象物を含む現実空間を撮像することにより生成された現実空間画像を取得する現実空間画像取得手段と、
前記仮想空間における所定の位置に前記3次元モデルを配置すると共に、前記位置特定手段で特定された前記対象物の現在位置に従って、前記現実空間画像取得手段で取得した現実空間画像を当該仮想空間に配置し、更に前記対象物の移動に応じて、前記配置した現実空間画像を前記位置特定手段で特定した当該対象物の現在位置に移動して配置する配置手段と、
前記配置手段で配置された現実空間画像のサイズを、前記記憶手段に記憶された位置及び向きを視点とした場合の視界の範囲のうち、当該現実空間画像が配置されている現在位置における範囲と略同一のサイズに変更するサイズ変更手段と、
前記サイズ変更手段でサイズ変更された前記現実空間画像と前記3次元モデルとを含む前記仮想空間を、前記記憶手段に記憶された位置及び向きを視点として表示するよう制御する表示制御手段
として機能させることを特徴とするプログラム。
Storage means for storing the position and orientation in the virtual space corresponding to the position and orientation of the imaging device in the real space;
A program capable of executing a control method of an information processing device that is communicably connected to an imaging device and generates a virtual space in which a three-dimensional model is arranged,
The information processing apparatus;
Position specifying means for repeatedly acquiring a current position of a target object in the real space and moving in the real space, and repeatedly specifying the current position of the target object in the virtual space based on the acquired current position When,
Real space image acquisition means for acquiring a real space image generated by imaging the real space including the object with the imaging device;
The three-dimensional model is arranged at a predetermined position in the virtual space, and the real space image acquired by the real space image acquiring unit is placed in the virtual space according to the current position of the object specified by the position specifying unit. Arranging means for moving and arranging the arranged real space image to the current position of the object specified by the position specifying means according to the movement of the object ;
The size of the real space image arranged by the arrangement means is the range at the current position where the real space image is arranged, out of the range of field of view when the position and orientation stored in the storage means are taken as viewpoints Resizing means for changing to substantially the same size;
Causing the virtual space including the real space image resized by the size changing means and the three-dimensional model to function as display control means for controlling the position and orientation stored in the storage means to be displayed as a viewpoint. A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014045802A JP6011567B2 (en) | 2014-03-10 | 2014-03-10 | Information processing apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014045802A JP6011567B2 (en) | 2014-03-10 | 2014-03-10 | Information processing apparatus, control method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015170232A JP2015170232A (en) | 2015-09-28 |
JP6011567B2 true JP6011567B2 (en) | 2016-10-19 |
Family
ID=54202883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014045802A Expired - Fee Related JP6011567B2 (en) | 2014-03-10 | 2014-03-10 | Information processing apparatus, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6011567B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017068824A1 (en) * | 2015-10-21 | 2017-04-27 | シャープ株式会社 | Image generation device, method for controlling image generation device, display system, image generation control program, and computer-readable recording medium |
JP6590324B2 (en) * | 2017-12-28 | 2019-10-16 | 株式会社コナミデジタルエンタテインメント | Information processing apparatus, information processing apparatus program, information processing system, and display method |
JP6857795B2 (en) * | 2017-12-28 | 2021-04-14 | 株式会社コナミデジタルエンタテインメント | Information processing device, information processing device program, information processing system, and display method |
JP7364218B2 (en) | 2017-12-28 | 2023-10-18 | 株式会社コナミデジタルエンタテインメント | Information processing device, program for information processing device, information processing system, and display method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0628449A (en) * | 1992-07-08 | 1994-02-04 | Matsushita Electric Ind Co Ltd | Image synthesizing device |
JP2000023037A (en) * | 1998-07-06 | 2000-01-21 | Sony Corp | Video compositing device |
JP3363861B2 (en) * | 2000-01-13 | 2003-01-08 | キヤノン株式会社 | Mixed reality presentation device, mixed reality presentation method, and storage medium |
JP2002271694A (en) * | 2001-03-13 | 2002-09-20 | Canon Inc | Image processing method, image processing unit, studio device, storage medium and program |
JP4649050B2 (en) * | 2001-03-13 | 2011-03-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and control program |
JP5145444B2 (en) * | 2011-06-27 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | Image processing apparatus, image processing apparatus control method, and program |
-
2014
- 2014-03-10 JP JP2014045802A patent/JP6011567B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015170232A (en) | 2015-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2021203688B2 (en) | Volumetric depth video recording and playback | |
KR102230416B1 (en) | Image processing device, image generation method, and computer program | |
EP3460761A1 (en) | Image processing apparatus, image processing method, image processing system, and program | |
JP6920057B2 (en) | Image processing equipment, image processing method, computer program | |
JP6677890B2 (en) | Information processing system, its control method and program, and information processing apparatus, its control method and program | |
JP7208549B2 (en) | VIRTUAL SPACE CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROGRAM | |
JP2015125641A (en) | Information processing device, control method therefor, and program | |
JP7353782B2 (en) | Information processing device, information processing method, and program | |
JP7060778B2 (en) | Information processing system, information processing system control method and program | |
KR102382247B1 (en) | Image processing apparatus, image processing method, and computer program | |
JP6011567B2 (en) | Information processing apparatus, control method thereof, and program | |
TW201921318A (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
US20190295324A1 (en) | Optimized content sharing interaction using a mixed reality environment | |
JP6357412B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP7119854B2 (en) | Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program | |
JP2017084215A (en) | Information processing system, control method thereof, and program | |
JP2020074108A (en) | Information processing system, control method thereof, and program | |
JP6638326B2 (en) | Information processing system, control method thereof, and program | |
JP2015121892A (en) | Image processing apparatus, and image processing method | |
JP6164177B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP7119853B2 (en) | Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program | |
JP6741939B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP6372131B2 (en) | Information processing apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6011567 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |