JP6734537B2 - Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program - Google Patents

Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program Download PDF

Info

Publication number
JP6734537B2
JP6734537B2 JP2016167941A JP2016167941A JP6734537B2 JP 6734537 B2 JP6734537 B2 JP 6734537B2 JP 2016167941 A JP2016167941 A JP 2016167941A JP 2016167941 A JP2016167941 A JP 2016167941A JP 6734537 B2 JP6734537 B2 JP 6734537B2
Authority
JP
Japan
Prior art keywords
mounted display
line
specifying
dimensional model
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016167941A
Other languages
Japanese (ja)
Other versions
JP2018036765A (en
Inventor
弘貴 深草
弘貴 深草
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016167941A priority Critical patent/JP6734537B2/en
Publication of JP2018036765A publication Critical patent/JP2018036765A/en
Application granted granted Critical
Publication of JP6734537B2 publication Critical patent/JP6734537B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

ヘッドマウントディスプレイを装着しているユーザに、三次元モデルを見やすい大きさで簡便に表示させることの可能な情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラムに関する。 Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof, capable of easily displaying a three-dimensional model in a size in which a user wearing a head mounted display can easily see the three-dimensional model Regarding

近年、複合現実(Mixed Reality)の技術が普及している。複合現実の技術を用いて、ヘッドマウントディスプレイ(HMD)を装着したユーザに対し、現実画像にCGモデルを配置した複合現実画像を提供し、現実画像と仮想空間を複合した複合現実の世界を体感させることができる。 In recent years, mixed reality technology has become widespread. Using mixed reality technology, we provide a user with a head mounted display (HMD) with a mixed reality image in which a CG model is placed in the real image, and experience the world of mixed reality in which the real image and the virtual space are combined. Can be made.

複合現実画像を生成するにあたり、下記の特許文献1では、ユーザからのオブジェクト画像のサイズの変更指示を受け付けることにより、オブジェクト画像の表示サイズを変更することの可能な仕組みが開示されている。 In generating a mixed reality image, Patent Document 1 below discloses a mechanism capable of changing the display size of an object image by receiving an instruction to change the size of the object image from the user.

特開2016−139199号公報JP, 2016-139199, A

上述した特許文献1では、HMDで表示されるオブジェクトのサイズを変更することの可能な仕組みについて開示されている。しかし、ユーザが適切なサイズと感じるサイズにオブジェクトのサイズを変更するためには、ユーザは適切なサイズとなるまでオブジェクトのサイズの変更指示を行わなければならないというように手間がかかるものとなっていた。 The above-mentioned Patent Document 1 discloses a mechanism capable of changing the size of an object displayed on the HMD. However, in order to change the size of the object to a size that the user feels to be an appropriate size, the user has to issue an instruction to change the size of the object until the size is appropriate. It was

そこで本発明の目的は、ヘッドマウントディスプレイを装着しているユーザに、三次元モデルを見やすい大きさで簡便に表示させることの可能な仕組みを提供することである。 Therefore, an object of the present invention is to provide a mechanism that allows a user wearing a head mounted display to easily display a three-dimensional model in a size that is easy to see.

本発明の情報処理装置は、仮想空間上におけるヘッドマウントディスプレイの位置、姿勢及び視野角の情報を取得する取得手段と、前記仮想空間上の三次元モデルを表示する位置を、前記取得手段で取得された前記位置、姿勢により特定する位置特定手段と、前記位置特定手段で特定された前記三次元モデルの位置と、前記取得手段で取得された前記ヘッドマウントディスプレイの位置及び視野角の情報とに基づいて、前記三次元モデルの表示する大きさを決定する決定手段と、前記三次元モデルを、前記決定手段で決定された前記大きさで、前記位置特定手段で特定された位置に前記ヘッドマウントディスプレイで表示させるよう制御する表示制御手段とを備えることを特徴とする。 In the information processing apparatus of the present invention, an acquisition unit that acquires information on the position, orientation, and viewing angle of the head-mounted display in the virtual space and a position that displays the three-dimensional model in the virtual space are acquired by the acquisition unit. The position and the orientation of the head mounted display acquired by the acquisition unit, the position specifying unit that specifies the position and the posture, the position of the three-dimensional model specified by the position specifying unit, Based on the determining means for determining the size displayed by the three-dimensional model, and the head mount at the position determined by the position determining means with the size determined by the determining means for the three-dimensional model. A display control means for controlling the display.

本発明によれば、ヘッドマウントディスプレイを装着しているユーザに、三次元モデルを見やすい大きさで簡便に表示させることが可能となる。 According to the present invention, a user wearing a head mounted display can easily display a three-dimensional model in a size that makes it easy to see.

本実施形態における情報処理システムの構成の一例を示す構成図である。It is a block diagram which shows an example of a structure of the information processing system in this embodiment. 本実施形態における各種装置のハードウェア構成の一例を示す構成図である。It is a block diagram which shows an example of the hardware constitutions of the various apparatuses in this embodiment. 複合現実空間を模式的に示すイメージである。It is an image schematically showing a mixed reality space. 本実施形態における各種装置の機能構成の一例を説明する構成図である。It is a lineblock diagram explaining an example of functional composition of various devices in this embodiment. 本実施形態における各種装置のモジュール構成の一例を説明する構成図である。It is a block diagram explaining an example of a module configuration of various devices in the present embodiment. 本実施形態における詳細な処理の流れを説明するフローチャートである。It is a flow chart explaining the flow of detailed processing in this embodiment. 図6のフローチャートの複合現実画像生成処理の詳細な処理の流れを説明するフローチャートである。7 is a flowchart illustrating a detailed process flow of the mixed reality image generation process of the flowchart in FIG. 6. 本実施形態における三次元モデルを表示する大きさを決定するイメージである。It is an image for determining the size of displaying the three-dimensional model in the present embodiment. 本実施形態における各種データテーブルの一例を示すデータテーブルである。It is a data table which shows an example of various data tables in this embodiment.

図1を参照して、本発明の実施形態における情報処理システムの構成の一例について説明する。 An example of the configuration of the information processing system in the embodiment of the present invention will be described with reference to FIG.

図1に示すように、本発明における情報処理システムの各種装置はネットワーク150を介して通信可能に接続されている。例えばPC100は、HMD101(HMD101A〜HMD101Cの総称)と通信可能に接続されている。 As shown in FIG. 1, various devices of the information processing system according to the present invention are communicatively connected via a network 150. For example, the PC 100 is communicably connected to an HMD 101 (a generic term for HMD 101A to HMD 101C).

PC100には、HMD101により撮像される現実画像に重畳する三次元モデル(CGモデル/仮想オブジェクト)が記憶されている。 The PC 100 stores a three-dimensional model (CG model/virtual object) to be superimposed on the real image captured by the HMD 101.

また、PC100は、自機の管理するHMD101(図1におけるHMD101A〜101C)より現実画像を取得して、記憶部に記憶する。また、PC100はHMD101の位置姿勢を特定し、記憶する。HMD101の位置姿勢の特定方法は、特開2003−308514号公報に記載されている、HMD101の撮像した現実画像中の二次元マーカを用いて特定可能である。また、特開2003−240532号公報に記載されているように、センサ(図1における光学センサ104)がHMD101に設置された光学式マーカの位置姿勢をHMD101の位置姿勢として検出し、それをPC100が取得することで特定することも可能である。本実施形態においては、光学センサ104で光学式マーカを読み取ることにより、HMD101の位置姿勢を特定するものとするがこれ以外の方法を用いてもよい。 Further, the PC 100 acquires a real image from the HMD 101 (HMD 101A to 101C in FIG. 1) managed by the PC 100 and stores the real image in the storage unit. In addition, the PC 100 identifies and stores the position and orientation of the HMD 101. The position/orientation specifying method of the HMD 101 can be specified by using a two-dimensional marker in a real image captured by the HMD 101, which is described in JP-A-2003-308514. Further, as described in Japanese Patent Application Laid-Open No. 2003-240532, a sensor (optical sensor 104 in FIG. 1) detects the position and orientation of an optical marker installed on the HMD 101 as the position and orientation of the HMD 101, and the PC100 detects the position and orientation. It is also possible to specify by acquiring. In the present embodiment, the position and orientation of the HMD 101 are specified by reading the optical marker with the optical sensor 104, but other methods may be used.

PC100では、HMD101の位置姿勢と、記憶部に記憶されている三次元モデル及び三次元モデルの位置姿勢の情報を用いて、現実画像に三次元モデルを重畳した複合現実画像を生成する。そして、当該複合現実画像をHMD101のディスプレイに表示させるべく、HMD101に送信する。HMD101は受信した複合現実画像をディスプレイに表示する。以上が図1の説明である。 The PC 100 uses the position and orientation of the HMD 101 and the information of the position and orientation of the three-dimensional model and the three-dimensional model stored in the storage unit to generate a mixed reality image in which the three-dimensional model is superimposed on the real image. Then, the mixed reality image is transmitted to the HMD 101 so as to be displayed on the display of the HMD 101. The HMD 101 displays the received mixed reality image on the display. The above is the description of FIG. 1.

複合現実空間を模式的に示したのが図3に示す模式図である。図3はHMD101の視野の範囲内に三次元モデルが表示されていることを示している。HMD101を装着したユーザはあたかも三次元モデルが現実空間上に存在するかのように知覚することができる。 FIG. 3 is a schematic diagram schematically showing the mixed reality space. FIG. 3 shows that the three-dimensional model is displayed within the field of view of the HMD 101. The user wearing the HMD 101 can perceive the three-dimensional model as if it exists in the real space.

従来、三次元モデルは実寸大で表示をすることにより、仮想的な三次元モデルが現実空間上にあたかも存在しているかのような体験をユーザに対して提供することができた。しかしながら、実寸大で表示することが適さない三次元モデルも存在し、その場合にはユーザが見やすい大きさに三次元モデルの大きさを変更しなければならない。そのため、HMD101の視野角の範囲内に三次元モデルが収まるように三次元モデルの表示倍率を変更することで、三次元モデルを見やすいサイズでHMD101を介してユーザに知覚させることが可能となる。なお、サイズの変更方法は一例であって、倍率の変更以外の方法で表示される三次元モデルの大きさを変更しても構わない。 Conventionally, by displaying a three-dimensional model in an actual size, it has been possible to provide the user with an experience as if a virtual three-dimensional model exists in the real space. However, there are also three-dimensional models that are not suitable for displaying at the actual size, and in that case, the size of the three-dimensional model must be changed to a size that the user can easily see. Therefore, by changing the display magnification of the three-dimensional model so that the three-dimensional model fits within the viewing angle range of the HMD101, the user can perceive the three-dimensional model through the HMD101 in a size that is easy to see. Note that the size changing method is an example, and the size of the three-dimensional model displayed may be changed by a method other than changing the magnification.

次に図2を参照して、本発明の実施形態における、各種装置のハードウェア構成の一例について説明する。 Next, with reference to FIG. 2, an example of a hardware configuration of various devices in the embodiment of the present invention will be described.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。 The CPU 201 centrally controls each device and controller connected to the system bus 204.

また、ROM202には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステム(OS)、その他各種装置の実行する機能を実現するために必要な各種プログラムが記憶されている。 In addition, the ROM 202 stores various programs necessary for realizing the functions executed by various devices such as a BIOS (Basic Input/Output System) which is a control program of the CPU 201, an operating system (OS), and the like.

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。 The RAM 203 functions as a main memory, a work area, etc. of the CPU 201. The CPU 201 implements various operations by loading a program or the like required for executing the processing into the RAM 203 and executing the program.

本発明のPC100が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。 Various programs and the like used by the PC 100 of the present invention to execute various processes described later are recorded in the external memory 211, and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 211.

入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス209)からの入力を制御する。 The input controller (input C) 205 controls input from a pointing device (input device 209) such as a keyboard and a mouse.

また、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。なお、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよいこととする。 When the input device 209 is a touch panel, the user can give various instructions by pressing down (touching with a finger or the like) in accordance with an icon, a cursor, or a button displayed on the touch panel. Note that the touch panel may be a touch panel such as a multi-touch screen that can detect a position touched by a plurality of fingers.

ビデオコントローラ(VC)206は、HMD101が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。また、入力コントローラ(入力C)205は、PC100の備えるディスプレイ212(液晶ディスプレイ等)の表示器への表示を制御する。なお、図2では、表示器は液晶ディスプレイだけでなく、CRTディスプレイ等の他の表示器であってもよい。 The video controller (VC) 206 controls display on a display device such as the right eye/left eye display 222 provided in the HMD 101. For example, an external output terminal (for example, Digital Visual Interface) is used to output to the right/left eye display 222. The right/left-eye display 222 is composed of a display for the right eye and a display for the left eye. Further, the input controller (input C) 205 controls display on the display device of the display 212 (liquid crystal display or the like) included in the PC 100. In addition, in FIG. 2, the display is not limited to the liquid crystal display, and may be another display such as a CRT display.

メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。 The memory controller (MC) 207 is an adapter for a hard disk (HD) or flexible disk (FD) or a PCMCIA card slot that stores a boot program, browser software, various applications, font data, user files, edit files, various data, and the like. It controls access to the external memory 211 such as a card type memory connected via the.

通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学センサ104との通信も制御する。 A communication I/F controller (communication I/FC) 208 connects and communicates with an external device via a network, and executes communication control processing on the network. For example, internet communication using TCP/IP is possible. The communication I/F controller 208 also controls communication with the optical sensor 104 via Gigabit Ethernet (registered trademark) or the like.

汎用バス212は、HMD101の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。 The general-purpose bus 212 is used to capture an image from the right-eye/left-eye video camera 221 of the HMD 101. Input from the right-eye/left-eye video camera 221 is performed using an external input terminal (for example, an IEEE 1394 terminal). The right/left-eye video camera 221 includes a right-eye video camera and a left-eye video camera.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。以上が図2の説明である。 The CPU 201 enables display on the display by executing an outline font rasterization process in a display information area in the RAM 203, for example. Further, the CPU 201 enables a user instruction with a mouse cursor or the like (not shown) on the display. The above is the description of FIG.

次に図4を参照して、本発明の実施形態における各種装置の機能構成の一例について説明する。 Next, with reference to FIG. 4, an example of a functional configuration of various devices in the embodiment of the present invention will be described.

PC100は、オペレーティングシステム401(OS)、グラフィックエンジン402、複合現実感プラットフォーム403(MRプラットフォームともいう)、複合現実感アプリケーション404(MRアプリケーションやビューアアプリケーションともいう)で構成され、CPU201により制御されている。 The PC 100 includes an operating system 401 (OS), a graphic engine 402, a mixed reality platform 403 (also called MR platform), and a mixed reality application 404 (also called MR application or viewer application), and is controlled by the CPU 201. ..

オペレーティングシステム401は、HMD101の入出力を制御しカメラ221から入力インターフェースを介して得られた現実画像を複合現実感プラットフォーム403へ受け渡す。またグラフィックエンジン402で描画された複合現実画像を、出力インターフェースを介して、ディスプレイ222へ出力する。 The operating system 401 controls the input/output of the HMD 101 and transfers the real image obtained from the camera 221 via the input interface to the mixed reality platform 403. The mixed reality image drawn by the graphic engine 402 is output to the display 222 via the output interface.

グラフィックエンジン402は、外部メモリ211に記憶されている三次元モデルから描画する画像を生成し、現実画像に重畳し、合成する。描画に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。 The graphic engine 402 generates an image to be drawn from the three-dimensional model stored in the external memory 211, superimposes it on the real image, and synthesizes it. The engine used for drawing may be, for example, a widely used graphic engine such as OpenGL or DirectX, or an independently developed graphic engine. In this embodiment, OpenGL is used as the graphic library.

複合現実感プラットフォーム403は、光学センサ104で光学式マーカを読み取ることでHMD101の位置姿勢を特定し、現実空間と仮想空間の位置合わせを行う。なお、位置姿勢や位置合わせの技術は、既知の技術として開示されている、特開2002−32784、特開2006−072903、特開2007−166427等を用いて実現することが可能である。 The mixed reality platform 403 identifies the position and orientation of the HMD 101 by reading the optical marker with the optical sensor 104, and aligns the real space and the virtual space. Note that the position/orientation and position alignment techniques can be realized using known techniques, such as JP-A-2002-32784, JP-A-2006-072903, and JP-A-2007-166427.

複合現実感アプリケーション404は、複合現実感プラットフォーム403からHMD101の位置姿勢、三次元モデルの形状の情報、位置姿勢の情報を受け付け、グラフィックエンジン402に対して、三次元モデルの描画命令を発行する。この時、OpenGLのApplication Programming Interface(API)を用いて、描画する三次元モデルの識別情報、位置姿勢の情報を設定した命令を発行する。以上が図4の説明である。 The mixed reality application 404 receives the position and orientation of the HMD 101, the information of the shape of the three-dimensional model, and the information of the position and orientation of the HMD 101 from the mixed reality platform 403, and issues a drawing command of the three-dimensional model to the graphic engine 402. At this time, an application programming interface (API) of OpenGL is used to issue a command in which identification information of a three-dimensional model to be drawn and position/orientation information are set. The above is the description of FIG.

次に図5を参照して本実施形態におけるHMD101とPC100のモジュール構成の一例を説明する。 Next, an example of the module configuration of the HMD 101 and the PC 100 in this embodiment will be described with reference to FIG.

HMD101は、撮像部301、撮像画像送信部302、MR画像受信部303、MR画像表示部304を備える。 The HMD 101 includes an image capturing unit 301, a captured image transmitting unit 302, an MR image receiving unit 303, and an MR image display unit 304.

撮像部301は、右目・左目ビデオカメラ221で現実空間を撮像する機能部である。 The image capturing unit 301 is a functional unit that captures an image of the physical space with the right-eye/left-eye video camera 221.

撮像画像送信部302は、右目・左目ビデオカメラ221で撮像された画像をPC100に送信する機能部である。 The captured image transmission unit 302 is a functional unit that transmits the image captured by the right-eye/left-eye video camera 221 to the PC 100.

MR画像受信部303は、PC100から送信されたMR画像(仮想現実画像)を受信する機能部である。 The MR image receiving unit 303 is a functional unit that receives an MR image (virtual reality image) transmitted from the PC 100.

MR画像表示部304は、MR画像受信部303で受信したMR画像を右目・左目ディスプレイ222で表示させる機能部である。 The MR image display unit 304 is a functional unit that displays the MR image received by the MR image receiving unit 303 on the right-eye/left-eye display 222.

PC100は、撮像画像受信部321、取得部322、位置特定部323、決定部324、表示制御部325を備える。 The PC 100 includes a captured image reception unit 321, an acquisition unit 322, a position identification unit 323, a determination unit 324, and a display control unit 325.

撮像画像受信部321は、HMD101から送信された画像を受信する機能部である。 The captured image receiving unit 321 is a functional unit that receives the image transmitted from the HMD 101.

取得部322は、HMD101の位置及び視野角の情報を取得する機能部である。 The acquisition unit 322 is a functional unit that acquires information on the position and viewing angle of the HMD 101.

位置特定部323は、仮想空間上の三次元モデルを表示する位置をHMD101の位置及び姿勢により特定する機能部である。 The position specifying unit 323 is a functional unit that specifies the position where the three-dimensional model is displayed in the virtual space based on the position and orientation of the HMD 101.

決定部324は、決定された三次元モデルの表示位置とHMD101の位置及び視野角の情報に基づいて、三次元モデルを表示する大きさを決定する機能部である。 The determination unit 324 is a functional unit that determines the size of the 3D model to be displayed based on the determined display position of the 3D model and the information on the position and viewing angle of the HMD 101.

表示制御部325は、三次元モデルを決定部324で決定された大きさでHMD101に表示させる機能部である。 The display control unit 325 is a functional unit that causes the HMD 101 to display the three-dimensional model in the size determined by the determination unit 324.

なお、PC100のモジュールをHMD101に持たせるようにしても構わない。 The HMD 101 may have the module of the PC 100.

以上で、図5に示す本実施形態におけるPC100の機能構成の説明を終了する。 Above, description of the functional structure of PC100 in this embodiment shown in FIG. 5 is complete|finished.

次に図6を参照して、本実施形態における複合現実画像の生成及び表示処理について説明する。 Next, the mixed reality image generation and display processing according to this embodiment will be described with reference to FIG.

HMD101は、ステップS601で起動後、カメラ221の機能を用いて現実画像の撮像を開始する(ステップS602)。そして、撮像処理によって取得した現実画像をPC100に送信する(ステップS603)。 After being activated in step S601, the HMD 101 starts capturing a real image using the function of the camera 221 (step S602). Then, the physical image acquired by the imaging process is transmitted to the PC 100 (step S603).

PC100のCPU201はHMD101より現実画像を受信し(ステップS604)、受信した現実画像を外部メモリ211に記憶する(ステップS605)。例えば、図9の現実画像テーブル930に示すように、現実画像の送信元のHMD101の識別情報であるHMD ID931と、現実画像932とを対応付けて記憶する。 The CPU 201 of the PC 100 receives the real image from the HMD 101 (step S604), and stores the received real image in the external memory 211 (step S605). For example, as shown in the real image table 930 of FIG. 9, the HMD ID 931 that is the identification information of the HMD 101 that is the transmission source of the real image and the real image 932 are stored in association with each other.

PC100のCPU201は、HMD101の位置、姿勢を取得して(ステップS606、取得手段に相当する)、外部メモリ211に記憶する(ステップS607)。例えば、図9のHMD情報910に示すように、HMD101の識別情報であるHMD ID911と、当該HMDの位置912(X,Y,Z座標)、姿勢913(X,Y,Z座標の値により表現されるHMD101の向いている方向)を記憶する。 The CPU 201 of the PC 100 acquires the position and orientation of the HMD 101 (step S606, corresponding to an acquisition unit) and stores the position and attitude in the external memory 211 (step S607). For example, as shown in the HMD information 910 of FIG. 9, it is represented by the HMD ID 911 that is the identification information of the HMD 101, the position 912 (X, Y, Z coordinates), and the attitude 913 (X, Y, Z coordinates) of the HMD. The direction in which the HMD 101 is turned on) is stored.

PC100のCPU201は、外部メモリ211から三次元モデルの情報を取得し、HMD101から受信した現実画像に重畳した複合現実画像を生成する処理を行う(ステップS608)。その後、生成された複合現実画像をHMD101に送信する(ステップS609、表示制御手段に相当する)。 The CPU 201 of the PC 100 acquires the information of the three-dimensional model from the external memory 211 and performs a process of generating a mixed reality image superimposed on the reality image received from the HMD 101 (step S608). After that, the generated mixed reality image is transmitted to the HMD 101 (step S609, which corresponds to a display control unit).

ステップS608の複合現実画像生成処理の詳細な処理の流れを図7のフローチャートを用いて説明する。 A detailed processing flow of the mixed reality image generation processing in step S608 will be described with reference to the flowchart in FIG.

図7は複合現実画像生成処理の詳細な処理の流れを説明するフローチャートである。図8が複合画像生成処理の説明と対応づいたイメージ図なので、参照されたい。 FIG. 7 is a flowchart for explaining the detailed processing flow of the mixed reality image generation processing. Please refer to FIG. 8 because it is an image diagram corresponding to the description of the composite image generation process.

ステップS701では、PC100のCPU201は、外部メモリ211に記憶されたHMD情報910に示すHMDの位置912、姿勢913を参照する。 In step S<b>701, the CPU 201 of the PC 100 refers to the HMD position 912 and attitude 913 shown in the HMD information 910 stored in the external memory 211.

ステップS702では、PC100のCPU201は、HMD101で表示させる対象となる三次元モデルを特定する。本実施形態では、予めユーザから表示させる三次元モデルの指定を受け付けているものとする。表示させる三次元モデルの指定の受け付け方法については特に限定されず、例えばディスプレイ212に表示される三次元モデルのリストから対象の三次元モデルの選択を受け付けるようにしてもよい。 In step S702, the CPU 201 of the PC 100 specifies the three-dimensional model to be displayed on the HMD 101. In the present embodiment, it is assumed that the designation of the three-dimensional model to be displayed by the user has been received in advance. The method for accepting the designation of the three-dimensional model to be displayed is not particularly limited, and for example, the selection of the target three-dimensional model from the list of the three-dimensional models displayed on the display 212 may be accepted.

ステップS703では、PC100のCPU201は、外部メモリ211に記憶される「設定された距離1000」を取得する。本実施形態では例えば3メートルとする。設定された距離1000は自由に設定することができる。設定された距離1000の設定の方法は何でもよい。 In step S703, the CPU 201 of the PC 100 acquires the “set distance 1000” stored in the external memory 211. In this embodiment, the length is, for example, 3 meters. The set distance 1000 can be set freely. Any method may be used to set the set distance 1000.

ステップS704では、PC100のCPU201は、ステップS701で取得した位置912と姿勢913との座標から求められる、HMDの視線を示すベクトルを算出する。算出された視線ベクトル1001は対応するHMD101の視線ベクトル914(視線方向)に格納する。 In step S704, the CPU 201 of the PC 100 calculates a vector indicating the line of sight of the HMD, which is obtained from the coordinates of the position 912 and the posture 913 acquired in step S701. The calculated line-of-sight vector 1001 is stored in the line-of-sight vector 914 (line-of-sight direction) of the corresponding HMD 101.

なお、本実施形態では3次元ベクトルを用いて、当該ベクトルの範囲に入るよう三次元モデルの大きさを決定しているが、高さの情報を無視した2次元ベクトルを用いて、当該ベクトルの範囲に入るよう三次元モデルの大きさを決定してもよい。 In the present embodiment, the size of the three-dimensional model is determined by using the three-dimensional vector so as to fall within the range of the vector, but the two-dimensional vector in which the height information is ignored is used to calculate the size of the vector. The size of the three-dimensional model may be determined so that it falls within the range.

ステップS705では、PC100のCPU201は、ステップS702で特定された三次元モデルを表示する中心の位置である表示位置1002を特定する(位置特定手段に相当する)。本実施形態では、ステップS701で取得したHMD101の位置912から、視線ベクトル914に向かってステップS703で取得した「設定された距離」の値だけ離れた位置を、三次元モデルの表示位置1002として決定する。なお、三次元モデルの表示位置1002の特定方法はこれに限らず、右目・左目ビデオカメラ221で二次元マーカを撮影することにより、二次元マーカの位置を特定し、特定された位置を三次元モデルの表示位置としても構わない。 In step S705, the CPU 201 of the PC 100 specifies the display position 1002 that is the center position for displaying the three-dimensional model specified in step S702 (corresponding to position specifying means). In the present embodiment, a position distant from the position 912 of the HMD 101 acquired in step S701 by the value of the “set distance” acquired in step S703 toward the line-of-sight vector 914 is determined as the display position 1002 of the three-dimensional model. To do. The method of identifying the display position 1002 of the three-dimensional model is not limited to this, and the two-dimensional marker is photographed by the right-eye/left-eye video camera 221 to identify the position of the two-dimensional marker, and the identified position is three-dimensional. It may be the display position of the model.

ステップS706では、PC100のCPU201は、ステップS705で特定された表示位置1002が仮想空間の範囲内か否かを判定する。仮想空間の範囲内であると判定された場合には処理をステップS708に進め、そうでない場合には処理をステップS707に進める。仮想空間の範囲内か否かの判断は、例えばステップS705で特定された表示位置1002が所定の値の範囲内か否かなどによって判断することができる。 In step S706, the CPU 201 of the PC 100 determines whether the display position 1002 identified in step S705 is within the range of the virtual space. If it is determined to be within the range of the virtual space, the process proceeds to step S708; otherwise, the process proceeds to step S707. The determination as to whether the display position 1002 is within the range of the virtual space can be made by, for example, whether the display position 1002 specified in step S705 is within a predetermined value range.

ステップS707では、PC100のCPU201は、ステップS705で特定された表示位置1002が仮想空間の範囲内となるように補正を行う。例えば仮想空間の地面を規定している面より下が表示位置1002となっている場合には、地面を規定している面より上となるように、表示位置1002を補正する。このように三次元モデルを表示する位置を仮想空間の範囲内となるように補正することにより、ユーザにとって違和感のない複合現実空間を体感させることができるようになるという効果がある。なお、ステップS706、707における表示位置1002の補正は必須の構成ではなく必要に応じて省略をしても構わないものとする。 In step S707, the CPU 201 of the PC 100 performs correction so that the display position 1002 specified in step S705 falls within the range of the virtual space. For example, when the display position 1002 is below the surface defining the ground in the virtual space, the display position 1002 is corrected so as to be above the surface defining the ground. As described above, by correcting the position where the three-dimensional model is displayed so as to be within the range of the virtual space, there is an effect that it becomes possible for the user to experience a mixed reality space that does not cause a sense of discomfort. Note that the correction of the display position 1002 in steps S706 and 707 is not an essential configuration and may be omitted if necessary.

ステップS708では、PC100のCPU201は、外部メモリ211に記憶されたHMD101の視野角情報を取得する。視野角情報とは、HMD101の視野の情報を示す情報であり、右目・左目ビデオカメラ221の画角の情報である。 In step S708, the CPU 201 of the PC 100 acquires the viewing angle information of the HMD 101 stored in the external memory 211. The view angle information is information indicating the view information of the HMD 101, and is the view angle information of the right-eye/left-eye video camera 221.

ステップS709では、PC100のCPU201は、ステップS705で特定された三次元モデルの表示位置1002を通る法線ベクトルであって視線ベクトル1001に対する法線ベクトル1004を特定する(ベクトル特定手段に相当する)。図8に示す法線ベクトル1004である。 In step S709, the CPU 201 of the PC 100 specifies a normal vector 1004 that is a normal vector passing through the display position 1002 of the three-dimensional model specified in step S705 and that corresponds to the line-of-sight vector 1001 (corresponding to vector specifying means). It is the normal vector 1004 shown in FIG.

ステップS710では、PC100のCPU201は、ステップS709で特定された法線ベクトル1004と視野角情報が示す視野の範囲との交点1005を特定する。 In step S710, the CPU 201 of the PC 100 identifies an intersection 1005 between the normal vector 1004 identified in step S709 and the range of the field of view indicated by the viewing angle information.

ステップS711では、PC100のCPU201は、ステップS705で特定された(またはステップS707で補正された)三次元モデルの表示位置1002からステップS710で特定された交点1005までの距離Dを算出する(算出手段に相当する)。算出された距離Dはメモリ上に一時記憶しておく。 In step S711, the CPU 201 of the PC 100 calculates the distance D from the display position 1002 of the three-dimensional model specified in step S705 (or corrected in step S707) to the intersection point 1005 specified in step S710 (calculating means). Equivalent to). The calculated distance D is temporarily stored in the memory.

距離Dを補正するための情報である補正情報を外部メモリ211から取得し、この補正情報により、例えば距離Dを多少小さい値と補正するようにしてもよい。これにより、HMD101の視野角いっぱいに三次元モデルが表示されてしまうことを避ける効果がある。逆に多少大きい値とするよう補正しても構わないものとする。 Correction information, which is information for correcting the distance D, may be acquired from the external memory 211, and the distance D may be corrected to a slightly smaller value, for example, based on this correction information. This has the effect of preventing the three-dimensional model from being displayed in the full viewing angle of the HMD 101. On the contrary, it may be corrected so as to have a slightly larger value.

ステップS712では、PC100のCPU201は、距離Dにより、求められた値と、ステップS702で特定された三次元モデルの端から端までの長さ(最大長)にもとづいて、三次元モデルの表示倍率を決定する(決定手段に相当する)。例えば、距離Dが4メートルで、ステップS702で特定された三次元モデルの端から端までの長さ(最大長)が8メートルであった場合には、この三次元モデルの端から端までの長さが4メートルとなるように倍率を決定する。この例であれば50%として三次元モデルの表示倍率を決定する。決定された表示倍率は、表示倍率926に格納する。 In step S712, the CPU 201 of the PC 100 determines the display magnification of the three-dimensional model based on the value obtained by the distance D and the length (maximum length) from end to end of the three-dimensional model specified in step S702. Is determined (corresponding to the determining means). For example, when the distance D is 4 meters and the length (maximum length) from end to end of the three-dimensional model specified in step S702 is 8 meters, the distance from the end to the end of this three-dimensional model is Determine the magnification so that the length is 4 meters. In this example, the display magnification of the three-dimensional model is determined as 50%. The determined display magnification is stored in the display magnification 926.

三次元モデルの情報は、例えば図9のモデル情報920に示す情報である。モデル情報920は、予めPC100の外部メモリ211に記憶されている情報である。モデルID921は三次元モデルの識別情報である。モデル名922は、三次元モデルのファイル名である。ファイルパス923は、ファイルが記憶されている場所を示す。位置924、姿勢925は三次元モデルの位置姿勢を示す。PC100のCPU201は、HMDの位置912・姿勢913から、HMD101と同じ画角を持つカメラが、位置924・姿勢925の三次元モデルを撮像した場合の、当該三次元モデルの画像を描画データ940として生成する。 The information of the three-dimensional model is, for example, the information shown in the model information 920 of FIG. The model information 920 is information stored in the external memory 211 of the PC 100 in advance. The model ID 921 is identification information of the three-dimensional model. The model name 922 is the file name of the three-dimensional model. File path 923 indicates the location where the file is stored. The position 924 and the posture 925 indicate the position and posture of the three-dimensional model. The CPU 201 of the PC 100, when a camera having the same angle of view as the HMD 101 images the 3D model at the position 924/attitude 925 from the position 912/attitude 913 of the HMD, draws the image of the 3D model as the drawing data 940. To generate.

ステップS713では、PC100のCPU201は、描画データ940を現実画像932と合成することで、図9のMR画像テーブル950に示す複合現実画像952(MR画像)を生成する。 In step S713, the CPU 201 of the PC 100 combines the drawing data 940 with the real image 932 to generate the mixed reality image 952 (MR image) shown in the MR image table 950 of FIG.

ステップS714では、PC100のCPU201は、ステップS714で生成された複合現実画像952を外部メモリ211に記憶する。 In step S714, the CPU 201 of the PC 100 stores the mixed reality image 952 generated in step S714 in the external memory 211.

以上で図7に示す複合現実画像生成処理の詳細な処理の流れの説明を終了し、図6の説明に戻る。 This is the end of the description of the detailed processing flow of the mixed reality image generation processing shown in FIG. 7, and returns to the description of FIG.

HMD101は、PC100から送信された複合現実画像を受信し(ステップS610)、表示画面に表示する(ステップS611)。ユーザから複合現実画像の表示を終了する指示を受け付けたか否かを判断し、ユーザから複合現実画像の表示を終了する指示を受け付けたと判断した場合には処理を終了させ、そうでない場合には処理をステップS602に戻す。 The HMD 101 receives the mixed reality image transmitted from the PC 100 (step S610) and displays it on the display screen (step S611). It is determined whether or not an instruction to end the display of the mixed reality image has been received from the user, and if it is determined that an instruction to end the display of the mixed reality image has been received from the user, the processing ends; otherwise, the processing To step S602.

以上、本発明によれば、ヘッドマウントディスプレイを装着しているユーザに、三次元モデルを見やすい大きさで表示させることが可能となる。 As described above, according to the present invention, the user wearing the head mounted display can display the three-dimensional model in a size that makes it easy to see.

本実施形態では、三次元モデルの表示の大きさを指定する方法として表示倍率により指定を行ったが、これ以外の方法でもよく、三次元モデル自体の大きさを指定するようにしてもよい。 In this embodiment, the display size is designated by the display magnification as a method for designating the display size of the three-dimensional model. However, other methods may be used, and the size of the three-dimensional model itself may be designated.

また本実施形態では、三次元モデルを表示する中心を、視線ベクトル914上のHMD101から「設定された距離1000」だけ離れた位置となるように制御していたが、これ以外の方法でもよい。例えば、視線ベクトル914と仮想空間を規定する空間の壁(境界)との交点を算出して、その交点とHMD101の位置912との間の距離に対する割合(例えば50%)となる位置を三次元モデルの位置としてもよい。このようにすることで、規程された仮想空間の外側に三次元モデルの表示される中心が設定されることを防止することができ、三次元モデルが例えば地面などに埋もれてしまうことを防止する効果がある。 Further, in the present embodiment, the center for displaying the three-dimensional model is controlled so as to be located on the line-of-sight vector 914 away from the HMD 101 by the “set distance 1000”, but other methods may be used. For example, the intersection point between the line-of-sight vector 914 and the wall (boundary) of the space that defines the virtual space is calculated, and the position that is the ratio (for example, 50%) to the distance between the intersection point and the position 912 of the HMD 101 is three-dimensional. It may be the position of the model. By doing so, it is possible to prevent the display center of the 3D model from being set outside the regulated virtual space, and prevent the 3D model from being buried in the ground, for example. effective.

また、本実施形態では、常に三次元モデルの表示される位置と表示される倍率を計算して表示するように構成しているが、本発明は当然所定のタイミングにおけるHMD101の位置912、姿勢913に基づいて三次元モデルの表示される中心と表示される倍率を決定して、HMD101で表示させるようにしてもよい。 Further, in the present embodiment, the display position and the display magnification of the three-dimensional model are always calculated and displayed, but the present invention is naturally the position 912 and the posture 913 of the HMD 101 at a predetermined timing. It is also possible to determine the display center of the three-dimensional model and the display magnification based on the above, and to display it on the HMD 101.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置の情報処理装置が前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。 The present invention can be embodied as, for example, a system, an apparatus, a method, a program, a storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices, or It may be applied to a device consisting of one device. It should be noted that the present invention includes a software program that realizes the functions of the above-described embodiment, which directly or remotely supplies the system or device. The present invention also includes a case where the information processing apparatus of the system or the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理を情報処理装置で実現するために、前記情報処理装置にインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Therefore, the program code itself installed in the information processing device to implement the functional processing of the present invention in the information processing device also implements the present invention. That is, the present invention includes the computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, the program may take any form such as an object code, a program executed by an interpreter, or script data supplied to an OS as long as it has the function of the program.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。 A recording medium for supplying the program includes, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, MO, a CD-ROM, a CD-R, a CD-RW, and the like. There are also magnetic tapes, non-volatile memory cards, ROMs, DVDs (DVD-ROMs, DVD-Rs), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 In addition, as a method of supplying the program, a browser of a client computer is used to connect to a home page on the Internet. The computer program itself of the present invention or the compressed file containing the automatic installation function can be downloaded from the homepage to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理を情報処理装置で実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from different homepages. That is, a WWW server that allows a plurality of users to download a program file for implementing the functional processing of the present invention on an information processing apparatus is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行して情報処理装置にインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted and stored in a storage medium such as a CD-ROM and distributed to users, and the key information for decrypting the encryption is downloaded from the homepage via the Internet to users who have satisfied predetermined conditions. Let Then, it is also possible to execute the encrypted program by using the downloaded key information and install the program in the information processing device to realize it.

また、情報処理装置が、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、情報処理装置上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the information processing device executing the read program. In addition, the OS or the like running on the information processing device performs a part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments can be realized also by the processing.

さらに、記録媒体から読み出されたプログラムが、情報処理装置に挿入された機能拡張ボードや情報処理装置に接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted in the information processing device or a function expansion unit connected to the information processing device. After that, based on the instructions of the program, the CPU or the like included in the function expansion board or the function expansion unit performs some or all of the actual processing, and the processing also realizes the functions of the above-described embodiments.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of specific embodiments for carrying out the present invention, and the technical scope of the present invention should not be limitedly interpreted by these. That is, the present invention can be implemented in various forms without departing from its technical idea or its main features.

100 PC
201 CPU
202 RAM
203 ROM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 キーボード
210 CRTディスプレイ
211 外部メモリ
100 PC
201 CPU
202 RAM
203 ROM
204 System Bus 205 Input Controller 206 Video Controller 207 Memory Controller 208 Communication I/F Controller 209 Keyboard 210 CRT Display 211 External Memory

Claims (11)

仮想空間上におけるヘッドマウントディスプレイの位置、姿勢及び視野角の情報を取得する取得手段と、
前記取得手段で取得した前記ヘッドマウントディスプレイの位置と姿勢とから、当該ヘッドマウントディスプレイの視線方向を示す視線ベクトルを特定する視線ベクトル特定手段と、
前記ヘッドマウントディスプレイから所定の距離の位置であって、前記視線ベクトル特定手段により特定された視線ベクトル上の位置を、三次元モデルの中心の位置として特定する位置特定手段と、
前記取得手段により取得した視野角の情報から特定される、前記ヘッドマウントディスプレイから所定の距離における視野の範囲に基づき、前記三次元モデルを表示する大きさを決定する決定手段と、
前記三次元モデルを、前記決定手段により決定された大きさで、前記位置特定手段により特定された位置に、前記ヘッドマウントディスプレイに表示させるよう制御する表示制御手段と、
を備えることを特徴とする情報処理装置。
Acquisition means for acquiring information on the position, orientation and viewing angle of the head mounted display in the virtual space,
From the position and orientation of the head mounted display acquired by the acquisition unit, a line-of-sight vector specifying unit that specifies a line-of-sight vector indicating a line-of-sight direction of the head-mounted display,
A position specifying unit for specifying a position on the line-of-sight vector specified by the line-of-sight vector specifying unit as a position of the center of the three-dimensional model, which is a position at a predetermined distance from the head mounted display ,
A determining unit that determines the size of the three-dimensional model to be displayed , based on the range of the field of view at a predetermined distance from the head mounted display, which is specified from the information on the viewing angle acquired by the acquiring unit ,
Display control means for controlling the three-dimensional model to be displayed on the head-mounted display at the size determined by the determination means at the position specified by the position specifying means;
An information processing apparatus comprising:
前記決定手段は、前記ヘッドマウントディスプレイから所定の距離における視野の範囲に収まる大きさを、前記三次元モデル表示する大きさとして決定すること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the determining unit determines a size within a field of view at a predetermined distance from the head mounted display as a size for displaying the three-dimensional model.
前記位置特定手段で特定された位置を通る法線ベクトルであって、前記視線方向に対する法線ベクトルを特定する法線ベクトル特定手段と、
前記位置特定手段で特定された位置から、前記法線ベクトル特定手段で特定された法線ベクトルと前記視野角との交点までの距離を算出する算出手段と
を更に備え、
前記決定手段は、前記算出手段で算出された距離に基づいて前記三次元モデルの表示する大きさを決定することを特徴とする請求項1または2に記載の情報処理装置。
A normal vector passing through the position specified by the position specifying means, and a normal vector specifying means for specifying a normal vector with respect to the line-of-sight direction,
Further comprising a calculating means for calculating a distance from the position specified by the position specifying means to an intersection of the normal vector specified by the normal vector specifying means and the viewing angle,
The determination unit, the information processing apparatus according to claim 1 or 2, characterized in that determines the size of display of the three-dimensional model based on the distance calculated by said calculating means.
前記位置特定手段は、前記視線方向と前記仮想空間を規定する境界との交点と、前記ヘッドマウントディスプレイの位置との間の位置を、前記三次元モデルの中心の位置として特定することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 It said position specifying means, and characterized in that the intersection of the boundary defining the viewing direction and the virtual space, a position between the position of the head mounted display is specified as the position of the center of the three-dimensional model The information processing apparatus according to any one of claims 1 to 3 , 前記位置特定手段は、前記視線方向と前記仮想空間を規定する境界との交点と前記ヘッドマウントディスプレイの位置との間の位置であり、前記ヘッドマウントディスプレイの位置から所定の割合となる位置を、前記三次元モデルの中心の位置として特定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 Said position specifying means, the intersection of the boundary defining the viewing direction and the virtual space, a position between the position of the head-mounted display, a position where the predetermined ratio from the position of the head-mounted display the information processing apparatus according to any one of claims 1 to 4, characterized in that identifying the location of the center of the three-dimensional model. 前記位置特定手段で特定された三次元モデルの中心の位置が、前記仮想空間内の位置か否かを判定する判定手段と、
前記判定手段で前記位置が前記仮想空間内の位置ではないと判定された場合には、前記位置が前記仮想空間内となるよう補正する補正手段と
を更に備えることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
The position of the center of the three-dimensional model specified by the position specifying means, a determining means for determining whether or not the position in the virtual space,
When the determination unit determines that the position is not within the virtual space, the correction unit further corrects the position so that the position is within the virtual space. The information processing apparatus according to any one of 5 above.
情報処理装置が、
仮想空間上におけるヘッドマウントディスプレイの位置、姿勢及び視野角の情報を取得する取得ステップと、
前記取得ステップで取得した前記ヘッドマウントディスプレイの位置と姿勢とから、当該ヘッドマウントディスプレイの視線方向を示す視線ベクトルを特定する視線ベクトル特定ステップと、
前記ヘッドマウントディスプレイから所定の距離の位置であって、前記視線ベクトル特定ステップにより特定された視線ベクトル上の位置を、三次元モデルの中心の位置として特定する位置特定ステップと、
前記取得ステップにより取得した視野角の情報から特定される、前記ヘッドマウントディスプレイから所定の距離における視野の範囲に基づき、前記三次元モデル表示する大きさを決定する決定ステップと、
前記三次元モデルを、前記決定ステップにより決定された前記大きさで、前記位置特定ステップにより特定された位置に、前記ヘッドマウントディスプレイ表示させるよう制御する表示制御ステップと
を備えることを特徴とする情報処理装置の制御方法。
The information processing device
An acquisition step of acquiring information on the position, posture and viewing angle of the head mounted display in the virtual space;
From the position and orientation of the head mounted display acquired in the acquisition step, a line-of-sight vector specifying step of specifying a line-of-sight vector indicating a line-of-sight direction of the head-mounted display,
A position of a predetermined distance from the head mounted display, a position on the line-of-sight vector specified by the line-of-sight vector specifying step, a position specifying step of specifying the position of the center of the three-dimensional model ,
A determining step of determining a size for displaying the three-dimensional model , based on the range of the field of view at a predetermined distance from the head mounted display, which is specified from the information of the viewing angle acquired by the acquiring step ,
The three-dimensional model, with the magnitude determined by the determination step, the position specified by the position specifying step, characterized in that it comprises a display control step of controlling so as to be displayed on the head-mounted display Control method of information processing apparatus.
情報処理装置を、
仮想空間上におけるヘッドマウントディスプレイの位置、姿勢及び視野角の情報を取得する取得手段と、
前記取得手段で取得した前記ヘッドマウントディスプレイの位置と姿勢とから、当該ヘッドマウントディスプレイの視線方向を示す視線ベクトルを特定する視線ベクトル特定手段と、
前記ヘッドマウントディスプレイから所定の距離の位置であって、前記視線ベクトル特定手段により特定された視線ベクトル上の位置を、三次元モデルの中心の位置として特定する位置特定手段と、
前記取得手段により取得した視野角の情報から特定される、前記ヘッドマウントディスプレイから所定の距離における視野の範囲に基づき、前記三次元モデル表示する大きさを決定する決定手段と、
前記三次元モデルを、前記決定手段により決定された前記大きさで、前記位置特定手段により特定された位置に、前記ヘッドマウントディスプレイ表示させるよう制御する表示制御手段
として機能させるためのプログラム。
Information processing equipment,
Acquisition means for acquiring information on the position, orientation and viewing angle of the head mounted display in the virtual space,
From the position and orientation of the head mounted display acquired by the acquisition unit, a line-of-sight vector specifying unit that specifies a line-of-sight vector indicating a line-of-sight direction of the head-mounted display,
A position specifying unit for specifying a position on the line-of-sight vector specified by the line-of-sight vector specifying unit as a position of the center of the three-dimensional model, which is a position at a predetermined distance from the head mounted display ,
A determining unit that determines the size of the three-dimensional model to be displayed , based on the range of the field of view at a predetermined distance from the head mounted display, which is specified from the information on the viewing angle acquired by the acquiring unit ,
The three-dimensional model, wherein a size determined by the determination means, the specified position by the position specifying means, a program to function as a display control means for controlling so as to be displayed on the head-mounted display.
仮想空間上におけるヘッドマウントディスプレイの位置、姿勢及び視野角の情報を取得する取得手段と、
前記取得手段で取得した前記ヘッドマウントディスプレイの位置と姿勢とから、当該ヘッドマウントディスプレイの視線方向を示す視線ベクトルを特定する視線ベクトル特定手段と、
前記ヘッドマウントディスプレイから所定の距離の位置であって、前記視線ベクトル特定手段により特定された視線ベクトル上の位置を、三次元モデルの中心の位置として特定する位置特定手段と、
前記取得手段により取得した視野角の情報から特定される、前記ヘッドマウントディスプレイから所定の距離における視野の範囲に基づき、前記三次元モデル表示する大きさを決定する決定手段と、
前記三次元モデルを、前記決定手段により決定された前記大きさで、前記位置特定手段により特定された位置に、前記ヘッドマウントディスプレイ表示させるよう制御する表示制御手段と
を備えることを特徴とする情報処理システム。
Acquisition means for acquiring information on the position, orientation and viewing angle of the head mounted display in the virtual space,
From the position and orientation of the head mounted display acquired by the acquisition unit, a line-of-sight vector specifying unit that specifies a line-of-sight vector indicating a line-of-sight direction of the head-mounted display,
A position specifying unit for specifying a position on the line-of-sight vector specified by the line-of-sight vector specifying unit as a position of the center of the three-dimensional model, which is a position at a predetermined distance from the head mounted display ,
A determining unit that determines the size of the three-dimensional model to be displayed , based on the range of the field of view at a predetermined distance from the head mounted display, which is specified from the information on the viewing angle acquired by the acquiring unit ,
The three-dimensional model, wherein a size determined by the determination means, the specified position by the position specifying means, characterized in that it comprises a display control means for controlling so as to be displayed on the head-mounted display Information processing system.
情報処理システムが、
仮想空間上におけるヘッドマウントディスプレイの位置、姿勢及び視野角の情報を取得する取得ステップと、
前記取得ステップで取得した前記ヘッドマウントディスプレイの位置と姿勢とから、当該ヘッドマウントディスプレイの視線方向を示す視線ベクトルを特定する視線ベクトル特定ステップと、
前記ヘッドマウントディスプレイから所定の距離の位置であって、前記視線ベクトル特定ステップにより特定された視線ベクトル上の位置を、三次元モデルの中心の位置として特定する位置特定ステップと、
前記取得ステップにより取得した視野角の情報から特定される、前記ヘッドマウントディスプレイから所定の距離における視野の範囲に基づき、前記三次元モデル表示する大きさを決定する決定ステップと、
前記三次元モデルを、前記決定ステップにより決定された前記大きさで、前記位置特定ステップにより特定された位置に、前記ヘッドマウントディスプレイ表示させるよう制御する表示制御ステップと
を備えることを特徴とする情報処理システムの制御方法。
Information processing system
An acquisition step of acquiring information on the position, posture and viewing angle of the head mounted display in the virtual space;
From the position and orientation of the head mounted display acquired in the acquisition step, a line-of-sight vector specifying step of specifying a line-of-sight vector indicating the line-of-sight direction of the head-mounted display,
A position of a predetermined distance from the head mounted display, a position on the line-of-sight vector specified by the line-of-sight vector specifying step, a position specifying step of specifying the position of the center of the three-dimensional model ,
A determining step of determining a size for displaying the three-dimensional model , based on the range of the field of view at a predetermined distance from the head mounted display, which is specified from the information of the viewing angle acquired by the acquiring step ,
The three-dimensional model, with the magnitude determined by the determination step, the position specified by the position specifying step, characterized in that it comprises a display control step of controlling so as to be displayed on the head-mounted display Information processing system control method.
情報処理システムを、
仮想空間上におけるヘッドマウントディスプレイの位置、姿勢及び視野角の情報を取得する取得手段と、
前記取得手段で取得した前記ヘッドマウントディスプレイの位置と姿勢とから、当該ヘッドマウントディスプレイの視線方向を示す視線ベクトルを特定する視線ベクトル特定手段と、
前記ヘッドマウントディスプレイから所定の距離の位置であって、前記視線ベクトル特定手段により特定された視線ベクトル上の位置を、三次元モデルの中心の位置として特定する位置特定手段と、
前記取得手段により取得した視野角の情報から特定される、前記ヘッドマウントディスプレイから所定の距離における視野の範囲に基づき、前記三次元モデル表示する大きさを決定する決定手段と、
前記三次元モデルを、前記決定手段により決定された前記大きさで、前記位置特定手段により特定された位置に、前記ヘッドマウントディスプレイ表示させるよう制御する表示制御手段
として機能させるためのプログラム。
Information processing system,
Acquisition means for acquiring information on the position, orientation and viewing angle of the head mounted display in the virtual space,
From the position and orientation of the head mounted display acquired by the acquisition unit, a line-of-sight vector specifying unit that specifies a line-of-sight vector indicating a line-of-sight direction of the head-mounted display,
A position specifying unit for specifying a position on the line-of-sight vector specified by the line-of-sight vector specifying unit as a position of the center of the three-dimensional model, which is a position at a predetermined distance from the head mounted display ,
A determining unit that determines the size of the three-dimensional model to be displayed , based on the range of the field of view at a predetermined distance from the head mounted display, which is specified from the information on the viewing angle acquired by the acquiring unit ,
The three-dimensional model, wherein a size determined by the determination means, the specified position by the position specifying means, a program to function as a display control means for controlling so as to be displayed on the head-mounted display.
JP2016167941A 2016-08-30 2016-08-30 Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program Active JP6734537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167941A JP6734537B2 (en) 2016-08-30 2016-08-30 Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167941A JP6734537B2 (en) 2016-08-30 2016-08-30 Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2018036765A JP2018036765A (en) 2018-03-08
JP6734537B2 true JP6734537B2 (en) 2020-08-05

Family

ID=61567374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167941A Active JP6734537B2 (en) 2016-08-30 2016-08-30 Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6734537B2 (en)

Also Published As

Publication number Publication date
JP2018036765A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP7079231B2 (en) Information processing equipment, information processing system, control method, program
JP6978701B2 (en) Information processing system, its control method, and program, and information processing device, its control method, and program.
JP7060778B2 (en) Information processing system, information processing system control method and program
JP2015125641A (en) Information processing device, control method therefor, and program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP6409861B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6871501B2 (en) Information processing equipment, information processing system, its control method and program
JP7273325B2 (en) Information processing device, information processing system, information processing method and program
JP6152888B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP6734537B2 (en) Information processing apparatus, control method and program therefor, information processing system, control method therefor, and program
JP2016115230A (en) Information processing apparatus, information processing system, control method thereof, and program
JP6820469B2 (en) Information processing equipment, information processing system, its control method and program
JP2017084215A (en) Information processing system, control method thereof, and program
JP6357412B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP6810342B2 (en) Information processing equipment, information processing system, its control method and program
JP2020074108A (en) Information processing system, control method thereof, and program
JP7116334B2 (en) Information processing device, information processing system, control method thereof, and program
JP2006277618A (en) Image generation device and method
JP6164177B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP7111940B2 (en) Information processing device, information processing system, control method thereof, and program
JP6744543B2 (en) Information processing system, control method thereof, and program
JP6741939B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2020107152A (en) Information processing device, information processing system, control method therefor, and program
JP2017102685A (en) Information processing apparatus, information processing system, control method thereof, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R151 Written notification of patent or utility model registration

Ref document number: 6734537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250