JP6361714B2 - Information processing apparatus, information processing system, control method thereof, and program - Google Patents

Information processing apparatus, information processing system, control method thereof, and program Download PDF

Info

Publication number
JP6361714B2
JP6361714B2 JP2016194540A JP2016194540A JP6361714B2 JP 6361714 B2 JP6361714 B2 JP 6361714B2 JP 2016194540 A JP2016194540 A JP 2016194540A JP 2016194540 A JP2016194540 A JP 2016194540A JP 6361714 B2 JP6361714 B2 JP 6361714B2
Authority
JP
Japan
Prior art keywords
user
degree
attention
focused
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016194540A
Other languages
Japanese (ja)
Other versions
JP2017068851A (en
Inventor
伸敏 難波
伸敏 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Publication of JP2017068851A publication Critical patent/JP2017068851A/en
Application granted granted Critical
Publication of JP6361714B2 publication Critical patent/JP6361714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Position Input By Displaying (AREA)

Description

情報処理装置、情報処理システム、その制御方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, a control method thereof, and a program.

近年、仮想現実(Virtual Reality/以下、VR)や、拡張現実(Augmented reality)、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。MR技術を用いて、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実空間に現実物体とCGモデルを配置したMR空間(現実空間と仮想空間とを重ね合わせた複合現実空間)の疑似体験を提供できる。また、ARにおいても、HMDを装着したユーザに対し、現実空間にCGモデルを重畳して画像を提供することができる。   In recent years, technologies of virtual reality (Virtual Reality / hereinafter referred to as VR), augmented reality (Augmented Reality), and mixed reality (Mixed Reality / hereinafter referred to as MR) have become widespread. Using MR technology, for a user wearing a head-mounted display (hereinafter, HMD), an MR space (a mixed reality space in which a real space and a virtual space are superimposed) in which a real object and a CG model are arranged in the real space. Can provide a simulated experience. Also in the AR, it is possible to provide an image by superimposing a CG model on the real space to the user wearing the HMD.

特許文献1、引用文献2には、磁気センサ、光学センサ等のセンサを用いてHMDの位置を特定し、現実画像とCGモデルを重ね合わせた複合現実画像を生成・表示する仕組みが記載されている。   Patent Document 1 and Cited Document 2 describe a mechanism for specifying a position of an HMD using a sensor such as a magnetic sensor or an optical sensor, and generating and displaying a mixed reality image in which a real image and a CG model are superimposed. Yes.

特開平11−88913号公報JP-A-11-88913 特開2002−229730号公報JP 2002-229730 A 特開2004−38470号公報JP 2004-38470 A

例えばブース等の作成業務にあたり、注目してもらいたい商品を配置・陳列する場所を検討することがある。MRの技術を利用すれば、CGの商品を陳列した仮想のブースを作成・表示することができ、実物の棚や商品サンプルを用意することなく当該検討が可能である。CGの移動に際しCGを選択する方法として、特許文献3に記載されているような、HMDの視線方向にあるCGを特定して選択する方法がある。   For example, when creating a booth or the like, there are cases where a place for placing and displaying a product to be noticed is considered. By using MR technology, a virtual booth displaying CG products can be created and displayed, and the examination can be performed without preparing a real shelf or product sample. As a method of selecting a CG when moving the CG, there is a method of specifying and selecting a CG in the line-of-sight direction of the HMD as described in Patent Document 3.

陳列場所の検討にあたり、第三者(ブースの体験者)に商品を陳列したブースの中を歩いてもらい、ブース内に入った顧客に注目してもらいたい商品の陳列位置が適切か等の意見をもらい、商品位置を調整することが行われている。しかし、体験者の意見はあくまで、体験者自身の「商品に注目したか/注目しなかったか」という感覚に基づくものであり、本当にこの体験者の感覚や意見が正しいのか判断することは難しかった。   Opinion on whether the display position of the product you want to have the third party (booth experience person) walk through the booth where the product was displayed and pay attention to the customers who entered the booth The product position is adjusted. However, the opinions of the experiencers are based on their own feelings of “whether or not they paid attention to the product”, and it was difficult to judge whether the senses and opinions of these experiences were really correct. .

本発明は、3次元空間において、体験者が対象物に着目していたかを容易に特定できる仕組みを提供することを目的とする。   It is an object of the present invention to provide a mechanism that can easily identify whether an experienced person has focused on an object in a three-dimensional space.

本発明は、ユーザが装着する表示装置と通信可能な、当該表示装置を装着したユーザの視線の情報を取得する取得手段と、3次元空間上の物体を記憶する記憶手段と、を備える情報処理装置であって、前記視線の情報を用いて、前記3次元空間上のユーザが着目していた物体を特定する着目物体特定手段と、前記着目物体特定手段により特定された前記ユーザが着目していた物体がどの程度着目されていたかを示す着目度を、前記視線の遷移の情報に基づいて特定する着目度特定手段と、前記着目度特定手段により特定された着目度を示す画像を、着目されていた物体に対応する位置に表示させるべく出力する出力手段と、を備えることを特徴とする。 The present invention, information including a user can communicate with the display device to be mounted, an acquisition unit configured to acquire information of the line of sight of the user the display device is mounted, and a storage means for storing the objects of the three-dimensional space, the a processing apparatus, by using the information of the line of sight, on the three-dimensional space, and focuses the object specifying means for the user to identify the object that has been focused, the previous SL user identified by the focused object specifying means A degree-of-interest specifying means for specifying the degree of attention indicating how much the object that has been noticed has received attention based on the information on the line-of-sight transition, and an image indicating the degree of attention specified by the degree-of-interest specifying means characterized by comprising output means for outputting to be displayed on the position corresponding to the body thing that it has been noted, the.

本発明によれば、3次元空間において、体験者が対象物に着目していたかを容易に特定できる仕組みを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the mechanism which can specify easily whether the experience person was paying attention to the target object in three-dimensional space can be provided.

本発明の実施形態における、システム構成の一例を示す図である。It is a figure which shows an example of a system configuration | structure in embodiment of this invention. 本発明の実施形態における、各種装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of various apparatuses in embodiment of this invention. 本発明の実施形態における、各種装置の機能構成の一例を示す図であるIt is a figure which shows an example of a function structure of various apparatuses in embodiment of this invention. 本発明の実施形態における、HMDの位置姿勢の記憶処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the memory | storage process of the position and orientation of HMD in embodiment of this invention. 本発明の実施形態における、HMDの位置姿勢に基づく解析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the analysis process based on the position and orientation of HMD in embodiment of this invention. 本発明の実施形態における、解析結果の出力処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the output process of an analysis result in embodiment of this invention. 本発明の実施形態における、各種データの構成の一例を示す図である。It is a figure which shows an example of a structure of various data in embodiment of this invention. 本発明の実施形態における、MR空間のイメージ図及び解析結果表示のイメージ図である。It is an image figure of MR space and an image figure of an analysis result display in an embodiment of the present invention. 本発明の実施形態における、MR画像の生成・出力処理の流れを示すフローチャートである5 is a flowchart showing a flow of MR image generation / output processing in the embodiment of the present invention. 本発明の実施形態における、仮想オブジェクトの位置入れ替え及びHMD位置姿勢のログ表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the log display process of the position replacement of a virtual object and HMD position and orientation in embodiment of this invention. 本発明の実施形態における、仮想オブジェクトの位置入れ替え及びHMD位置姿勢のログ表示の選択部の表示イメージの一例を示す図である。It is a figure which shows an example of the display image of the selection part of the log display of the position replacement of a virtual object and the HMD position and orientation in embodiment of this invention. 本発明の実施形態における、HMD位置姿勢のログ表示の一例を示す図である。It is a figure which shows an example of the log display of HMD position and orientation in embodiment of this invention. 本発明の第2の実施形態における、現実物体とHMDの位置関係の特定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the specific process of the positional relationship of a real object and HMD in the 2nd Embodiment of this invention. 本発明の第2の実施形態における、現実物体にかかるログの解析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the analysis process of the log concerning a real object in the 2nd Embodiment of this invention. 本発明の第2の実施形態における、各種データ構成の一例を示す図である。It is a figure which shows an example of the various data structure in the 2nd Embodiment of this invention. 本発明の第2の実施形態における、物体認識の様子を示す図である。It is a figure which shows the mode of the object recognition in the 2nd Embodiment of this invention. 本発明の第3の実施形態における、物体同士の相対的な位置姿勢の記憶処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the memory | storage process of the relative position and orientation of objects in the 3rd Embodiment of this invention. 本発明の第3の実施形態における、解析結果の出力処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the output process of the analysis result in the 3rd Embodiment of this invention. 本発明の第3の実施形態における、各種データ構成の一例を示す図である。It is a figure which shows an example of the various data structure in the 3rd Embodiment of this invention. 本発明の実施形態における、解析結果オブジェクトの一例を示す図である。It is a figure which shows an example of the analysis result object in embodiment of this invention. 本発明の実施形態における、ユーザの視線移動の様子を示す図である。It is a figure which shows the mode of a user's eyes | visual_axis movement in embodiment of this invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<第1の実施形態>
図1は、本発明の実施形態における、システム構成の一例を示す図である。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a system configuration in an embodiment of the present invention.

本発明のシステムは、サーバ200、ヘッドマウントディスプレイ101(以下、HMD101/装着型の表示装置)、光学センサ102等で構成される。図1において、各種装置はネットワーク150で通信可能に接続されているものとしている。ネットワークの有線、無線は問わない。   The system of the present invention includes a server 200, a head mounted display 101 (hereinafter referred to as HMD101 / wearable display device), an optical sensor 102, and the like. In FIG. 1, various devices are assumed to be communicably connected via a network 150. It does not matter whether the network is wired or wireless.

サーバ200には、HMD101により撮像される現実画像に重畳する3次元モデル(CGモデル/仮想オブジェクト/仮想物体)が記憶されている。当該仮想オブジェクトの情報は、例えば図7のモデル情報720に示す通りである。モデル情報720の詳細については図7の説明で後述する。   The server 200 stores a three-dimensional model (CG model / virtual object / virtual object) to be superimposed on a real image captured by the HMD 101. The information on the virtual object is, for example, as shown in the model information 720 in FIG. Details of the model information 720 will be described later with reference to FIG.

サーバ200は自機の管理するHMD101より現実画像を取得して、当該現実画像に3次元モデルを重畳したMR画像(現実画像と仮想空間の画像とを重畳した複合現実画像)を生成し、HMD101のディスプレイに表示させるべく、当該MR画像をHMD101に送信する。HMD101は受信したMR画像をディスプレイに表示する。   The server 200 acquires a real image from the HMD 101 managed by the server 200, generates an MR image (a mixed reality image obtained by superimposing a real image and a virtual space image) on which the three-dimensional model is superimposed on the real image, and generates the HMD 101. The MR image is transmitted to the HMD 101 for display on the display. The HMD 101 displays the received MR image on the display.

光学センサ102は、HMD101に設置された光マーカを検知することで、現実空間上のHMD101の位置姿勢(位置=XYZ座標、姿勢=XYZ軸それぞれの回転角度及び方向)を特定して、当該位置姿勢の値をサーバ200に送信する。サーバ200は当該位置姿勢の情報を光学センサ102から受け取ることでHMD101の位置姿勢を特定可能である。当該センサを用いたHMD101の位置姿勢の取得・特定方法は公知の技術を用いる。例えば特許文献1/特開平11−88913号公報、特許文献2/特開2002−229730号公報等に記載されている方法を用いて、HMD101の位置姿勢を特定する。以上が図1の説明である。   The optical sensor 102 detects the optical marker installed in the HMD 101 to identify the position and orientation of the HMD 101 in the real space (position = XYZ coordinates, orientation = rotation angle and direction of the XYZ axes), and The posture value is transmitted to the server 200. The server 200 can specify the position and orientation of the HMD 101 by receiving information on the position and orientation from the optical sensor 102. A known technique is used as a method for acquiring and specifying the position and orientation of the HMD 101 using the sensor. For example, the position and orientation of the HMD 101 are specified using a method described in Patent Document 1 / Japanese Patent Laid-Open No. 11-88913, Patent Document 2 / Japanese Patent Laid-Open No. 2002-229730, and the like. The above is the description of FIG.

次に図2を参照して、本発明の実施形態における、各種装置のハードウェア構成について説明する。   Next, with reference to FIG. 2, the hardware configuration of various apparatuses in the embodiment of the present invention will be described.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 comprehensively controls each device and controller connected to the system bus 204.

また、ROM202には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステム(OS)、その他各種装置の実行する機能を実現するために必要な各種プログラムが記憶されている。   The ROM 202 stores various programs necessary for realizing functions executed by various devices such as a BIOS (Basic Input / Output System), an operating system (OS), and the like, which are control programs of the CPU 201.

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。   The RAM 203 functions as a main memory, work area, and the like for the CPU 201. The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program.

本発明のクライアントPC100、サーバ200が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。
Various programs used by the client PC 100 and the server 200 of the present invention to execute various processes to be described later are recorded in the external memory 211 and executed by the CPU 201 by being loaded into the RAM 203 as necessary. It is. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 211.
An input controller (input C) 205 controls input from a pointing device (input device 210) such as a keyboard and a mouse.

ビデオコントローラ(VC)206は、HMD101が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。   A video controller (VC) 206 controls display on a display device such as the right eye / left eye display 222 provided in the HMD 101. For example, an external output terminal (for example, Digital Visual Interface) is used for output to the right eye / left eye display 222. The right-eye / left-eye display 222 includes a right-eye display and a left-eye display.

メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。   The memory controller (MC) 207 is an adapter to a hard disk (HD), flexible disk (FD) or PCMCIA card slot for storing boot programs, browser software, various applications, font data, user files, editing files, various data, and the like. Controls access to an external memory 211 such as a card-type memory connected via the.

通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学センサ102(光学式センサ)との通信も制御する。   A communication I / F controller (communication I / FC) 208 is connected to and communicates with an external device via a network, and executes communication control processing in the network. For example, Internet communication using TCP / IP is possible. The communication I / F controller 208 also controls communication with the optical sensor 102 (optical sensor) through Gigabit Ethernet (registered trademark) or the like.

汎用バス209は、HMD101の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。   The general-purpose bus 209 is used for capturing video from the right-eye / left-eye video camera 221 of the HMD 101. Input from the right-eye / left-eye video camera 221 is performed using an external input terminal (for example, an IEEE 1394 terminal). The right-eye / left-eye video camera 221 includes a right-eye video camera and a left-eye video camera.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。以上が図2の説明である。   Note that the CPU 201 enables display on a display by executing outline font rasterization processing on a display information area in the RAM 203, for example. In addition, the CPU 201 allows a user instruction with a mouse cursor (not shown) on the display. The above is the description of FIG.

次に図3を参照して、本発明の実施形態における、各種装置の機能構成の一例について説明する。   Next, with reference to FIG. 3, an example of a functional configuration of various apparatuses in the embodiment of the present invention will be described.

撮像部311は、HMD101のカメラであり、現実画像を撮像する撮像部である。撮像画像送信部312は、撮像画像(現実画像)を自機に対応するサーバに送信する送信部である。   The imaging unit 311 is a camera of the HMD 101 and is an imaging unit that captures a real image. The captured image transmission unit 312 is a transmission unit that transmits a captured image (real image) to a server corresponding to the own device.

MR画像受信部313は、サーバ200で生成されたMR画像を受信する受信部である。MR画像表示部314は、受信したMR画像を表示画面に表示する表示部である。   The MR image receiving unit 313 is a receiving unit that receives MR images generated by the server 200. The MR image display unit 314 is a display unit that displays a received MR image on a display screen.

サーバ200の撮像画像受信部321は、HMD101から現実画像を受信する。HMD位置姿勢特定部322は、光学センサ102からHMD101の位置姿勢の値を受信することでHMD101の位置姿勢を特定する特定部である。   The captured image reception unit 321 of the server 200 receives a real image from the HMD 101. The HMD position / posture specifying unit 322 is a specifying unit that specifies the position / posture of the HMD 101 by receiving the position / posture value of the HMD 101 from the optical sensor 102.

HMD位置姿勢記憶部323は、HMD位置姿勢特定部322で特定した位置姿勢の情報を外部メモリに記憶する記憶部である。HMD位置姿勢記憶部323は、現在のHMD101の位置姿勢であり、MR画像(現実画像に、HMDの位置姿勢から見た、仮想空間に配置された仮想オブジェクトの画像を重畳した重畳画像/複合現実画像ともいう)の生成に用いるHMD101の位置姿勢の情報(図7のHMD情報700)と、現在及び過去のHMD101の位置姿勢を、継続して、ログ(図7のHMD位置姿勢ログ710/履歴記憶手段)として外部メモリに記憶する。   The HMD position / orientation storage unit 323 is a storage unit that stores information on the position and orientation specified by the HMD position / orientation specifying unit 322 in an external memory. The HMD position / orientation storage unit 323 is the current position / orientation of the HMD 101, and is an MR image (superimposed image / mixed reality obtained by superimposing an image of a virtual object placed in a virtual space, as viewed from the position and orientation of the HMD, on a real image). Information on the position and orientation of the HMD 101 (also referred to as an image) (HMD information 700 in FIG. 7) and the current and past positions and orientations of the HMD 101 are continuously logged (HMD position and orientation log 710 / history in FIG. 7). As a storage means) in an external memory.

MR画像生成・記憶部324は、HMD位置姿勢特定部322で特定された現在のHMDの位置姿勢に基づいて現実画像に仮想オブジェクトを重畳したMR画像を生成し、外部メモリに記憶する記憶部である。MR画像送信部325は、当該MR画像をHMD101に送信する送信部である。   The MR image generation / storage unit 324 is a storage unit that generates an MR image in which a virtual object is superimposed on a real image based on the current HMD position / orientation specified by the HMD position / orientation specifying unit 322 and stores the MR image in an external memory. is there. The MR image transmission unit 325 is a transmission unit that transmits the MR image to the HMD 101.

仮想オブジェクト記憶部326は、仮想空間に配置する(仮想空間と現実空間の位置合わせを行うことで、MR空間上に配置する)仮想オブジェクトの情報を記憶する。具体的には、図7のモデル情報720に示すような情報をサーバ200の外部メモリに記憶している。   The virtual object storage unit 326 stores information on virtual objects to be arranged in the virtual space (arranged in the MR space by aligning the virtual space and the real space). Specifically, information as shown in the model information 720 in FIG. 7 is stored in the external memory of the server 200.

モデル情報720は、モデル(仮想オブジェクト)の識別情報であるモデル名721、モデルを配置・陳列する仮想空間上の位置722、姿勢723、当該モデル(仮想オブジェクト)が、ユーザが仮想オブジェクトに着目(注目)したか否か/どの程度着目したかの分析対象とする仮想オブジェクトかを示す着目フラグ724(対象物体記憶手段に該当)、どの空間をHMD101の視線が通過していた場合に当該仮想オブジェクトに着目していたと判定するかの領域を示す着目エリア725等から構成される。例えば、HMDの位置姿勢から特定されるHMD101の視線方向(HMD101が向いている方向)を示す直線と、当該着目エリア725に示すエリアの外面とが交った場合に、当該着目エリア725に対応する仮想オブジェクトをHMD101のユーザが見ていた(ユーザが着目していた)と判定するものである。着目フラグ724=1の仮想オブジェクトはユーザが当該オブジェクトに着目していた否かを判定する対象のオブジェクトである。着目フラグ724=0の仮想オブジェクトはユーザが当該オブジェクトに着目していた否かの判定対象とはしない。着目フラグ724の値は予め仮想オブジェクトごとに記憶されているものとする。着目エリア725は、モデル名721の示す仮想オブジェクトを位置722・姿勢723で仮想空間に配置した場合に、当該仮想オブジェクトを囲む最小の立方体の占める3次元上の領域であり、当該立方体の各頂点座標が記憶されている。視線方向のベクトルと当該エリアを示す立方体の外面が交わった交点の座標が、ユーザが当該着目エリアに対応する仮想オブジェクトにおいて着目した点(着目点)の座標である。なお、ユーザが物体に着目していたか否かの判定方法はこれに限るものではない。例えば視線方向のベクトルと仮想オブジェクト自体の外面が交わった場合にユーザが当該物体に着目していると判定し、視線方向のベクトルと仮想オブジェクト自体の外面が交わった交点の座標をユーザが当該仮想オブジェクトである物体に着目した着目点の座標としてもよい。   The model information 720 includes a model name 721 which is identification information of a model (virtual object), a position 722 in a virtual space where the model is arranged / displayed, a posture 723, and the model (virtual object). Attention flag 724 (corresponding to the target object storage means) indicating whether or not to what extent the attention is focused on, and a virtual object when the line of sight of the HMD 101 passes through which space It is comprised from the attention area 725 etc. which show the area | region of determining that it was paying attention to. For example, when a straight line indicating the line-of-sight direction of the HMD 101 specified from the position and orientation of the HMD (the direction in which the HMD 101 faces) and the outer surface of the area indicated by the area of interest 725 correspond to the area of interest 725 It is determined that the user of the HMD 101 was viewing the virtual object to be viewed (the user was paying attention). The virtual object with the attention flag 724 = 1 is a target object for determining whether or not the user has focused on the object. The virtual object with the attention flag 724 = 0 is not a determination target of whether or not the user has focused on the object. It is assumed that the value of the attention flag 724 is stored for each virtual object in advance. The attention area 725 is a three-dimensional area occupied by the smallest cube surrounding the virtual object when the virtual object indicated by the model name 721 is arranged in the virtual space at the position 722 and the posture 723, and each vertex of the cube Coordinates are stored. The coordinates of the intersection point at which the vector of the line-of-sight direction and the outer surface of the cube representing the area intersect are the coordinates of the point (point of interest) that the user has focused on in the virtual object corresponding to the area of interest. Note that the method of determining whether or not the user has focused on the object is not limited to this. For example, when the gaze direction vector intersects the outer surface of the virtual object itself, it is determined that the user is paying attention to the object, and the user determines the coordinates of the intersection point where the gaze direction vector intersects the outer surface of the virtual object itself. It is good also as the coordinate of the focus point which paid its attention to the object which is an object.

分析実行部327は、HMD101の位置姿勢のログを分析・解析して、対象の仮想オブジェクトにユーザが着目していたか否か/着目していたとすればどの程度着目していたのかを特定する処理部である。   The analysis execution unit 327 analyzes and analyzes the position / orientation log of the HMD 101, and determines whether or not the user has focused on the target virtual object, and how much the user has focused on the target virtual object Part.

分析結果情報生成部328は、分析実行部327で実行した分析の分析結果をユーザに確認させるべく、分析結果の情報を生成する。例えば、MR空間上で分析結果をユーザに確認させるべく、図8の810に示すように各仮想オブジェクトに対応付けて仮想空間上に配置する、各仮想オブジェクトをユーザがどの程度見ていたかを示す仮想オブジェクトを生成して、当該分析結果の仮想オブジェクト(図8の810における吹き出し)をそれぞれの分析対象の仮想オブジェクト(陳列されている商品のCG)から見て所定の位置に配置するよう、当該分析結果の仮想オブジェクトの位置姿勢を決定して分析結果の仮想オブジェクトと対応付けて外部メモリに記憶する。以上が図3の説明である。   The analysis result information generation unit 328 generates analysis result information so that the user can confirm the analysis result of the analysis performed by the analysis execution unit 327. For example, in order to make the user confirm the analysis result in the MR space, as shown at 810 in FIG. 8, the virtual object is arranged in the virtual space in association with each virtual object and indicates how much the user has seen each virtual object. The virtual object is generated, and the virtual object of the analysis result (the balloon in 810 in FIG. 8) is arranged at a predetermined position as viewed from the respective virtual object to be analyzed (CG of the displayed product). The position and orientation of the analysis result virtual object are determined and stored in the external memory in association with the analysis result virtual object. The above is the description of FIG.

次に図4を参照して、本発明の実施形態における、HMDの位置姿勢の記憶処理の流れについて説明する。   Next, with reference to FIG. 4, the flow of the storage processing of the position and orientation of the HMD in the embodiment of the present invention will be described.

サーバ200のCPU201は、HMD101の位置姿勢の計測・特定処理の開始指示(例えばユーザ操作)を受け付けると、光学センサからHMD101の位置姿勢情報を取得して(ステップS401)、外部メモリに記憶する(ステップS402)。具体的には、サーバ200のCPU201は、図7のHMD情報700のHMDID701にHMD101の識別情報を、位置702、姿勢703に位置姿勢の情報を記憶する。HMD情報700は現在のHMD101の位置姿勢を示す。本実施形態におけるHMDの姿勢の情報は、HMDの回転角度と、HMDの向いている方向を示す情報である。   When the CPU 201 of the server 200 receives an instruction to start measurement / specification processing of the position and orientation of the HMD 101 (for example, a user operation), the CPU 201 acquires the position and orientation information of the HMD 101 from the optical sensor (step S401) and stores it in the external memory (step S401). Step S402). Specifically, the CPU 201 of the server 200 stores the identification information of the HMD 101 in the HMDID 701 of the HMD information 700 in FIG. 7 and the position and orientation information in the position 702 and the orientation 703. The HMD information 700 indicates the current position and orientation of the HMD 101. The information on the attitude of the HMD in the present embodiment is information indicating the rotation angle of the HMD and the direction in which the HMD is facing.

また、サーバ200のCPU201は、HMD位置姿勢ログ710に最新のデータ列を追加して、HMD101の識別情報、ステップS401で取得した位置姿勢、当該位置姿勢の情報を取得した日時(位置姿勢を特定した日時)を、それぞれHMDID711、位置713、姿勢714、日時712に挿入して記憶する。HMD位置姿勢ログ710はサーバ200の外部メモリに記憶される、HMDの位置姿勢の計測履歴である。ログID715は、図4のステップS403で当該ログをファイル出力する場合に当該ログに付与される識別情報である。姿勢714は、HMD101のユーザの視線方向の遷移を示す履歴の情報である。   In addition, the CPU 201 of the server 200 adds the latest data string to the HMD position / orientation log 710 to identify the identification information of the HMD 101, the position / orientation acquired in step S401, and the date / time when the position / orientation information is acquired (specify the position / orientation). Are inserted into HMDID 711, position 713, posture 714, and date 712, respectively, and stored. The HMD position / orientation log 710 is an HMD position / orientation measurement history stored in an external memory of the server 200. The log ID 715 is identification information given to the log when the log is output as a file in step S403 of FIG. The posture 714 is history information indicating a change in the viewing direction of the user of the HMD 101.

サーバ200のCPU201は、位置姿勢計測の終了の指示(例えばユーザからの操作)を受け付けるまでステップS401、S402の処理を繰り返し実行する。位置姿勢計測の終了の指示を受け付けた場合は、サーバ200のCPU201は、位置姿勢計測の開始から終了までに記憶したHMD位置姿勢ログ710を1つのファイルとして、サーバ200の外部メモリ211の所定の領域に出力・記憶する(ステップS403)。なお、出力に際してログID715を新規に作成してファイルに埋め込む。ログID=ステップS403で出力したログの識別情報である。以上が図4の説明である。   The CPU 201 of the server 200 repeatedly executes the processes of steps S401 and S402 until an instruction to end position / orientation measurement (for example, an operation from the user) is received. When receiving an instruction to end the position / orientation measurement, the CPU 201 of the server 200 uses the HMD position / orientation log 710 stored from the start to the end of the position / orientation measurement as a single file in the predetermined memory of the external memory 211 of the server 200. Output / store in the area (step S403). Note that a new log ID 715 is created and embedded in the file at the time of output. Log ID = identification information of the log output in step S403. The above is the description of FIG.

次に図9を参照して、本発明の実施形態における、MR画像の生成処理の流れについて説明する。   Next, the flow of MR image generation processing in the embodiment of the present invention will be described with reference to FIG.

HMD101は、自装置に設置されているビデオカメラで現実画像を撮像し(ステップS901)、撮像した現実画像をサーバ200に送信する(ステップS902)。   The HMD 101 captures a real image with a video camera installed in the device (step S901), and transmits the captured real image to the server 200 (step S902).

サーバ200は、仮想オブジェクト(図7のモデル情報720)を取得して、各仮想オブジェクトを位置722・姿勢723の位置姿勢で仮想空間上に配置する(ステップS903)。   The server 200 acquires a virtual object (model information 720 in FIG. 7), and arranges each virtual object in the virtual space with the position and orientation of the position 722 and the orientation 723 (step S903).

サーバ200のCPU201は、当該現実画像を受信して外部メモリに記憶する(ステップS904)。当該現実画像には撮像日時の情報が含まれているものとする。また、サーバ200のCPU201は、当該現実画像を撮像したHMD101のIDと対応付けて記憶するものとする。そして、図7のHMD情報700に示す現在のHMD101の位置姿勢を読み出して、当該位置姿勢の値に従って、(仮想のカメラを仮想空間上に配置して仮想空間の画像(仮想オブジェクトの画像/仮想画像)を撮像し、HMD101から取得した現実画像に重畳することで)MR画像を生成してメモリに記憶する(ステップS905)。   The CPU 201 of the server 200 receives the real image and stores it in the external memory (step S904). It is assumed that the actual image includes information on the imaging date and time. Further, the CPU 201 of the server 200 is assumed to store in association with the ID of the HMD 101 that captured the real image. Then, the current position and orientation of the HMD 101 shown in the HMD information 700 of FIG. 7 is read out, and according to the value of the position and orientation (the virtual camera is placed in the virtual space and the virtual space image (virtual object image / virtual An MR image is generated and stored in the memory (by capturing the image) and superimposing it on the real image acquired from the HMD 101 (step S905).

サーバ200のCPU201は、当該MR画像をHMD101に送信し(ステップS906)、HMD101が当該MR画像を受信して(ステップS907)表示画面に表示する(ステップS908)。以上が図9の説明である。   The CPU 201 of the server 200 transmits the MR image to the HMD 101 (step S906), and the HMD 101 receives the MR image (step S907) and displays it on the display screen (step S908). The above is the description of FIG.

次に図5を参照して、本発明の実施形態における、HMDの位置姿勢に基づく解析処理の流れについて説明する。   Next, the flow of analysis processing based on the position and orientation of the HMD in the embodiment of the present invention will be described with reference to FIG.

サーバ200のCPU201は、ログ解析指示(例えばユーザ操作)を受け付ける(ステップS501)。当該ログ解析の操作は、例えばステップS403で出力されたファイルの選択及びログ解析の操作を受け付け、サーバ200の不図示の表示画面において解析開始ボタンの押下を受け付けることで、当該選択されたHMD位置姿勢ログのファイルに対して実行される。   The CPU 201 of the server 200 receives a log analysis instruction (for example, user operation) (step S501). For example, the log analysis operation accepts the file selection and log analysis operations output in step S403, and accepts pressing of an analysis start button on a display screen (not shown) of the server 200, thereby selecting the selected HMD position. It is executed on the posture log file.

サーバ200のCPU201は、モデル情報720を取得して(ステップS502)、モデル情報720の仮想オブジェクトの中から、着目フラグ=1の仮想オブジェクトを取得する(ステップS503)。つまり、ステップS502で取得したログにおいて、HMD101のユーザに着目されていたか/どの程度着目されていたかを解析する対象の仮想押ブジェクトを特定し、外部メモリ上に当該解析対象のオブジェクトのリストを生成して記憶する。例えば、図7のランキング情報730を生成して記憶する。ランキング情報730は、各仮想オブジェクト(モデル名732)に対してユーザがどの程度の時間(着目時間733/着目度)着目していたか、を記憶するテーブルである。   The CPU 201 of the server 200 acquires the model information 720 (step S502), and acquires the virtual object with the focus flag = 1 from the virtual objects of the model information 720 (step S503). In other words, in the log acquired in step S502, a virtual push object to be analyzed for identifying whether or not the user of the HMD 101 has been focused is identified, and a list of objects to be analyzed is generated on the external memory. And remember. For example, the ranking information 730 in FIG. 7 is generated and stored. The ranking information 730 is a table that stores how much time (focused time 733 / focused degree) the user has focused on each virtual object (model name 732).

サーバ200のCPU201は、ステップS501で取得したファイルのログ(図7のHMD位置姿勢ログ710に示す711〜714の各情報)を1つ取得して(ステップS504)、当該ログの示すHMD101の視点(位置)と姿勢からHMD101の視線方向を特定する(ステップS505)。つまり、HMD101のユーザがどの位置からどの方向を見ていたかを特定する。   The CPU 201 of the server 200 acquires one file log (information 711 to 714 shown in the HMD position / orientation log 710 in FIG. 7) acquired in step S501 (step S504), and the viewpoint of the HMD 101 indicated by the log The line-of-sight direction of the HMD 101 is specified from the (position) and posture (step S505). That is, it is specified from which position the user of the HMD 101 is viewing which direction.

サーバ200のCPU201は、当該特定した視線方向の先に、ステップS503で生成した解析対象の仮想オブジェクトがあるか判定する。具体的には、ステップS505で特定した視線方向を示す直線と、着目フラグ724=1の仮想オブジェクトの着目エリア725を通過しているかを判定する。通過している場合に、視線の先に当該着目エリア725に対応する仮想オブジェクトがあったと判定する。着目フラグ724=1の仮想オブジェクトの着目エリア725のうち、視線方向を示す直線がいずれのエリア725も通過していない場合に視線の先に当該着目エリア725に対応する仮想オブジェクトがなかったと判定する。   The CPU 201 of the server 200 determines whether there is a virtual object to be analyzed generated in step S503 ahead of the identified line-of-sight direction. Specifically, it is determined whether or not the straight line indicating the line-of-sight direction identified in step S505 and the attention area 725 of the virtual object with the attention flag 724 = 1 are passed. If it has passed, it is determined that there is a virtual object corresponding to the area of interest 725 ahead of the line of sight. Among the attention areas 725 of the virtual object with the attention flag 724 = 1, when no straight line indicating the line-of-sight direction passes through any area 725, it is determined that there is no virtual object corresponding to the attention area 725 beyond the line of sight. .

視線の先に仮想オブジェクトがなかった場合は処理をステップS509に移行する。視線の先に仮想オブジェクトがあった場合は、例えば当該視線の先にある仮想オブジェクトのうち、HMDの位置から最も近い(直近の)仮想オブジェクトを、HMD101のユーザが着目していた仮想オブジェクトとして特定する(ステップS507/着目物体特定手段に該当)。但し、仮想オブジェクトの透明度が閾値に達している場合、視線方向の先にある仮想オブジェクトのうち、当該仮想オブジェクトの次にHMDに近い位置にある仮想オブジェクトをユーザが着目していた仮想オブジェクトとして特定する。例えば透過率が70%以上の仮想オブジェクトは無視して、次にHMDに近い位置にある透過率30%以下の仮想オブジェクトを、着目対象の仮想オブジェクトとする。   If there is no virtual object at the end of the line of sight, the process proceeds to step S509. When there is a virtual object at the end of the line of sight, for example, among the virtual objects at the end of the line of sight, the virtual object closest to the HMD position (nearest) is identified as the virtual object that the user of the HMD 101 has focused on (Step S507 / corresponding to object-of-interest specifying means). However, when the transparency of the virtual object has reached the threshold value, the virtual object located next to the HMD next to the virtual object is identified as the virtual object that the user has focused on among the virtual objects ahead of the line-of-sight direction. To do. For example, a virtual object with a transmittance of 70% or more is ignored, and a virtual object with a transmittance of 30% or less at the next position close to the HMD is set as a target virtual object.

サーバ200のCPU201は、ステップS504で取得したログの次のログの日時712を取得して、当該ステップS504で取得したログの日時712から次のログの日時712までの時間を、ユーザが着目していた当該仮想オブジェクトのモデル名732に対応する着目時間733に加算する(ステップS508/着目度特定手段に該当)。   The CPU 201 of the server 200 acquires the date and time 712 of the next log after the log acquired in step S504, and the user pays attention to the time from the date and time 712 of the log acquired in step S504 to the date and time 712 of the next log. It adds to the attention time 733 corresponding to the model name 732 of the virtual object that has been (corresponding to step S508 / attention level specifying means).

サーバ200のCPU201は、ステップS501で取得したログファイルの中の全てのHMD位置姿勢ログにステップS504〜S508の処理を実行済みか判定し、実行済みでない場合は処理をステップS504に戻して未処理のログを取得する。   The CPU 201 of the server 200 determines whether or not the processing in steps S504 to S508 has been executed for all the HMD position / orientation logs in the log file acquired in step S501, and if not, returns the processing to step S504 to perform unprocessed processing. Get the log.

実行済みの場合は、ランキング情報730中の仮想オブジェクトを着目時間733が多い順にランキングして、ランキング値731(着目度を示す値)にランキング(着目度の順位)を書き込む(ステップS510/着目度特定手段に該当)。そして、当該ランキング情報730を解析結果(分析結果)の情報として、ログのファイルと対応付けて記憶する(ステップS512)。具体的には、ランキング値を書きこみ終わったランキング情報730に、ステップS501で取得したログファイルのログIDを対応付けて(ログID734)、外部メモリ211の所定の領域に当該ランキング情報730をファイルとして出力・記憶する。以上が図5の説明である。   If it has been executed, the virtual objects in the ranking information 730 are ranked in descending order of the attention time 733, and the ranking (degree of attention degree) is written in the ranking value 731 (value indicating the degree of attention) (step S510 / degree of attention) Applicable to specific means). Then, the ranking information 730 is stored as information of an analysis result (analysis result) in association with a log file (step S512). Specifically, the ranking information 730 for which the ranking value has been written is associated with the log ID of the log file acquired in step S501 (log ID 734), and the ranking information 730 is stored in a predetermined area of the external memory 211. Output and store as The above is the description of FIG.

図4、図5の処理によれば、MRにおいて、体験者が対象物に着目していたかを容易に特定することができる。   According to the processing of FIG. 4 and FIG. 5, it can be easily specified whether the experience person has focused on the object in MR.

次に図6を参照して、本発明の実施形態における、解析結果の出力処理の流れについて説明する。   Next, with reference to FIG. 6, the flow of output processing of analysis results in the embodiment of the present invention will be described.

サーバ200のCPU201は、ログ解析結果の表示指示(例えばユーザ操作)を受け付ける(ステップS601)。例えば、サーバ200の外部メモリに記憶されている解析結果のファイルの選択を受け付け、サーバ200の不図示の表示画面において解析結果の表示ボタンの押下を受け付けることで、当該ログ解析結果の表示指示を受け付けるものとする。   The CPU 201 of the server 200 receives a log analysis result display instruction (for example, user operation) (step S601). For example, the selection of the analysis result file stored in the external memory of the server 200 is accepted, and by pressing the display of the analysis result display button on the display screen (not shown) of the server 200, the display instruction of the log analysis result is given. It shall be accepted.

サーバ200のCPU201は、選択された解析結果のファイル(ランキング情報730に示す情報を持つファイル)をメモリ上に読込み(ステップS602)、読み込んだ解析結果の情報を1つ取得する(未処理のランキング情報をランキングが高い順に取得する/ステップS603)。   The CPU 201 of the server 200 reads the selected analysis result file (the file having the information shown in the ranking information 730) onto the memory (step S602), and acquires one piece of the read analysis result information (unprocessed ranking). Information is acquired in descending order of ranking (step S603).

サーバ200のCPU201は、取得した解析結果の情報を示す仮想オブジェクトを生成して(ステップS604/着目度オブジェクト生成手段に該当)、当該仮想オブジェクトの位置姿勢を決定して(ステップS605)外部メモリに記憶する。また、図7の解析結果モデル情報740に示すように、ステップS601で選択された解析結果に対応するログIDをログID741に持つ解析結果モデル情報740を生成し、解析結果モデル名742に生成した解析結果を示す仮想オブジェクトのファイル名を挿入し、モデル名745に解析対象のモデル名732を挿入し、当該モデル名745の仮想オブジェクトから所定の位置(モデル名745の仮想オブジェクトの位置から所定のオフセット値を適用したXYZ座標)と所定の姿勢の値を位置743、姿勢744に挿入して記憶する。   The CPU 201 of the server 200 generates a virtual object indicating information of the acquired analysis result (corresponding to step S604 / attention level object generation means), determines the position and orientation of the virtual object (step S605), and stores it in the external memory. Remember. Further, as shown in the analysis result model information 740 of FIG. 7, the analysis result model information 740 having the log ID 741 corresponding to the analysis result selected in step S601 is generated, and the analysis result model name 742 is generated. The file name of the virtual object indicating the analysis result is inserted, the model name 732 to be analyzed is inserted into the model name 745, and a predetermined position from the virtual object of the model name 745 (from the position of the virtual object of the model name 745 to a predetermined position) XYZ coordinates to which the offset value is applied) and a predetermined posture value are inserted into the position 743 and posture 744 and stored.

サーバ200のCPU201は、ステップS601で取得したファイル内の全ての解析結果(ランキング情報730内の全てのモデル)に対してステップS603〜S605の処理を実行済みか判定し(ステップS606)、未実行の場合には処理をステップS603に戻して未処理の解析結果を取得する。実行済みの場合には、処理をステップS607に移行して、図9に示すMR画像の生成・出力処理(着目対象の仮想オブジェクトの識別表示処理)を実行する。以上が図6の説明である。   The CPU 201 of the server 200 determines whether or not the processing in steps S603 to S605 has been executed for all analysis results (all models in the ranking information 730) in the file acquired in step S601 (step S606), and has not been executed. In this case, the process returns to step S603 to obtain an unprocessed analysis result. If the process has been executed, the process proceeds to step S607, and the MR image generation / output process (identification display process of the target virtual object) shown in FIG. 9 is executed. The above is the description of FIG.

なお、ステップS607におけるMR画像の生成処理においては、サーバ200のCPU201は、ステップS903の仮想オブジェクトの取得・配置の処理において、モデル情報720に加えて、解析結果モデル情報740を取得して、各モデル(仮想オブジェクト)を仮想空間上に配置する処理を行う。また、サーバ200のCPU201は、解析結果の表示の終了指示(例えばユーザ操作)を受け付けるまで、当該解析結果モデル情報740の読込み、配置、当該解析結果モデル情報740の仮想オブジェクト(当該解析結果モデル情報740の仮想オブジェクトを配置した仮想空間の画像)を用いたMR画像の生成、出力を継続するものとする。HMD101には、当該解析結果モデル情報740の仮想オブジェクトが見えるMR画像が表示(ユーザが着目していた仮想オブジェクトが識別表示)される。   In the MR image generation process in step S607, the CPU 201 of the server 200 acquires the analysis result model information 740 in addition to the model information 720 in the virtual object acquisition / placement process in step S903. A process of arranging a model (virtual object) in a virtual space is performed. Further, the CPU 201 of the server 200 reads and arranges the analysis result model information 740, and displays a virtual object (the analysis result model information of the analysis result model information 740) until an analysis result display end instruction (for example, user operation) is received. It is assumed that generation and output of an MR image using an image of a virtual space in which 740 virtual objects are arranged are continued. On the HMD 101, an MR image in which the virtual object of the analysis result model information 740 can be seen (the virtual object on which the user has focused) is displayed.

モデル情報720の仮想オブジェクトを配置したMR空間の例を図8の800に示す。モデル情報720に加えて、解析結果モデル情報740の仮想オブジェクトを配置したMR空間の例を図8の810に示す。   An example of the MR space in which the virtual object of the model information 720 is arranged is shown at 800 in FIG. An example of the MR space in which the virtual object of the analysis result model information 740 is arranged in addition to the model information 720 is shown at 810 in FIG.

次に図10を参照して、本発明の実施形態における、仮想オブジェクトの位置入れ替え及びHMD位置姿勢のログ表示処理の流れについて説明する。   Next, with reference to FIG. 10, the flow of the virtual object position replacement and the HMD position / posture log display process according to the embodiment of the present invention will be described.

サーバ200のCPU201は、仮想オブジェクトの選択を受け付けた場合に(ステップ(S1001)、仮想オブジェクトの解析結果の表示中か(ステップS607によるMR画像の生成・表示中か/解析結果の表示指示を受け付けてからまだ終了指示を受け付けていない状態か)判定する(ステップS1002)。仮想オブジェクトの選択方法は既存の技術を用いて行うものとする(例えば選択用の仮想オブジェクトと接触した仮想オブジェクトを選択する)。   When the CPU 201 of the server 200 receives the selection of the virtual object (step (S1001)), whether the analysis result of the virtual object is being displayed (whether the MR image is being generated / displayed in step S607 / analysis result display instruction is received) (Step S1002) A virtual object selection method is performed using an existing technique (for example, a virtual object that contacts a selection virtual object is selected). ).

仮想オブジェクトの解析結果の表示中でない場合は処理を終了し、仮想オブジェクトの解析結果の表示中である場合は、選択された仮想オブジェクトから所定の距離離れた位置に、図11の1101〜1103の選択ボタンの仮想オブジェクトを生成・配置する。つまり、図11の1101〜1103の選択ボタンであるユーザ操作部の仮想オブジェクトの仮想空間上の位置姿勢の決定を行う。そして、HMD101の位置姿勢と、当該選択ボタンの仮想オブジェクトの仮想空間上の位置姿勢の位置姿勢に応じて、当該選択ボタン1101〜1103を重畳したMR画像を生成してHMD101に出力して表示させる(表示制御する)。   If the analysis result of the virtual object is not being displayed, the processing is terminated. If the analysis result of the virtual object is being displayed, the processing is performed at 1101 to 1103 in FIG. 11 at a position away from the selected virtual object by a predetermined distance. Create and place a virtual object for the selection button. That is, the position and orientation of the virtual object of the user operation unit, which are selection buttons 1101 to 1103 in FIG. Then, an MR image on which the selection buttons 1101 to 1103 are superimposed is generated according to the position and orientation of the HMD 101 and the position and orientation of the virtual object of the selection button in the virtual space, and is output and displayed on the HMD 101. (Display control).

サーバ200のCPU201は、ステップS1004で入れ替え対象の仮想オブジェクトが選択されたと判定した場合に、処理をステップS1010に移行し、入れ替え対象として選択された仮想オブジェクトと選択中の仮想オブジェクトの位置を、モデル情報720中において入れ替える処理を行い(ステップS1010)、処理をステップS1009に移行する。つまり、指示に応じて仮想オブジェクトを入れ替えたMR画像を生成・出力するために、図9のMR画像の生成・出力処理を行う(ステップS1009)。   If the CPU 201 of the server 200 determines in step S1004 that the replacement target virtual object has been selected, the process proceeds to step S1010, where the model is used to determine the position of the virtual object selected as the replacement target and the selected virtual object. A process of replacing in the information 720 is performed (step S1010), and the process proceeds to step S1009. That is, the MR image generation / output process of FIG. 9 is performed in order to generate / output an MR image in which virtual objects are exchanged according to an instruction (step S1009).

ステップS1004で入れ替え対象の仮想オブジェクトが選択されたと判定した場合とは、具体的には、ボタン1101が選択され、サーバ200が、入れ替え対象の仮想オブジェクトの候補の選択ボタン1111、1112を生成して図11の1110に示すように配置・描画し、当該選択ボタン1111、又は1112の選択操作を受け付けた場合である。   When it is determined in step S1004 that the replacement target virtual object has been selected, specifically, the button 1101 is selected, and the server 200 generates the replacement target virtual object candidate selection buttons 1111 and 1112. This is a case where the placement / drawing is performed as indicated by 1110 in FIG. 11 and the selection button 1111 or 1112 is selected.

ここでは当該選択ボタン1111、1112に表示する対象の仮想オブジェクトを、選択中の仮想オブジェクトより上位のランキングのオブジェクトとした。これにより、入れ替えの候補が多く表示されて表示画面が煩雑になることを防止できる。   Here, the virtual object to be displayed on the selection buttons 1111 and 1112 is set as a higher ranking object than the virtual object being selected. As a result, it is possible to prevent the display screen from becoming complicated due to a large number of replacement candidates being displayed.

なお、入れ替えの候補が多く表示されて表示画面が煩雑になることを防止するために、選択中の仮想オブジェクトより下位のランキングの仮想オブジェクトを入れ替え候補として表示してもよい。   In order to prevent the display screen from becoming complicated due to a large number of replacement candidates being displayed, a virtual object with a ranking lower than the virtual object being selected may be displayed as a replacement candidate.

また、表示画面が煩雑になるほど仮想オブジェクトがない場合においては、解析結果表示中の全ての仮想オブジェクトを選択ボタンに表示してもよい。また、解析が完了している全ての仮想オブジェクトを選択ボタンに表示してもよい。   Further, when there are no virtual objects as the display screen becomes complicated, all the virtual objects being displayed in the analysis result may be displayed on the selection buttons. Further, all virtual objects that have been analyzed may be displayed on the selection button.

仮想オブジェクトの選択に応じて、選択ボタンの選択により指定された他の仮想オブジェクトとの位置の入れ替えをMR空間上で行うことを可能にするものである。   In accordance with the selection of the virtual object, the position of the virtual object designated by the selection of the selection button can be exchanged on the MR space.

サーバ200のCPU201は、ステップS1005で並び替えボタン1102の選択がされたか判定する。並び替えボタン1102がされた場合には、例えば、予めサーバ200に仮想オブジェクトと対応付けて記憶しておいた、着目して欲しい順の1位〜n位までの情報を取得し、着目して欲しい順の1位に設定されている仮想オブジェクトの位置を、実際にランキングで1位になった仮想オブジェクトが配置されている位置に変更する(ステップS1011)。その後、処理をステップ1009に移行し、指示に応じて仮想オブジェクトの位置を並び替えたMR画像を生成・出力するために、図9のMR画像の生成・出力処理を行う(ステップS1009)。これにより、ユーザが所望する着目してほしい順に沿って、各仮想オブジェクトを、実際に着目された仮想オブジェクトの配置位置に一括で配置することができる。   The CPU 201 of the server 200 determines whether or not the sort button 1102 has been selected in step S1005. When the sort button 1102 is clicked, for example, information on the first to nth positions in the order that you want to pay attention, which is stored in advance in the server 200 in association with the virtual object, is acquired. The position of the virtual object that is set to the first place in the desired order is changed to the position where the virtual object that is actually ranked first in the ranking is placed (step S1011). Thereafter, the process proceeds to step 1009, and the MR image generation / output process of FIG. 9 is performed in order to generate / output the MR image in which the positions of the virtual objects are rearranged according to the instruction (step S1009). Accordingly, the virtual objects can be collectively arranged at the virtual object arrangement positions that are actually noticed in the order in which the user desires attention.

サーバ200のCPU201は、ステップS1006で、HMD位置姿勢ログの表示指示のボタン1103が選択されたか判定し、HMD位置姿勢ログの表示指示のボタン1103が選択された場合に、選択中のモデルに着目していた時点のHMD位置姿勢ログを特定する(ステップS1007)。どのログのどのHMDのユーザがどの仮想オブジェクトにいつからいつまで着目していたか(いつの時点からいつの時点まで着目していたか)の特定方法は図5で説明したとおりである。例えば、ユーザが着目している物体(仮想オブジェクト又は現実物体)が特定される都度、当該物体ごとに、着目していたユーザのHMD101のIDと、着目されていた時点の日時と、HMD101の位置姿勢を対応付けた対応付け情報を外部メモリに記憶しておく(対応付け記憶手段/姿勢対応付け記憶手段に該当)ことでも、どのHMDのユーザがどの仮想オブジェクトにいつからいつまで着目していたか特定可能である。サーバ200のCPU201は、ステップS1007で、表示中の解析結果のログID741のログ(HMD位置姿勢ログ等)を取得して、日時712を参照し、当該ログの最初の日時から最後の日時までの間の、HMDID711の示すHMDの前記対応付け情報を取得することで、選択された物体に着目していたHMD101の日時ごとの位置姿勢を特定できる。   In step S1006, the CPU 201 of the server 200 determines whether the HMD position / orientation log display instruction button 1103 is selected, and when the HMD position / orientation log display instruction button 1103 is selected, pays attention to the model being selected. The HMD position / orientation log at the time of being specified is specified (step S1007). The identification method of which HMD user of which log has been paying attention to which virtual object from when to when (from which time to which time has been noted) is as described in FIG. For example, every time an object (virtual object or real object) focused on by the user is specified, the ID of the HMD 101 of the focused user, the date and time at which the user focused, and the position of the HMD 101 for each object By storing the association information in which the posture is associated in the external memory (corresponding to the association storage unit / posture association storage unit), it is possible to identify which HMD user has been paying attention to which virtual object from when to when. It is. In step S1007, the CPU 201 of the server 200 acquires a log (HMD position and orientation log or the like) of the log ID 741 of the analysis result being displayed, refers to the date and time 712, and from the first date and time to the last date and time of the log. In the meantime, by acquiring the association information of the HMD indicated by the HMDID 711, the position and orientation of the HMD 101 focused on the selected object can be specified for each date and time.

サーバ200のCPU201は、ステップS1007で特定した、選択中の仮想オブジェクトにユーザが着目していた時点のHMDの位置を示す仮想オブジェクト(図12でいう1202)を生成し(位置オブジェクト生成手段に該当/姿勢オブジェクト生成手段に該当)、図12に示すように、各ログの示すHMD101の位置にHMD101の姿勢で配置する処理を行う(ステップS1008/位置姿勢決定手段に該当)。なお、図12の1210に示すように、HMDの位置、及び、HMDの位置姿勢から特定される、選択中の仮想オブジェクトにユーザが着目していた時点のHMDの視線方向を示す直線(矢印)を生成して仮想空間に配置するようにしてもよい。矢印は、1202の示す仮想オブジェクトの位置(=HMD101のユーザがある仮想オブジェクトに着目している間における、ある時点でのHMD101の位置)を始点とし、その位置から仮想オブジェクトに着目していた際の、仮想オブジェクト上の着目点(終点)まで伸ばした矢印型の仮想オブジェクトである。図12の1210はMR空間を上から見た俯瞰図である。   The CPU 201 of the server 200 generates a virtual object (1202 in FIG. 12) indicating the position of the HMD at the time when the user focused on the selected virtual object identified in step S1007 (corresponding to the position object generating unit). / Corresponding to the posture object generating means), as shown in FIG. 12, the processing of arranging the posture of the HMD 101 at the position of the HMD 101 indicated by each log is performed (corresponding to step S1008 / position and posture determining means). As indicated by 1210 in FIG. 12, a straight line (arrow) indicating the line-of-sight direction of the HMD when the user focuses on the virtual object being selected, which is specified from the position of the HMD and the position and orientation of the HMD. May be generated and placed in the virtual space. The arrow starts from the position of the virtual object indicated by 1202 (= the position of the HMD 101 at a certain point in time while the user of the HMD 101 focuses on a certain virtual object), and the virtual object is focused from that position. This is an arrow-shaped virtual object extended to the point of interest (end point) on the virtual object. 1210 in FIG. 12 is an overhead view of the MR space as seen from above.

サーバ200のCPU201は、ステップS1007で生成・配置した、選択中の仮想オブジェクトにユーザが着目していた時点のHMDの位置を示す仮想オブジェクトをHMD101に表示させるべく、図9のMR画像の生成・出力処理を行う(ステップS1009)。   The CPU 201 of the server 200 generates and arranges the MR image of FIG. 9 to display on the HMD 101 the virtual object indicating the position of the HMD at the time when the user focused on the selected virtual object generated and arranged in step S1007. An output process is performed (step S1009).

これにより、仮想オブジェクト着目していたユーザのいた位置を容易に確認可能できる。   Thereby, it is possible to easily confirm the position of the user who has focused on the virtual object.

なお、サーバ200のCPU201は、当該HMDの位置姿勢のログ表示の終了指示を受け付けるまで、当該HMDの位置姿勢のログの仮想空間への配置、及び当該HMDの位置姿勢のログの仮想オブジェクトを重畳したMR画像の生成を継続する。当該終了指示を受け付けた場合には、当該HMDの位置姿勢のログを示す仮想オブジェクトを削除する。   The CPU 201 of the server 200 superimposes the placement of the log of the HMD position and orientation in the virtual space and the virtual object of the log of the position and orientation of the HMD until receiving an instruction to end the log display of the position and orientation of the HMD. The generation of the MR image is continued. When the end instruction is received, the virtual object indicating the position and orientation log of the HMD is deleted.

なお、図12の1202のみ生成・配置するようにしてもよいし、図12の1201に示すような、1202の位置(選択中の仮想オブジェクトにユーザが着目していた時点のHMDの位置)を包含する最小の球または直方体を生成して仮想空間に配置することで、選択中の仮想オブジェクトにユーザが着目していた期間にHMD101のユーザがいた位置を確認することができるようになる。   Note that only 1202 in FIG. 12 may be generated and arranged, or the position 1202 (the position of the HMD at the time when the user focused on the selected virtual object) as indicated by 1201 in FIG. By generating the smallest sphere or cuboid to be included and placing it in the virtual space, it becomes possible to confirm the position of the user of the HMD 101 during the period when the user has focused on the selected virtual object.

以上説明したように、本発明によれば、MRにおいて、体験者が対象物に着目していたかを容易に特定できる仕組みを提供することができる。   As described above, according to the present invention, it is possible to provide a mechanism capable of easily specifying whether an experienced person has focused on an object in MR.

また、例えば体験者の意見とブース内の行動(どの商品に注目・着目していたか)を照らし合わせることで体験者の意見と行動との整合性を確認し、この整合性を以って体験者の意見を採用すべきか否かを判断することが考えられる。体験者の行動を監視するためにはブース周辺にカメラを配置して体験者の行動を撮影して録画し、録画した動画を後に確認する方法がある。体験者の行動を正確に監視するためにブース周辺に複数のカメラを配置して複数の録画動画をPCモニタで目視確認する方法が考えられるが、複数の動画を確認するのは手間である。また、ブースを俯瞰するようにカメラを配置して録画した動画を確認する方法が考えられるが、動画の中に小さく写る体験者の行動を目視確認するので体験者がどの商品に着目しているか確認しづらい。   In addition, for example, by comparing the opinions of the experience and the actions in the booth (which products were focused / focused on), the consistency of the opinions and actions of the experience was confirmed, and this consistency was used for the experience. It may be possible to decide whether or not to adopt the opinion of the person. In order to monitor the behavior of the experience person, there is a method in which a camera is arranged around the booth, the action of the experience person is photographed and recorded, and the recorded video is confirmed later. A method of arranging a plurality of cameras around the booth and visually checking a plurality of recorded moving images on a PC monitor in order to accurately monitor the behavior of the experience person can be considered, but it is troublesome to check the plurality of moving images. In addition, it is possible to check the recorded video by placing the camera so that you can look down at the booth, but since the behavior of the experience that appears small in the video is visually confirmed, which product the experience is focused on by the experience Difficult to check.

これに対し本発明では、HMDの位置姿勢の履歴及び仮想オブジェクトの位置姿勢に応じて体験者が対象物に着目していた度合いを特定し、MR空間において、体験者の行動を容易に確認することができる。   On the other hand, in the present invention, the degree to which the experience person has focused on the object is specified according to the history of the position and orientation of the HMD and the position and orientation of the virtual object, and the action of the experience person is easily confirmed in the MR space. be able to.

つまり、MRにおいて、体験者が対象物に着目していたかを容易に特定できる仕組みを提供することができる。   That is, in MR, it is possible to provide a mechanism that can easily identify whether an experienced person has focused on an object.

なお、上述した実施形態においては、1つのHMD位置姿勢ログのファイルの選択を受け付け、当該1つのログのファイルに対して図5の処理を実行するものとしたが、例えば複数のログのファイルを選択して、当該複数のログのファイルに対して図5の処理を実行するようにしてもよい。複数のログ(例えば異なる複数人のユーザの位置姿勢のログ)を対象に着目度の解析を行うことで、解析結果の精度や信頼度を向上させることができる。   In the above-described embodiment, the selection of one HMD position / orientation log file is accepted, and the processing of FIG. 5 is performed on the one log file. You may select and perform the process of FIG. 5 with respect to the said several log file. By analyzing the degree of focus on a plurality of logs (for example, logs of positions and orientations of different users), the accuracy and reliability of the analysis result can be improved.

具体的には、サーバ200のCPU201が、ステップS501で複数のログのファイルの選択を受け付け、当該複数のログのファイルを取得する。そして、複数のファイルの全てのログに対してステップS504〜S508の処理を実行する。この場合、サーバ200のCPU201は、ステップS501で選択された全てのログの解析結果をステップS510で1つのランキング情報730のファイルとして記憶・出力し、ログID734に当該選択された全てのログのログIDを挿入する。サーバ200のCPU201は、ステップS601で当該複数のログの解析結果の選択及び表示指示を受け付けることで、当該複数のログの解析結果に基づくMR画像を生成してHMD101に表示する。   Specifically, the CPU 201 of the server 200 receives selection of a plurality of log files in step S501, and acquires the plurality of log files. And the process of step S504-S508 is performed with respect to all the logs of a some file. In this case, the CPU 201 of the server 200 stores and outputs the analysis results of all the logs selected in step S501 as one ranking information 730 file in step S510, and logs all the selected logs in the log ID 734. Insert ID. The CPU 201 of the server 200 generates an MR image based on the analysis results of the plurality of logs and displays the MR image on the HMD 101 by receiving selection and display instructions for the analysis results of the plurality of logs in step S601.

また、上述した実施形態においては、着目フラグ724=1の仮想オブジェクトを図5の解析の対象としたが、例えば、モデル情報720に記憶される全ての仮想オブジェクトを図5の処理対象としてもよい。具体的には、サーバ200のCPU201は、ステップS503の処理を実行せずに、ステップS505〜S509をステップS502で取得した全ての仮想オブジェクトに対して実行する。   Further, in the above-described embodiment, the virtual object with the flag of interest 724 = 1 is set as the analysis target in FIG. 5, but for example, all virtual objects stored in the model information 720 may be set as the processing target in FIG. . Specifically, the CPU 201 of the server 200 executes steps S505 to S509 for all the virtual objects acquired in step S502 without executing the process of step S503.

また、上述した実施形態においては、図6のステップS603〜S605の処理をステップS601で取得した解析結果の全ての仮想オブジェクトに対して実行するものとしたが、例えば解析結果のランキングの上位所定数の仮想オブジェクトに対してのみステップS603〜S605の処理を実行するようにしてもよい。   In the above-described embodiment, the processes in steps S603 to S605 in FIG. 6 are executed for all the virtual objects of the analysis result acquired in step S601. The processes in steps S603 to S605 may be executed only for the virtual object.

具体的には、サーバ200のCPU201は、ステップS606において、ランキングの上位所定数までの仮想オブジェクトに対してステップS603〜S605を実行済みか判定して、未実行の場合は処理をステップS603に戻し、実行済みの場合は処理をステップS607に移行する。これにより、仮想空間に配置される仮想オブジェクトの数が多い場合(着目フラグ=1の仮想オブジェクトが多い場合等)でも、解析結果の情報の表示が煩雑になることを防止することができる。当該所定数の値は、サーバ200の外部メモリに記憶されており、ユーザ操作により自由に設定変更可能である。   Specifically, in step S606, the CPU 201 of the server 200 determines whether steps S603 to S605 have been executed for the virtual objects up to a predetermined number in the ranking. If not, the process returns to step S603. If it has already been executed, the process proceeds to step S607. Thereby, even when the number of virtual objects arranged in the virtual space is large (for example, when there are many virtual objects of interest flag = 1), it is possible to prevent the display of the analysis result information from becoming complicated. The predetermined number of values is stored in the external memory of the server 200, and the setting can be freely changed by a user operation.

また、上述した実施形態においては、解析結果モデルの仮想オブジェクト=ランキング値731及び着目時間733の両方を埋め込んだ(テクスチャとして貼り付けた)仮想オブジェクトとして生成するものとしたが(図8の810)、例えばランキング値731又は着目時間733のいずれか一方を埋め込んだ仮想オブジェクトを解析結果モデルの仮想オブジェクトとして生成・配置するようにしてもよい。   In the above-described embodiment, the virtual object of the analysis result model = the ranking value 731 and the time of interest 733 are both generated as a virtual object embedded (pasted as a texture) (810 in FIG. 8). For example, a virtual object in which either the ranking value 731 or the time of interest 733 is embedded may be generated and arranged as a virtual object of the analysis result model.

また、上述した実施形態においては、サーバ200が解析結果モデルの仮想オブジェクトを生成し仮想空間に配置、MR画像を生成することで、HMDに各仮想オブジェクトの着目度(解析結果)を表示するものとしたが、着目度の識別表示の方法はこれに限るものではない。例えばステップS604で、当該解析結果モデルの仮想オブジェクトを生成する代わりに、着目のランキングに応じて着目されていた仮想オブジェクトの色を変更する処理を行ってもよい。例えばランキング上位5位に入る仮想オブジェクトを同じ色になりよう処理しても良いし、各ランキングに応じた色を予めサーバ200の外部メモリに記憶しておいて、それぞれのランキング値に対応する色にそれぞれの仮想オブジェクトの色を変更するようにしてもよい。   In the above-described embodiment, the server 200 generates a virtual object of an analysis result model, arranges it in a virtual space, and generates an MR image, thereby displaying the attention level (analysis result) of each virtual object on the HMD. However, the method of identifying and displaying the degree of attention is not limited to this. For example, in step S604, instead of generating the virtual object of the analysis result model, a process of changing the color of the virtual object that has been focused according to the ranking of interest may be performed. For example, the virtual objects in the top five rankings may be processed so as to have the same color, or the colors corresponding to the rankings are stored in the external memory of the server 200 in advance, and the colors corresponding to the ranking values are stored. Alternatively, the color of each virtual object may be changed.

また、ある時間以上(例:1分以上等)着目していれば、着目されていた仮想オブジェクトとして識別表示するようにしてもよい。具体的には、所定時間の値を予めサーバ200の外部メモリに記憶しておき、サーバ200のCPU201が、図6のステップS603の後、ステップS603で取得した解析結果の着目時間(図7の730及び740のログIDおよびモデル名から特定可能)が当該所定時間に達しているか判定して、所定時間に達している場合に処理をステップS604に移行し、着目時間が当該所定時間に達していない場合に処理をステップS606に移行するようにする。これにより、仮想オブジェクトが所定時間着目されているかを容易に特定、確認できる。   Further, if attention is paid for a certain period of time (for example, 1 minute or more), the virtual object may be identified and displayed. Specifically, the value of the predetermined time is stored in advance in the external memory of the server 200, and the CPU 201 of the server 200 receives the time of interest (FIG. 7) of the analysis result obtained in step S603 after step S603 in FIG. 730 and 740 (which can be specified from the log ID and model name) has reached the predetermined time. If the predetermined time has been reached, the process proceeds to step S604, and the time of interest has reached the predetermined time. If not, the process proceeds to step S606. Thereby, it is possible to easily identify and confirm whether the virtual object has been focused for a predetermined time.

また、上述した実施形態においてはセンサを用いてHMDの位置姿勢を特定するものとしたが、HMDの位置姿勢さえ特定できればよいため、必ずしもセンサを用いる必要はない。例えば部屋に複数のマーカを貼り付けて、当該マーカをHMD101のカメラで撮像することでHMD101の位置姿勢を特定し、MR画像を生成するようにしてもよい。   In the above-described embodiment, the position and orientation of the HMD are specified using the sensor. However, since only the position and orientation of the HMD can be specified, it is not always necessary to use the sensor. For example, a plurality of markers may be attached to the room, and the position and orientation of the HMD 101 may be specified by capturing the markers with the HMD 101 camera, and an MR image may be generated.

マーカを使ってHMDの位置姿勢を特定し、仮想オブジェクトを現実画像に重畳する場合、マーカの形状は問わないが、例えば全て正方形であり、サイズも全て同じであるものとする。また、各マーカにはユニークなマーカ番号が埋め込まれているものとする。そして、HMD101に設けられたカメラで撮像した際に、個々のマーカが識別でき、デコードした際に、そのマーカ番号が得られるものとする。マーカの種類(マーカが果たす役割の種類)は、HMD101の位置姿勢を決定するための位置検出用マーカ、並びに、そのマーカで規定される箇所に仮想オブジェクトを描画するものとして利用される仮想オブジェクト配置用マーカの2種類がある。そして、位置検出用マーカについては、複数のマーカが、予め既知の位置に貼り付けられているものとする。   When the position and orientation of the HMD is specified using the marker and the virtual object is superimposed on the real image, the shape of the marker is not limited, but is, for example, all squares and the same size. Further, it is assumed that a unique marker number is embedded in each marker. It is assumed that each marker can be identified when imaged by a camera provided in the HMD 101, and the marker number can be obtained when decoded. The type of marker (the type of role played by the marker) includes a position detection marker for determining the position and orientation of the HMD 101, and a virtual object arrangement used to draw a virtual object at a location defined by the marker There are two types of markers. And about a position detection marker, the some marker shall be affixed on the known position previously.

HMD101の位置姿勢を検出する原理について説明する。撮像した画像中の3つの位置検出用マーカ(その位置は既知)それぞれのサイズから、HMD101からそれぞれまでの位置検出用マーカまでの距離を求める。そして、逆に、3つの位置検出用マーカから求めた3つの距離が重なる位置を、HMD101の位置として決定する。また、HMD101の姿勢は、撮像した画像中の3つの位置検出用マーカの配置から求めればよい。   The principle of detecting the position and orientation of the HMD 101 will be described. From the size of each of the three position detection markers (its positions are known) in the captured image, the distance from the HMD 101 to each position detection marker is obtained. Conversely, the position where the three distances obtained from the three position detection markers overlap is determined as the position of the HMD 101. Further, the attitude of the HMD 101 may be obtained from the arrangement of three position detection markers in the captured image.

なお、マーカの法線方向に視点があるとき、そのマーカ画像が正方形に見えることになる。そして、視点が法線方向からずれると、そのずれの度合いに応じて正方形が歪んで見える。つまり、この歪みから、視点の軸に対するマーカで規定される平面の向きが判明し、マーカのサイズから視点とマーカ間の距離を検出でき、マーカが貼り付けられた平面が規定できる。また、実施形態では、マーカには、互いに識別できる2つの印が設けられ、マーカの中心位置を原点とし、マーカで規定される上記の平面上の、原点からその印に向かう2つのベクトルを2軸、マーカの中心位置から法線方向の1軸で、局所的(ローカル)な3次元座標を規定する3軸を規定しているものとする。   When the viewpoint is in the normal direction of the marker, the marker image looks square. When the viewpoint deviates from the normal direction, the square appears to be distorted depending on the degree of the deviation. That is, the orientation of the plane defined by the marker with respect to the axis of the viewpoint is found from this distortion, the distance between the viewpoint and the marker can be detected from the size of the marker, and the plane on which the marker is attached can be defined. In the embodiment, the marker is provided with two marks that can be distinguished from each other. The center position of the marker is the origin, and two vectors from the origin to the mark on the plane defined by the marker are 2 It is assumed that three axes defining local three-dimensional coordinates are defined as one axis in the normal direction from the center position of the axis and marker.

また、撮像した画像中の1つの位置検出用マーカのサイズ、形状及び画像上の位置と、予めサーバ200に記憶されているマーカのサイズとを比較することでも、HMD101とマーカとの相対的な位置・姿勢を特定することが可能である。相対位置・姿勢の特定方法は、例えば特開2013−61870号公報に記載されている公知の技術を用いる。   Further, by comparing the size and shape of one position detection marker in the captured image and the position on the image with the size of the marker stored in the server 200 in advance, the relative relationship between the HMD 101 and the marker can be determined. It is possible to specify the position and orientation. As a relative position / posture specifying method, for example, a known technique described in Japanese Patent Application Laid-Open No. 2013-61870 is used.

仮想オブジェクト配置用マーカとは、仮想オブジェクトを表示する位置を特定するために用いられるマーカである。サーバ200及びクライアントPC100のCPU201は、当該仮想オブジェクト配置用マーカが検出された際、当該仮想オブジェクト配置用マーカが存在する位置(正確には後述するように当該仮想オブジェクト配置用マーカの重心位置からオフセットを持つ位置)に仮想オブジェクトを表示するための処理を行う。例えば、3次元モデルを当該オフセットの示す仮想空間上の位置に配置する処理を行う。   The virtual object placement marker is a marker used to specify the position where the virtual object is displayed. When the virtual object placement marker is detected, the CPU 201 of the server 200 and the client PC 100 detects the position where the virtual object placement marker is present (exactly offset from the center of gravity position of the virtual object placement marker as will be described later). To display a virtual object at a position having a). For example, a process of arranging the three-dimensional model at a position in the virtual space indicated by the offset is performed.

仮想オブジェクトとは、仮想空間上に配置された3次元モデル(3次元CADデータ、3Dモデル、CG等とも呼ぶ)のことである。尚、3次元モデルのデータはサーバ200及びクライアントPC100の外部メモリ上に、当該3次元モデルを仮想空間上のいずれの位置にどのような姿勢で配置するかを示す位置姿勢の情報と対応付けられて記憶されている。   A virtual object is a three-dimensional model (also called three-dimensional CAD data, 3D model, CG, etc.) arranged in a virtual space. Note that the data of the 3D model is associated with position and orientation information indicating in what position in the virtual space the 3D model is placed in the virtual space on the external memory of the server 200 and the client PC 100. Is remembered.

仮想オブジェクト配置用マーカの中心位置の座標を{Xv,Yv,Zv}とし、3次元モデルのデータ中の基準座標を{Xi,Yi,Zi}(ここで、i=0,1,2,・・・)と定義したとき、距離Lは次式で得られる。
L={(Xv−Xi)2+(Yv−Yi)2+(Zv−Zi)2}1/2
The coordinates of the center position of the virtual object placement marker are {Xv, Yv, Zv}, and the reference coordinates in the data of the three-dimensional model are {Xi, Yi, Zi} (where i = 0, 1, 2,. When defined as ..), the distance L is obtained by the following equation.
L = {(Xv-Xi) 2+ (Yv-Yi) 2+ (Zv-Zi) 2} 1/2

ここで、iを変化させた際の最小の距離Lを、仮想オブジェクト配置用マーカと仮想オブジェクト配置用マーカの位置に応じて配置する3次元モデルとの距離とした。なお、上記では距離を計算する際に、最終的に平方根を求めたが、大小の判定で良いのであれば、平行根を求める必要な無く、座標の差分の二乗和を算出しても構わない。   Here, the minimum distance L when i is changed is the distance between the virtual object placement marker and the three-dimensional model placed according to the position of the virtual object placement marker. In the above, when calculating the distance, the square root is finally obtained. However, if it is sufficient to determine the size, it is not necessary to obtain the parallel root, and the sum of squares of the coordinate difference may be calculated. .

なお、上記式では、仮想オブジェクト配置用マーカの中心位置=仮想オブジェクトの中心位置とした場合である。先に説明したように、仮想オブジェクトの配置される位置は、仮想オブジェクト配置用マーカの中心位置に対し、「位置」で示されるオフセットが与えられる。   In the above formula, the center position of the virtual object placement marker = the center position of the virtual object. As described above, the position at which the virtual object is arranged is given an offset indicated by “position” with respect to the center position of the virtual object arrangement marker.

なお、マーカに埋め込めるビット数にもよるが、位置検出用マーカと仮想オブジェクト配置用マーカを兼ねるマーカを定義しても構わない。   Depending on the number of bits that can be embedded in the marker, a marker that serves both as a position detection marker and a virtual object placement marker may be defined.

<第2の実施形態>
図13〜図16を参照して、本発明の第2の実施形態について説明する。なお、第1の実施形態と共通する処理については記載・説明を省略する。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to FIGS. Note that description and description of processes common to the first embodiment are omitted.

第2の実施形態においては、体験者が現実物体である対象物に着目していたかを容易に特定できる仕組みを提供することを目的とする。   In the second embodiment, it is an object to provide a mechanism that can easily identify whether an experienced person has focused on an object that is a real object.

なお、第2の実施形態においては、どの位置の現実物体が着目されていたかを3次元空間上で容易に確認させることができる。   Note that in the second embodiment, it is possible to easily confirm in which position the real object is focused on in the three-dimensional space.

また、現実物体に着目していた際のHMDの位置姿勢を、3次元空間上で容易に表示させることができる。   Further, the position and orientation of the HMD when paying attention to the real object can be easily displayed in the three-dimensional space.

図13を参照して、本発明の第2の実施形態における、現実物体とHMDの位置関係の特定処理について説明する。   With reference to FIG. 13, description will be given of a process for specifying the positional relationship between a real object and an HMD in the second embodiment of the present invention.

サーバ200のCPU201は、図9の処理及び図4のHMD101の位置姿勢のロギングと平行して実行する。例えばHMD101の位置姿勢の計測・特定処理の開始指示(例えばユーザ操作)を受け付けることで図13の処理を開始し、実行する。   The CPU 201 of the server 200 executes in parallel with the processing in FIG. 9 and the logging of the position and orientation of the HMD 101 in FIG. For example, the processing of FIG. 13 is started and executed by receiving a start instruction (for example, user operation) of the position / orientation measurement / specification processing of the HMD 101.

サーバ200のCPU201は、ステップS904で取得した最新の現実画像(撮像画像)をメモリから取得する。   The CPU 201 of the server 200 acquires the latest real image (captured image) acquired in step S904 from the memory.

サーバ200のCPU201は、当該現実画像を解析して、物体認識処理を行う。具体的には、当該画像に写る被写体(物体)を認識し、当該認識した物体の情報を外部メモリに記憶する。具体的には、図15の物体情報1500に示す情報を記憶する。   The CPU 201 of the server 200 analyzes the real image and performs object recognition processing. Specifically, a subject (object) shown in the image is recognized, and information on the recognized object is stored in an external memory. Specifically, the information shown in the object information 1500 in FIG. 15 is stored.

ここでいう物体認識処理とは画像上の物体の認識であり、画像上の物体の輪郭の認識、画像上の当該物体が存在する座標(輪郭で囲われた領域)の認識、当該物体が何である(どのような名称の物体か)を認識して特定する処理を指すものとする。   The object recognition processing here refers to recognition of an object on the image, recognition of the contour of the object on the image, recognition of coordinates (region surrounded by the contour) on the image, It refers to a process of recognizing and identifying a certain (what name the object is).

物体認識は公知の技術を用いて実行する。例えば、Objectness手法を用いて画像を複数に分割して顕著度、エッジ、色や場所を基としたスコア付けを行い、スコアが高い部分が物体領域として認識する。つまり、画像上の物体の輪郭(物体を囲う領域)の認識、画像上の当該物体が存在する座標の認識を行う。その後、サーバ200のCPU201が、外部メモリに予め記憶されている物体名とその物体の特徴量を対応付けた辞書データを用いて、認識した領域内の物体が何か(どのような名称の物体か)を特定する。   Object recognition is performed using a known technique. For example, the image is divided into a plurality of parts using the Objectness method, and scoring is performed based on the saliency, the edge, the color, and the place, and the part with the high score is recognized as the object region. That is, recognition of the outline of the object on the image (area surrounding the object) and recognition of the coordinates where the object exists on the image are performed. Thereafter, the CPU 201 of the server 200 uses the dictionary data in which the object name stored in advance in the external memory and the feature amount of the object are associated to identify what the object in the recognized area (what name of the object )).

なお、上述した物体認識の手法はあくまで一例であり、物体の輪郭、物体の存在する画像上の領域、物体が何であるかの認識ができればどのような手法を用いてもよい。例えば、CPMC(Constrained Parametric Min−Cuts)の手法を用いてもよい。また、R−CNN(Regions with Convolutional Neural Network)の技術を用いてもよい。   Note that the above-described object recognition method is merely an example, and any method may be used as long as the outline of the object, the region on the image where the object exists, and what the object is can be recognized. For example, a CPMC (Constrained Parametric Min-Cuts) method may be used. Further, R-CNN (Regions with Convolutional Neural Network) technology may be used.

図15の物体情報1501は、現実画像を撮像した、現実画像の送信元のHMD101のHMD ID1501の画像を撮像した日時1502ごとに記憶される。物体ID1503は、認識した物体ごとにサーバ200のCPU201が付与する一意の値であり、物体の識別情報である。物体名1504は、サーバ200に予め記憶されている物体名とその物体の特徴量を対応付けた辞書データを用いてサーバ200のCPU201が推測して記憶する物体の名称である。領域1505は、当該物体が存在する画像上の領域を示す情報である。具体的には、領域を示す外形線の頂点座標の集合である。   The object information 1501 in FIG. 15 is stored for each date and time 1502 when the image of the HMD ID 1501 of the HMD 101 that is the transmission source of the real image is captured. The object ID 1503 is a unique value assigned by the CPU 201 of the server 200 for each recognized object, and is object identification information. The object name 1504 is a name of an object that is estimated and stored by the CPU 201 of the server 200 using dictionary data in which the object name stored in advance in the server 200 is associated with the feature amount of the object. An area 1505 is information indicating an area on the image where the object exists. Specifically, it is a set of vertex coordinates of the outline that indicates the region.

相対位置1506及び相対姿勢1507は、日時1502におけるHMD101の位置姿勢と物体ID1503の物体との相対的な位置姿勢である。   A relative position 1506 and a relative orientation 1507 are relative positions and orientations of the position and orientation of the HMD 101 and the object with the object ID 1503 at the date and time 1502.

物体位置1508及び物体姿勢1509は、日時1502におけるHMD101の位置姿勢と前記相対位置1506及び相対姿勢1507から求められる、物体ID1503の物体の3次元空間上におっける絶対位置であり姿勢である。   The object position 1508 and the object posture 1509 are absolute positions in the three-dimensional space of the object with the object ID 1503 obtained from the position and posture of the HMD 101 and the relative position 1506 and the relative posture 1507 at the date 1502.

なお、物体IDは物体ごとに付与するものであるため、例えば、新たに撮像された現実画像に、過去に撮像されたことのある現実物体が含まれている場合は、物体IDは同じとする。   Since the object ID is assigned to each object, for example, when a newly captured real image includes a real object that has been captured in the past, the object ID is the same. .

サーバ200のCPU201は、新たに撮像された現実画像内の現実物体の物体名及び外部メモリに記憶した当該物体の画像と、過去に撮像されたことのある現実物体の物体名及び外部メモリに記憶した当該物体の画像との類似度が閾値(例えば90%)以上の場合に、これらの現実物体が同じものであると判断、決定する。   The CPU 201 of the server 200 stores the object name of the real object in the newly captured real image and the image of the object stored in the external memory, and the object name of the real object that has been captured in the past and the external memory. When the similarity with the image of the object is equal to or greater than a threshold value (for example, 90%), it is determined and determined that these real objects are the same.

物体認識の様子を図16の1600に示す。1600、1610、1620は現実画像である。1601はマーカである。マーカも現実物体の1つである。1602は、マーカを検出した領域(1505)である。1603は机である。1604は、現実物体である机を検出した領域(1505)である。   A state of object recognition is shown by 1600 in FIG. Reference numerals 1600, 1610, and 1620 denote real images. Reference numeral 1601 denotes a marker. A marker is also a real object. Reference numeral 1602 denotes an area (1505) where the marker is detected. Reference numeral 1603 denotes a desk. Reference numeral 1604 denotes an area (1505) where a desk which is a real object is detected.

サーバ200のCPU201は、処理中の現実画像上における各現実物体の輪郭線を取得し、当該輪郭線によって囲われる領域を現実物体の写る領域として特定する。また、当該領域の画像上のXY座標を、領域1505に記憶する(ステップS1301)。   The CPU 201 of the server 200 acquires the contour line of each real object on the real image being processed, and specifies the region surrounded by the contour line as the region where the real object is captured. Further, the XY coordinates on the image of the area are stored in the area 1505 (step S1301).

具体的には、当該領域の輪郭線上の複数の点(矩形の場合は頂点)のXY座標を記憶することで、隣接する当該複数の点同士を繋げることでできる領域を現実物体の写る領域とする。   Specifically, by storing the XY coordinates of a plurality of points (vertex in the case of a rectangle) on the contour line of the region, a region that can be connected by connecting the plurality of adjacent points is a region where a real object is captured. To do.

サーバ200のCPU201は、HMD101から認識した各現実物体までの距離を特定する。具体的には、HMD101に設置されている不図示の深度センサ(例えば赤外線デプスセンサ)を用いて、認識された各現実物体とHMD101との距離を測定する(ステップS1302)。   The CPU 201 of the server 200 specifies the distance from the HMD 101 to each real object recognized. Specifically, the distance between each recognized real object and the HMD 101 is measured using a depth sensor (for example, an infrared depth sensor) (not shown) installed in the HMD 101 (step S1302).

例えば、赤外線の高速光源と、距離画像データを取得するためのカメラ(CMOSイメージセンサ)を用い、照射した光がターゲットである物体に当たって戻る時間を画像の画素ごとにリアルタイムで測定することで、画素ごとの物体との距離を測定可能である。   For example, by using a high-speed infrared light source and a camera (CMOS image sensor) for acquiring distance image data, the time for which the irradiated light returns to hit the target object is measured in real time for each pixel of the image. The distance to each object can be measured.

当該測定処理は、3次元空間においてHMD101から各現実物体が、XYZ軸方向にどの程度は離れているかを特定する処理であり、各現実物体とHMD101との相対的な位置関係を特定して相対位置1506に記憶する処理である。   The measurement process is a process for specifying how far each real object is separated from the HMD 101 in the three-dimensional space in the XYZ-axis directions. The relative positional relationship between each real object and the HMD 101 is specified to be relative. This is a process of storing in the position 1506.

なお、HMD101に搭載された各カメラ装置と深度センサとの相対位置の情報は予めキャリブレーションにより外部メモリに記憶されているものとする。測定する距離の基準となる位置は、キャリブレーションによって予め設定されているHMD101の位置と、各現実物体の領域1505の中心位置とする。   Note that information on the relative position between each camera device mounted on the HMD 101 and the depth sensor is stored in advance in an external memory by calibration. The position serving as a reference for the distance to be measured is the position of the HMD 101 set in advance by calibration and the center position of each real object region 1505.

なお、物体との距離測定の方法は必ずしも深度センサによらずともよい。例えばHMD101に設置された2つのカメラを使って三角測量を行い、物体までの距離、物体との位置関係を特定するようにしてもよい。   Note that the method of measuring the distance to the object does not necessarily have to be based on the depth sensor. For example, triangulation may be performed using two cameras installed in the HMD 101, and the distance to the object and the positional relationship with the object may be specified.

サーバ200のCPU201は、光学センサによって得たHMD101の絶対位置及び姿勢と、深度センサで計測したHMD101と各現実物体の3次元空間上の相対位置の情報を用いて、3次元空間上の各現実物体の絶対位置を特定する。当該絶対位置の情報を物体位置1508に記憶する。   The CPU 201 of the server 200 uses the absolute position and orientation of the HMD 101 obtained by the optical sensor and information on the relative positions of the HMD 101 and each real object measured by the depth sensor in the three-dimensional space. Specify the absolute position of the object. Information on the absolute position is stored in the object position 1508.

特定した各現実物体の絶対位置と同じ仮想空間上の位置に、各現実物体の姿勢を示す座標系を設定することで、各現実物体の姿勢を決定する。当該姿勢の情報としては、XYZ軸それぞれの所定の回転角度を採用し、当該現実物体の3次元空間上における絶対的な姿勢として物体姿勢1509に記憶する。   By setting a coordinate system indicating the posture of each real object at a position in the same virtual space as the absolute position of each identified real object, the posture of each real object is determined. As the posture information, a predetermined rotation angle of each of the XYZ axes is adopted and stored in the object posture 1509 as an absolute posture of the real object in the three-dimensional space.

サーバ200のCPU201は、当該HMD101の姿勢と、物体姿勢1509の値を用いて、HMD101と各現実物体との相対的な姿勢を求め、相対姿勢1507に記憶する。   The CPU 201 of the server 200 obtains a relative posture between the HMD 101 and each real object using the posture of the HMD 101 and the value of the object posture 1509 and stores the relative posture 1507.

なお、現実物体がマーカである場合は、先に説明した位置検出用マーカを用いたHMD101の位置姿勢計測の手法を用いて、当該マーカとHMD101の相対的な位置・相対的な姿勢を特定する。つまり、HMDの位置を原点(XYZ座標=0,0,0)とし、回転角度を0(XYZ軸方向への回転角度=0,0,0)とした場合における、マーカの位置姿勢を特定して記憶する。   When the real object is a marker, the relative position / relative orientation between the marker and the HMD 101 is specified using the method for measuring the position and orientation of the HMD 101 using the position detection marker described above. . That is, the position and orientation of the marker are specified when the position of the HMD is the origin (XYZ coordinates = 0, 0, 0) and the rotation angle is 0 (rotation angle in the XYZ axis direction = 0, 0, 0). Remember.

サーバ200のCPU201は、視線方向の先にある物体を特定する(ステップS1303)。ここでは解析に用いている画像が現実画像であるため、視線方向の先にある物体は現実物体である。   The CPU 201 of the server 200 identifies an object ahead of the line-of-sight direction (step S1303). Here, since the image used for the analysis is a real image, the object ahead of the line-of-sight direction is a real object.

例えば、図16に示すように、HMD101のディスプレイ(ディスプレイに表示する画像)の中央位置1611(着目点を示すカーソル1611)と領域1505(図16における1602及び1604)から、中央位置に表示されている現実物体を特定し、当該現実物体を視線方向の先にある物体として特定する。   For example, as shown in FIG. 16, the HMD 101 display (image displayed on the display) is displayed at the center position 1611 (cursor 1611 indicating the point of interest) and the area 1505 (1602 and 1604 in FIG. 16). The real object is identified, and the real object is identified as an object ahead of the line-of-sight direction.

1610の例においては、視線方向の先にある現実物体としてマーカが特定される。また、1620の例においては、視線方向の先にある現実物体として机が特定される。   In the example 1610, a marker is specified as a real object ahead of the line-of-sight direction. In the example 1620, a desk is specified as a real object ahead of the line of sight.

サーバ200のCPU201は、着目履歴1510をメモリ上に生成して、ステップS1301〜S1303で特定した、日時1502の時点でユーザが着目していた(着目中だった)現実物体の物体情報1500を、着目履歴1510にコピーして記憶する(ステップS1304)。   The CPU 201 of the server 200 generates the attention history 1510 on the memory and specifies the object information 1500 of the real object that the user has focused on (at the time of the date 1502) identified in steps S1301 to S1303. Copy and store it in the attention history 1510 (step S1304).

着目履歴1510は、着目された物体の物体情報のリストであり、いつどの物体がユーザによって着目されていたかを示す履歴(ログ)である。なお、着目履歴1510の各項目、そこに記憶されている情報は物体情報1500と同じであるため説明は割愛する。   The attention history 1510 is a list of object information of objects that have been noticed, and is a history (log) that indicates when and which object has been noticed by the user. Note that each item of the attention history 1510 and the information stored therein are the same as the object information 1500, and thus the description thereof is omitted.

サーバ200のCPU201は、ステップS1301〜S1304の処理を、図4で説明した位置姿勢計測の終了の指示(例えばユーザからの操作)を受け付けるまで繰り返し実行する。   The CPU 201 of the server 200 repeatedly executes the processing of steps S1301 to S1304 until receiving an instruction to end the position / orientation measurement described with reference to FIG. 4 (for example, an operation from the user).

そして、位置姿勢計測の終了の指示を受け付けた場合、サーバ200のCPU201は、計測開始から終了までに記憶した着目履歴1510を、図4のステップS403で出力するログファイルの中に含めて記憶する。以上が図13の説明である。   When an instruction to end position / orientation measurement is received, the CPU 201 of the server 200 stores the attention history 1510 stored from the start to the end of the measurement in the log file output in step S403 of FIG. . The above is the description of FIG.

次に図14を参照して、本発明の第2の実施形態における、現実物体にかかるログの解析処理の流れについて説明する。   Next, with reference to FIG. 14, the flow of log analysis processing for a real object in the second embodiment of the present invention will be described.

サーバ200のCPU201は、図5のステップS504で、ステップS501で選択して読み込んだログファイルの中の、HMD位置姿勢ログ710の1レコードと、当該レコードの日時712と同じ日時を日時1512に持つ着目履歴1510を読み出す。   In step S504 of FIG. 5, the CPU 201 of the server 200 has one record of the HMD position / orientation log 710 in the log file selected and read in step S501, and the date / time 1512 having the same date / time as the date / time 712 of the record. The attention history 1510 is read out.

サーバ200のCPU201は、図5のステップS506で、解析対象のオブジェクトが視線の先にないと判定した場合に図14の処理を開始する。   The CPU 201 of the server 200 starts the process of FIG. 14 when it is determined in step S506 of FIG. 5 that the analysis target object is not beyond the line of sight.

サーバ200のCPU201は、ステップS504で読み出した着目履歴1510を参照して、ユーザが着目していた現実物体があったか判定する(ステップS1401)。ユーザが着目していた現実物体がなかった場合は処理を図5のステップS509に移行する。   The CPU 201 of the server 200 refers to the attention history 1510 read in step S504, and determines whether there is a real object that the user has focused on (step S1401). If there is no real object focused on by the user, the process proceeds to step S509 in FIG.

ユーザが着目していた現実物体があった場合は、当該現実物体を着目対象のオブジェクト(物体)として決定する(ステップS1402/着目物体特定手段に該当)。ここではランキング情報730のモデル名732に当該現実物体の物体IDを挿入して記憶する処理を行う。この時点での着目時間733は0である。   If there is a real object that the user has focused on, the real object is determined as a target object (object) of interest (corresponding to step S1402 / target object specifying means). Here, processing for inserting and storing the object ID of the real object in the model name 732 of the ranking information 730 is performed. The attention time 733 at this time is 0.

また、ステップS504で取得したHMD位置姿勢ログ710の現在処理中のレコードの直後のレコードを取得し、そのレコードの日時712を取得して、処理中のレコードの日時712から当該次のレコードの日時712までの時間を、ユーザが当該現実物体に着目していた着目時間として733に加算する(ステップS1403)。そして処理をステップS509に移行する。以上が図14の説明である。   Further, the record immediately after the record currently being processed in the HMD position / orientation log 710 acquired in step S504 is acquired, the date / time 712 of the record is acquired, and the date / time of the next record from the date / time 712 of the record being processed is acquired. The time up to 712 is added to 733 as the attention time that the user has focused on the real object (step S1403). Then, the process proceeds to step S509. The above is the description of FIG.

サーバ200のCPU201は、図6のステップS604の処理を実行することで現実物体及び仮想物体にかかる解析結果の仮想オブジェクトを生成する。なお、現実物体に対応する解析結果の情報を示す仮想オブジェクトの位置姿勢については、ステップS605で、当該現実物体の物体位置1508から所定距離離れた位置及び所定の姿勢(現実物体の位置から所定のオフセット値を適用したXYZ座標・姿勢)に決定して位置743、姿勢744に記憶するものとする。また、モデル名745には、当該現実物体の物体IDを挿入して記憶する。   The CPU 201 of the server 200 generates a virtual object as an analysis result relating to the real object and the virtual object by executing the process of step S604 in FIG. For the position and orientation of the virtual object indicating the analysis result information corresponding to the real object, in step S605, a position that is a predetermined distance away from the object position 1508 of the real object and a predetermined posture (predetermined from the position of the real object). It is assumed that the offset value is applied to XYZ coordinates / posture) and stored in the position 743 and the posture 744. The model name 745 is inserted with the object ID of the real object.

サーバ200のCPU201は、ステップS607の処理を実行することで、現実物体及び仮想物体にかかる解析結果の仮想オブジェクト(例えば図12の1202)を、HMD101の位置姿勢に応じて表示可能である。   The CPU 201 of the server 200 can display the virtual object (for example, 1202 in FIG. 12) of the analysis result relating to the real object and the virtual object according to the position and orientation of the HMD 101 by executing the process of step S607.

また、サーバ200のCPU201は、図10のステップS1001において、現実物体(モデル名745に記憶されている物体IDの物体)に対応付けて表示されている解析結果表示用の仮想オブジェクト(解析結果モデル名742のモデル/解析結果オブジェクト)の選択を受け付けることで、ステップS1003において当該現実物体にかかる選択ボタンを表示する。解析結果オブジェクトは、物体へのユーザの着目度を示す着目度オブジェクトである。   Further, the CPU 201 of the server 200 displays the analysis result display virtual object (analysis result model) displayed in association with the real object (the object having the object ID stored in the model name 745) in step S1001 of FIG. By accepting the selection of the model / analysis result object (name 742), a selection button for the real object is displayed in step S1003. The analysis result object is a degree-of-interest object that indicates the degree of attention of the user to the object.

そして、ステップS1007で、ログファイル内の着目履歴1510から、選択中の仮想オブジェクトに対応する現実物体(物体ID)の全てのレコードを抽出する。   In step S1007, all records of the real object (object ID) corresponding to the selected virtual object are extracted from the attention history 1510 in the log file.

ステップS1008において、当該現実物体に着目していた各日時712におけるHMD101の位置713、姿勢714を読み出して、日時712ごとに、当該現実物体にユーザが着目していた時点のHMDの位置を示す仮想オブジェクト(図12でいう1202)を生成する。   In step S1008, the position 713 and posture 714 of the HMD 101 at each date and time 712 focused on the real object are read, and the virtual position indicating the position of the HMD at the time when the user focused on the real object is read for each date and time 712. An object (1202 in FIG. 12) is generated.

そして、各仮想オブジェクト1202(解析結果オブジェクト1202)の位置を、各日時におけるHMD101の位置713に決定して記憶する。つまり、図12に示すように、各レコードの日時712の示す位置に、複数の仮想オブジェクト1202をそれぞれ配置する処理を行う(ステップS1008)。   Then, the position of each virtual object 1202 (analysis result object 1202) is determined and stored as the position 713 of the HMD 101 at each date and time. That is, as shown in FIG. 12, a process of arranging a plurality of virtual objects 1202 at the positions indicated by the date and time 712 of each record is performed (step S1008).

なお、矢印型の仮想オブジェクトを生成して、図12の1210に示すように、HMD101の各日時712の位置713を始点として、当該現実物体にユーザが着目していた時点のHMDの視線方向を示す、現実物体上の着目点(終点)まで伸ばすよう形状変更および位置決定するようにしてもよい。   Note that an arrow-shaped virtual object is generated, and the line-of-sight direction of the HMD at the time when the user focused on the real object, starting from the position 713 of each date and time 712 of the HMD 101, as indicated by 1210 in FIG. The shape may be changed and the position may be determined so as to extend to the point of interest (end point) on the real object shown.

以上説明したように、本発明の第2の実施形態によれば、体験者が現実物体である対象物に着目していたかを容易に特定できる仕組みを提供することができる   As described above, according to the second embodiment of the present invention, it is possible to provide a mechanism that allows the user to easily identify whether or not the user has focused on a target object that is a real object.

また、どの位置の現実物体が着目されていたかを3次元空間上で容易に確認させることができる。   In addition, it is possible to easily confirm on the three-dimensional space which position the real object has been focused on.

また、現実物体に着目していた際のHMDの位置姿勢を、3次元空間上で容易に表示させることができる。   Further, the position and orientation of the HMD when paying attention to the real object can be easily displayed in the three-dimensional space.

<第3の実施形態>   <Third Embodiment>

図17〜19を参照して、本発明の第3の実施形態について説明する。なお、第1の実施形態及び第2の実施形態と共通する処理については記載・説明を省略する。   A third embodiment of the present invention will be described with reference to FIGS. Note that descriptions and descriptions of processes common to the first embodiment and the second embodiment are omitted.

第3の実施形態においては、HMDの3次元空間上の絶対位置・姿勢が特定できない状態であっても、体験者が対象物に着目していたかを容易に特定できる仕組みを提供することができる。   In the third embodiment, even if the absolute position / posture in the three-dimensional space of the HMD cannot be specified, it is possible to provide a mechanism that allows the user to easily specify whether the user has focused on the object. .

まず図17を参照して、本発明の第3の実施形態における、物体同士の相対的な位置姿勢の記憶処理の流れについて説明する。   First, with reference to FIG. 17, the flow of the storage processing of the relative position and orientation of objects in the third embodiment of the present invention will be described.

サーバ200のCPU201は、拡張現実の表示処理開始指示(例えばサーバ200に対するユーザ操作)を受け付けることで図17の処理を開始し、拡張現実の表示処理の終了指示(例えばユーザ操作)を受け付けるまでステップS1701〜S1720の処理を繰り返し実行する。   The CPU 201 of the server 200 starts the process of FIG. 17 by accepting an augmented reality display process start instruction (for example, a user operation on the server 200), and continues until the augmented reality display process end instruction (for example, a user operation) is accepted. The processing from S1701 to S1720 is repeatedly executed.

サーバ200のCPU201は、HMD101から受信した最新の画像をRAM上に読み出して(ステップS1701)、当該現実画像を解析し、当該画像に写る物体の認識処理及び認識した物体の情報を記憶する処理を行う(ステップS1702)。   The CPU 201 of the server 200 reads out the latest image received from the HMD 101 onto the RAM (step S1701), analyzes the real image, recognizes the object appearing in the image, and stores the information of the recognized object. This is performed (step S1702).

具体的には、図13の説明で前述した手法を用いて画像上の物体(被写体)の輪郭の認識、画像上の当該物体が存在する座標(領域)の認識、当該物体が何か(どのような名称の物体か)の認識処理を行う。また、図13のステップS1304で説明したように、当該認識をした情報を対応付けて、図15の1500に記憶する。   Specifically, using the method described above with reference to FIG. 13, the recognition of the contour of the object (subject) on the image, the recognition of the coordinates (region) where the object exists on the image, Recognition object). Further, as described in step S1304 in FIG. 13, the recognized information is associated and stored in 1500 in FIG.

サーバ200のCPU201は、ステップS1701で読み出した画像の中に、拡張現実の仮想オブジェクト表示用の登録画像(例えば、仮想オブジェクト配置用マーカ)を検出したか判定する(ステップS1703)。登録画像は例えば登録画像情報1900に予め記憶されている。   The CPU 201 of the server 200 determines whether the augmented reality virtual object display registration image (for example, a virtual object placement marker) has been detected in the image read in step S1701 (step S1703). The registered image is stored in advance in the registered image information 1900, for example.

登録画像情報1900は、サーバ200の外部メモリ211に予め記憶されている。画像ID1901は、登録画像の識別情報である。モデル名1902は、登録画像に対応する仮想オブジェクトを示す。   The registered image information 1900 is stored in advance in the external memory 211 of the server 200. The image ID 1901 is registered image identification information. A model name 1902 indicates a virtual object corresponding to the registered image.

モデル名1902の仮想オブジェクトは、拡張現実感の技術を用いて、カメラで撮像した現実画像に含まれている登録画像の大きさ、画像上の位置、姿勢に基づいて、当該登録画像の中心位置から位置1903の分だけXYZ方向に離れた位置に、姿勢1904の示す姿勢で配置される。   The virtual object of the model name 1902 uses the augmented reality technique to determine the center position of the registered image based on the size, position on the image, and orientation of the registered image included in the real image captured by the camera. Is disposed in a position indicated by a position 1904 at a position distant in the XYZ directions by the position 1903 from the first position.

登録画像を検出した場合には処理をステップS1704に移行し、図13のステップS1302の説明で上述した手法を用いて、当該登録画像とHMD101との相対的な位置、相対的な姿勢を算出する(ステップS1704)。   If a registered image is detected, the process proceeds to step S1704, and the relative position and relative attitude between the registered image and the HMD 101 are calculated using the method described above in the description of step S1302 in FIG. (Step S1704).

サーバ200のCPU201は、当該登録画像の現実画像上の形状、大きさ、方向に基づいて、当該登録画像に対応するモデル名1902の仮想オブジェクトの画像を生成し(ステップS1705)、当該仮想オブジェクトを表示(重畳)する現実画像上の領域(座標)を特定して記憶する(ステップS1706)。   The CPU 201 of the server 200 generates a virtual object image having a model name 1902 corresponding to the registered image based on the shape, size, and direction of the registered image on the real image (step S1705). The region (coordinates) on the real image to be displayed (superimposed) is specified and stored (step S1706).

例えば、生成した仮想オブジェクトの画像に付与したIDと、表示領域の座標を、図19の仮想オブジェクト画像情報1910における画像ID1911と領域1912に記憶する。   For example, the ID assigned to the generated virtual object image and the coordinates of the display area are stored in the image ID 1911 and the area 1912 in the virtual object image information 1910 of FIG.

領域1912には、画像ID1911の画像の外形の輪郭線上の点座標(XY座標)を複数記憶する。隣接する当該複数の点同士を繋げることでできる領域を画像ID1911の示す仮想オブジェクトの画像を重畳する領域とする。   The area 1912 stores a plurality of point coordinates (XY coordinates) on the outline of the outline of the image with the image ID 1911. A region formed by connecting a plurality of adjacent points is set as a region on which the image of the virtual object indicated by the image ID 1911 is superimposed.

また、モデル名1913には、画像ID1911の仮想オブジェクトの画像が、モデル名1913の示す仮想オブジェクトの画像であることがわかるように、当該仮想オブジェクトの名称を記憶する。   The model name 1913 stores the name of the virtual object so that the virtual object image with the image ID 1911 is the virtual object image indicated by the model name 1913.

サーバ200のCPU201は、現実画像に当該仮想オブジェクトの画像を重ね合わせて合成したAR画像(重畳画像/拡張現実画像)を生成し、HMD101に送信することで、当該拡張現実画像をHMD101に表示する(ステップS1707)。   The CPU 201 of the server 200 generates an AR image (superimposed image / augmented reality image) obtained by superimposing the virtual object image on the real image, and transmits the generated AR image to the HMD 101 to display the augmented reality image on the HMD 101. (Step S1707).

サーバ200のCPU201は、HMD101のユーザの視線方向を特定する(ステップS1708)。視線方向の特定手法は、図13のステップS1303で説明した手法を用いるものとする。   The CPU 201 of the server 200 identifies the viewing direction of the user of the HMD 101 (step S1708). As a method for specifying the line-of-sight direction, the method described in step S1303 in FIG. 13 is used.

サーバ200のCPU201は、当該視線方向から、ステップS1707で表示した仮想オブジェクトにユーザが着目しているか判定する(ステップS1709)。ここではHMDの向いている方向=視線方向であるため、例えば、AR画像の中央位置に前記仮想オブジェクトの領域1912がある場合に、当該領域に表示されている仮想オブジェクトに着目していると判定する。   The CPU 201 of the server 200 determines whether the user is paying attention to the virtual object displayed in step S1707 from the line-of-sight direction (step S1709). Here, since the direction in which the HMD is facing = the line-of-sight direction, for example, when the virtual object region 1912 exists at the center position of the AR image, it is determined that the virtual object displayed in the region is focused. To do.

当該仮想オブジェクトに着目していると判定された場合、処理をステップS1710に移行し、仮想オブジェクトに着目していないと判定された場合処理をステップS1713に移行する。   If it is determined that the virtual object is focused, the process proceeds to step S1710. If it is determined that the virtual object is not focused, the process proceeds to step S1713.

ステップS1710において、サーバ200のCPU201は、オブジェクト上の、ユーザが着目していた点(3次元上着目点/XYZ座標)を特定する(ステップS1710)。   In step S1710, the CPU 201 of the server 200 identifies a point on the object that the user has focused on (three-dimensional focused point / XYZ coordinates) (step S1710).

サーバ200のCPU201は、現実画像を撮像したHMDと撮像日時、当該現実画像においてユーザが着目していた仮想オブジェクトのモデル名と、仮想オブジェクト上の着目点、着目していた時点のHMD101と登録画像との相対位置・相対姿勢を特定して、図19に示す仮想オブジェクト着目履歴1920に記憶する(ステップS1711/ステップS1712)。   The CPU 201 of the server 200 captures the HMD that captured the real image, the date and time of image capture, the model name of the virtual object that the user focused on in the real image, the point of interest on the virtual object, the HMD 101 and the registered image at the time of focus. Are identified and stored in the virtual object attention history 1920 shown in FIG. 19 (step S1711 / step S1712).

具体的には、メモリ上に仮想オブジェクト着目履歴1920を生成する。そして、ステップS1701で読み出した画像を撮像した、当該画像の送信元のHMD101のHMD IDを、HMD ID1921に記憶する。ステップS1701で読み出した現実画像の撮像日時を日時1922に記憶する。   Specifically, the virtual object attention history 1920 is generated on the memory. Then, the HMD ID of the HMD 101 that is the transmission source of the image obtained by capturing the image read in step S1701 is stored in the HMD ID 1921. The imaging date / time of the real image read out in step S1701 is stored in the date / time 1922.

モデル名1923に、着目していた仮想オブジェクトのモデル名を記憶し、相対位置1924、相対姿勢1925にはそれぞれHMD101とモデル名1923に記憶した仮想オブジェクトとの相対位置、相対姿勢の情報を記憶する。   The model name 1923 stores the model name of the virtual object of interest, and the relative position 1924 and relative orientation 1925 store information on the relative position and relative orientation between the HMD 101 and the virtual object stored in the model name 1923, respectively. .

また、仮想オブジェクト上の着目点(XYZ座標)の情報を、着目点1916に記憶する。   Further, information on the point of interest (XYZ coordinates) on the virtual object is stored in the point of interest 1916.

ステップS1713で、サーバ200のCPU201は、当該視線方向から、ユーザが登録画像に着目しているか判定する(ステップS1713)。つまり、視線方向の先に登録画像があるか判定する。   In step S1713, the CPU 201 of the server 200 determines whether the user is paying attention to the registered image from the line-of-sight direction (step S1713). That is, it is determined whether there is a registered image ahead of the line of sight.

登録画像に着目していると判定された場合、処理をステップS1714に移行する。サーバ200のCPU201は、ステップS1714で、3次元空間における登録画像上の着目点(XYZ座標)を特定する。ディスプレイの中心点座標の画素について、深度センサを用いて特定した、現事物体までの距離を取得し、HMD101との位置関係を特定することができる。   If it is determined that the registered image is focused, the process proceeds to step S1714. In step S1714, the CPU 201 of the server 200 identifies a point of interest (XYZ coordinates) on the registered image in the three-dimensional space. For the pixel at the center point coordinates of the display, the distance to the current object specified using the depth sensor can be acquired, and the positional relationship with the HMD 101 can be specified.

サーバ200のCPU201は、現実画像を撮像したHMDと撮像日時、当該現実画像においてユーザが着目していた登録画像の画像IDと、登録画像上の着目点、着目していた時点のHMD101と登録画像との相対位置・相対姿勢を特定して、図19に示す現実物体着目履歴1930を生成して記憶する(ステップS1714)。   The CPU 201 of the server 200 captures the HMD that captured the real image, the imaging date and time, the image ID of the registered image that the user has focused on in the real image, the point of interest on the registered image, the HMD 101 and the registered image at the point of interest. The relative position / relative posture is identified, and a real object attention history 1930 shown in FIG. 19 is generated and stored (step S1714).

具体的には、ステップS1701で読み出した画像を撮像した、当該画像の送信元のHMD101のHMD IDを、HMD ID1931に記憶する。ステップS1701で読み出した現実画像の撮像日時を日時1932に記憶する。   Specifically, the HMD ID of the HMD 101 that has captured the image read out in step S1701 and that is the transmission source of the image is stored in the HMD ID 1931. The imaging date / time of the real image read out in step S1701 is stored in the date / time 1932.

物体ID1933に、着目していた登録画像の画像IDを記憶し、物体名1934には、当該登録画像の名称を記憶する。ここでは登録画像=マーカであるものとして、「マーカ」と記憶する。   The object ID 1933 stores the image ID of the registered image of interest, and the object name 1934 stores the name of the registered image. Here, “marker” is stored assuming that the registered image = marker.

物体画像1935には、当該登録画像(画像イメージ)を記憶する。HMD相対位置1936、HMD相対姿勢1937にはそれぞれHMD101と物体ID1933に記憶した登録画像との相対位置、相対姿勢の情報を記憶する。   The object image 1935 stores the registered image (image image). The HMD relative position 1936 and the HMD relative attitude 1937 store information on the relative position and relative attitude between the HMD 101 and the registered image stored in the object ID 1933, respectively.

また、仮想オブジェクト上の着目点(XYZ座標)の情報を、着目点1938に記憶する。   Further, information on the point of interest (XYZ coordinates) on the virtual object is stored in the point of interest 1938.

ステップS1713で、登録画像に着目していないと判定された場合に、処理をステップS1716に移行する。ステップS1716では、ユーザが登録画像以外の現実物体に着目しているか判定する。つまり、視線方向の先に登録画像以外の現実物体があるか判定する(ステップS1716)。   If it is determined in step S1713 that the registered image is not focused, the process proceeds to step S1716. In step S1716, it is determined whether the user is paying attention to a real object other than the registered image. That is, it is determined whether there is a real object other than the registered image ahead of the line-of-sight direction (step S1716).

登録画像以外の現実物体に着目していると判定された場合、HMD101と当該現実物体との相対的な位置・姿勢を特定する(ステップS1717)。   When it is determined that a real object other than the registered image is focused, the relative position / posture between the HMD 101 and the real object is specified (step S1717).

また、視線の先にある現実物体に物体IDを付与し、着目した現実物体の履歴として、現実物体着目履歴1930の1933に記憶する。また、HMDとの相対位置姿勢を1936及び1937に記憶する。   In addition, an object ID is assigned to the real object ahead of the line of sight, and is stored in 1933 of the real object attention history 1930 as a history of the focused real object. Also, the relative position and orientation relative to the HMD are stored in 1936 and 1937.

物体名1934を推測し、記憶する。また、物体画像1935に、当該現実物体の画像を切り出して記憶する。HMD ID1931は、ステップS1701で読み込んだ現実画像を撮像したHMDのIDである。日時1932は、当該現実画像の撮像日時である。   An object name 1934 is estimated and stored. In addition, an image of the real object is cut out and stored in the object image 1935. The HMD ID 1931 is an ID of the HMD that captured the real image read in step S1701. The date and time 1932 is the imaging date and time of the real image.

また、現実画像上で最も大きい登録画像を特定して(ステップS1718)、当該登録画像と当該現実物体との相対的な位置姿勢の関係を特定する(ステップS1719)。   Further, the largest registered image on the real image is specified (step S1718), and the relative position and orientation relationship between the registered image and the real object is specified (step S1719).

当該登録画像と現実物体の相対的な位置姿勢は、当該登録画像とHMD101の相対的な位置姿勢の情報、及び、当該現実物体とHMD101の相対的な位置姿勢の情報を用いて算出する。   The relative position and orientation between the registered image and the real object are calculated using information on the relative position and orientation between the registered image and the HMD 101 and information on the relative position and orientation between the real object and the HMD 101.

また、当該登録画像のIDを登録画像ID1939に記憶し、当該登録画像と着目中の現実物体の相対位置(XYZ軸方向それぞれの距離)と、相対姿勢の値を登録画像相対位置1940、登録画像相対姿勢1941に記憶する(ステップS1720)。   The ID of the registered image is stored in the registered image ID 1939, and the relative position (distance in each of the XYZ axes directions) between the registered image and the real object of interest and the value of the relative posture are registered image relative position 1940, registered image. The relative posture 1941 is stored (step S1720).

サーバ200のCPU201は、拡張現実画像の表示処理の終了指示を受け付けた場合、拡張現実画像の表示処理開始から終了までの間に記憶された仮想オブジェクト着目履歴1920と現実物体着目履歴1930の情報を合わせて、ログファイルとして外部メモリ211に出力して記憶する(S1721)。以上が図17の説明である。   When the CPU 201 of the server 200 receives an augmented reality image display processing end instruction, the CPU 201 stores information on the virtual object attention history 1920 and the real object attention history 1930 stored from the start to the end of the augmented reality image display processing. In addition, the log file is output and stored in the external memory 211 (S1721). The above is the description of FIG.

図17の説明によれば、HMDと物体(仮想オブジェクト又は現実物体)との相対的な位置姿勢を特定して記憶することができる。   According to the description of FIG. 17, the relative position and orientation between the HMD and the object (virtual object or real object) can be specified and stored.

また、現実物体同士(登録画像と登録画像以外の現実物体)の相対的な位置姿勢を特定して記憶することができる。   Further, it is possible to specify and store the relative positions and orientations of real objects (registered image and real objects other than registered images).

サーバ200のCPU201は、図5及び図14のログ解析の処理を実行する。ステップS504においては、ログファイル内の仮想オブジェクト着目履歴1920、及び現実物体着目履歴1930のレコードのうち未処理のレコードを1つ取得する。   The CPU 201 of the server 200 executes the log analysis processing of FIGS. In step S504, one unprocessed record is acquired from the records of the virtual object attention history 1920 and the real object attention history 1930 in the log file.

ステップS509では、ログファイル内の仮想オブジェクト着目履歴1920、及び現実物体着目履歴1930の全てのレコードを処理済みか判定し、未処理のレコードが有る場合には処理をステップS504に戻す。全てのレコードを処理済みの場合は処理をステップS510に移行する。   In step S509, it is determined whether all records of the virtual object attention history 1920 and the real object attention history 1930 in the log file have been processed. If there are unprocessed records, the process returns to step S504. If all records have been processed, the process proceeds to step S510.

次に図18を参照して、本発明の第3の実施形態における、解析結果の出力処理の流れについて説明する。   Next, with reference to FIG. 18, the flow of output processing of analysis results in the third embodiment of the present invention will be described.

サーバ200のCPU201は、ログ解析結果の表示指示(例えばユーザ操作)を受け付ける(ステップS1801)。例えば、サーバ200の外部メモリに記憶されている解析結果のファイルの選択を受け付け、サーバ200の不図示の表示画面において解析結果の表示ボタンの押下を受け付けることで、当該解析結果ファイルの示す解析結果の表示指示を受け付けるものとする。ここでいう解析結果ファイルとは図7に示すランキング情報730である。   The CPU 201 of the server 200 receives a log analysis result display instruction (for example, a user operation) (step S1801). For example, the selection of the analysis result file stored in the external memory of the server 200 is accepted, and pressing of the analysis result display button on the display screen (not shown) of the server 200 is accepted, whereby the analysis result indicated by the analysis result file is displayed. The display instruction is accepted. The analysis result file here is the ranking information 730 shown in FIG.

サーバ200のCPU201は、HMD101のカメラによって撮像され受信・記憶している最新の現実画像を取得し(ステップS1802)、当該現実画像の中に登録画像が含まれているか判定する(ステップS1803)。つまり、HMD101が登録画像を撮像中か判定する。   The CPU 201 of the server 200 acquires the latest real image captured and received / stored by the camera of the HMD 101 (step S1802), and determines whether or not a registered image is included in the real image (step S1803). That is, it is determined whether the HMD 101 is capturing a registered image.

現実画像の中に登録画像が含まれている場合、サーバ200のCPU201は、ステップS1801で選択された解析結果のファイル(ランキング情報730に示す情報を持つファイル)をメモリ上に読込み(ステップS1804)、読み込んだ解析結果の情報を1つ取得する(未処理のランキング情報730のレコードをランキングが高い順に取得する/ステップS1805)。   When the registered image is included in the real image, the CPU 201 of the server 200 reads the analysis result file (the file having the information shown in the ranking information 730) selected in step S1801 on the memory (step S1804). Then, one piece of information of the read analysis result is acquired (records of unprocessed ranking information 730 are acquired in descending order of ranking / step S1805).

サーバ200のCPU201は、取得した解析結果の情報を示す仮想オブジェクトを生成して(ステップS1806)、当該仮想オブジェクトの位置姿勢を決定して(ステップS1807)、外部メモリ211に記憶する。   The CPU 201 of the server 200 generates a virtual object indicating the acquired analysis result information (step S1806), determines the position and orientation of the virtual object (step S1807), and stores the virtual object in the external memory 211.

解析結果の情報を示す仮想オブジェクトの位置姿勢は、当該仮想オブジェクトに対応するモデル名732が仮想オブジェクトを示す場合(つまり、仮想オブジェクトの着目度合いを示す仮想オブジェクトの場合には)、モデル名732が示す当該仮想オブジェクトの位置姿勢を基準として、所定距離だけ離れた位置及び姿勢に決定する。   When the model name 732 corresponding to the virtual object indicates the virtual object (that is, in the case of the virtual object indicating the degree of attention of the virtual object), the position and orientation of the virtual object indicating the analysis result information Based on the position and orientation of the virtual object shown, the position and orientation separated by a predetermined distance are determined.

モデル名732が現実物体を示している場合(つまり、マーカ又はその他の現実物体に対応する仮想オブジェクトの場合には)、モデル名732が示す現実物体の位置姿勢を基準として、所定距離はなれた位置及び姿勢に決定する。   When the model name 732 indicates a real object (that is, in the case of a virtual object corresponding to a marker or other real object), a position separated by a predetermined distance on the basis of the position and orientation of the real object indicated by the model name 732 And determine the posture.

基準とする現実物体の位置姿勢は、当該現実物体がマーカ(登録画像)である場合には、HMD101で撮像した画像に写るマーカの大きさや角度から特定可能な、HMD101からの相対位置姿勢であるものとする。   When the real object is a marker (registered image), the reference position and orientation of the real object is a relative position and orientation from the HMD 101 that can be specified from the size and angle of the marker in the image captured by the HMD 101. Shall.

また、当該現実物体がマーカ以外の現実物体である場合には、ステップS1720で当該現実物体と対応付けて記憶した登録画像の位置から、登録画像相対位置1940だけ離れた、登録画像相対姿勢1941によって示される姿勢を、当該現実物体の位置姿勢とする。   If the real object is a real object other than the marker, the registered image relative posture 1941 is away from the position of the registered image stored in association with the real object in step S1720 by the registered image relative position 1940. The posture shown is the position / posture of the real object.

また、図7の解析結果モデル情報740に示すように、ステップS1801で選択された解析結果に対応するログIDをログID741に持つ解析結果モデル情報を生成する。   Also, as shown in the analysis result model information 740 of FIG. 7, the analysis result model information having the log ID 741 corresponding to the analysis result selected in step S1801 is generated.

そして、解析結果モデル名742に生成した解析結果を示す仮想オブジェクトのファイル名を挿入し、モデル名745に、ユーザが着目していた解析対象のモデル名又は登録画像の画像ID又は現実物体の物体IDを挿入し、当該モデル名745の仮想オブジェクト、又は現実物体の位置・姿勢を基準として、当該位置・姿勢所定の位置姿勢の値を位置743、姿勢744に挿入して記憶する(ステップS1807)。   Then, the file name of the virtual object indicating the generated analysis result is inserted into the analysis result model name 742, and the model name of the analysis target focused by the user, the image ID of the registered image, or the object of the real object is inserted into the model name 745 The ID is inserted, and based on the position / posture of the virtual object or the real object of the model name 745, the position / posture predetermined position / posture value is inserted into the position 743, the posture 744 and stored (step S1807). .

サーバ200のCPU201は、ステップS1804で取得したファイル内の全ての解析結果(ランキング情報730内の全てのモデル)に対してステップS1805〜S1807の処理を実行済みか判定する(ステップS1808)。   The CPU 201 of the server 200 determines whether or not the processing in steps S1805 to S1807 has been executed for all analysis results (all models in the ranking information 730) in the file acquired in step S1804 (step S1808).

未実行の場合には処理をステップS1804に戻して未処理の解析結果を取得する。実行済みの場合には、処理をステップS1809に移行する。   If not executed, the process returns to step S1804 to acquire an unprocessed analysis result. If it has been executed, the process moves to step S1809.

サーバ200のCPU201は、ステップS1802で読み出した最新の画像に含まれる登録について、図17のステップS1704〜S1707で説明した処理を実行することで、当該登録画像に対応付けられた仮想オブジェクトのAR画像(拡張現実画像/重畳画像)を生成して、HMD101に出力・表示させる。つまり、着目対象の物体の識別表示処理を行う。以上が図18の説明である。   The CPU 201 of the server 200 executes the processing described in steps S1704 to S1707 in FIG. 17 for the registration included in the latest image read in step S1802, thereby performing the AR image of the virtual object associated with the registered image. (Augmented reality image / superimposed image) is generated and output / displayed on the HMD 101. That is, identification display processing of the target object is performed. The above is the description of FIG.

また、図10のステップS1007において、ステップS1001で選択された仮想オブジェクトに着目中のHMD101の位置姿勢のレコードを、表示中の解析結果オブジェクトに対応するログファイルから取得する。つまり、選択中の仮想オブジェクトとHMD101の相対的な位置姿勢の情報を取得する。   Further, in step S1007 in FIG. 10, a record of the position and orientation of the HMD 101 being focused on the virtual object selected in step S1001 is acquired from the log file corresponding to the analysis result object being displayed. That is, information on the relative position and orientation of the selected virtual object and the HMD 101 is acquired.

そして、選択中の当該仮想オブジェクトの位置姿勢を基準として、日時1922ごとに、当該仮想オブジェクトにユーザが着目していた時点のHMDの位置を示す仮想オブジェクト(図12でいう1202)を生成する。   Then, for each date and time 1922, a virtual object (1202 in FIG. 12) indicating the position of the HMD at the time when the user focused on the virtual object is generated with respect to the position and orientation of the selected virtual object.

具体的には、当該解析結果オブジェクトの位置姿勢を、当該仮想オブジェクトの位置姿勢(登録画像の位置姿勢を基準とし場合の、相対位置1924、相対姿勢1925の示す位置)を基準として所定距離だけ離れた位置及び姿勢に決定し、記憶する(ステップS1008)。   Specifically, the position and orientation of the analysis result object are separated by a predetermined distance on the basis of the position and orientation of the virtual object (the positions indicated by the relative position 1924 and the relative orientation 1925 when using the position and orientation of the registered image as a reference). The determined position and orientation are determined and stored (step S1008).

また、図10のステップS1001において、現実物体に対応付けて表示されている解析結果表示用の仮想オブジェクトの選択を受け付けることで、ステップS1003において当該現実物体にかかる選択ボタンを表示する。そして、ステップS1007で、現実物体着目履歴1930の日時1932ごとに、当該現実物体に対応する解析結果オブジェクトを生成する。   Further, in step S1001 in FIG. 10, by accepting selection of the analysis result display virtual object displayed in association with the real object, the selection button for the real object is displayed in step S1003. In step S1007, an analysis result object corresponding to the real object is generated for each date 1932 of the real object attention history 1930.

そして、各解析結果表示オブジェクトの位置姿勢を、日時1932ごとの、HMD101の位置姿勢に決定する。当該HMD101の位置姿勢は、現実物体着目履歴1930の各レコードにおいて、当該現実物体に対応するHMD相対位置、HMD相対姿勢から特定する。   Then, the position and orientation of each analysis result display object are determined as the position and orientation of the HMD 101 for each date 1932. The position and orientation of the HMD 101 are specified from the HMD relative position and the HMD relative orientation corresponding to the real object in each record of the real object attention history 1930.

なお、図12の1210に示すように、HMD相対位置、及びHMD相対姿勢から特定される、当該仮想オブジェクト又は現実物体にユーザが着目していた時点のHMDの視線方向を示す直線(矢印)の仮想オブジェクトを生成して仮想空間に配置すべく位置決定するようにしてもよい。   Note that, as indicated by 1210 in FIG. 12, a straight line (arrow) indicating the line-of-sight direction of the HMD when the user focuses on the virtual object or the real object, which is specified from the HMD relative position and the HMD relative posture. A virtual object may be generated and positioned to be placed in the virtual space.

以上説明したように、本発明の第3の実施形態によれば、HMDの3次元空間上の絶対的な位置姿勢が特定できない状態において体験者が対象物に着目していたかを、3次元空間上で容易に特定できる仕組みを提供することができる。   As described above, according to the third embodiment of the present invention, it is determined whether the experience person has focused on the object in a state where the absolute position and orientation of the HMD in the three-dimensional space cannot be specified. A mechanism that can be easily identified above can be provided.

尚、上記実施形態は、本発明に係る例であると認識されたい。たとえば、HMD101の位置姿勢を検出するため、上記実施形態では位置検出用マーカが撮像した視野内に3つは存在するものとして、位置検出用マーカを部屋中に多数張り付けるものとしたが、これによって本発明が限定されるものではない。位置検出用マーカには向きを規定する印があり、位置検出用マーカの座標だけでなく、形状や寸法も既知であれば、撮像した画像の位置検出の歪み、サイズ、印の位置から、1つの位置検出用マーカからだけでもHMD101の位置姿勢を特定できる。   Note that the above embodiment is an example according to the present invention. For example, in order to detect the position and orientation of the HMD 101, in the above embodiment, it is assumed that there are three position detection markers in the field of view imaged, and a large number of position detection markers are attached in the room. However, the present invention is not limited by these. The position detection marker has a mark that defines the direction. If not only the coordinates of the position detection marker but also the shape and dimensions are known, the position detection distortion, size, and position of the mark are 1 The position and orientation of the HMD 101 can be specified from only one position detection marker.

また、現実物体の位置姿勢の特定方法は必ずしも上述した方法に限るものではない。例えば、モデル情報720と同じように、予め、物体ID、位置姿勢、着目フラグ、着目エリアを対応付けて、現実物体の情報として外部メモリに記憶しておく。サーバ200のCPU201は、HMD101の視線方向に当該物体IDがある場合、つまり、視線方向の示すベクトルと着目エリアとが交わった場合に、当該着目エリアに対応する現実物体が視線方向の先にあると判定し、当該現実物体を着目対象の現実物体として特定することが可能である。   Further, the method for specifying the position and orientation of the real object is not necessarily limited to the method described above. For example, as with the model information 720, the object ID, the position and orientation, the focus flag, and the focus area are associated with each other and stored in advance in the external memory as real object information. When the object ID is in the line-of-sight direction of the HMD 101, that is, when the vector indicated by the line-of-sight direction intersects the area of interest, the CPU 201 of the server 200 has a real object corresponding to the area of interest ahead of the line-of-sight direction. And the real object can be specified as the real object of interest.

また、撮像した現実画像の中から同じ姿勢の登録画像を2つ以上検知した場合に、当該2つの登録画像の最も離れた位置にある頂点を線分で結び、それを対角線とした平面を現実物体として認識してもよい。例えば、壁や机の角にマーカを貼り付けている状態を想定する。   In addition, when two or more registered images having the same posture are detected from the captured real images, the planes that connect the vertices at the farthest positions of the two registered images with line segments and use them as diagonal lines are actually It may be recognized as an object. For example, it is assumed that a marker is pasted on the corner of a wall or desk.

この場合、当該面の中央点を当該平面の示す現実物体の位置として決定する。また、当該平面の示す現実物体の姿勢は、当該登録画像の姿勢であるものとする。   In this case, the center point of the surface is determined as the position of the real object indicated by the plane. The posture of the real object indicated by the plane is assumed to be the posture of the registered image.

また、上記実施形態においては、着目時間の長さで着目殿ランキングを決定したが、例えば着目した回数を着目対象の物体(仮想オブジェクト及び現実物体)ごとに記憶しておき、より回数が多い物体の着目度をより上位にランキングするようにしてもよい。着目回数は、ユーザがある物体に着目し始めてからその物体に着目しなくなるまでを、1回着目していたものとしてカウントして記憶する。   Also, in the above embodiment, the focus ranking is determined based on the length of time of focus. For example, the number of times of focus is stored for each target object (virtual object and real object), and the number of times of focus is increased. The degree of attention may be ranked higher. The number of times of attention is counted and stored as having been noticed once, from when the user starts paying attention to an object until it stops paying attention to that object.

HMD101はシースルー型の装置であってもよい。シースルー型の場合、ディスプレイが半透明であり、現実画像は表示する必要がないため、例えば現実画像を透過率100%として、透過率100%の現実画像の上に透過率0%の仮想オブジェクトの画像を重畳した重畳画像をHMD101に送信して表示させるようにする。   The HMD 101 may be a see-through type device. In the case of the see-through type, since the display is translucent and there is no need to display a real image, for example, a real image is assumed to have a transmittance of 100%, and a virtual object having a transmittance of 0% is placed on a real image having a transmittance of 100%. The superimposed image on which the image is superimposed is transmitted to the HMD 101 for display.

上記実施形態においては、HMDのディプレイの中心に位置する物体=着目対象の物体としたが(つまりHMD101の向いている方向の先にある物体を着目対象の物体としたが)、着目対象の物体の特定方法はこれに限るものではない。   In the above embodiment, the object positioned at the center of the HMD display = the object of interest (that is, the object ahead of the direction in which the HMD 101 is directed is regarded as the object of interest). The method for identifying the object is not limited to this.

例えば、特開2010−199789号公報や、特開2016−127587号公報に記載されているように、HMDに、ユーザの眼に向けて非可視光を照射する非可視光照射装置、ハーフミラーを設置し、ユーザの眼で反射された非可視光を撮像するカメラを設置して反射光を撮像し、ユーザの眼がディスプレイ上の(表示画面に表示する現実画像上の)どこを見ているのかを特定する公知の技術を用いてもよい。これにより、HMD101のユーザが画面上の何に着目しているかを特定可能である。   For example, as described in JP 2010-199789 A or JP 2006-127487 A, a non-visible light irradiation device or a half mirror that irradiates the HMD with invisible light toward the user's eyes is provided. Install a camera that captures the invisible light reflected by the user's eyes and capture the reflected light to see where the user's eyes are on the display (on the real image displayed on the display screen) A known technique for identifying whether or not Thereby, what the user of the HMD 101 is paying attention to on the screen can be specified.

例えば図21の2100〜2120に示すように、カーソル1611をユーザの眼がディスプレイ上のどこを見ているかに応じて移動させることができる。つまり、カーソル1611の位置=ユーザの画像上の着目点である。2101は仮想オブジェクトを表示する/している領域である。2120はユーザが当該仮想オブジェクトに着目している状態である。   For example, as indicated by 2100 to 2120 in FIG. 21, the cursor 1611 can be moved according to where the user's eyes are looking on the display. That is, the position of the cursor 1611 = the point of interest on the user's image. Reference numeral 2101 denotes an area where a virtual object is displayed / displayed. Reference numeral 2120 denotes a state in which the user is paying attention to the virtual object.

この場合、視線方向=HMD101からユーザが着目している物体の3次元空間上の着目点への方向であるものとする。なお、3次元空間において、ユーザが当該現実物体の外面上のどの位置(XYZ座標の示す点)に着目しているかは、ディプレイに表示された画像上の物体の大きさ、向き、形状及びユーザが当該物体上で着目している点(画像上のXY座標)と、予め外部メモリに記憶されている当該物体の基準の大きさ、向き、形状を用いて算出することができる。   In this case, it is assumed that the line-of-sight direction = the direction from the HMD 101 to the point of interest in the three-dimensional space of the object that the user is paying attention to. Note that in the three-dimensional space, which position on the outer surface of the real object (the point indicated by the XYZ coordinates) the user is paying attention to is the size, orientation, shape, and shape of the object on the image displayed on the display. The calculation can be performed by using a point (XY coordinates on the image) on which the user focuses on the object and the reference size, orientation, and shape of the object stored in the external memory in advance.

また、解析結果の仮想オブジェクトである742は、図8の810に示す形状、表示形態に限るものではない。例えば、図20に示すように、着目対象の物体2001に着目した着目点ごとに2002に示すような仮想オブジェクト(解析結果オブジェクト)を生成して、当該仮想オブジェクトの位置を各着目点の位置に決定するようにしてもよい。   Further, the analysis result virtual object 742 is not limited to the shape and display form indicated by 810 in FIG. For example, as shown in FIG. 20, a virtual object (analysis result object) as shown in 2002 is generated for each target point focused on the target object 2001, and the position of the virtual object is set to the position of each target point. It may be determined.

ユーザは、2002に示す仮想オブジェクトが多く配置されている物体ほど、よく着目されていた物体であると確認することができる。つまり、2002に示す仮想オブジェクトの数によって着目度合いを提示し、確認させることができる。   The user can confirm that an object on which more virtual objects shown in 2002 are arranged is an object that has attracted much attention. That is, the degree of attention can be presented and confirmed by the number of virtual objects shown in 2002.

また、着目点をクラスタリングによって複数のクラスタに分類(複数グループにグルーピング)し、2010に示すように、クラスタ内の着目点の数に応じて、例えばヒートマップのように表示すべく、クラスタの示す着目点の色を変化させるようにしてもよい。ユーザは、2111等の仮想オブジェクトの色によって、より着目されていた物体を確認することができる。つまり、各物体の着目度合いを提示し、確認させることができる。   Further, the points of interest are classified into a plurality of clusters by clustering (grouped into a plurality of groups), and, as indicated by 2010, according to the number of points of interest in the cluster, for example, a cluster is displayed to be displayed like a heat map. The color of the point of interest may be changed. The user can confirm an object that has been focused more on the basis of the color of a virtual object such as 2111. That is, the degree of attention of each object can be presented and confirmed.

また、図10のステップS1008で位置姿勢を決定した、HMD101の位置姿勢を示す仮想オブジェクトのそれぞれの位置のクラスタリングを行い、クラスタ内の位置を内包する、当該クラスタを示す仮想オブジェクトを生成して、クラスタの中心位置に配置するようにしてもよい。また、クラスタ内のHMDの位置の数に応じて、クラスタの示す着目点の色を変化させるようにしてもよい。これにより、ユーザは着目対象の物体がどの位置からよく見られていたかを容易に確認できるようになる。   Further, the position and orientation of the virtual object indicating the position and orientation of the HMD 101 determined in step S1008 in FIG. 10 are clustered, and a virtual object indicating the cluster including the position in the cluster is generated, You may make it arrange | position to the center position of a cluster. Further, the color of the point of interest indicated by the cluster may be changed according to the number of HMD positions in the cluster. As a result, the user can easily confirm from which position the object of interest is often viewed.

当該HMD101の位置(HMD101の位置姿勢を示す仮想オブジェクト)のクラスタリングは、図5の処理において複数のHMD101のログファイルが読み込まれて生成された解析結果を表示中の場合には、複数ユーザの視点(HMD101の位置)をグルーピングするため、より精度の高い結果を確認することができる   The clustering of the position of the HMD 101 (virtual object indicating the position and orientation of the HMD 101) is performed when the analysis results generated by reading the log files of the plurality of HMDs 101 in the process of FIG. Since the (position of HMD101) is grouped, a more accurate result can be confirmed.

上記実施形態において、解析結果オブジェクト1202は球体形状であるが、物体に着目していた際のHMD101の回転状態を確認しやすくすべく、例えばHMD101と同じ形状の仮想オブジェクトを1202の代わりとしてもよい。   In the above-described embodiment, the analysis result object 1202 has a spherical shape, but a virtual object having the same shape as the HMD 101 may be used instead of the 1202 in order to make it easy to confirm the rotation state of the HMD 101 when the object is focused. .

上記実施形態においてはMR及びARについて説明したが、HMD101の動きに連動して仮想空間上のカメラの位置姿勢を変更可能なVRの分野において、本発明を適用可能なことはいうまでもない。VRで本発明を実施する場合、仮想オブジェクトに対する着目度の特定及び表示を行うものとする。   Although MR and AR have been described in the above embodiment, it goes without saying that the present invention is applicable in the field of VR in which the position and orientation of the camera in the virtual space can be changed in conjunction with the movement of the HMD 101. When the present invention is implemented with VR, the degree of attention to a virtual object is specified and displayed.

解析結果の情報は、例えばサーバ200に接続されたディスプレイにおいて、所定のアプリケーションで開くことで、テキスト情報として表示し、ユーザに閲覧させることができる。   For example, the analysis result information can be displayed as text information on a display connected to the server 200 by a predetermined application, and can be browsed by the user.

上記実施形態においてはブースのような、物体を陳列する際を例にあげたが、例えば自動車などのデザイン検証において、新しくデザインした自動車の内装、外装のうち、ユーザがどこにどの程度、どこから着目していたかの検証等にも利用可能である。特に部品(物体)が多く組み合わさり、複雑な形状となっている物体について、どの部品がどの程度見られたかを着目点の座標一覧や着目対象の部品の座標一覧で提示するよりは、3次元空間上で、着目された物体に対応付けて着目度を表示した方が、物体ごとの着目度をユーザに容易に確認させることができる。   In the above embodiment, the case of displaying an object such as a booth has been taken as an example. However, in the design verification of a car, for example, in the interior and exterior of a newly designed car, the user pays attention to where, how much and from where. It can also be used for verification. Rather than presenting in the coordinate list of the point of interest or the coordinate list of the component of interest the object that has a complex shape with many components (objects) combined, If the attention level is displayed in association with the focused object in space, the user can easily check the attention level for each object.

なお、HMD101とサーバ200が一体であり、当該HMD101とサーバ200が一体化した筐体が、各フローチャートの全処理を行うことで本発明を実現するよう構成してもよい。   Note that the HMD 101 and the server 200 may be integrated, and a case in which the HMD 101 and the server 200 are integrated may be configured to implement the present invention by performing all the processes in each flowchart.

前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   By supplying a recording medium recording a program for realizing the functions of the above-described embodiments to a system or apparatus, and reading and executing the program stored in the recording medium by a computer (or CPU or MPU) of the system or apparatus However, it goes without saying that the object of the present invention is achieved.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

また、プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM A silicon disk, a solid state drive, or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.

101A HMD
101B HMD
101C HMD
102 光学センサ
150 ネットワーク
200 サーバ
101A HMD
101B HMD
101C HMD
102 optical sensor 150 network 200 server

Claims (17)

ユーザが装着する表示装置と通信可能な、当該表示装置を装着したユーザの視線の情報を取得する取得手段と、3次元空間上の物体を記憶する記憶手段と、を備える情報処理装置であって、
前記視線の情報を用いて、前記3次元空間上のユーザが着目していた物体を特定する着目物体特定手段と、
前記着目物体特定手段により特定された前記ユーザが着目していた物体がどの程度着目されていたかを示す着目度を、前記視線の遷移の情報に基づいて特定する着目度特定手段と、
前記着目度特定手段により特定された着目度を示す画像を、着目されていた物体に対応する位置に表示させるべく出力する出力手段と、
を備えることを特徴とする情報処理装置。
User can communicate with the display device to be mounted, a information processing apparatus including an acquisition unit that acquires information of the line of sight of the user the display device is mounted, and a storage means for storing the objects of the three-dimensional space, the And
Using the information of the line of sight, on the three-dimensional space, and focuses the object specifying means for specifying an object the user has focused,
A degree of attention specifying unit that is pre-SL user identified the interest degree indicating whether attention is paid how much they were objects of interest, identified based on the transition information of the sight line by the focusing object specifying means,
And output means for an image showing the degree of attention identified, and outputs to be displayed on the position corresponding to the body material which has been focused by the focusing degree specifying means,
An information processing apparatus comprising:
前記情報処理装置は、さらに、前記表示装置の3次元空間上の位置姿勢と、3次元空間上の物体の位置を記憶する情報処理装置であって、The information processing apparatus is an information processing apparatus that further stores a position and orientation of the display device in a three-dimensional space and a position of an object in the three-dimensional space,
前記着目物体特定手段は、3次元空間上の前記表示装置の位置及びユーザの視線と前記3次元空間上の物体の位置から、ユーザが着目していた物体を特定することを特徴とする請求項1に記載の情報処理装置。The object-of-interest specifying means specifies an object that the user has focused on from the position of the display device in a three-dimensional space, the user's line of sight, and the position of the object in the three-dimensional space. The information processing apparatus according to 1.
前記着目度の表示を前記ユーザが着目していた物体と対応付けて行うべく、前記着目度の表示の位置を、前記物体特定手段により特定された、着目されていたそれぞれの前記物体に対応する位置となるよう決定する決定手段と、In order to display the attention level in association with the object that the user has focused on, the position of the attention level display corresponds to each of the focused objects specified by the object specifying unit. Determining means for determining the position;
前記表示装置の現在の位置姿勢と前記決定手段により決定された前記着目度の表示の位置とに応じて、前記着目度の表示を現実に重ねて表示する画像を生成する画像生成手段と、Image generating means for generating an image for actually superimposing the display of the degree of interest according to the current position and orientation of the display device and the position of the degree of interest displayed determined by the determining means;
を備え、With
前記出力手段は、前記画像生成手段により生成された、前記着目度の表示を含む前記画像を前記表示装置に表示させるべく出力することを特徴とする請求項1又は2に記載の情報処理装置。3. The information processing apparatus according to claim 1, wherein the output unit outputs the image generated by the image generation unit including the display of the degree of interest so as to be displayed on the display device.
前記着目度を示す仮想物体である着目度オブジェクトを生成する着目度オブジェクト生成手段と、
を備え、
前記決定手段は、前記着目度オブジェクト生成手段により生成された着目度オブジェクトの位置を、前記着目物体特定手段により特定された、着目されていたそれぞれの前記物体に対応する位置となるよう決定し、
前記画像生成手段は、前記表示装置の現在の位置姿勢と前記着目度オブジェクトの位置に応じて、前記着目度オブジェクトの画像を現実に重ねて表示する画像を生成することを特徴とする請求項に記載の情報処理装置。
A degree-of-interest object generating means for generating a degree-of-interest object that is a virtual object indicating the degree of attention;
With
The determining means determines the position of the attention level object generated by the attention level object generating means to be a position corresponding to each of the objects that have been specified, specified by the target object specifying means,
Said image generating means, depending on the current position and orientation and the position of the degree of attention object of the display device, according to claim 3, characterized in that for generating an image to be displayed superimposed image of the degree of attention object actually The information processing apparatus described in 1.
前記着目度特定手段は、前記着目度特定手段で特定された物体にユーザが着目していた時間の長さ及び/または着目していた回数の多さを特定し、The degree-of-interest specifying means specifies the length of time that the user has focused on the object identified by the degree-of-focus identifying means and / or the number of times that the user has focused.
前記出力手段は、前記時間の長さ及び/または前記回数の多さを表す画像を出力することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。The information processing apparatus according to claim 1, wherein the output unit outputs an image representing the length of time and / or the number of times.
前記着目度特定手段は、前記着目度特定手段で特定された物体にユーザが着目していた時間の長さ及びまたは前記物体にユーザが着目していた回数の多さのランキングを特定し、
前記出力手段は、前記ランキングを示す画像出力することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
The degree-of- interest specifying means specifies the length of time that the user has focused on the object identified by the degree-of-interest identifying means and / or the ranking of the number of times the user has focused on the object ,
And the output means, before the information processing apparatus according to any one of claims 1 to 5, characterized in that outputs an image indicating the Kira trunking.
前記出力手段は、前記ランキングに応じて、当該物体を識別表示する画像を表示させるべく出力することを特徴とする請求項に記載の情報処理装置。 And the output means, depending on the ranking, the information processing apparatus according to claim 6, characterized in that the output in order to display an image that identifies displaying the object. 前記着目物体特定手段により特定された前記ユーザが着目していた物体ごと、前記物体に着目していたユーザの前記表示装置の位置の履歴を記憶する履歴記憶手段と、
前記物体の指定を受け付けた場合に、前記履歴記憶手段に記憶された前記履歴に基づいて、指定を受け付けた前記物体に着目していた間の前記表示装置の位置を示す仮想物体である位置オブジェクトを生成する位置オブジェクト生成手段と、
前記位置オブジェクト生成手段により生成された前記位置オブジェクトの3次元空間上の位置を、それぞれの位置オブジェクトの示す3次元空間上の位置であって、指定を受け付けた前記物体に着目していた間の前記表示装置の位置となるよう決定する位置決定手段と、
を備えることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
A history storage unit that is the user specified for each object that has been focused, to memorize the history of the position of the display device of the user that has been focused on the object by the focused object specifying means,
When receiving the designation of the object, based on the Ki履 history before being memorize the history storage unit, a virtual object that indicates the position of the display device while it was focused on the object which has received the designation Position object generating means for generating a position object;
Between the position of the three-dimensional space of the position object generated by the position object generation means, a position on the three-dimensional space indicated by the respective position objects, which has been focused on the object which has received the designation Position determining means for determining the position of the display device;
The information processing apparatus according to any one of claims 1 to 7, further comprising:
前記物体に着目していたユーザの前記表示装置の姿勢の履歴を、前記着目物体特定手段により特定された前記ユーザが着目していた物体ごとに特定可能に、対応付けて記憶する姿勢対応付け記憶手段と、
前記物体の指定を受け付けた場合に、前記姿勢対応付け記憶手段により記憶された前記物体と前記表示装置の姿勢の履歴に基づいて、指定を受け付けた前記物体に着目していた間の前記表示装置の姿勢を示す仮想物体である姿勢オブジェクトを生成する姿勢オブジェクト生成手段と、
前記姿勢オブジェクト生成手段により生成された前記姿勢オブジェクトの3次元空間上の位置姿勢を、指定を受け付けた前記物体に着目していた間の前記表示装置の位置姿勢となるよう決定する位置姿勢決定手段と、
を備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
Posture correlation storage that stores the history of the posture of the display device of the user who has focused on the object in association with each other so that the user identified by the target object specifying means can be identified for each object Means,
When the designation of the object is received, the display device while paying attention to the object that has received the designation based on the history of the posture of the object and the display device stored by the posture association storage unit Posture object generation means for generating a posture object which is a virtual object indicating the posture of
Position / orientation determining means for determining the position / orientation of the attitude object generated by the attitude object generating means in the three-dimensional space to be the position / orientation of the display device while paying attention to the specified object. When,
The information processing apparatus according to any one of claims 1 to 8, characterized in that it comprises a.
前記物体の指定を受け付けた場合に、指定を受け付けた物体を、前記着目物体特定手段により特定された他の物体の位置と入れ替えるための操作部を表示制御する表示制御手段と、を備えることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 Display control means for displaying and controlling an operation unit for replacing the object that has received the designation with the position of another object identified by the object-of-interest identifying means when the designation of the object is accepted. The information processing apparatus according to any one of claims 1 to 9 , wherein the information processing apparatus is characterized in that: 前記着目物体特定手段により前記ユーザが着目していた物体として特定する対象の物体を記憶する対象物体記憶手段と、
を備え、
前記着目物体特定手段は、前記対象物体記憶手段に記憶されている対象の物体のうち、前記ユーザが着目していた物体を特定することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
And the target object storage means for storing the target object specified as an object which the user has focused by the focusing object specifying means,
With
The noted object identifying means, wherein among the objects stored have that Target in the object storage means, any one of claims 1 to 10, wherein the identifying the object to the user has focused The information processing apparatus described in 1.
前記着目度特定手段は、複数の前記表示装置の複数のユーザの前記視線の遷移の情報を用いて、前記複数のユーザが着目していた物体が、前記複数のユーザによってどの程度着目されていたかを示す着目度を特定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 The degree-of-interest specifying means uses the information on the line-of-sight transition of the plurality of users of the plurality of display devices, and how much the object that the plurality of users have focused on is noted by the plurality of users The information processing apparatus according to any one of claims 1 to 11, wherein a degree of attention indicating ??? is specified. ユーザが装着する表示装置と通信可能な、当該表示装置を装着したユーザの視線の情報を取得する取得手段と、3次元空間上の物体を記憶する記憶手段と、を備える情報処理装置の制御方法であって、
前記視線の情報を用いて、前記3次元空間上のユーザが着目していた物体を特定する着目物体特定工程と、
前記着目物体特定工程により特定された前記ユーザが着目していた物体がどの程度着目されていたかを示す着目度を、前記視線の遷移の情報に基づいて特定する着目度特定工程と、
前記着目度特定工程により特定された着目度を示す画像を、着目されていた物体に対応する位置表示させるべく出力する出力工程と、
を含むことを特徴とする制御方法。
User can communicate with the display device to be mounted, the control of the information processing apparatus including an acquisition unit that acquires information of the line of sight of the user the display device is mounted, and a storage means for storing the objects of the three-dimensional space, the A method,
A target object specifying step of specifying an object on which the user has focused on the three-dimensional space using the information on the line of sight ;
The degree of attention indicating whether the noted object before SL user identified by a particular process has been focused degree have been object of interest, the degree of attention specifying step of specifying, based on the transition information of the line of sight,
An image showing the degree of attention identified by the degree of attention specifying step, and an output step of outputting to be displayed on the position corresponding to the body thing that has been focused,
That control how to be characterized in that it comprises a.
ユーザが装着する表示装置と通信可能な、当該表示装置を装着したユーザの視線の情報を取得する取得手段と、3次元空間上の物体を記憶する記憶手段と、を備える情報処理装置を制御するためのプログラムであって、
前記情報処理装置を、
前記視線の情報を用いて、前記3次元空間上のユーザが着目していた物体を特定する着目物体特定手段と、
前記着目物体特定手段により特定された前記ユーザが着目していた物体がどの程度着目されていたかを示す着目度を、前記視線の遷移の情報に基づいて特定する着目度特定手段と、
前記着目度特定手段により特定された着目度を示す画像を、着目されていた物体に対応する位置に表示させるべく出力する出力手段として機能させるためのプログラム。
The user can communicate with the display device to be mounted, control and acquisition means for acquiring information of the user's line of sight with the display device is mounted, and a storage means for storing the objects of the three-dimensional space, the information processing apparatus including a A program for
The information processing apparatus;
Using the information of the line of sight, on the three-dimensional space, and focuses the object specifying means for specifying an object the user has focused,
A degree of attention specifying unit that is pre-SL user identified the interest degree indicating whether attention is paid how much they were objects of interest, identified based on the transition information of the sight line by the focusing object specifying means,
Program for operating an image showing the degree of attention identified by the degree of attention specifying means, an output means for outputting to be displayed on the position corresponding to the body thing that has been focused.
ユーザが装着する表示装置と、当該表示装置を装着したユーザの視線の情報を取得する取得手段と、3次元空間上の物体を記憶する記憶手段と、を備える情報処理装置を含む情報処理システムであって、
前記視線の情報を用いて、前記3次元空間上のユーザが着目していた物体を特定する着目物体特定手段と、
前記着目物体特定手段により特定された前記ユーザが着目していた物体がどの程度着目されていたかを示す着目度を、前記視線の遷移の情報に基づいて特定する着目度特定手段と、
前記着目度特定手段により特定された着目度を示す画像を、着目されていた物体に対応する位置に表示させるべく出力する出力手段と、
を備えることを特徴とする情報処理システム。
An information processing system including a display device worn by the user, an acquisition unit configured to acquire information of the line of sight of the user who wears the display device, storage means for storing the objects of the three-dimensional space, the information processing apparatus including a Because
Using the information of the line of sight, on the three-dimensional space, and focuses the object specifying means for specifying an object the user has focused,
A degree of attention specifying unit that is pre-SL user identified the interest degree indicating whether attention is paid how much they were objects of interest, identified based on the transition information of the sight line by the focusing object specifying means,
And output means for an image showing the degree of attention identified, and outputs to be displayed on the position corresponding to the body material which has been focused by the focusing degree specifying means,
An information processing system comprising:
ユーザが装着する表示装置と、当該表示装置を装着したユーザの視線の情報を取得する取得手段と、3次元空間上の物体を記憶する記憶手段と、を備える情報処理装置を含む情報処理システムの制御方法であって、
前記視線の情報を用いて、前記3次元空間上のユーザが着目していた物体を特定する着目物体特定工程と、
前記着目物体特定工程により特定された前記ユーザが着目していた物体がどの程度着目されていたかを示す着目度を、前記視線の遷移の情報に基づいて特定する着目度特定工程と、
前記着目度特定工程により特定された着目度を示す画像を、着目されていた物体に対応する位置に表示させるべく出力する出力工程と、
を含むことを特徴とする制御方法。
An information processing system including a display device worn by the user, an acquisition unit configured to acquire information of the line of sight of the user who wears the display device, storage means for storing the objects of the three-dimensional space, the information processing apparatus including a Control method,
A target object specifying step of specifying an object on which the user has focused on the three-dimensional space using the information on the line of sight ;
The degree of attention indicating whether the noted object before SL user identified by a particular process has been focused degree have been object of interest, the degree of attention specifying step of specifying, based on the transition information of the line of sight,
An image showing the degree of attention identified by the degree of attention specifying step, and an output step of outputting to be displayed on the position corresponding to the body thing that has been focused,
That control how to be characterized in that it comprises a.
ユーザが装着する表示装置と、当該表示装置を装着したユーザの視線の情報を取得する取得手段と、3次元空間上の物体を記憶する記憶手段と、を備える情報処理装置を含む情報処理システムを制御するためのプログラムであって、
前記情報処理システムを、
前記視線の情報を用いて、前記3次元空間上のユーザが着目していた物体を特定する着目物体特定手段と、
前記着目物体特定手段により特定された前記ユーザが着目していた物体がどの程度着目されていたかを示す着目度を、前記視線の遷移の情報に基づいて特定する着目度特定手段と、
前記着目度特定手段により特定された着目度を示す画像を、着目されていた物体に対応する位置に表示させるべく出力する出力手段として機能させるためのプログラム。
An information processing system including a display device worn by the user, an acquisition unit configured to acquire information of the line of sight of the user who wears the display device, storage means for storing the objects of the three-dimensional space, the information processing apparatus including a A program for controlling
The information processing system;
Using the information of the line of sight, on the three-dimensional space, and focuses the object specifying means for specifying an object the user has focused,
A degree of attention specifying unit that is pre-SL user identified the interest degree indicating whether attention is paid how much they were objects of interest, identified based on the transition information of the sight line by the focusing object specifying means,
Program for operating an image showing the degree of attention identified by the degree of attention specifying means, an output means for outputting to be displayed on the position corresponding to the body thing that has been focused.
JP2016194540A 2015-09-30 2016-09-30 Information processing apparatus, information processing system, control method thereof, and program Active JP6361714B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015195256 2015-09-30
JP2015195256 2015-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018122625A Division JP6730642B2 (en) 2015-09-30 2018-06-28 Information processing apparatus, information processing system, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2017068851A JP2017068851A (en) 2017-04-06
JP6361714B2 true JP6361714B2 (en) 2018-07-25

Family

ID=58495007

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016194540A Active JP6361714B2 (en) 2015-09-30 2016-09-30 Information processing apparatus, information processing system, control method thereof, and program
JP2018122625A Active JP6730642B2 (en) 2015-09-30 2018-06-28 Information processing apparatus, information processing system, control method thereof, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018122625A Active JP6730642B2 (en) 2015-09-30 2018-06-28 Information processing apparatus, information processing system, control method thereof, and program

Country Status (1)

Country Link
JP (2) JP6361714B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195319A (en) * 2015-09-30 2018-12-06 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
WO2022114918A1 (en) * 2020-11-30 2022-06-02 삼성전자 주식회사 Augmented reality device, electronic device interacting with augmented reality device, and method for controlling same
US11829527B2 (en) 2020-11-30 2023-11-28 Samsung Electronics Co., Ltd. Augmented reality device, electronic device interacting with augmented reality device, and controlling method thereof

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11436811B2 (en) 2017-04-25 2022-09-06 Microsoft Technology Licensing, Llc Container-based virtual camera rotation
JP6462059B1 (en) * 2017-07-13 2019-01-30 株式会社コロプラ Information processing method, information processing program, information processing system, and information processing apparatus
JP6530459B2 (en) * 2017-09-25 2019-06-12 株式会社イオグランツ Information system
JP7247480B2 (en) * 2018-07-05 2023-03-29 富士通株式会社 Log information collection program, log information collection method, and information processing device
WO2020059277A1 (en) 2018-09-20 2020-03-26 富士フイルム株式会社 Information processing device, information processing system, information processing method, and program
US11132841B2 (en) * 2018-11-30 2021-09-28 Facebook Technologies, Llc Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service
JP6999538B2 (en) * 2018-12-26 2022-01-18 株式会社コロプラ Information processing methods, information processing programs, information processing systems, and information processing equipment
JP6720385B1 (en) * 2019-02-07 2020-07-08 株式会社メルカリ Program, information processing method, and information processing terminal
US11972037B2 (en) 2019-03-18 2024-04-30 Maxell, Ltd. Head mounted information processing apparatus and head mounted display system
JP6781977B1 (en) * 2019-09-12 2020-11-11 株式会社ぴやまる Information presentation system, information analysis system, information presentation method, information analysis method and program
WO2021166747A1 (en) * 2020-02-18 2021-08-26 株式会社Nttドコモ Information processing system
US20240242431A1 (en) * 2021-05-06 2024-07-18 Ntt Docomo, Inc. Content provision device
WO2024070654A1 (en) * 2022-09-30 2024-04-04 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184345A (en) * 1998-12-14 2000-06-30 Nec Corp Multi-modal communication aid device
JP3341734B2 (en) * 1999-09-13 2002-11-05 凸版印刷株式会社 Video display device
JP2004038470A (en) * 2002-07-02 2004-02-05 Canon Inc Augmented reality system and information processing method
JP4065507B2 (en) * 2002-07-31 2008-03-26 キヤノン株式会社 Information presentation apparatus and information processing method
JP4876687B2 (en) * 2006-04-19 2012-02-15 株式会社日立製作所 Attention level measuring device and attention level measuring system
JP2012022589A (en) * 2010-07-16 2012-02-02 Hitachi Ltd Method of supporting selection of commodity
JP2013210989A (en) * 2012-02-29 2013-10-10 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP6040715B2 (en) * 2012-11-06 2016-12-07 ソニー株式会社 Image display apparatus, image display method, and computer program
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
JP6548203B2 (en) * 2013-03-18 2019-07-24 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and panoramic video display method
JP6361714B2 (en) * 2015-09-30 2018-07-25 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, control method thereof, and program
JP6694637B2 (en) * 2016-08-30 2020-05-20 株式会社アルファコード Information providing system and information providing method regarding an object of interest

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195319A (en) * 2015-09-30 2018-12-06 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
WO2022114918A1 (en) * 2020-11-30 2022-06-02 삼성전자 주식회사 Augmented reality device, electronic device interacting with augmented reality device, and method for controlling same
US11829527B2 (en) 2020-11-30 2023-11-28 Samsung Electronics Co., Ltd. Augmented reality device, electronic device interacting with augmented reality device, and controlling method thereof

Also Published As

Publication number Publication date
JP2017068851A (en) 2017-04-06
JP2018195319A (en) 2018-12-06
JP6730642B2 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6730642B2 (en) Information processing apparatus, information processing system, control method thereof, and program
AU2021203688B2 (en) Volumetric depth video recording and playback
US10001844B2 (en) Information processing apparatus information processing method and storage medium
US9578399B2 (en) Remote sensor access and queuing
JP6618681B2 (en) Information processing apparatus, control method and program therefor, and information processing system
US20140368620A1 (en) User interface for three-dimensional modeling
JP6978701B2 (en) Information processing system, its control method, and program, and information processing device, its control method, and program.
US10769437B2 (en) Adaptive sampling of training views
CN110070556A (en) Use the structural modeling of depth transducer
US10950056B2 (en) Apparatus and method for generating point cloud data
JP5798183B2 (en) Pointing control device, integrated circuit thereof, and pointing control method
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2015125641A (en) Information processing device, control method therefor, and program
EP3422145B1 (en) Provision of virtual reality content
KR20160096392A (en) Apparatus and Method for Intuitive Interaction
JP2017120650A (en) Information processing system, control method thereof, program, information processor, control method thereof, and program
JP2017033299A (en) Information processing device, information processing system, control method and program thereof
JP6152888B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP7279113B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
JP6376251B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2018097645A (en) Information processing apparatus, information processing system, control methods therefor, and program
JP6703283B2 (en) Information processing apparatus, control method thereof, and program
JP2015121892A (en) Image processing apparatus, and image processing method
JP6683919B2 (en) Information processing apparatus, information processing system, control method thereof, and program
Bai Mobile augmented reality: Free-hand gesture-based interaction

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180611

R150 Certificate of patent or registration of utility model

Ref document number: 6361714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250