JP2014164374A - Information display system, information terminal, server device, control method of information terminal, control method of server device, and program - Google Patents

Information display system, information terminal, server device, control method of information terminal, control method of server device, and program Download PDF

Info

Publication number
JP2014164374A
JP2014164374A JP2013032912A JP2013032912A JP2014164374A JP 2014164374 A JP2014164374 A JP 2014164374A JP 2013032912 A JP2013032912 A JP 2013032912A JP 2013032912 A JP2013032912 A JP 2013032912A JP 2014164374 A JP2014164374 A JP 2014164374A
Authority
JP
Japan
Prior art keywords
user
information
physical space
information terminal
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013032912A
Other languages
Japanese (ja)
Inventor
Hitoshi Imai
仁 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013032912A priority Critical patent/JP2014164374A/en
Publication of JP2014164374A publication Critical patent/JP2014164374A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To specify an observed person transparently viewed by an observer via display means and display information which is associated with the observed person and is to be displayed.SOLUTION: In a system including an information terminal and a server device comprising database which controls feature point information present in a physical space in which each user moves, a relative distance is calculated to a person image detected in image data, using the image data imaged by a user whose position is not estimated in the physical space and a physical amount which changes according to user's behavior, and a user viewed by the user whose position is not estimated in the physical space is specified by the calculated relative distance and an estimated position of each user to be present in the physical space. Further, information which is to be displayed in association with the specified user is output to an information terminal associated with the user whose position is not estimated in the physical space.

Description

本発明は、撮像される画像情報を処理して人物を特定して対応する情報を表示する情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラムに関するものである。   The present invention relates to an information display system, an information terminal, a server device, a control method for an information terminal, a control method for a server device, and a program that process captured image information and display corresponding information. It is.

物理空間内における人物の自己位置を推定することを目的とした情報表示システムがある。特許文献1の開示する情報表示システムは、移動量検出手段で人物Xのおおよその自己位置を推定し、予め物体の位置を記憶させた地図情報から、その位置から人物Xの持つカメラで撮影した撮像に含まれるだろう物体のマーカーを算出する。   There are information display systems aimed at estimating a person's own position in a physical space. The information display system disclosed in Patent Document 1 estimates the approximate self-position of the person X by the movement amount detection means, and captures the position of the object in advance from the map information captured by the person X's camera. Compute markers for objects that will be included in the image.

そして、実際の撮像から抽出したマーカーと比較することで人物Xの自己位置を推定する。この自己位置推定を各人物に適用することで、物理空間に存在するすべての人物の自己位置を推定できる。   And the self-position of the person X is estimated by comparing with the marker extracted from actual imaging. By applying this self-position estimation to each person, the self-positions of all persons existing in the physical space can be estimated.

特許文献1と、例えば地磁気センサなど人物Xの有するカメラの向きを把握する技術を組み合わせることで、システムは、人物Xの有するカメラの撮像に含まれる人物が誰であるかに応じて、適切な内容のコンテンツを生成することが可能となる。   By combining Patent Document 1 and a technology for grasping the orientation of the camera of the person X, such as a geomagnetic sensor, the system can be appropriately selected depending on who is included in the imaging of the camera of the person X. It becomes possible to generate content.

特開平2−259912号公報JP-A-2-259912

しかしながら、特許文献1では、システムが、ユーザAに関し、地図情報から導き出したマーカーと実際の撮像から導き出したマーカーの比較に失敗した場合、システムはユーザAの位置を正確に推定できない。これにより、システムは、ユーザAの有するカメラの撮像に含まれる人物が誰であるかがわからず、適切な内容のコンテンツを生成することができなくなる。ここで、本システムにおいて、顔認証による人物の推定などの併用も考えられるが、相手が自分に対して背中を向けて立っている場合などは適用できない。
本発明は、上記の課題を解決するためになされたもので、本発明の目的は、情報表示システムが共有する物理的空間上で、特定の人物の物理空間上の正確な位置を推定できない場合でも、観測者が表示手段を介して透過して視認している被観測者を特定して、被観測者に対応づけられた表示すべき情報を表示できる仕組みを提供することである。
However, in Patent Document 1, when the system fails to compare the marker derived from the map information with the marker derived from the actual imaging regarding the user A, the system cannot accurately estimate the position of the user A. As a result, the system does not know who is included in the image captured by the user A's camera, and cannot generate content with appropriate contents. Here, in this system, it is conceivable to use estimation of a person by face authentication, but it cannot be applied when the other party is standing with his back facing himself / herself.
The present invention has been made in order to solve the above-described problem, and the object of the present invention is when the accurate position of a specific person in the physical space cannot be estimated on the physical space shared by the information display system. However, it is to provide a mechanism that allows the observer to identify the observer who is viewing through the display means and to display the information to be displayed associated with the observer.

上記目的を達成する本発明の情報表示システムは以下に示す構成を備える。
サーバ装置と、物理空間上を移動する複数の情報端末とが通信する情報表示システムであって、各情報端末は、ユーザの視界に入る対象を撮像する撮像手段と、前記対象を透過可能な状態で情報を表示する表示手段と、前記物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出手段と、各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信手段と、前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御手段と、を備え、前記サーバ装置は、各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースと、各情報端末の前記検出手段が検出した変化する物理量および前記撮像手段が撮像した撮像データを取得する取得手段と、各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定手段と、物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出手段と、物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出手段と、算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定手段と、特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力手段と、を備えることを特徴とする。
The information display system of the present invention that achieves the above object has the following configuration.
An information display system in which a server device and a plurality of information terminals moving in a physical space communicate with each other, wherein each information terminal is capable of imaging an object that enters a user's field of view, and is capable of transmitting the object Display means for displaying information, detection means for detecting a physical quantity that changes in association with the movement of the user moving in the physical space, and imaging data obtained by photographing the physical space in which each user exists, or Transmitting means for transmitting the detected changing physical quantity in association with each user information to the server device; and information to be displayed associated with other users who are viewing through the display means. Control means for receiving from the apparatus and displaying on the display means, wherein the server apparatus manages a database for managing feature point information existing in a physical space in which each user moves. An acquisition means for acquiring the changing physical quantity detected by the detection means of each information terminal and the imaging data captured by the imaging means; a feature point of the physical space detected from the imaging data acquired from each information terminal; Image estimation data obtained from position estimation means for estimating the position where each user should exist in physical space from feature points managed in the database, and information terminals associated with users whose position is not estimated in physical space The person image detected from the imaging data using detection means for detecting a person image from the image, imaging data captured by a user whose position is not estimated in physical space, and a physical quantity that changes according to the user's operation From the calculation means for calculating the relative distance up to, the calculated relative distance, and the position of each user that should be present in the estimated physical space. The identification means for identifying the user viewed by the user whose position is not estimated in the above and the information to be displayed in association with the identified user are associated with the user whose position is not estimated in the physical space Output means for outputting to the information terminal.

本発明によれば、情報表示システムが共有する物理的空間上で、特定の人物の物理空間上の正確な位置を推定できない場合でも、観測者が表示手段を介して透過して視認している被観測者を特定して、被観測者に対応づけられた表示すべき情報を表示できる。   According to the present invention, even when the exact position of a specific person in the physical space cannot be estimated on the physical space shared by the information display system, the observer sees through the display means. It is possible to specify an observer and display information to be displayed associated with the observer.

情報表示システムで使用するHMDの外観を示す図である。It is a figure which shows the external appearance of HMD used with an information display system. HMDのハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of HMD. 処理サーバのハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of a processing server. 情報表示システムの構成を示す図である。It is a figure which shows the structure of an information display system. ディスプレイに表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display. 人物固有情報の表示位置をどのように算出するかを説明する図である。It is a figure explaining how the display position of person specific information is calculated. 情報表示システムの制御方法を説明するフローチャートである。It is a flowchart explaining the control method of an information display system. 物理空間上の人の移動と人物の存在位置候補の概念を示す図である。It is a figure which shows the concept of a person's movement in a physical space, and a person's presence position candidate. 処理サーバが管理するデータベースの一例を示す図である。It is a figure which shows an example of the database which a processing server manages. 情報表示システムの制御方法を説明するフローチャートである。It is a flowchart explaining the control method of an information display system. HMDの内蔵されるカメラで撮像される人物を示す図である。It is a figure which shows the person imaged with the camera with which HMD is incorporated. 観察者と被観察者の距離と角度の関係を示す図である。It is a figure which shows the relationship between the distance and angle of an observer and a to-be-observed person. 情報表示システムの制御方法を説明するフローチャートである。It is a flowchart explaining the control method of an information display system. 特定人物の存在位置候補の概念を示す図である。It is a figure which shows the concept of a specific person's presence position candidate. 物理空間のマップ情報の例を示す図である。It is a figure which shows the example of the map information of physical space. 図15に示したマップ上に特定人物の存在位置候補を重畳させた図である。FIG. 16 is a diagram in which a candidate position of a specific person is superimposed on the map shown in FIG. 15. 被観測者が移動する様子を示した図である。It is the figure which showed a mode that a to-be-observed person moved. 情報表示システムの制御方法を説明するフローチャートである。It is a flowchart explaining the control method of an information display system.

次に本発明を実施するための最良の形態について図面を参照して説明する。
<システム構成の説明>
〔第1実施形態〕
<ヘッドマウントディスプレイ(HMD)>
図1は、本実施形態を示す情報表示システムで使用するヘッドマウントディスプレイ(HMD)100の外観を示す図である。本実施形態では、ユーザの視認位置に合わせて位置決めする情報端末の一例として、HMDを使用する例であって、サーバ装置は、複数の情報端末と通信可能に構成されている。
Next, the best mode for carrying out the present invention will be described with reference to the drawings.
<Description of system configuration>
[First Embodiment]
<Head-mounted display (HMD)>
FIG. 1 is a diagram illustrating an appearance of a head mounted display (HMD) 100 used in the information display system according to the present embodiment. In the present embodiment, an HMD is used as an example of an information terminal that is positioned in accordance with a user's visual recognition position, and the server device is configured to be able to communicate with a plurality of information terminals.

図1において、HMD100は、市販されているものと同様のものであり、フレーム201で頭部に装着するようになっている。又、片目若しくは両目に透過型のディスプレイ101が取り付けられた構造になっており、ユーザはディスプレイ101に表示された人工像(表示画像)と、ディスプレイ101の先にある実像を同時に見ることが出来る。HMD100にはカメラ102も取り付けられており、ユーザの目に近い視点で撮影することが可能である。   In FIG. 1, the HMD 100 is similar to a commercially available one and is attached to the head with a frame 201. In addition, the structure is such that a transmissive display 101 is attached to one eye or both eyes, and the user can simultaneously see an artificial image (display image) displayed on the display 101 and a real image at the tip of the display 101. . A camera 102 is also attached to the HMD 100, and it is possible to take a picture from a viewpoint close to the eyes of the user.

図2は、図1に示したHMD100のハードウェアの構成を示すブロック図である。なお、HMD100は、コントローラ120、透過型のディスプレイ101、カメラ102を有する。ここで、カメラ102はユーザの視界に入る対象を撮像している。また、ディスプレイ101は、視界に入る対象を透過可能な状態で、サーバ装置から出力される表示すべき情報を表示可能に構成されている。以下、HMD100のコントローラ120の構成についてさらに説明する。   FIG. 2 is a block diagram showing a hardware configuration of the HMD 100 shown in FIG. The HMD 100 includes a controller 120, a transmissive display 101, and a camera 102. Here, the camera 102 images a target that enters the user's field of view. In addition, the display 101 is configured to be able to display information to be displayed output from the server device in a state where the object entering the field of view can be transmitted. Hereinafter, the configuration of the controller 120 of the HMD 100 will be further described.

図2において、内部バス112は、メモリコントローラ107、I/Oコントローラ109間で情報の伝達が出来るよう、電気信号を送受信する。メモリコントローラ107は、メインメモリ108に対するメモリアクセス全般を統括する。I/Oコントローラ109は、ROM110、LANポート103、透過型ディスプレイ101、MEMSセンサ111、内部バス112を介して接続している処理部との情報の送受信を行う。LANポート103は、アクセスポイント400(図4)および/またはネットワーク9000を介して接続されている処理サーバ300などの他の機器と、I/Oコントローラ109との情報の送受信を行う。   In FIG. 2, the internal bus 112 transmits and receives electrical signals so that information can be transmitted between the memory controller 107 and the I / O controller 109. The memory controller 107 controls all memory accesses to the main memory 108. The I / O controller 109 transmits and receives information to and from the processing unit connected via the ROM 110, the LAN port 103, the transmissive display 101, the MEMS sensor 111, and the internal bus 112. The LAN port 103 transmits / receives information to / from the I / O controller 109 with other devices such as the processing server 300 connected via the access point 400 (FIG. 4) and / or the network 9000.

ROM110にはブートローダプログラム及びHMD制御プログラムが格納されている。メインメモリ108は揮発性メモリであり、高速アクセスが可能であるので、ROM110に記憶されている情報や一時的に使用する情報はここに格納される。HMD100の電源投入時には、CPU104がブートローダプログラムを読み出して実行し、ROM110に格納されているHMD制御プログラムを取り出し、メインメモリ108に格納する。そして、CPU104がメインメモリ108に格納されているHMD制御プログラムを実行し、HMD100の有する各機能を実行する。また、CPU104がこのHMD制御プログラムを実行することで、処理サーバ300とのデータ通信や透過型ディスプレイ101への情報表示等のHMD100の行う処理が実行される。
以上がコントローラ120の構成についての説明である。
The ROM 110 stores a boot loader program and an HMD control program. Since the main memory 108 is a volatile memory and can be accessed at high speed, information stored in the ROM 110 and information used temporarily are stored here. When the power of the HMD 100 is turned on, the CPU 104 reads and executes the boot loader program, extracts the HMD control program stored in the ROM 110, and stores it in the main memory 108. Then, the CPU 104 executes the HMD control program stored in the main memory 108 and executes each function of the HMD 100. Further, when the CPU 104 executes this HMD control program, processing performed by the HMD 100 such as data communication with the processing server 300 and information display on the transmissive display 101 is executed.
The above is the description of the configuration of the controller 120.

HMD100は、情報を表示する透過型ディスプレイ101を備える。グラフィックコントローラ106は、透過型ディスプレイ101への表示を制御する。HMD100は、ユーザに情報を提示する際には透過型ディスプレイ101に情報を表示する。HMD100は、カメラ102を備えている。カメラ102は撮影した撮像画像をデジタル変換する。カメラ102は、I/Oコントローラ109との情報の送受信を行う。HMD100は、MEMSセンサ111を備えている。
MEMSセンサ111は、物理的空間上を移動するユーザの動作に対応づけられて変化する変化量を検出する。具体的には、MEMSセンサ111は、東西南北の方角と、三次元方向の傾き、加速度を計測することが可能であり、計測した情報をデジタル情報に変換する。MEMSセンサ111は、I/Oコントローラ109との情報の送受信を行う。I/Oコントローラ109は、LANポート103を介してネットワーク上の処理サーバ300に対して、HMD100を装着したユーザが存在する物理空間を撮影して得られる撮像データまたはMEMSセンサ111が検出した変化する物理量をそれぞれユーザ情報に対応付けて送信する。なお、I/Oコントローラ109による当該送信処理を所定の間隔で実行される。
MEMSセンサ111により、HMD100を装着しているユーザが、物理空間上でどの方向に顔を向けているのかが把握可能である。バッテリ105は、電力をHMD100全体に供給する。
<処理サーバ>
図3は、本実施形態を示す情報表示システムで用いる処理サーバのハードウェアの構成を示すブロック図である。なお、処理サーバは、ユーザ情報と物理的空間上に存在する特徴情報を管理するデータベースを備え、HMD100が撮像している撮像データの解析結果と特徴情報を比較することで、ユーザの物理的空間の位置を特定する処理を行う。ここで、特徴情報とは、ユーザが移動する居室の構造上の特徴を示す情報や、付属物の配置情報等の特徴を示す情報が含まれる。
The HMD 100 includes a transmissive display 101 that displays information. The graphic controller 106 controls display on the transmissive display 101. The HMD 100 displays information on the transmissive display 101 when presenting information to the user. The HMD 100 includes a camera 102. The camera 102 digitally converts the captured image taken. The camera 102 transmits / receives information to / from the I / O controller 109. The HMD 100 includes a MEMS sensor 111.
The MEMS sensor 111 detects an amount of change that changes in association with the action of the user moving in the physical space. Specifically, the MEMS sensor 111 can measure the direction of east, west, south, and north, and the inclination and acceleration in a three-dimensional direction, and converts the measured information into digital information. The MEMS sensor 111 transmits and receives information to and from the I / O controller 109. The I / O controller 109 changes the image data obtained by photographing the physical space where the user wearing the HMD 100 is present to the processing server 300 on the network via the LAN port 103 or the change detected by the MEMS sensor 111. Each physical quantity is transmitted in association with user information. The transmission process by the I / O controller 109 is executed at predetermined intervals.
With the MEMS sensor 111, it is possible to grasp in which direction the user wearing the HMD 100 is facing in the physical space. The battery 105 supplies power to the entire HMD 100.
<Processing server>
FIG. 3 is a block diagram illustrating a hardware configuration of a processing server used in the information display system according to the present embodiment. Note that the processing server includes a database that manages user information and feature information existing in the physical space, and compares the analysis result of the imaging data captured by the HMD 100 with the feature information, thereby allowing the user's physical space to be compared. The process of specifying the position of is performed. Here, the characteristic information includes information indicating the characteristics of the structure of the room where the user moves and information indicating the characteristics such as the arrangement information of the accessories.

図3において、300は処理サーバである。処理サーバ300はコントローラ320、ディスプレイ301、キーボード302、マウス303を有する。以下、コントローラ320の構成についてさらに説明する。
内部バス311は、メモリコントローラ307、I/Oコントローラ309間で情報の伝達が出来るよう、電気信号を送受信する。
In FIG. 3, reference numeral 300 denotes a processing server. The processing server 300 includes a controller 320, a display 301, a keyboard 302, and a mouse 303. Hereinafter, the configuration of the controller 320 will be further described.
The internal bus 311 transmits and receives electrical signals so that information can be transmitted between the memory controller 307 and the I / O controller 309.

メモリコントローラ307は、メインメモリ308に対するメモリアクセス全般を統括する。I/Oコントローラ309は、HDD310、LANポート304、キーボード302、マウス303、内部バス311を介して接続している処理部との情報の送受信を行う。LANポート304は、ネットワーク9000やワイヤレスアクセスポイント400を介して接続されている他の機器、I/Oコントローラ309との情報の送受信を行う。   The memory controller 307 controls overall memory access to the main memory 308. The I / O controller 309 transmits / receives information to / from processing units connected via the HDD 310, the LAN port 304, the keyboard 302, the mouse 303, and the internal bus 311. The LAN port 304 transmits / receives information to / from other devices connected via the network 9000 or the wireless access point 400 and the I / O controller 309.

HDD310にはブートローダプログラム及び処理サーバ制御プログラムが格納されている。メインメモリ308は揮発性メモリであり、高速アクセスが可能であるので、HDD310に記憶されている情報や一時的に使用する情報はここに格納される。処理サーバ300の電源投入時には、CPU305がブートローダプログラムを読み出して実行し、HDD310に格納されている処理サーバ制御プログラムを取り出し、メインメモリ308に格納する。そして、CPU305がメインメモリ308に格納されている処理サーバ制御プログラムを実行し、処理サーバの有する各機能を実行する。また、CPU3
05がこの処理サーバ制御プログラムを実行することで、図7、図10、図13、図18に示される処理サーバの行う処理が実行される。以上がコントローラ320の構成についての説明である。
処理サーバ300は、情報を表示するディスプレイ301を備える。グラフィックコントローラ306は、ディスプレイ301への表示を制御する。
The HDD 310 stores a boot loader program and a processing server control program. Since the main memory 308 is a volatile memory and can be accessed at high speed, information stored in the HDD 310 and information used temporarily are stored here. When the processing server 300 is powered on, the CPU 305 reads and executes the boot loader program, retrieves the processing server control program stored in the HDD 310, and stores it in the main memory 308. Then, the CPU 305 executes the processing server control program stored in the main memory 308, and executes each function of the processing server. CPU 3
When 05 executes this processing server control program, the processing performed by the processing server shown in FIGS. 7, 10, 13 and 18 is executed. The above is the description of the configuration of the controller 320.
The processing server 300 includes a display 301 that displays information. The graphic controller 306 controls display on the display 301.

処理サーバ300は、ユーザに情報を提示する際にはディスプレイ301に情報を表示し、ユーザは、キーボード302又はマウス303に対する操作で処理サーバ300への情報入力が可能である。
<システム構成>
The processing server 300 displays information on the display 301 when presenting information to the user, and the user can input information to the processing server 300 by operating the keyboard 302 or the mouse 303.
<System configuration>

図4は、本実施形態を示す情報表示システムの構成を示す図である。本例の情報表示システムでは、ユーザAとユーザBとユーザCの3名が装着するHMD(Head Mounted Display)100と、ワイヤレスアクセスポイント400、処理サーバ300、ネットワーク9000を有する。各HMD100とワイヤレスアクセスポイント400は無線で接続されており、処理サーバ300とワイヤレスアクセスポイント400はネットワーク9000で接続されている。   FIG. 4 is a diagram illustrating the configuration of the information display system according to the present embodiment. The information display system of this example includes an HMD (Head Mounted Display) 100 worn by three users A, B, and C, a wireless access point 400, a processing server 300, and a network 9000. Each HMD 100 and the wireless access point 400 are connected by radio, and the processing server 300 and the wireless access point 400 are connected by a network 9000.

本情報表示システムでは、各ユーザの装着するHMDに内蔵されているカメラによる撮像とMEMSセンサによる方位、加速度、傾き情報が、ワイヤレスアクセスポイント400とネットワーク9000を経由して逐一処理サーバ300に送信される。処理サーバ300はその情報を元に、各ユーザの物理空間上の存在位置を推定する。カメラの撮像からの位置推定技術に関してはSLAM(Simultaneously Localization and Mapping)に代表される既存技術がある。また、MEMSセンサからの位置推定技術に関してはPDR(Pedestrian Dead Reckoning)に代表される既存技術があり、本提案の核となる部分ではないため、説明を割愛する。各ユーザの存在位置情報とMEMSセンサの方位情報から、各ユーザのHMDに内蔵されるカメラ内に映る人物が誰であるかを特定することが可能となる。   In this information display system, imaging by the camera built in the HMD worn by each user and azimuth, acceleration, and tilt information by the MEMS sensor are transmitted to the processing server 300 via the wireless access point 400 and the network 9000 one by one. The The processing server 300 estimates the presence position of each user in the physical space based on the information. There are existing technologies represented by SLAM (Simultaneous Localization and Mapping) for position estimation technology from camera imaging. In addition, regarding the position estimation technique from the MEMS sensor, there is an existing technique represented by PDR (Pedestrian Dead Reckoning), which is not a core part of the present proposal, and therefore description thereof is omitted. It is possible to specify who is the person shown in the camera built in each user's HMD from the presence position information of each user and the direction information of the MEMS sensor.

HMDに内蔵されるカメラとHMDのディスプレイの向きが固定的に決まっていれば、ユーザの視野のどの向きに誰がいるかを特定することが可能となる。HMD100が、ネットワーク9000とワイヤレスアクセスポイント400経由で処理サーバ300から各ユーザの物理空間上の存在位置情報を取得する。その位置情報に基づき、HMD100が、ユーザの視野内にいる人物に関し、その人物固有の情報をHMDの半透過ディスプレイに表示することで、ユーザは人物の実像にその人物固有の情報が紐づけられた映像を見ることが出来る。   If the orientation of the camera incorporated in the HMD and the display of the HMD is fixedly determined, it is possible to specify who is in which direction of the user's visual field. The HMD 100 acquires the location information of each user in the physical space from the processing server 300 via the network 9000 and the wireless access point 400. Based on the position information, the HMD 100 displays information specific to the person on the HMD translucent display regarding the person in the field of view of the user, so that the user can associate the person-specific information with the real image of the person. You can see the video.

図5は、図3に示したディスプレイ301に表示される画面の一例を示す図である。本例は、ユーザがHMDの半透過ディスプレイ越しに他者を見たときに得られる映像の例を示す。例えば、図4のAさんがHMDの半透過ディスプレイ越しにBさんを見た場合には、Aさんは図5の(a)に示すような映像を見ることとなる。また、図4のAさんがCさんをHMDの半透過ディスプレイ越しに見た場合には、Aさんは図5の(b)に示すような映像をみることとなる。
<HMDにおける人物固有情報の表示位置>
FIG. 5 is a diagram showing an example of a screen displayed on the display 301 shown in FIG. This example shows an example of an image obtained when the user views another person through the HMD translucent display. For example, when Mr. A in FIG. 4 sees Mr. B through the HMD translucent display, Mr. A sees an image as shown in FIG. In addition, when Mr. A in FIG. 4 sees Mr. C through the HMD translucent display, Mr. A will see an image as shown in FIG.
<Display position of person-specific information in HMD>

図6は、図3に示した処理サーバ300がHMDにおける人物固有情報の表示位置をどのように算出するかを説明する図である。以下、図6を参照して、HMD装着者が視野内の人物の実像にその人物固有の情報が紐づけられた映像を見られるようにする構成を説明する。   FIG. 6 is a diagram for explaining how the processing server 300 illustrated in FIG. 3 calculates the display position of the person-specific information in the HMD. Hereinafter, with reference to FIG. 6, a configuration will be described in which an HMD wearer can view a video in which information unique to a person is associated with a real image of the person in the field of view.

図6において、処理サーバ300のコントローラ320は、先に説明したとおり、HMDを装着している全ての人物の物理位置情報、向いている方位情報を把握している。例えば、HMDを装着した観察者と被観察者の2人がいる場合を考える。
前記物理位置情報は、物理空間の特定の場所を原点とした場合、観測者の位置座標は(Xo, Yo)、被観察者の位置座標は(Xt, Yt)となる。また、観測者の向いている方位(以下ではHMD100の法線601と表記する)はθとなる。なおここでθはradian単位とするが、direction情報はdegree単位であり、相互に変換可能である。これらの情報を元に、コントローラ320は、図6に示すようなマップを内部生成する。図6のマップは観察者と被観察者との位置関係を上から見た状態である。
In FIG. 6, the controller 320 of the processing server 300 grasps the physical position information of all the persons wearing the HMD and the orientation information that is facing as described above. For example, consider a case where there are two persons, an observer wearing an HMD and an observer.
In the physical position information, when a specific place in the physical space is the origin, the position coordinates of the observer are (Xo, Yo), and the position coordinates of the observer are (Xt, Yt). In addition, the orientation that the observer is facing (hereinafter referred to as the normal 601 of the HMD 100) is θ. Here, θ is in radians, but direction information is in degrees and can be converted to each other. Based on these pieces of information, the controller 320 internally generates a map as shown in FIG. The map in FIG. 6 shows a state in which the positional relationship between the observer and the observer is viewed from above.

次に、処理サーバ300のコントローラ320は、図6に示される角度γを求める。角度γは、観測者の装着するHMD100の法線0601に対する非観測者の位置する方向の角度となる。γは以下の式で求める。   Next, the controller 320 of the processing server 300 obtains the angle γ shown in FIG. The angle γ is an angle in the direction in which the non-observer is located with respect to the normal 0601 of the HMD 100 worn by the observer. γ is obtained by the following equation.

Figure 2014164374
Figure 2014164374

そして、コントローラ320は、HMD100の透過型ディスプレイ101のカバーする視野角αと角度γを比較することで、被観測者が観測者の視野内にいるかどうかを判定する。ここでいう被観測者とは、観測者の装着するHMD100の透過型ディスプレイ101越しに見える人物のことである。コントローラ320は、|γ|<α/2であれば被観測者が観測者の視野内にいると判定する。また、|γ|<α/2でないとコントローラ320が判定した場合は、被観測者は観測者の視野外にいると判定する。
<人物の絶対位置推定処理フロー>
Then, the controller 320 compares the viewing angle α and the angle γ covered by the transmissive display 101 of the HMD 100 to determine whether the subject is in the field of view of the observer. The term “observed person” as used herein refers to a person who can be seen through the transmissive display 101 of the HMD 100 worn by the observer. If | γ | <α / 2, the controller 320 determines that the subject is in the field of view of the observer. If the controller 320 determines that | γ | <α / 2 is not satisfied, it is determined that the person being observed is out of the field of view of the observer.
<Person absolute position estimation processing flow>

図7は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、図3に示した処理サーバ300による人物の絶対位置推定処理例である。物理空間の存在する人物全員に対して本処理が定期的に実行される。各ユーザの装着するHMD100からワイヤレスアクセスポイント400とネットワーク9000を経由して送信されてきたカメラの撮像とMEMSセンサによる方位、加速度、傾き情報を元に、処理サーバ300が、各ユーザの物理空間上の存在位置を推定する。なお、各S1301からS1310の処理は、全て処理サーバ300のコントローラ320のCPU305が制御プログラムを実行することで実現される。   FIG. 7 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is a human absolute position estimation process example by the processing server 300 shown in FIG. This process is periodically executed for all persons in the physical space. Based on the imaging of the camera and the azimuth, acceleration, and tilt information obtained by the MEMS sensor transmitted from the HMD 100 worn by each user via the wireless access point 400 and the network 9000, the processing server 300 operates on the physical space of each user. Is estimated. Note that all of the processing from S1301 to S1310 is realized by the CPU 305 of the controller 320 of the processing server 300 executing the control program.

S1301で、CPU305がMEMSセンサによる方位、加速度、傾き情報を元に、HMDを装着している人物の移動方向、移動量を算出する。その際、人物の移動方向、移動量の測定誤差は避けられない。この測定誤差は経験的にどの程度になるかを把握することが可能である。S1302では、CPU305が時間とともに蓄積される誤差の蓄積量を計算する。S1303で、CPU305が前記移動方向と移動量からHMDを装着している人物の存在位置を算出すると共に、測定誤差の蓄積量を考慮した人物の存在位置候補となる領域を算出する。以下、前記存在位置候補となる領域に関して図8を用いて説明する。   In step S <b> 1301, the CPU 305 calculates the movement direction and movement amount of the person wearing the HMD based on the azimuth, acceleration, and tilt information obtained by the MEMS sensor. At that time, measurement errors in the direction and amount of movement of the person are inevitable. It is possible to grasp how much this measurement error is empirically. In S1302, the CPU 305 calculates the accumulated amount of error accumulated over time. In step S <b> 1303, the CPU 305 calculates the presence position of the person wearing the HMD from the movement direction and the movement amount, and calculates an area serving as a person's existence position candidate considering the accumulated amount of measurement error. Hereinafter, the region serving as the existence position candidate will be described with reference to FIG.

図8は、物理空間上の人の移動とシステムが把握する人物の存在位置候補の概念を示す図である。なお、MEMSセンサ情報を元に人物の存在位置を算出する方法は、人物が前にいた場所に対する存在位置の算出となる。従って、時間とともに測定誤差が積み上がっていくこととなる。
図8の(a)の矢印に示す軌跡に従って人が移動すると、システムが算出した人物の存在位置には、図8の(b)の灰色に塗られた円の領域に示すような誤差が生じることとなる。時間とともに測定誤差が積み上がっていくということは、この領域は時間とともに大きくなるということである。ある程度以上誤差が積み上がると、システムは、人物間の位置関係を正確に算出できないので、観察者の視野内に映る人物が誰であるかを判断することが出来なくなる。このような事態を防ぐために、システムは定期的に誤差を払拭する必要がある。
FIG. 8 is a diagram showing the concept of the movement of a person in the physical space and the person's existence position candidate grasped by the system. Note that the method of calculating the presence position of the person based on the MEMS sensor information is the calculation of the presence position with respect to the place where the person was in front. Therefore, measurement errors accumulate with time.
When a person moves in accordance with the locus indicated by the arrow in FIG. 8A, an error as shown in the gray circled area in FIG. 8B occurs in the position of the person calculated by the system. It will be. The fact that measurement errors build up over time means that this area grows over time. If the error accumulates to some extent, the system cannot accurately calculate the positional relationship between the persons, and thus cannot determine who is in the observer's field of view. In order to prevent this situation, the system needs to wipe out the error periodically.

そこで、図7に示すS1304で、CPU305がHMD100内蔵のカメラ撮像を分析し、物理空間の特徴点を検出する。物理空間の特徴点の検出に関してはSIFT(Scale−Invariant Feature Transform)などの技術があるが、本実施形態の説明に直接関係しないため説明を割愛する。
S1305で、CPU305が物理空間の特徴点が検出できたかどうかを判断し、TRUEであるとCPU305が判断した場合はS1306に進み、FALSEであるとCPU305が判断した場合はS1309に進む。
Therefore, in S1304 shown in FIG. 7, the CPU 305 analyzes the camera image picked up in the HMD 100 and detects the feature point of the physical space. Although there is a technique such as SIFT (Scale-Invariant Feature Transform) for detecting feature points in the physical space, the description is omitted because it is not directly related to the description of the present embodiment.
In S1305, the CPU 305 determines whether or not the feature point of the physical space has been detected. If the CPU 305 determines that it is TRUE, the process proceeds to S1306. If the CPU 305 determines that it is FALSE, the process proceeds to S1309.

S1306で、CPU305が物理空間の特徴点情報を元に、人物の存在位置を算出する。特徴点情報を元に存在位置を算出する方法に関してはSLAM(Simultaneous Localization and Mapping)などの自己位置推定技術があるが、本実施形態に直接関係しないため説明を割愛する。
このように、物理空間の特徴点情報を元に算出した存在位置情報を定期的に適用することで、MEMS情報を元に算出した存在位置で積み上がった誤差を払拭することが出来る。従って、S1307で、測定誤差の蓄積量をリセットする。
次に、S1308で、CPU305がシステムが該人物の存在位置を正確に把握できているかどうかを示すロストフラグをFALSEにし、S1301へ進む。
In step S1306, the CPU 305 calculates the presence position of the person based on the feature point information in the physical space. There is a self-position estimation technique such as SLAM (Simultaneous Localization and Mapping) as a method for calculating the presence position based on the feature point information, but the description is omitted because it is not directly related to the present embodiment.
As described above, by periodically applying the location information calculated based on the feature point information of the physical space, it is possible to eliminate errors accumulated at the location calculated based on the MEMS information. Accordingly, in S1307, the accumulated amount of measurement error is reset.
In step S1308, the CPU 305 sets a lost flag indicating whether the system can accurately grasp the position of the person to FALSE, and the process advances to step S1301.

S1309では、CPU305が物理空間の特徴点が検出できない場合に通る処理である。これは即ち、物理空間の特徴点情報を元に、人物の存在位置を算出できないということである。つまり、カメラの撮像から何かしらの要因により特徴点を取れない状態が続くと、MEMSセンサの情報を元に算出した人物の存在位置の測定誤差をリセットできず、測定誤差が時間とともに積み上がることとなる。
そこで、S1309で、CPU305が測定誤差の蓄積量が閾値以上かどうかを判断し、閾値以上であるとCPU305が判断した場合はS1310に進み、閾値以下であるとCPU305が判断した場合はS1301に進む。
In S1309, the process is performed when the CPU 305 cannot detect a feature point in the physical space. This means that the position of the person cannot be calculated based on the feature point information in the physical space. In other words, if a feature point cannot be taken due to some factor from the camera's imaging, the measurement error of the person's location calculated based on the information of the MEMS sensor cannot be reset, and the measurement error accumulates with time. Become.
Therefore, in S1309, the CPU 305 determines whether or not the accumulated amount of measurement error is greater than or equal to the threshold. If the CPU 305 determines that the measured error is greater than or equal to the threshold, the process proceeds to S1310. .

S1310では測定誤差の蓄積量が大きくなり、システムが、人物間の位置関係を正確に算出できない状況を示している。この時、観察者の視野内に映る人物が誰であるかを判断することも出来ない。S1310で、CPU305が該人物のロストフラグをTRUEにし、S1301に進む。人物毎の存在位置情報、MEMSセンサの情報、ロストフラグ情報、測定誤差蓄積量情報は、処理サーバ300が、図9に示すようなデータベース上で管理する。   In S1310, the accumulated amount of measurement error increases, indicating a situation where the system cannot accurately calculate the positional relationship between persons. At this time, it is impossible to determine who is in the observer's field of view. In step S1310, the CPU 305 sets the lost flag of the person to TRUE, and the process advances to step S1301. The processing server 300 manages presence position information for each person, information on MEMS sensors, lost flag information, and measurement error accumulation amount information on a database as shown in FIG.

(人物Xを推定する方法1)
本実施形態を示す情報表示システムが、人物間の位置関係を正確に算出できず、観察者の視野内に映る人物Xが誰であるかを判断することも出来ない状況において、人物Xを推定する方法を説明する。
本実施形態の処理は、図7に示した人物の絶対位置推定処理フローで、ロストフラグがTRUEになった人物に対して行われる。本実施例ではAさんのロストフラグがTRUEになったものとする。
(Method 1 for estimating person X)
The information display system according to the present embodiment estimates the person X in a situation where the positional relationship between the persons cannot be accurately calculated and the person X appearing in the observer's field of view cannot be determined. How to do it.
The processing of the present embodiment is performed for a person whose lost flag is TRUE in the absolute position estimation processing flow of the person shown in FIG. In this embodiment, it is assumed that Mr. A's lost flag is TRUE.

図10は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、図3に示した処理サーバ300による人物間の相対位置推定処理例である。本処理は、図7に示した人物の絶対位置推定処理と並行して実行される。各ユーザの装着するHMD100からワイヤレスアクセスポイント400とネットワーク9000を経由して送信されてきたカメラの撮像とMEMSセンサによる方位、加速度、傾き情報を元に、処理サーバ300が、観察者と被観察者の相対位置を推定する。また、各S1401からS1405の処理は、全て処理サーバ300が備えるコントローラ320のCPU305が制御プログラムを実行することで実現される。   FIG. 10 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is an example of relative position estimation processing between persons by the processing server 300 shown in FIG. This process is executed in parallel with the absolute position estimation process of the person shown in FIG. Based on the camera image and the azimuth, acceleration, and tilt information obtained by the MEMS sensor transmitted from the HMD 100 worn by each user via the wireless access point 400 and the network 9000, the processing server 300 determines the observer and the observer. The relative position of is estimated. Also, the processes from S1401 to S1405 are all realized by the CPU 305 of the controller 320 provided in the processing server 300 executing the control program.

S1401で、CPU305は、HMD100内蔵のカメラ102の撮像を取得して分析し、撮像内に含まれる人体を検出する。HMD100内蔵のカメラの撮像に含まれる人体の像は、図11に示すようなものである。撮像内の人体を検出する方法に関しては、HOG(Histograms of Oriented Gradients)特徴量を元に統計的学習手法を用いた検出器による検出手法などが一般的に用いられているが、本実施形態に直接関係しないため説明を割愛する。
S1402で、CPU305は、HMDを装着している人物(観察者)の顔の向き、つまり、HMDの法線601に対する、カメラ撮像中の人体の足元までの角度を算出する。以下、図12を用いてより具体的に角度算出処理について説明する。
In step S1401, the CPU 305 acquires and analyzes the captured image of the camera 102 built in the HMD 100, and detects a human body included in the captured image. An image of a human body included in the imaging of the camera built in the HMD 100 is as shown in FIG. As a method for detecting a human body in imaging, a detection method using a detector using a statistical learning method based on HOG (Histograms of Oriented Gradients) features is generally used. The explanation is omitted because it is not directly related.
In step S1402, the CPU 305 calculates the orientation of the face of the person (observer) wearing the HMD, that is, the angle to the foot of the human body during camera imaging with respect to the normal 601 of the HMD. Hereinafter, the angle calculation process will be described more specifically with reference to FIG.

図12は、観察者と被観察者の距離と角度の関係を示す図である。
図12において、hは観測者のHMDの地面からの高さであり、この値は予めシステムに静的な情報として登録してあっても良い。L1はHMDの法線601である。L2はHMD高さ(h)の水平線である。L3は観測者のHMDと被観測者の足元を結んだ線である。
S1402では、CPU305は、図12に示すように、L1に対するL3の角度、即ち、φを算出する。S1403で、CPU305は、HMD100内蔵のMEMSセンサによる傾き情報を元にHMDを装着している人物(観測者)の顔の向き、つまり、HMDの法線601の向きを算出する。図12の例で言えば、L1とL2の為す角度βを算出する。
S1404で、CPU305は、HMD100を装着している人物(観測者)の身長と、カメラ撮像中の人物との角度情報から、両者の距離を算出する。図12の例で言えば、観測者の身長hと、L3と地面の為す角α=φ―βからdistを算出する。
FIG. 12 is a diagram illustrating the relationship between the distance and angle between the observer and the person to be observed.
In FIG. 12, h is the height of the observer's HMD from the ground, and this value may be registered in advance as static information in the system. L1 is the normal 601 of the HMD. L2 is a horizontal line of HMD height (h). L3 is a line connecting the HMD of the observer and the feet of the observer.
In S1402, the CPU 305 calculates an angle of L3 with respect to L1, that is, φ, as shown in FIG. In step S <b> 1403, the CPU 305 calculates the face orientation of the person (observer) wearing the HMD, that is, the orientation of the HMD normal 601 based on the tilt information from the MEMS sensor built in the HMD 100. In the example of FIG. 12, the angle β formed by L1 and L2 is calculated.
In step S <b> 1404, the CPU 305 calculates the distance between the height of the person (observer) wearing the HMD 100 and the angle information between the person being photographed by the camera. In the example of FIG. 12, the dist is calculated from the height h of the observer and the angle α = φ−β formed by L3 and the ground.

Figure 2014164374
Figure 2014164374

S1405で、CPU305は、MEMSセンサの方位情報、即ち、HMDを装着している人物(観測者)の顔の向きと人物間の相対距離distから、カメラ撮像中の人体に対するHMDを装着している人物の存在位置を算出する。
これにより、物理空間で被観測者に対し観測者がどの向きにどの距離離れて存在するかがわかる。なお、本実施形態では、両者の距離をカメラ撮像とMEMSセンサ情報から導出したが、例えば近距離通信による測定など、他の手法で導出しても良い。
In step S <b> 1405, the CPU 305 wears the HMD for the human body during camera imaging based on the direction information of the MEMS sensor, that is, the face orientation of the person wearing the HMD (observer) and the relative distance dist between the persons. The position of the person is calculated.
As a result, it is possible to know in which direction and at what distance the observer is present with respect to the observed person in the physical space. In the present embodiment, the distance between the two is derived from the camera imaging and the MEMS sensor information, but may be derived by other methods such as measurement by short-range communication.

図13は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、カメラ撮像中の人物推定処理例である。本処理は、図10に示した人物間の相対位置推定処理の後に実行される。処理サーバ300が、観測者の存在位置を推定する。S1501からS1509の処理は、全て処理サーバ300が備えるコントローラ320のCPU305が制御プログラムを実行することで実現される。以下、図7に示す処理で物理空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出し、位置が推定されていないユーザの情報端末から取得する当該ユーザの動作に応じて変化する変換量を用いて検出された人物画像までの相対距離を算出する処理を説明する。   FIG. 13 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is an example of person estimation processing during camera imaging. This process is executed after the relative position estimation process between persons shown in FIG. The processing server 300 estimates the presence position of the observer. The processing from S1501 to S1509 is realized by the CPU 305 of the controller 320 provided in the processing server 300 executing the control program. Hereinafter, a person image is detected from image data acquired from an information terminal associated with a user whose position is not estimated in the physical space in the process shown in FIG. 7, and is acquired from the information terminal of the user whose position is not estimated. Processing for calculating a relative distance to a human image detected using a conversion amount that changes according to the user's operation will be described.

S1501で、CPU305は、物理空間の誰かしらの人物Xの存在位置情報と、人物間の相対位置推定処理フローで求めたカメラ撮像中の人体に対するHMDを装着している人物(観測者)の存在位置から、HMD撮像に映っているのが人物Xと仮定した場合のHMDを装着している人物(観測者)の存在位置候補を算出する。
S1502で、CPU305は、物理空間に存在する人物全員に対してS1501の処理を実施したかを判断する。ここで、物理空間に存在する人物全員に対してS1501の処理を実施した(true)と判断した場合はS1503に進む。
一方、物理空間に存在する人物全員に対してS1501の処理を実施していない(false)と判断した場合は、S1501に戻る。以下、図14を用いてより具体的に説明する。
In step S <b> 1501, the CPU 305 determines the presence position information of someone X in the physical space and the presence of a person (observer) wearing an HMD with respect to the human body that is being captured by the camera in the relative position estimation process flow between the persons. From the position, a candidate for the position of the person (observer) wearing the HMD when the person X is assumed to be reflected in the HMD imaging is calculated.
In step S1502, the CPU 305 determines whether the processing in step S1501 has been performed on all persons existing in the physical space. If it is determined that the process of S1501 has been performed for all persons existing in the physical space (true), the process proceeds to S1503.
On the other hand, if it is determined that the process of S1501 has not been performed on all persons existing in the physical space (false), the process returns to S1501. Hereinafter, a more specific description will be given with reference to FIG.

図14において、物理空間には、図4に示したとおりAさん、Bさん、Cさんの3名がいて、Aさんが観測者であると仮定する。図14に示す通り、Aさんのカメラ撮像中の人物がBさんであった場合と、Cさんであった場合、それぞれに対してAさんの存在位置候補が導出される。
S1503で、CPU305は、場所ごとの人の存在可能性情報を含む物理空間のマップ情報をHDD310から読み出す。以下、図15を用いてより具体的に説明する。
図15は、場所ごとの人の存在可能性情報を含む物理空間のマップ情報の例を示す図である。例えば、オフィスのフロアマップに、オフィス内の壁や柱、什器(商品やカタログなどを陳列・設置するための器具・器材)のある場所ごとに、人間の存在確率を高、中、低の3段階で割り振り、この存在確率を紐づけたものとなる。なお、図15の例では、マップの右上に什器があるものとし、什器は基本的に人の存在可能性を低にしているが、什器の縁には人間が腰かける場合などもあるため存在可能性は中としている。該マップ情報は、静的な情報として予め処理サーバ300のHDD310に登録してある。
S1504で、CPU305は、HMDを装着している人物(観測者)の各存在位置候補における存在可能性を算出し、各存在位置候補を導出する基となった各人物(被観測者候補)に前記HMDを装着している人物(観測者)の存在可能性を割り当てる。図16を用いてより具体的に説明する。
In FIG. 14, it is assumed that there are three persons in the physical space, Mr. A, Mr. B, and Mr. C, as shown in FIG. 4, and Mr. A is an observer. As illustrated in FIG. 14, when the person who is capturing the image of Mr. A is Mr. B and Mr. C, the position candidate of Mr. A is derived for each.
In step S <b> 1503, the CPU 305 reads physical space map information including information on the possibility of human existence for each location from the HDD 310. Hereinafter, a more specific description will be given with reference to FIG.
FIG. 15 is a diagram illustrating an example of physical space map information including human presence possibility information for each place. For example, on the floor map of an office, there are three high, medium, and low human existence probabilities for each location where there are walls, pillars, and fixtures in the office (equipment / equipment for displaying products and catalogs). It is assigned in stages, and this existence probability is linked. In the example of FIG. 15, it is assumed that there is a fixture on the upper right of the map, and the fixture basically lowers the possibility of human existence, but it can exist because the human being may sit on the edge of the fixture. Sex is medium. The map information is registered in advance in the HDD 310 of the processing server 300 as static information.
In step S <b> 1504, the CPU 305 calculates the possibility of existence of each person (observer) wearing the HMD in each existence position candidate, and assigns each person (observed person candidate) as a basis for deriving each existence position candidate. The possibility of existence of a person (observer) wearing the HMD is assigned. This will be described more specifically with reference to FIG.

図16は、図15に示したマップ上にAさんの存在位置候補を重畳させた図である。
図16において、Aさんのカメラ撮像中の人物がBさんであると仮定して導き出されたAさんの存在位置候補の可能性は低であり、撮像中の人物がCさんであると仮定した場合のAさんの存在位置候補の可能性は高であることがわかる。この算出結果を基に、BさんにAさんの存在可能性が低である情報を紐づけ、CさんにAさんの存在可能性が高である情報を紐づける。
S1505で、CPU305は、被観測者の候補に割り当てられたHMDを装着している人物(観測者)の存在可能性に関し、今までに算出した値の中で最も低い値を採用する。S1506で、CPU305は、HMDを装着している人物(観測者)の存在可能性の値が所定値以下となる被観測者候補を候補から外す。こうすることで、時間が経過し人が動き回ることで、被観測者の候補が絞られていくこととなる。
次に、S1507で、CPU305は、所定時間が経過したかどうかを判断し、所定時間が経過している(true)と判断した場合S1508に進み、所定時間が経過していない(false)と判断した場合は、S1501に戻る。
S1508で、CPU305は、HMDを装着している人物(観測者)の存在可能性の値が最も高い被観測者候補を、HMDを装着する人物(観測者)のカメラ撮像中の人物と決定して、本処理を終了する。図16の例では、Aさんのカメラ撮像中の人物はCさんであると決定する。
〔第2実施形態〕
FIG. 16 is a diagram in which Mr. A's location candidate is superimposed on the map shown in FIG.
In FIG. 16, it is assumed that Mr. A's existence position candidate derived based on the assumption that Mr. A is taking a picture of Mr. A's camera is low, and that the person being shot is Mr. C. It can be seen that the possibility of Mr. A's location candidate is high. Based on this calculation result, information that Mr. A's existence is low is associated with Mr. B, and information that Mr. A's existence is high is associated with Mr. C.
In step S <b> 1505, the CPU 305 employs the lowest value among the values calculated so far regarding the possibility of existence of a person (observer) wearing the HMD assigned to the candidate for the observer. In step S <b> 1506, the CPU 305 removes from the candidates candidates to be observed that the possibility value of the person (observer) wearing the HMD is equal to or less than a predetermined value. By doing so, the candidate for the observer is narrowed down as time passes and the person moves around.
In step S1507, the CPU 305 determines whether the predetermined time has elapsed. If the CPU 305 determines that the predetermined time has elapsed (true), the process advances to step S1508 to determine that the predetermined time has not elapsed (false). If yes, the process returns to S1501.
In step S <b> 1508, the CPU 305 determines the candidate to be observed who has the highest possibility of existence of the person (observer) wearing the HMD as a person who is capturing an image of the person (observer) wearing the HMD. Then, this process ends. In the example of FIG. 16, it is determined that the person who is capturing the image of Mr. A is Mr. C.
[Second Embodiment]

本実施形態では、第1実施形態で説明した、HMDを装着する人物(観測者)のカメラ撮像中の人物を推定する方法の、推定の可能性をより高める方法を説明する。本実施形態は、第1実施形態で実行する処理に加え、図13に示したカメラ撮像中の人物推定フローと並行して、図18に示すカメラ撮像中の人物推定補助処理を実行することで実現する。   In the present embodiment, a method for increasing the possibility of estimation of the method for estimating a person who is capturing an image of a person (observer) wearing the HMD described in the first embodiment will be described. In the present embodiment, in addition to the processing executed in the first embodiment, the person estimation assisting process during camera imaging shown in FIG. 18 is executed in parallel with the person estimation flow during camera imaging shown in FIG. Realize.

本実施形態の処理は、第1実施形態同様、図7に示した人物の絶対位置推定処理フローで、ロストフラグがTRUEになった人物に対して行われる。AさんのロストフラグがTRUEになったものとする。   Similar to the first embodiment, the process of the present embodiment is performed for a person whose lost flag is TRUE in the person absolute position estimation process flow shown in FIG. Assume that Mr. A's lost flag is TRUE.

第1実施形態で説明したとおり、図13に示したS1502の処理がTRUEになった後には、図14に示すように、Aさんのカメラ撮像中の人物がBさんであった場合とCさんであった場合、それぞれに対してAさんの存在位置候補が導出される。ここで、Aさんがその場で静止している場合を考える。人物が静止しているかどうかは、HMDに内蔵されるMEMSセンサによる加速度の検知により把握可能である。   As described in the first embodiment, after the processing of S1502 shown in FIG. 13 becomes TRUE, as shown in FIG. In this case, Mr. A's location candidate is derived for each. Here, consider the case where Mr. A is stationary on the spot. Whether or not a person is stationary can be grasped by detecting acceleration with a MEMS sensor built in the HMD.

図17は、時間とともに被観測者が移動する様子を示した図である。例えば、BさんはAさんの右手の方向に移動し、Cさんはその場を動いていないことを示している。
本情報表示システムでは、AさんとBさん、AさんとCさんの存在位置関係を図10に示した人物間の相対位置推定処理により把握している。またシステムは、BさんとCさんの物理空間上の存在位置を、図7に示した人物の絶対位置推定処理により把握している。本実施例では、前記、相対位置推定処理と絶対位置推定処理の結果が食い違う被観測者候補を候補から外すことで、HMDを装着する人物(観測者)のカメラ撮像中の人物の推定の可能性をより高める。
FIG. 17 is a diagram illustrating a state in which the observed person moves with time. For example, Mr. B moves in the direction of Mr. A's right hand, and Mr. C indicates that he is not moving on the spot.
In this information display system, the existence position relationship between Mr. A and Mr. B, Mr. A and Mr. C is grasped by the relative position estimation process between persons shown in FIG. In addition, the system grasps the positions of Mr. B and Mr. C in the physical space by the absolute position estimation process of the person shown in FIG. In the present embodiment, it is possible to estimate a person who is taking an image of a person wearing an HMD (observer) by removing the candidate for the observer whose results of the relative position estimation process and the absolute position estimation process are different from the candidates. Increase sex.

図18は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、カメラ撮像中の人物推定補助処理例である。本処理は、図15に示したカメラ撮像中の人物推定フローと並行して実行される。なお、各S1701からS1703の処理は、全て処理サーバ300が備えるコントローラ320のCPU305が制御プログラムを実行することで実現される。
S1701で、CPU305は、HMD100を装着している人物の移動量が「0」であるかどうかを判断し、人物の移動量が「0」である(真)と判断した場合はS1702に進み、人物の移動量が「0」でない(偽)と判断した場合は、本処理を終了する。
S1702で、CPU305は、HMD100を装着している人物(観測者)の顔の向き、カメラ撮像中における人体の移動方向から、該人体の物理空間内の移動方向を算出する。S1703で、CPU305は、人物の図7に示した絶対位置推定処理フローで検出した移動方向と合致しない人物を、カメラ撮像中の人物推定フロー処理から除外し、本処理を終了する。
FIG. 18 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is an example of person estimation assistance processing during camera imaging. This processing is executed in parallel with the person estimation flow during camera imaging shown in FIG. Note that the processing from S1701 to S1703 is all realized by the CPU 305 of the controller 320 included in the processing server 300 executing the control program.
In S1701, the CPU 305 determines whether or not the movement amount of the person wearing the HMD 100 is “0”. If the movement amount of the person is “0” (true), the process proceeds to S1702. If it is determined that the amount of movement of the person is not “0” (false), the process ends.
In step S <b> 1702, the CPU 305 calculates the movement direction of the human body in the physical space from the face direction of the person (observer) wearing the HMD 100 and the movement direction of the human body during camera imaging. In step S <b> 1703, the CPU 305 excludes the person that does not match the movement direction detected in the absolute position estimation process flow shown in FIG. 7 from the person estimation flow process during camera imaging, and ends this process.

本発明の各工程は、ネットワーク又は各種記憶媒体を介して取得したソフトウエア(プログラム)をパソコン(コンピュータ)等の処理装置(CPU、プロセッサ)にて実行することでも実現できる。   Each process of the present invention can also be realized by executing software (program) acquired via a network or various storage media by a processing device (CPU, processor) such as a personal computer (computer).

本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。   The present invention is not limited to the above embodiment, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not.

100 HMD
300 処理サーバ
100 HMD
300 processing server

Claims (10)

サーバ装置と、物理空間上を移動する複数の情報端末とが通信する情報表示システムであって、
各情報端末は、
ユーザの視界に入る対象を撮像する撮像手段と、
前記対象を透過可能な状態で情報を表示する表示手段と、
前記物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出手段と、
各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信手段と、
前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御手段と、
を備え、
前記サーバ装置は、
各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースと、
各情報端末の前記検出手段が検出した変化する物理量および前記撮像手段が撮像した撮像データを取得する取得手段と、
各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定手段と、
物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出手段と、
物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出手段と、
算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定手段と、
特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力手段と、
を備えることを特徴とする情報表示システム。
An information display system in which a server device communicates with a plurality of information terminals moving in physical space,
Each information terminal
Imaging means for imaging an object entering the user's field of view;
Display means for displaying information in a state where the object can be transmitted;
Detecting means for detecting a physical quantity that changes in association with an action of a user moving on the physical space;
Transmitting means for transmitting imaging data obtained by imaging a physical space in which each user exists or detected detected physical quantity to the server device in association with each user information;
Control means for receiving from the server device information to be displayed and displayed on the display means associated with another user who is viewing through the display means; and
With
The server device
A database for managing feature point information existing in the physical space to which each user moves;
Obtaining means for obtaining the changing physical quantity detected by the detecting means of each information terminal and the imaging data imaged by the imaging means;
Position estimation means for estimating a position where each user should exist in the physical space from the feature points of the physical space detected from the imaging data acquired from each information terminal and the feature points managed in the database;
Detecting means for detecting a person image from imaging data acquired from an information terminal associated with a user whose position is not estimated in physical space;
Calculating means for calculating a relative distance from the imaged data to a human image detected from the imaged data captured by a user whose position is not estimated in a physical space and a physical quantity that changes in accordance with the user's operation; ,
A specifying means for specifying a user who is viewed by a user whose position is not estimated in the physical space from the calculated relative distance and the position of each user who should be present in the estimated physical space;
Output means for outputting information to be displayed in association with the identified user to an information terminal associated with the user whose position is not estimated in the physical space;
An information display system comprising:
前記ユーザの動作に対応付けられて変化する物理量は、方位、加速度、傾きを含むことを特徴とする請求項1記載の情報表示システム。   The information display system according to claim 1, wherein the physical quantity that changes in association with the user's movement includes an azimuth, an acceleration, and an inclination. ユーザ情報と、物理的空間上に存在する特徴情報を管理するサーバ装置と通信する情報端末であって、
ユーザの視界に入る対象を撮像する撮像手段と、
前記対象を透過可能な状態で情報を表示する表示手段と、
物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出手段と、
各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信手段と、
前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御手段と、
を備えことを特徴とする情報端末。
An information terminal that communicates with user information and a server device that manages feature information existing in physical space,
Imaging means for imaging an object entering the user's field of view;
Display means for displaying information in a state where the object can be transmitted;
Detecting means for detecting a physical quantity that changes in association with the action of a user moving in the physical space;
Transmitting means for transmitting imaging data obtained by imaging a physical space in which each user exists or detected detected physical quantity to the server device in association with each user information;
Control means for receiving from the server device information to be displayed and displayed on the display means associated with another user who is viewing through the display means; and
An information terminal comprising:
前記ユーザの動作に対応付けられて変化する物理量は、方位、加速度、傾きを含むことを特徴とする請求項3記載の情報端末。   The information terminal according to claim 3, wherein the physical quantity that changes in association with the user's movement includes azimuth, acceleration, and inclination. 前記情報端末は、ユーザの視認位置に合わせて位置決めするヘッドマウントディスプレイであることを特徴とする請求項4記載の情報端末。   The information terminal according to claim 4, wherein the information terminal is a head mounted display that is positioned in accordance with a user's visual recognition position. 物理空間上を移動する複数の情報端末と通信するサーバ装置であって、
各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースと、
各情報端末が検出した変化する物理量および撮像した撮像データを取得する取得手段と、
各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定手段と、
物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出手段と、
物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出手段と、
算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定手段と、
特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力手段と、
を備えることを特徴とするサーバ装置。
A server device that communicates with a plurality of information terminals moving in physical space,
A database for managing feature point information existing in the physical space to which each user moves;
An acquisition means for acquiring a changing physical quantity and captured image data detected by each information terminal;
Position estimation means for estimating a position where each user should exist in the physical space from the feature points of the physical space detected from the imaging data acquired from each information terminal and the feature points managed in the database;
Detecting means for detecting a person image from imaging data acquired from an information terminal associated with a user whose position is not estimated in physical space;
Calculating means for calculating a relative distance from the imaged data to a human image detected from the imaged data captured by a user whose position is not estimated in a physical space and a physical quantity that changes in accordance with the user's operation; ,
A specifying means for specifying a user who is viewed by a user whose position is not estimated in the physical space from the calculated relative distance and the position of each user who should be present in the estimated physical space;
Output means for outputting information to be displayed in association with the identified user to an information terminal associated with the user whose position is not estimated in the physical space;
A server device comprising:
ユーザ情報と、物理的空間上に存在する特徴情報を管理するサーバ装置と通信する情報端末の制御方法であって、
ユーザの視界に入る対象を撮像する撮像工程と、
前記対象を透過可能な状態で情報を表示手段に表示する表示工程と、
物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出工程と、
各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信工程と、
前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御工程と、
を備えることを特徴とする情報端末の制御方法。
A control method for an information terminal that communicates with user information and a server device that manages feature information existing in a physical space,
An imaging process for imaging an object entering the user's field of view;
A display step of displaying information on the display means in a state where the object can be transmitted;
A detection step of detecting a physical quantity that changes in association with the action of a user moving on the physical space;
A transmission step of transmitting imaging data obtained by imaging a physical space in which each user exists or a detected changing physical quantity to the server device in association with each user information;
A control step of receiving, from the server device, information to be displayed associated with another user who is viewing through the display means and displaying the information on the display means;
An information terminal control method comprising:
物理空間上を移動する複数の情報端末と通信するサーバ装置の制御方法であって、
各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースを備え、、
各情報端末が検出した変化する物理量および撮像した撮像データを取得する取得工程と、
各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定工程と、
物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出工程と、
物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出工程と、
算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定工程と、
特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力工程と、
を備えることを特徴とするサーバ装置の制御方法。
A method for controlling a server device that communicates with a plurality of information terminals moving on a physical space,
A database for managing feature point information existing in the physical space in which each user moves,
An acquisition step of acquiring the changing physical quantity detected by each information terminal and the captured imaging data;
A position estimation step of estimating a position where each user should exist in the physical space from the feature points of the physical space detected from the imaging data acquired from each information terminal and the feature points managed in the database;
A detection step of detecting a human image from imaging data acquired from an information terminal associated with a user whose position is not estimated in physical space;
A calculation step of calculating a relative distance from the imaging data to a human image detected from the imaging data captured by a user whose position is not estimated in a physical space and a physical quantity that changes according to the user's operation; ,
A specific step of identifying a user who is viewed by a user whose position is not estimated in physical space from the calculated relative distance and the position of each user who should be present in the estimated physical space;
An output step of outputting information to be displayed in association with the identified user to an information terminal associated with a user whose position is not estimated in the physical space;
A control method for a server device, comprising:
請求項7に記載の情報端末の制御方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the method for controlling an information terminal according to claim 7. 請求項8に記載のサーバ装置の制御方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the method for controlling a server device according to claim 8.
JP2013032912A 2013-02-22 2013-02-22 Information display system, information terminal, server device, control method of information terminal, control method of server device, and program Pending JP2014164374A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013032912A JP2014164374A (en) 2013-02-22 2013-02-22 Information display system, information terminal, server device, control method of information terminal, control method of server device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013032912A JP2014164374A (en) 2013-02-22 2013-02-22 Information display system, information terminal, server device, control method of information terminal, control method of server device, and program

Publications (1)

Publication Number Publication Date
JP2014164374A true JP2014164374A (en) 2014-09-08

Family

ID=51614951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013032912A Pending JP2014164374A (en) 2013-02-22 2013-02-22 Information display system, information terminal, server device, control method of information terminal, control method of server device, and program

Country Status (1)

Country Link
JP (1) JP2014164374A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9651785B2 (en) 2015-01-26 2017-05-16 Seiko Epson Corporation Display system, portable display device, display control device, and display method
US10120633B2 (en) 2015-01-26 2018-11-06 Seiko Epson Corporation Display system, portable display device, display control device, and display method
US10670421B2 (en) 2016-05-11 2020-06-02 Ricoh Company, Ltd. Apparatus, system, and method of information sharing, and recording medium
CN111862870A (en) * 2019-04-30 2020-10-30 陈漱文 Display array based on positioning control
JPWO2019106734A1 (en) * 2017-11-29 2020-11-19 株式会社オプティム Computer systems, device control methods and programs
US11662738B2 (en) 2018-03-09 2023-05-30 Casio Computer Co., Ltd. Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9651785B2 (en) 2015-01-26 2017-05-16 Seiko Epson Corporation Display system, portable display device, display control device, and display method
US10120633B2 (en) 2015-01-26 2018-11-06 Seiko Epson Corporation Display system, portable display device, display control device, and display method
US10223058B2 (en) 2015-01-26 2019-03-05 Seiko Epson Corporation Display system, display control device, and display method
US10670421B2 (en) 2016-05-11 2020-06-02 Ricoh Company, Ltd. Apparatus, system, and method of information sharing, and recording medium
JPWO2019106734A1 (en) * 2017-11-29 2020-11-19 株式会社オプティム Computer systems, device control methods and programs
US11662738B2 (en) 2018-03-09 2023-05-30 Casio Computer Co., Ltd. Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map
CN111862870A (en) * 2019-04-30 2020-10-30 陈漱文 Display array based on positioning control

Similar Documents

Publication Publication Date Title
JP5863423B2 (en) Information processing apparatus, information processing method, and program
JP5994397B2 (en) Information processing apparatus, information processing method, and program
CN108921894B (en) Object positioning method, device, equipment and computer readable storage medium
JP2014164374A (en) Information display system, information terminal, server device, control method of information terminal, control method of server device, and program
JP6562437B1 (en) Monitoring device and monitoring method
WO2018019272A1 (en) Method and apparatus for realizing augmented reality on the basis of plane detection
KR101181967B1 (en) 3D street view system using identification information.
JP2020046928A (en) Information processor, information processing system, and information processing method and program
CN106937532B (en) System and method for detecting actual user
US9218794B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP7379065B2 (en) Information processing device, information processing method, and program
CN105760809A (en) Method and apparatus for head pose estimation
KR101073432B1 (en) Devices and methods for constructing city management system integrated 3 dimensional space information
JP6109288B2 (en) Information processing apparatus, information processing method, and program
JP2018120283A (en) Information processing device, information processing method and program
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
JP7103229B2 (en) Suspiciousness estimation model generator
WO2020032254A1 (en) Attention target estimating device, and attention target estimating method
JP2015230616A (en) Image processing method and image processor
CN109754419B (en) Position estimation system
US20200211275A1 (en) Information processing device, information processing method, and recording medium
CN109190486A (en) A kind of guide control method and device
JP5937763B2 (en) Authentication method for 3D entity image acquisition
US20220084244A1 (en) Information processing apparatus, information processing method, and program
CN113228117A (en) Authoring apparatus, authoring method, and authoring program