JP2014164374A - Information display system, information terminal, server device, control method of information terminal, control method of server device, and program - Google Patents
Information display system, information terminal, server device, control method of information terminal, control method of server device, and program Download PDFInfo
- Publication number
- JP2014164374A JP2014164374A JP2013032912A JP2013032912A JP2014164374A JP 2014164374 A JP2014164374 A JP 2014164374A JP 2013032912 A JP2013032912 A JP 2013032912A JP 2013032912 A JP2013032912 A JP 2013032912A JP 2014164374 A JP2014164374 A JP 2014164374A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- physical space
- information terminal
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、撮像される画像情報を処理して人物を特定して対応する情報を表示する情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラムに関するものである。 The present invention relates to an information display system, an information terminal, a server device, a control method for an information terminal, a control method for a server device, and a program that process captured image information and display corresponding information. It is.
物理空間内における人物の自己位置を推定することを目的とした情報表示システムがある。特許文献1の開示する情報表示システムは、移動量検出手段で人物Xのおおよその自己位置を推定し、予め物体の位置を記憶させた地図情報から、その位置から人物Xの持つカメラで撮影した撮像に含まれるだろう物体のマーカーを算出する。 There are information display systems aimed at estimating a person's own position in a physical space. The information display system disclosed in Patent Document 1 estimates the approximate self-position of the person X by the movement amount detection means, and captures the position of the object in advance from the map information captured by the person X's camera. Compute markers for objects that will be included in the image.
そして、実際の撮像から抽出したマーカーと比較することで人物Xの自己位置を推定する。この自己位置推定を各人物に適用することで、物理空間に存在するすべての人物の自己位置を推定できる。 And the self-position of the person X is estimated by comparing with the marker extracted from actual imaging. By applying this self-position estimation to each person, the self-positions of all persons existing in the physical space can be estimated.
特許文献1と、例えば地磁気センサなど人物Xの有するカメラの向きを把握する技術を組み合わせることで、システムは、人物Xの有するカメラの撮像に含まれる人物が誰であるかに応じて、適切な内容のコンテンツを生成することが可能となる。 By combining Patent Document 1 and a technology for grasping the orientation of the camera of the person X, such as a geomagnetic sensor, the system can be appropriately selected depending on who is included in the imaging of the camera of the person X. It becomes possible to generate content.
しかしながら、特許文献1では、システムが、ユーザAに関し、地図情報から導き出したマーカーと実際の撮像から導き出したマーカーの比較に失敗した場合、システムはユーザAの位置を正確に推定できない。これにより、システムは、ユーザAの有するカメラの撮像に含まれる人物が誰であるかがわからず、適切な内容のコンテンツを生成することができなくなる。ここで、本システムにおいて、顔認証による人物の推定などの併用も考えられるが、相手が自分に対して背中を向けて立っている場合などは適用できない。
本発明は、上記の課題を解決するためになされたもので、本発明の目的は、情報表示システムが共有する物理的空間上で、特定の人物の物理空間上の正確な位置を推定できない場合でも、観測者が表示手段を介して透過して視認している被観測者を特定して、被観測者に対応づけられた表示すべき情報を表示できる仕組みを提供することである。
However, in Patent Document 1, when the system fails to compare the marker derived from the map information with the marker derived from the actual imaging regarding the user A, the system cannot accurately estimate the position of the user A. As a result, the system does not know who is included in the image captured by the user A's camera, and cannot generate content with appropriate contents. Here, in this system, it is conceivable to use estimation of a person by face authentication, but it cannot be applied when the other party is standing with his back facing himself / herself.
The present invention has been made in order to solve the above-described problem, and the object of the present invention is when the accurate position of a specific person in the physical space cannot be estimated on the physical space shared by the information display system. However, it is to provide a mechanism that allows the observer to identify the observer who is viewing through the display means and to display the information to be displayed associated with the observer.
上記目的を達成する本発明の情報表示システムは以下に示す構成を備える。
サーバ装置と、物理空間上を移動する複数の情報端末とが通信する情報表示システムであって、各情報端末は、ユーザの視界に入る対象を撮像する撮像手段と、前記対象を透過可能な状態で情報を表示する表示手段と、前記物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出手段と、各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信手段と、前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御手段と、を備え、前記サーバ装置は、各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースと、各情報端末の前記検出手段が検出した変化する物理量および前記撮像手段が撮像した撮像データを取得する取得手段と、各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定手段と、物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出手段と、物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出手段と、算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定手段と、特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力手段と、を備えることを特徴とする。
The information display system of the present invention that achieves the above object has the following configuration.
An information display system in which a server device and a plurality of information terminals moving in a physical space communicate with each other, wherein each information terminal is capable of imaging an object that enters a user's field of view, and is capable of transmitting the object Display means for displaying information, detection means for detecting a physical quantity that changes in association with the movement of the user moving in the physical space, and imaging data obtained by photographing the physical space in which each user exists, or Transmitting means for transmitting the detected changing physical quantity in association with each user information to the server device; and information to be displayed associated with other users who are viewing through the display means. Control means for receiving from the apparatus and displaying on the display means, wherein the server apparatus manages a database for managing feature point information existing in a physical space in which each user moves. An acquisition means for acquiring the changing physical quantity detected by the detection means of each information terminal and the imaging data captured by the imaging means; a feature point of the physical space detected from the imaging data acquired from each information terminal; Image estimation data obtained from position estimation means for estimating the position where each user should exist in physical space from feature points managed in the database, and information terminals associated with users whose position is not estimated in physical space The person image detected from the imaging data using detection means for detecting a person image from the image, imaging data captured by a user whose position is not estimated in physical space, and a physical quantity that changes according to the user's operation From the calculation means for calculating the relative distance up to, the calculated relative distance, and the position of each user that should be present in the estimated physical space. The identification means for identifying the user viewed by the user whose position is not estimated in the above and the information to be displayed in association with the identified user are associated with the user whose position is not estimated in the physical space Output means for outputting to the information terminal.
本発明によれば、情報表示システムが共有する物理的空間上で、特定の人物の物理空間上の正確な位置を推定できない場合でも、観測者が表示手段を介して透過して視認している被観測者を特定して、被観測者に対応づけられた表示すべき情報を表示できる。 According to the present invention, even when the exact position of a specific person in the physical space cannot be estimated on the physical space shared by the information display system, the observer sees through the display means. It is possible to specify an observer and display information to be displayed associated with the observer.
次に本発明を実施するための最良の形態について図面を参照して説明する。
<システム構成の説明>
〔第1実施形態〕
<ヘッドマウントディスプレイ(HMD)>
図1は、本実施形態を示す情報表示システムで使用するヘッドマウントディスプレイ(HMD)100の外観を示す図である。本実施形態では、ユーザの視認位置に合わせて位置決めする情報端末の一例として、HMDを使用する例であって、サーバ装置は、複数の情報端末と通信可能に構成されている。
Next, the best mode for carrying out the present invention will be described with reference to the drawings.
<Description of system configuration>
[First Embodiment]
<Head-mounted display (HMD)>
FIG. 1 is a diagram illustrating an appearance of a head mounted display (HMD) 100 used in the information display system according to the present embodiment. In the present embodiment, an HMD is used as an example of an information terminal that is positioned in accordance with a user's visual recognition position, and the server device is configured to be able to communicate with a plurality of information terminals.
図1において、HMD100は、市販されているものと同様のものであり、フレーム201で頭部に装着するようになっている。又、片目若しくは両目に透過型のディスプレイ101が取り付けられた構造になっており、ユーザはディスプレイ101に表示された人工像(表示画像)と、ディスプレイ101の先にある実像を同時に見ることが出来る。HMD100にはカメラ102も取り付けられており、ユーザの目に近い視点で撮影することが可能である。
In FIG. 1, the HMD 100 is similar to a commercially available one and is attached to the head with a
図2は、図1に示したHMD100のハードウェアの構成を示すブロック図である。なお、HMD100は、コントローラ120、透過型のディスプレイ101、カメラ102を有する。ここで、カメラ102はユーザの視界に入る対象を撮像している。また、ディスプレイ101は、視界に入る対象を透過可能な状態で、サーバ装置から出力される表示すべき情報を表示可能に構成されている。以下、HMD100のコントローラ120の構成についてさらに説明する。
FIG. 2 is a block diagram showing a hardware configuration of the HMD 100 shown in FIG. The HMD 100 includes a
図2において、内部バス112は、メモリコントローラ107、I/Oコントローラ109間で情報の伝達が出来るよう、電気信号を送受信する。メモリコントローラ107は、メインメモリ108に対するメモリアクセス全般を統括する。I/Oコントローラ109は、ROM110、LANポート103、透過型ディスプレイ101、MEMSセンサ111、内部バス112を介して接続している処理部との情報の送受信を行う。LANポート103は、アクセスポイント400(図4)および/またはネットワーク9000を介して接続されている処理サーバ300などの他の機器と、I/Oコントローラ109との情報の送受信を行う。
In FIG. 2, the
ROM110にはブートローダプログラム及びHMD制御プログラムが格納されている。メインメモリ108は揮発性メモリであり、高速アクセスが可能であるので、ROM110に記憶されている情報や一時的に使用する情報はここに格納される。HMD100の電源投入時には、CPU104がブートローダプログラムを読み出して実行し、ROM110に格納されているHMD制御プログラムを取り出し、メインメモリ108に格納する。そして、CPU104がメインメモリ108に格納されているHMD制御プログラムを実行し、HMD100の有する各機能を実行する。また、CPU104がこのHMD制御プログラムを実行することで、処理サーバ300とのデータ通信や透過型ディスプレイ101への情報表示等のHMD100の行う処理が実行される。
以上がコントローラ120の構成についての説明である。
The
The above is the description of the configuration of the
HMD100は、情報を表示する透過型ディスプレイ101を備える。グラフィックコントローラ106は、透過型ディスプレイ101への表示を制御する。HMD100は、ユーザに情報を提示する際には透過型ディスプレイ101に情報を表示する。HMD100は、カメラ102を備えている。カメラ102は撮影した撮像画像をデジタル変換する。カメラ102は、I/Oコントローラ109との情報の送受信を行う。HMD100は、MEMSセンサ111を備えている。
MEMSセンサ111は、物理的空間上を移動するユーザの動作に対応づけられて変化する変化量を検出する。具体的には、MEMSセンサ111は、東西南北の方角と、三次元方向の傾き、加速度を計測することが可能であり、計測した情報をデジタル情報に変換する。MEMSセンサ111は、I/Oコントローラ109との情報の送受信を行う。I/Oコントローラ109は、LANポート103を介してネットワーク上の処理サーバ300に対して、HMD100を装着したユーザが存在する物理空間を撮影して得られる撮像データまたはMEMSセンサ111が検出した変化する物理量をそれぞれユーザ情報に対応付けて送信する。なお、I/Oコントローラ109による当該送信処理を所定の間隔で実行される。
MEMSセンサ111により、HMD100を装着しているユーザが、物理空間上でどの方向に顔を向けているのかが把握可能である。バッテリ105は、電力をHMD100全体に供給する。
<処理サーバ>
図3は、本実施形態を示す情報表示システムで用いる処理サーバのハードウェアの構成を示すブロック図である。なお、処理サーバは、ユーザ情報と物理的空間上に存在する特徴情報を管理するデータベースを備え、HMD100が撮像している撮像データの解析結果と特徴情報を比較することで、ユーザの物理的空間の位置を特定する処理を行う。ここで、特徴情報とは、ユーザが移動する居室の構造上の特徴を示す情報や、付属物の配置情報等の特徴を示す情報が含まれる。
The HMD 100 includes a
The
With the
<Processing server>
FIG. 3 is a block diagram illustrating a hardware configuration of a processing server used in the information display system according to the present embodiment. Note that the processing server includes a database that manages user information and feature information existing in the physical space, and compares the analysis result of the imaging data captured by the
図3において、300は処理サーバである。処理サーバ300はコントローラ320、ディスプレイ301、キーボード302、マウス303を有する。以下、コントローラ320の構成についてさらに説明する。
内部バス311は、メモリコントローラ307、I/Oコントローラ309間で情報の伝達が出来るよう、電気信号を送受信する。
In FIG. 3,
The
メモリコントローラ307は、メインメモリ308に対するメモリアクセス全般を統括する。I/Oコントローラ309は、HDD310、LANポート304、キーボード302、マウス303、内部バス311を介して接続している処理部との情報の送受信を行う。LANポート304は、ネットワーク9000やワイヤレスアクセスポイント400を介して接続されている他の機器、I/Oコントローラ309との情報の送受信を行う。
The
HDD310にはブートローダプログラム及び処理サーバ制御プログラムが格納されている。メインメモリ308は揮発性メモリであり、高速アクセスが可能であるので、HDD310に記憶されている情報や一時的に使用する情報はここに格納される。処理サーバ300の電源投入時には、CPU305がブートローダプログラムを読み出して実行し、HDD310に格納されている処理サーバ制御プログラムを取り出し、メインメモリ308に格納する。そして、CPU305がメインメモリ308に格納されている処理サーバ制御プログラムを実行し、処理サーバの有する各機能を実行する。また、CPU3
05がこの処理サーバ制御プログラムを実行することで、図7、図10、図13、図18に示される処理サーバの行う処理が実行される。以上がコントローラ320の構成についての説明である。
処理サーバ300は、情報を表示するディスプレイ301を備える。グラフィックコントローラ306は、ディスプレイ301への表示を制御する。
The
When 05 executes this processing server control program, the processing performed by the processing server shown in FIGS. 7, 10, 13 and 18 is executed. The above is the description of the configuration of the
The
処理サーバ300は、ユーザに情報を提示する際にはディスプレイ301に情報を表示し、ユーザは、キーボード302又はマウス303に対する操作で処理サーバ300への情報入力が可能である。
<システム構成>
The
<System configuration>
図4は、本実施形態を示す情報表示システムの構成を示す図である。本例の情報表示システムでは、ユーザAとユーザBとユーザCの3名が装着するHMD(Head Mounted Display)100と、ワイヤレスアクセスポイント400、処理サーバ300、ネットワーク9000を有する。各HMD100とワイヤレスアクセスポイント400は無線で接続されており、処理サーバ300とワイヤレスアクセスポイント400はネットワーク9000で接続されている。
FIG. 4 is a diagram illustrating the configuration of the information display system according to the present embodiment. The information display system of this example includes an HMD (Head Mounted Display) 100 worn by three users A, B, and C, a
本情報表示システムでは、各ユーザの装着するHMDに内蔵されているカメラによる撮像とMEMSセンサによる方位、加速度、傾き情報が、ワイヤレスアクセスポイント400とネットワーク9000を経由して逐一処理サーバ300に送信される。処理サーバ300はその情報を元に、各ユーザの物理空間上の存在位置を推定する。カメラの撮像からの位置推定技術に関してはSLAM(Simultaneously Localization and Mapping)に代表される既存技術がある。また、MEMSセンサからの位置推定技術に関してはPDR(Pedestrian Dead Reckoning)に代表される既存技術があり、本提案の核となる部分ではないため、説明を割愛する。各ユーザの存在位置情報とMEMSセンサの方位情報から、各ユーザのHMDに内蔵されるカメラ内に映る人物が誰であるかを特定することが可能となる。
In this information display system, imaging by the camera built in the HMD worn by each user and azimuth, acceleration, and tilt information by the MEMS sensor are transmitted to the
HMDに内蔵されるカメラとHMDのディスプレイの向きが固定的に決まっていれば、ユーザの視野のどの向きに誰がいるかを特定することが可能となる。HMD100が、ネットワーク9000とワイヤレスアクセスポイント400経由で処理サーバ300から各ユーザの物理空間上の存在位置情報を取得する。その位置情報に基づき、HMD100が、ユーザの視野内にいる人物に関し、その人物固有の情報をHMDの半透過ディスプレイに表示することで、ユーザは人物の実像にその人物固有の情報が紐づけられた映像を見ることが出来る。
If the orientation of the camera incorporated in the HMD and the display of the HMD is fixedly determined, it is possible to specify who is in which direction of the user's visual field. The
図5は、図3に示したディスプレイ301に表示される画面の一例を示す図である。本例は、ユーザがHMDの半透過ディスプレイ越しに他者を見たときに得られる映像の例を示す。例えば、図4のAさんがHMDの半透過ディスプレイ越しにBさんを見た場合には、Aさんは図5の(a)に示すような映像を見ることとなる。また、図4のAさんがCさんをHMDの半透過ディスプレイ越しに見た場合には、Aさんは図5の(b)に示すような映像をみることとなる。
<HMDにおける人物固有情報の表示位置>
FIG. 5 is a diagram showing an example of a screen displayed on the
<Display position of person-specific information in HMD>
図6は、図3に示した処理サーバ300がHMDにおける人物固有情報の表示位置をどのように算出するかを説明する図である。以下、図6を参照して、HMD装着者が視野内の人物の実像にその人物固有の情報が紐づけられた映像を見られるようにする構成を説明する。
FIG. 6 is a diagram for explaining how the
図6において、処理サーバ300のコントローラ320は、先に説明したとおり、HMDを装着している全ての人物の物理位置情報、向いている方位情報を把握している。例えば、HMDを装着した観察者と被観察者の2人がいる場合を考える。
前記物理位置情報は、物理空間の特定の場所を原点とした場合、観測者の位置座標は(Xo, Yo)、被観察者の位置座標は(Xt, Yt)となる。また、観測者の向いている方位(以下ではHMD100の法線601と表記する)はθとなる。なおここでθはradian単位とするが、direction情報はdegree単位であり、相互に変換可能である。これらの情報を元に、コントローラ320は、図6に示すようなマップを内部生成する。図6のマップは観察者と被観察者との位置関係を上から見た状態である。
In FIG. 6, the
In the physical position information, when a specific place in the physical space is the origin, the position coordinates of the observer are (Xo, Yo), and the position coordinates of the observer are (Xt, Yt). In addition, the orientation that the observer is facing (hereinafter referred to as the normal 601 of the HMD 100) is θ. Here, θ is in radians, but direction information is in degrees and can be converted to each other. Based on these pieces of information, the
次に、処理サーバ300のコントローラ320は、図6に示される角度γを求める。角度γは、観測者の装着するHMD100の法線0601に対する非観測者の位置する方向の角度となる。γは以下の式で求める。
Next, the
そして、コントローラ320は、HMD100の透過型ディスプレイ101のカバーする視野角αと角度γを比較することで、被観測者が観測者の視野内にいるかどうかを判定する。ここでいう被観測者とは、観測者の装着するHMD100の透過型ディスプレイ101越しに見える人物のことである。コントローラ320は、|γ|<α/2であれば被観測者が観測者の視野内にいると判定する。また、|γ|<α/2でないとコントローラ320が判定した場合は、被観測者は観測者の視野外にいると判定する。
<人物の絶対位置推定処理フロー>
Then, the
<Person absolute position estimation processing flow>
図7は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、図3に示した処理サーバ300による人物の絶対位置推定処理例である。物理空間の存在する人物全員に対して本処理が定期的に実行される。各ユーザの装着するHMD100からワイヤレスアクセスポイント400とネットワーク9000を経由して送信されてきたカメラの撮像とMEMSセンサによる方位、加速度、傾き情報を元に、処理サーバ300が、各ユーザの物理空間上の存在位置を推定する。なお、各S1301からS1310の処理は、全て処理サーバ300のコントローラ320のCPU305が制御プログラムを実行することで実現される。
FIG. 7 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is a human absolute position estimation process example by the
S1301で、CPU305がMEMSセンサによる方位、加速度、傾き情報を元に、HMDを装着している人物の移動方向、移動量を算出する。その際、人物の移動方向、移動量の測定誤差は避けられない。この測定誤差は経験的にどの程度になるかを把握することが可能である。S1302では、CPU305が時間とともに蓄積される誤差の蓄積量を計算する。S1303で、CPU305が前記移動方向と移動量からHMDを装着している人物の存在位置を算出すると共に、測定誤差の蓄積量を考慮した人物の存在位置候補となる領域を算出する。以下、前記存在位置候補となる領域に関して図8を用いて説明する。
In step S <b> 1301, the
図8は、物理空間上の人の移動とシステムが把握する人物の存在位置候補の概念を示す図である。なお、MEMSセンサ情報を元に人物の存在位置を算出する方法は、人物が前にいた場所に対する存在位置の算出となる。従って、時間とともに測定誤差が積み上がっていくこととなる。
図8の(a)の矢印に示す軌跡に従って人が移動すると、システムが算出した人物の存在位置には、図8の(b)の灰色に塗られた円の領域に示すような誤差が生じることとなる。時間とともに測定誤差が積み上がっていくということは、この領域は時間とともに大きくなるということである。ある程度以上誤差が積み上がると、システムは、人物間の位置関係を正確に算出できないので、観察者の視野内に映る人物が誰であるかを判断することが出来なくなる。このような事態を防ぐために、システムは定期的に誤差を払拭する必要がある。
FIG. 8 is a diagram showing the concept of the movement of a person in the physical space and the person's existence position candidate grasped by the system. Note that the method of calculating the presence position of the person based on the MEMS sensor information is the calculation of the presence position with respect to the place where the person was in front. Therefore, measurement errors accumulate with time.
When a person moves in accordance with the locus indicated by the arrow in FIG. 8A, an error as shown in the gray circled area in FIG. 8B occurs in the position of the person calculated by the system. It will be. The fact that measurement errors build up over time means that this area grows over time. If the error accumulates to some extent, the system cannot accurately calculate the positional relationship between the persons, and thus cannot determine who is in the observer's field of view. In order to prevent this situation, the system needs to wipe out the error periodically.
そこで、図7に示すS1304で、CPU305がHMD100内蔵のカメラ撮像を分析し、物理空間の特徴点を検出する。物理空間の特徴点の検出に関してはSIFT(Scale−Invariant Feature Transform)などの技術があるが、本実施形態の説明に直接関係しないため説明を割愛する。
S1305で、CPU305が物理空間の特徴点が検出できたかどうかを判断し、TRUEであるとCPU305が判断した場合はS1306に進み、FALSEであるとCPU305が判断した場合はS1309に進む。
Therefore, in S1304 shown in FIG. 7, the
In S1305, the
S1306で、CPU305が物理空間の特徴点情報を元に、人物の存在位置を算出する。特徴点情報を元に存在位置を算出する方法に関してはSLAM(Simultaneous Localization and Mapping)などの自己位置推定技術があるが、本実施形態に直接関係しないため説明を割愛する。
このように、物理空間の特徴点情報を元に算出した存在位置情報を定期的に適用することで、MEMS情報を元に算出した存在位置で積み上がった誤差を払拭することが出来る。従って、S1307で、測定誤差の蓄積量をリセットする。
次に、S1308で、CPU305がシステムが該人物の存在位置を正確に把握できているかどうかを示すロストフラグをFALSEにし、S1301へ進む。
In step S1306, the
As described above, by periodically applying the location information calculated based on the feature point information of the physical space, it is possible to eliminate errors accumulated at the location calculated based on the MEMS information. Accordingly, in S1307, the accumulated amount of measurement error is reset.
In step S1308, the
S1309では、CPU305が物理空間の特徴点が検出できない場合に通る処理である。これは即ち、物理空間の特徴点情報を元に、人物の存在位置を算出できないということである。つまり、カメラの撮像から何かしらの要因により特徴点を取れない状態が続くと、MEMSセンサの情報を元に算出した人物の存在位置の測定誤差をリセットできず、測定誤差が時間とともに積み上がることとなる。
そこで、S1309で、CPU305が測定誤差の蓄積量が閾値以上かどうかを判断し、閾値以上であるとCPU305が判断した場合はS1310に進み、閾値以下であるとCPU305が判断した場合はS1301に進む。
In S1309, the process is performed when the
Therefore, in S1309, the
S1310では測定誤差の蓄積量が大きくなり、システムが、人物間の位置関係を正確に算出できない状況を示している。この時、観察者の視野内に映る人物が誰であるかを判断することも出来ない。S1310で、CPU305が該人物のロストフラグをTRUEにし、S1301に進む。人物毎の存在位置情報、MEMSセンサの情報、ロストフラグ情報、測定誤差蓄積量情報は、処理サーバ300が、図9に示すようなデータベース上で管理する。
In S1310, the accumulated amount of measurement error increases, indicating a situation where the system cannot accurately calculate the positional relationship between persons. At this time, it is impossible to determine who is in the observer's field of view. In step S1310, the
(人物Xを推定する方法1)
本実施形態を示す情報表示システムが、人物間の位置関係を正確に算出できず、観察者の視野内に映る人物Xが誰であるかを判断することも出来ない状況において、人物Xを推定する方法を説明する。
本実施形態の処理は、図7に示した人物の絶対位置推定処理フローで、ロストフラグがTRUEになった人物に対して行われる。本実施例ではAさんのロストフラグがTRUEになったものとする。
(Method 1 for estimating person X)
The information display system according to the present embodiment estimates the person X in a situation where the positional relationship between the persons cannot be accurately calculated and the person X appearing in the observer's field of view cannot be determined. How to do it.
The processing of the present embodiment is performed for a person whose lost flag is TRUE in the absolute position estimation processing flow of the person shown in FIG. In this embodiment, it is assumed that Mr. A's lost flag is TRUE.
図10は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、図3に示した処理サーバ300による人物間の相対位置推定処理例である。本処理は、図7に示した人物の絶対位置推定処理と並行して実行される。各ユーザの装着するHMD100からワイヤレスアクセスポイント400とネットワーク9000を経由して送信されてきたカメラの撮像とMEMSセンサによる方位、加速度、傾き情報を元に、処理サーバ300が、観察者と被観察者の相対位置を推定する。また、各S1401からS1405の処理は、全て処理サーバ300が備えるコントローラ320のCPU305が制御プログラムを実行することで実現される。
FIG. 10 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is an example of relative position estimation processing between persons by the
S1401で、CPU305は、HMD100内蔵のカメラ102の撮像を取得して分析し、撮像内に含まれる人体を検出する。HMD100内蔵のカメラの撮像に含まれる人体の像は、図11に示すようなものである。撮像内の人体を検出する方法に関しては、HOG(Histograms of Oriented Gradients)特徴量を元に統計的学習手法を用いた検出器による検出手法などが一般的に用いられているが、本実施形態に直接関係しないため説明を割愛する。
S1402で、CPU305は、HMDを装着している人物(観察者)の顔の向き、つまり、HMDの法線601に対する、カメラ撮像中の人体の足元までの角度を算出する。以下、図12を用いてより具体的に角度算出処理について説明する。
In step S1401, the
In step S1402, the
図12は、観察者と被観察者の距離と角度の関係を示す図である。
図12において、hは観測者のHMDの地面からの高さであり、この値は予めシステムに静的な情報として登録してあっても良い。L1はHMDの法線601である。L2はHMD高さ(h)の水平線である。L3は観測者のHMDと被観測者の足元を結んだ線である。
S1402では、CPU305は、図12に示すように、L1に対するL3の角度、即ち、φを算出する。S1403で、CPU305は、HMD100内蔵のMEMSセンサによる傾き情報を元にHMDを装着している人物(観測者)の顔の向き、つまり、HMDの法線601の向きを算出する。図12の例で言えば、L1とL2の為す角度βを算出する。
S1404で、CPU305は、HMD100を装着している人物(観測者)の身長と、カメラ撮像中の人物との角度情報から、両者の距離を算出する。図12の例で言えば、観測者の身長hと、L3と地面の為す角α=φ―βからdistを算出する。
FIG. 12 is a diagram illustrating the relationship between the distance and angle between the observer and the person to be observed.
In FIG. 12, h is the height of the observer's HMD from the ground, and this value may be registered in advance as static information in the system. L1 is the normal 601 of the HMD. L2 is a horizontal line of HMD height (h). L3 is a line connecting the HMD of the observer and the feet of the observer.
In S1402, the
In step S <b> 1404, the
S1405で、CPU305は、MEMSセンサの方位情報、即ち、HMDを装着している人物(観測者)の顔の向きと人物間の相対距離distから、カメラ撮像中の人体に対するHMDを装着している人物の存在位置を算出する。
これにより、物理空間で被観測者に対し観測者がどの向きにどの距離離れて存在するかがわかる。なお、本実施形態では、両者の距離をカメラ撮像とMEMSセンサ情報から導出したが、例えば近距離通信による測定など、他の手法で導出しても良い。
In step S <b> 1405, the
As a result, it is possible to know in which direction and at what distance the observer is present with respect to the observed person in the physical space. In the present embodiment, the distance between the two is derived from the camera imaging and the MEMS sensor information, but may be derived by other methods such as measurement by short-range communication.
図13は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、カメラ撮像中の人物推定処理例である。本処理は、図10に示した人物間の相対位置推定処理の後に実行される。処理サーバ300が、観測者の存在位置を推定する。S1501からS1509の処理は、全て処理サーバ300が備えるコントローラ320のCPU305が制御プログラムを実行することで実現される。以下、図7に示す処理で物理空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出し、位置が推定されていないユーザの情報端末から取得する当該ユーザの動作に応じて変化する変換量を用いて検出された人物画像までの相対距離を算出する処理を説明する。
FIG. 13 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is an example of person estimation processing during camera imaging. This process is executed after the relative position estimation process between persons shown in FIG. The
S1501で、CPU305は、物理空間の誰かしらの人物Xの存在位置情報と、人物間の相対位置推定処理フローで求めたカメラ撮像中の人体に対するHMDを装着している人物(観測者)の存在位置から、HMD撮像に映っているのが人物Xと仮定した場合のHMDを装着している人物(観測者)の存在位置候補を算出する。
S1502で、CPU305は、物理空間に存在する人物全員に対してS1501の処理を実施したかを判断する。ここで、物理空間に存在する人物全員に対してS1501の処理を実施した(true)と判断した場合はS1503に進む。
一方、物理空間に存在する人物全員に対してS1501の処理を実施していない(false)と判断した場合は、S1501に戻る。以下、図14を用いてより具体的に説明する。
In step S <b> 1501, the
In step S1502, the
On the other hand, if it is determined that the process of S1501 has not been performed on all persons existing in the physical space (false), the process returns to S1501. Hereinafter, a more specific description will be given with reference to FIG.
図14において、物理空間には、図4に示したとおりAさん、Bさん、Cさんの3名がいて、Aさんが観測者であると仮定する。図14に示す通り、Aさんのカメラ撮像中の人物がBさんであった場合と、Cさんであった場合、それぞれに対してAさんの存在位置候補が導出される。
S1503で、CPU305は、場所ごとの人の存在可能性情報を含む物理空間のマップ情報をHDD310から読み出す。以下、図15を用いてより具体的に説明する。
図15は、場所ごとの人の存在可能性情報を含む物理空間のマップ情報の例を示す図である。例えば、オフィスのフロアマップに、オフィス内の壁や柱、什器(商品やカタログなどを陳列・設置するための器具・器材)のある場所ごとに、人間の存在確率を高、中、低の3段階で割り振り、この存在確率を紐づけたものとなる。なお、図15の例では、マップの右上に什器があるものとし、什器は基本的に人の存在可能性を低にしているが、什器の縁には人間が腰かける場合などもあるため存在可能性は中としている。該マップ情報は、静的な情報として予め処理サーバ300のHDD310に登録してある。
S1504で、CPU305は、HMDを装着している人物(観測者)の各存在位置候補における存在可能性を算出し、各存在位置候補を導出する基となった各人物(被観測者候補)に前記HMDを装着している人物(観測者)の存在可能性を割り当てる。図16を用いてより具体的に説明する。
In FIG. 14, it is assumed that there are three persons in the physical space, Mr. A, Mr. B, and Mr. C, as shown in FIG. 4, and Mr. A is an observer. As illustrated in FIG. 14, when the person who is capturing the image of Mr. A is Mr. B and Mr. C, the position candidate of Mr. A is derived for each.
In step S <b> 1503, the
FIG. 15 is a diagram illustrating an example of physical space map information including human presence possibility information for each place. For example, on the floor map of an office, there are three high, medium, and low human existence probabilities for each location where there are walls, pillars, and fixtures in the office (equipment / equipment for displaying products and catalogs). It is assigned in stages, and this existence probability is linked. In the example of FIG. 15, it is assumed that there is a fixture on the upper right of the map, and the fixture basically lowers the possibility of human existence, but it can exist because the human being may sit on the edge of the fixture. Sex is medium. The map information is registered in advance in the
In step S <b> 1504, the
図16は、図15に示したマップ上にAさんの存在位置候補を重畳させた図である。
図16において、Aさんのカメラ撮像中の人物がBさんであると仮定して導き出されたAさんの存在位置候補の可能性は低であり、撮像中の人物がCさんであると仮定した場合のAさんの存在位置候補の可能性は高であることがわかる。この算出結果を基に、BさんにAさんの存在可能性が低である情報を紐づけ、CさんにAさんの存在可能性が高である情報を紐づける。
S1505で、CPU305は、被観測者の候補に割り当てられたHMDを装着している人物(観測者)の存在可能性に関し、今までに算出した値の中で最も低い値を採用する。S1506で、CPU305は、HMDを装着している人物(観測者)の存在可能性の値が所定値以下となる被観測者候補を候補から外す。こうすることで、時間が経過し人が動き回ることで、被観測者の候補が絞られていくこととなる。
次に、S1507で、CPU305は、所定時間が経過したかどうかを判断し、所定時間が経過している(true)と判断した場合S1508に進み、所定時間が経過していない(false)と判断した場合は、S1501に戻る。
S1508で、CPU305は、HMDを装着している人物(観測者)の存在可能性の値が最も高い被観測者候補を、HMDを装着する人物(観測者)のカメラ撮像中の人物と決定して、本処理を終了する。図16の例では、Aさんのカメラ撮像中の人物はCさんであると決定する。
〔第2実施形態〕
FIG. 16 is a diagram in which Mr. A's location candidate is superimposed on the map shown in FIG.
In FIG. 16, it is assumed that Mr. A's existence position candidate derived based on the assumption that Mr. A is taking a picture of Mr. A's camera is low, and that the person being shot is Mr. C. It can be seen that the possibility of Mr. A's location candidate is high. Based on this calculation result, information that Mr. A's existence is low is associated with Mr. B, and information that Mr. A's existence is high is associated with Mr. C.
In step S <b> 1505, the
In step S1507, the
In step S <b> 1508, the
[Second Embodiment]
本実施形態では、第1実施形態で説明した、HMDを装着する人物(観測者)のカメラ撮像中の人物を推定する方法の、推定の可能性をより高める方法を説明する。本実施形態は、第1実施形態で実行する処理に加え、図13に示したカメラ撮像中の人物推定フローと並行して、図18に示すカメラ撮像中の人物推定補助処理を実行することで実現する。 In the present embodiment, a method for increasing the possibility of estimation of the method for estimating a person who is capturing an image of a person (observer) wearing the HMD described in the first embodiment will be described. In the present embodiment, in addition to the processing executed in the first embodiment, the person estimation assisting process during camera imaging shown in FIG. 18 is executed in parallel with the person estimation flow during camera imaging shown in FIG. Realize.
本実施形態の処理は、第1実施形態同様、図7に示した人物の絶対位置推定処理フローで、ロストフラグがTRUEになった人物に対して行われる。AさんのロストフラグがTRUEになったものとする。 Similar to the first embodiment, the process of the present embodiment is performed for a person whose lost flag is TRUE in the person absolute position estimation process flow shown in FIG. Assume that Mr. A's lost flag is TRUE.
第1実施形態で説明したとおり、図13に示したS1502の処理がTRUEになった後には、図14に示すように、Aさんのカメラ撮像中の人物がBさんであった場合とCさんであった場合、それぞれに対してAさんの存在位置候補が導出される。ここで、Aさんがその場で静止している場合を考える。人物が静止しているかどうかは、HMDに内蔵されるMEMSセンサによる加速度の検知により把握可能である。 As described in the first embodiment, after the processing of S1502 shown in FIG. 13 becomes TRUE, as shown in FIG. In this case, Mr. A's location candidate is derived for each. Here, consider the case where Mr. A is stationary on the spot. Whether or not a person is stationary can be grasped by detecting acceleration with a MEMS sensor built in the HMD.
図17は、時間とともに被観測者が移動する様子を示した図である。例えば、BさんはAさんの右手の方向に移動し、Cさんはその場を動いていないことを示している。
本情報表示システムでは、AさんとBさん、AさんとCさんの存在位置関係を図10に示した人物間の相対位置推定処理により把握している。またシステムは、BさんとCさんの物理空間上の存在位置を、図7に示した人物の絶対位置推定処理により把握している。本実施例では、前記、相対位置推定処理と絶対位置推定処理の結果が食い違う被観測者候補を候補から外すことで、HMDを装着する人物(観測者)のカメラ撮像中の人物の推定の可能性をより高める。
FIG. 17 is a diagram illustrating a state in which the observed person moves with time. For example, Mr. B moves in the direction of Mr. A's right hand, and Mr. C indicates that he is not moving on the spot.
In this information display system, the existence position relationship between Mr. A and Mr. B, Mr. A and Mr. C is grasped by the relative position estimation process between persons shown in FIG. In addition, the system grasps the positions of Mr. B and Mr. C in the physical space by the absolute position estimation process of the person shown in FIG. In the present embodiment, it is possible to estimate a person who is taking an image of a person wearing an HMD (observer) by removing the candidate for the observer whose results of the relative position estimation process and the absolute position estimation process are different from the candidates. Increase sex.
図18は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、カメラ撮像中の人物推定補助処理例である。本処理は、図15に示したカメラ撮像中の人物推定フローと並行して実行される。なお、各S1701からS1703の処理は、全て処理サーバ300が備えるコントローラ320のCPU305が制御プログラムを実行することで実現される。
S1701で、CPU305は、HMD100を装着している人物の移動量が「0」であるかどうかを判断し、人物の移動量が「0」である(真)と判断した場合はS1702に進み、人物の移動量が「0」でない(偽)と判断した場合は、本処理を終了する。
S1702で、CPU305は、HMD100を装着している人物(観測者)の顔の向き、カメラ撮像中における人体の移動方向から、該人体の物理空間内の移動方向を算出する。S1703で、CPU305は、人物の図7に示した絶対位置推定処理フローで検出した移動方向と合致しない人物を、カメラ撮像中の人物推定フロー処理から除外し、本処理を終了する。
FIG. 18 is a flowchart for explaining a control method of the information display system according to the present embodiment. This example is an example of person estimation assistance processing during camera imaging. This processing is executed in parallel with the person estimation flow during camera imaging shown in FIG. Note that the processing from S1701 to S1703 is all realized by the
In S1701, the
In step S <b> 1702, the
本発明の各工程は、ネットワーク又は各種記憶媒体を介して取得したソフトウエア(プログラム)をパソコン(コンピュータ)等の処理装置(CPU、プロセッサ)にて実行することでも実現できる。 Each process of the present invention can also be realized by executing software (program) acquired via a network or various storage media by a processing device (CPU, processor) such as a personal computer (computer).
本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。 The present invention is not limited to the above embodiment, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not.
100 HMD
300 処理サーバ
100 HMD
300 processing server
Claims (10)
各情報端末は、
ユーザの視界に入る対象を撮像する撮像手段と、
前記対象を透過可能な状態で情報を表示する表示手段と、
前記物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出手段と、
各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信手段と、
前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御手段と、
を備え、
前記サーバ装置は、
各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースと、
各情報端末の前記検出手段が検出した変化する物理量および前記撮像手段が撮像した撮像データを取得する取得手段と、
各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定手段と、
物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出手段と、
物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出手段と、
算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定手段と、
特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力手段と、
を備えることを特徴とする情報表示システム。 An information display system in which a server device communicates with a plurality of information terminals moving in physical space,
Each information terminal
Imaging means for imaging an object entering the user's field of view;
Display means for displaying information in a state where the object can be transmitted;
Detecting means for detecting a physical quantity that changes in association with an action of a user moving on the physical space;
Transmitting means for transmitting imaging data obtained by imaging a physical space in which each user exists or detected detected physical quantity to the server device in association with each user information;
Control means for receiving from the server device information to be displayed and displayed on the display means associated with another user who is viewing through the display means; and
With
The server device
A database for managing feature point information existing in the physical space to which each user moves;
Obtaining means for obtaining the changing physical quantity detected by the detecting means of each information terminal and the imaging data imaged by the imaging means;
Position estimation means for estimating a position where each user should exist in the physical space from the feature points of the physical space detected from the imaging data acquired from each information terminal and the feature points managed in the database;
Detecting means for detecting a person image from imaging data acquired from an information terminal associated with a user whose position is not estimated in physical space;
Calculating means for calculating a relative distance from the imaged data to a human image detected from the imaged data captured by a user whose position is not estimated in a physical space and a physical quantity that changes in accordance with the user's operation; ,
A specifying means for specifying a user who is viewed by a user whose position is not estimated in the physical space from the calculated relative distance and the position of each user who should be present in the estimated physical space;
Output means for outputting information to be displayed in association with the identified user to an information terminal associated with the user whose position is not estimated in the physical space;
An information display system comprising:
ユーザの視界に入る対象を撮像する撮像手段と、
前記対象を透過可能な状態で情報を表示する表示手段と、
物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出手段と、
各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信手段と、
前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御手段と、
を備えことを特徴とする情報端末。 An information terminal that communicates with user information and a server device that manages feature information existing in physical space,
Imaging means for imaging an object entering the user's field of view;
Display means for displaying information in a state where the object can be transmitted;
Detecting means for detecting a physical quantity that changes in association with the action of a user moving in the physical space;
Transmitting means for transmitting imaging data obtained by imaging a physical space in which each user exists or detected detected physical quantity to the server device in association with each user information;
Control means for receiving from the server device information to be displayed and displayed on the display means associated with another user who is viewing through the display means; and
An information terminal comprising:
各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースと、
各情報端末が検出した変化する物理量および撮像した撮像データを取得する取得手段と、
各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定手段と、
物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出手段と、
物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出手段と、
算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定手段と、
特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力手段と、
を備えることを特徴とするサーバ装置。 A server device that communicates with a plurality of information terminals moving in physical space,
A database for managing feature point information existing in the physical space to which each user moves;
An acquisition means for acquiring a changing physical quantity and captured image data detected by each information terminal;
Position estimation means for estimating a position where each user should exist in the physical space from the feature points of the physical space detected from the imaging data acquired from each information terminal and the feature points managed in the database;
Detecting means for detecting a person image from imaging data acquired from an information terminal associated with a user whose position is not estimated in physical space;
Calculating means for calculating a relative distance from the imaged data to a human image detected from the imaged data captured by a user whose position is not estimated in a physical space and a physical quantity that changes in accordance with the user's operation; ,
A specifying means for specifying a user who is viewed by a user whose position is not estimated in the physical space from the calculated relative distance and the position of each user who should be present in the estimated physical space;
Output means for outputting information to be displayed in association with the identified user to an information terminal associated with the user whose position is not estimated in the physical space;
A server device comprising:
ユーザの視界に入る対象を撮像する撮像工程と、
前記対象を透過可能な状態で情報を表示手段に表示する表示工程と、
物理空間上を移動するユーザの動作に対応付けられて変化する物理量を検出する検出工程と、
各ユーザが存在する物理空間を撮影して得られる撮像データまたは検出した変化する物理量をそれぞれのユーザ情報に対応づけて前記サーバ装置に送信する送信工程と、
前記表示手段を透過して視認している他のユーザに対応づけられた表示すべき情報を前記サーバ装置から受信して前記表示手段に表示する制御工程と、
を備えることを特徴とする情報端末の制御方法。 A control method for an information terminal that communicates with user information and a server device that manages feature information existing in a physical space,
An imaging process for imaging an object entering the user's field of view;
A display step of displaying information on the display means in a state where the object can be transmitted;
A detection step of detecting a physical quantity that changes in association with the action of a user moving on the physical space;
A transmission step of transmitting imaging data obtained by imaging a physical space in which each user exists or a detected changing physical quantity to the server device in association with each user information;
A control step of receiving, from the server device, information to be displayed associated with another user who is viewing through the display means and displaying the information on the display means;
An information terminal control method comprising:
各ユーザが移動する物理的空間に存在する特徴点情報を管理するデータベースを備え、、
各情報端末が検出した変化する物理量および撮像した撮像データを取得する取得工程と、
各情報端末から取得する撮像データから検出される物理空間の特徴点と前記データベースで管理される特徴点とから各ユーザが物理空間で存在すべき位置を推定する位置推定工程と、
物理的空間で位置が推定されていないユーザに対応づけられた情報端末から取得する撮像データから人物画像を検出する検出工程と、
物理的空間で位置が推定されていないユーザが撮像した撮像データと当該ユーザの動作に応じて変化する物理量とを用いて当該撮像データから検出される人物画像までの相対距離を算出する算出工程と、
算出される相対距離と、推定されている物理空間で存在すべき各ユーザの位置とから、物理的空間で位置が推定されていないユーザが視ているユーザを特定する特定工程と、
特定されたユーザに対応づけて表示すべき情報を前記物理的空間で位置が推定されていないユーザに対応づけられた情報端末に出力する出力工程と、
を備えることを特徴とするサーバ装置の制御方法。 A method for controlling a server device that communicates with a plurality of information terminals moving on a physical space,
A database for managing feature point information existing in the physical space in which each user moves,
An acquisition step of acquiring the changing physical quantity detected by each information terminal and the captured imaging data;
A position estimation step of estimating a position where each user should exist in the physical space from the feature points of the physical space detected from the imaging data acquired from each information terminal and the feature points managed in the database;
A detection step of detecting a human image from imaging data acquired from an information terminal associated with a user whose position is not estimated in physical space;
A calculation step of calculating a relative distance from the imaging data to a human image detected from the imaging data captured by a user whose position is not estimated in a physical space and a physical quantity that changes according to the user's operation; ,
A specific step of identifying a user who is viewed by a user whose position is not estimated in physical space from the calculated relative distance and the position of each user who should be present in the estimated physical space;
An output step of outputting information to be displayed in association with the identified user to an information terminal associated with a user whose position is not estimated in the physical space;
A control method for a server device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013032912A JP2014164374A (en) | 2013-02-22 | 2013-02-22 | Information display system, information terminal, server device, control method of information terminal, control method of server device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013032912A JP2014164374A (en) | 2013-02-22 | 2013-02-22 | Information display system, information terminal, server device, control method of information terminal, control method of server device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014164374A true JP2014164374A (en) | 2014-09-08 |
Family
ID=51614951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013032912A Pending JP2014164374A (en) | 2013-02-22 | 2013-02-22 | Information display system, information terminal, server device, control method of information terminal, control method of server device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014164374A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9651785B2 (en) | 2015-01-26 | 2017-05-16 | Seiko Epson Corporation | Display system, portable display device, display control device, and display method |
US10120633B2 (en) | 2015-01-26 | 2018-11-06 | Seiko Epson Corporation | Display system, portable display device, display control device, and display method |
US10670421B2 (en) | 2016-05-11 | 2020-06-02 | Ricoh Company, Ltd. | Apparatus, system, and method of information sharing, and recording medium |
CN111862870A (en) * | 2019-04-30 | 2020-10-30 | 陈漱文 | Display array based on positioning control |
JPWO2019106734A1 (en) * | 2017-11-29 | 2020-11-19 | 株式会社オプティム | Computer systems, device control methods and programs |
US11662738B2 (en) | 2018-03-09 | 2023-05-30 | Casio Computer Co., Ltd. | Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map |
-
2013
- 2013-02-22 JP JP2013032912A patent/JP2014164374A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9651785B2 (en) | 2015-01-26 | 2017-05-16 | Seiko Epson Corporation | Display system, portable display device, display control device, and display method |
US10120633B2 (en) | 2015-01-26 | 2018-11-06 | Seiko Epson Corporation | Display system, portable display device, display control device, and display method |
US10223058B2 (en) | 2015-01-26 | 2019-03-05 | Seiko Epson Corporation | Display system, display control device, and display method |
US10670421B2 (en) | 2016-05-11 | 2020-06-02 | Ricoh Company, Ltd. | Apparatus, system, and method of information sharing, and recording medium |
JPWO2019106734A1 (en) * | 2017-11-29 | 2020-11-19 | 株式会社オプティム | Computer systems, device control methods and programs |
US11662738B2 (en) | 2018-03-09 | 2023-05-30 | Casio Computer Co., Ltd. | Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map |
CN111862870A (en) * | 2019-04-30 | 2020-10-30 | 陈漱文 | Display array based on positioning control |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5863423B2 (en) | Information processing apparatus, information processing method, and program | |
JP5994397B2 (en) | Information processing apparatus, information processing method, and program | |
CN108921894B (en) | Object positioning method, device, equipment and computer readable storage medium | |
JP2014164374A (en) | Information display system, information terminal, server device, control method of information terminal, control method of server device, and program | |
JP6562437B1 (en) | Monitoring device and monitoring method | |
WO2018019272A1 (en) | Method and apparatus for realizing augmented reality on the basis of plane detection | |
KR101181967B1 (en) | 3D street view system using identification information. | |
JP2020046928A (en) | Information processor, information processing system, and information processing method and program | |
CN106937532B (en) | System and method for detecting actual user | |
US9218794B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
JP7379065B2 (en) | Information processing device, information processing method, and program | |
CN105760809A (en) | Method and apparatus for head pose estimation | |
KR101073432B1 (en) | Devices and methods for constructing city management system integrated 3 dimensional space information | |
JP6109288B2 (en) | Information processing apparatus, information processing method, and program | |
JP2018120283A (en) | Information processing device, information processing method and program | |
US20200341284A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP7103229B2 (en) | Suspiciousness estimation model generator | |
WO2020032254A1 (en) | Attention target estimating device, and attention target estimating method | |
JP2015230616A (en) | Image processing method and image processor | |
CN109754419B (en) | Position estimation system | |
US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
CN109190486A (en) | A kind of guide control method and device | |
JP5937763B2 (en) | Authentication method for 3D entity image acquisition | |
US20220084244A1 (en) | Information processing apparatus, information processing method, and program | |
CN113228117A (en) | Authoring apparatus, authoring method, and authoring program |