JP2011176599A - Space information visualization system and related information providing device - Google Patents

Space information visualization system and related information providing device Download PDF

Info

Publication number
JP2011176599A
JP2011176599A JP2010038918A JP2010038918A JP2011176599A JP 2011176599 A JP2011176599 A JP 2011176599A JP 2010038918 A JP2010038918 A JP 2010038918A JP 2010038918 A JP2010038918 A JP 2010038918A JP 2011176599 A JP2011176599 A JP 2011176599A
Authority
JP
Japan
Prior art keywords
data
related information
information
terminal
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010038918A
Other languages
Japanese (ja)
Other versions
JP5526860B2 (en
Inventor
孔司 ▲桜▼田
Koji Sakurada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Networks Co Ltd
Original Assignee
Oki Networks Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Networks Co Ltd filed Critical Oki Networks Co Ltd
Priority to JP2010038918A priority Critical patent/JP5526860B2/en
Publication of JP2011176599A publication Critical patent/JP2011176599A/en
Application granted granted Critical
Publication of JP5526860B2 publication Critical patent/JP5526860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a space information visualization system that extracts related information on an object such as a person and equipment and displays it on a space image in a superimposed manner, thereby achieving smooth communication. <P>SOLUTION: The space information visualization system includes: an imaging means for capturing an image in a space; a position detection means for positioning the devices in the space to determine positioning information showing a corresponding position on the image captured by the imaging means for each device; a related information collection means for collecting the related information on each object in which the devices are provided; and a related information holding means for holding the related information collected by the related information collection means in association with the positioning information of the devices determined by the position detection means. A display device displays, at positions corresponding to the positioning information of the devices from the position detection means, object images provided to the devices, and displays the related information of the objects. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、空間情報可視化システム及び関連情報提供装置に関し、例えば、屋内空間における人や機器等の情報を空間映像に表示してリアルタイムに可視化し、これを遠隔地から確認することができる空間情報可視化システム及び関連情報提供装置に適用し得るものである。   The present invention relates to a spatial information visualization system and related information providing device, for example, information on a person or device in an indoor space is displayed on a spatial image and visualized in real time, and the spatial information can be confirmed from a remote location. The present invention can be applied to a visualization system and a related information providing apparatus.

例えば、分散された環境で業務を行う場合、同一空間で業務を行う場合と遜色なく、人と人、人と機器の間の効率的なコミュニケーションを実現するには、遠隔の業務環境の状況を直感的に把握することが有効である。   For example, when working in a distributed environment, in order to achieve efficient communication between people and people and equipment, in the same way as when working in the same space, It is effective to grasp intuitively.

特に、人や機器等が稼動する屋内空間の様々な情報をリアルタイムに可視化し、これを遠隔地から確認することができれば、コンタクトしたい相手の状況や利用したい機器の状況を直観的に把握できるので、状況に応じて素早く円滑に行動することができる。   In particular, if you can visualize various information in an indoor space where people and devices are operating in real time and confirm this from a remote location, you can intuitively understand the status of the person you want to contact and the status of the device you want to use. Can act quickly and smoothly according to the situation.

従来、屋内空間に存在する人をリアルタイムに可視化する技術として、特許文献1に開示された技術がある。特許文献1には、無線タグを身につけた人がいる屋内空間において、複数個のタグレシーバが、受信強度を測定し、この受信強度に基づいて無線タグの位置を推定する。さらに、屋内空間の実況映像上の当該位置の周辺領域から人物形状を検出することにより、無線タグを身につけた人の映像を切り出す方法が記載されている。   Conventionally, there is a technique disclosed in Patent Document 1 as a technique for visualizing a person existing in an indoor space in real time. In Patent Document 1, in an indoor space where a person wearing a wireless tag is present, a plurality of tag receivers measure the reception intensity and estimate the position of the wireless tag based on the reception intensity. Furthermore, a method is described in which an image of a person wearing a wireless tag is cut out by detecting a person shape from a peripheral area of the position on a live image in an indoor space.

この方法を適用すれば、無線タグの位置またはその周辺の人物像をカメラで撮影することが可能であるため、屋内空間に存在する人をリアルタイムに可視化することが可能である。   By applying this method, the position of the wireless tag or a person image around it can be taken by a camera, so that a person existing in the indoor space can be visualized in real time.

特開2009−124539号公報JP 2009-124539 A

ところで、人と人、人と機器の間のコミュニケーションにおいては、人や機器等の状況を把握しながら、状況に適応したやり方で対話を進める必要があるが、このような状況把握は、実況映像から推定される人や機器の様子や位置だけでは不十分なときがある。   By the way, in communication between people and between people and devices, it is necessary to proceed with the dialogue in a manner adapted to the situation while grasping the situation of the person and the device. Sometimes the situation and location of people and equipment estimated from the above are not enough.

例えば、人であれば、プレゼンス(例えば、今、どういう状態にあるか等)、コンタクト手段(例えば、電話やインスタントメッセージ等)、行動の履歴や予定(例えば、今までどこに行っていたのか、これから誰と会うのか等)、などの関連情報を把握すればスムーズな対話ができ、一方、機器であれば、稼動状態や環境状態(例えば、消費電力、温度など)などの関連情報を把握すれば機器利用を円滑に制御できる。   For example, if you are a person, your presence (for example, what state you are currently in), contact means (for example, phone calls, instant messages, etc.), history and schedule of actions (for example, where you have been so far) If you know related information, such as who you are meeting with), you can have a smooth conversation. On the other hand, if it is a device, you can understand related information such as operating status and environmental status (for example, power consumption, temperature, etc.). Equipment usage can be controlled smoothly.

しかしながら、特許文献1の記載技術を用いても、リアルタイムに屋内空間の人を映し出すことはできるが、人や機器等の関連情報までは提供できないという問題がある。   However, even if the technique described in Patent Document 1 is used, a person in an indoor space can be projected in real time, but there is a problem that related information such as a person and a device cannot be provided.

そのため、人と人、人と機器との間のコミュニケーションを円滑かつ効率的に行うために、空間映像に、例えば人や機器等の対象の位置及び映像を重畳表示すると共に、さらに、この対象(例えば人や機器等)の関連情報を抽出して重畳表示することができる空間情報可視化システムが求められている。   Therefore, in order to smoothly and efficiently perform communication between people and between people and devices, for example, the position and image of a target such as a person or device are superimposed and displayed on a spatial image. There is a need for a spatial information visualization system that can extract and superimpose related information (for example, people and devices).

そこで、本発明は、上記問題点を解決するものであり、人や機器等の対象を識別し、さらに、これら人や機器等の対象の関連情報を抽出して空間映像に重畳表示することにより、コミュニケーションを円滑に進めることが可能な空間情報可視化システム及び関連情報提供装置を提供することを目的とする。   Therefore, the present invention solves the above-mentioned problems, by identifying the target such as a person or a device, and further extracting the relevant information of the target such as a person or a device and superimposing it on a spatial image. An object of the present invention is to provide a spatial information visualization system and a related information providing apparatus capable of smoothly promoting communication.

かかる課題を解決するために、第1の本発明の空間情報可視化システムは、空間内に存在する複数の対象に設けられた装置の位置を検出し、表示装置の表示映像内の対応位置に各対象を示す対象映像を重畳表示して空間内を可視化する空間情報可視化システムであって、(1)空間内の映像を撮像する撮像手段と、(2)空間内における各装置の位置を測位し、撮像手段により撮像された映像上の対応位置を示す測位情報を装置毎に求める位置検出手段と、(3)各装置が設けられた各対象に関する関連情報を収集する関連情報収集手段と、(4)関連情報収集手段により収集された関連情報を、位置検出手段により求められた各装置の測位情報と対応付けて保持する関連情報保持手段とを備え、(5)表示装置が、位置検出手段からの各装置の測位情報に相当する位置に、当該装置に設けられた対象映像を表示すると共に、対象の関連情報を表示することを特徴とする。   In order to solve such a problem, the spatial information visualization system according to the first aspect of the present invention detects the positions of devices provided in a plurality of objects existing in the space, and sets the corresponding positions in the display video of the display device. A spatial information visualization system that superimposes and displays a target video showing a target to visualize the space, and (1) an imaging unit that captures a video in the space; and (2) a position of each device in the space. (3) position detection means for obtaining positioning information indicating the corresponding position on the video imaged by the imaging means for each device; (3) related information collection means for collecting related information on each target provided with each device; 4) a related information holding means for holding the related information collected by the related information collecting means in association with the positioning information of each device obtained by the position detecting means; and (5) the display device includes the position detecting means. Each outfit from The position corresponding to the positioning information, and displays the object image provided in the apparatus, and displaying the related information of the target.

第2の本発明の関連情報提供装置は、空間内の映像を撮像する撮像手段と、空間内に存在する複数の対象に設けられた各装置の位置を測位し、撮像手段により撮像された映像上の対応位置を示す測位情報を装置毎に求める位置検出手段とを備え、表示装置の表示映像内の対応位置に各対象を示す対象映像及び関連情報を重畳表示して空間内を可視化する空間情報可視化システムを構成する関連情報提供装置において、(1)各装置が設けられた各対象に関する関連情報を収集する関連情報収集手段と、(2)関連情報収集手段により収集された関連情報を、位置検出手段により求められた各装置の測位情報と対応付けて保持する関連情報保持手段とを備えることを特徴とする。   The related information providing apparatus according to the second aspect of the present invention is an image pickup means for picking up an image in a space, and a position of each device provided in a plurality of objects existing in the space, and an image picked up by the image pickup means. A space for visualizing the space by superimposing and displaying the target video and the related information indicating each target at the corresponding position in the display video of the display device. In the related information providing apparatus constituting the information visualization system, (1) related information collecting means for collecting related information about each object provided with each apparatus, and (2) related information collected by the related information collecting means, And related information holding means for holding the information in association with the positioning information of each device obtained by the position detecting means.

本発明によれば、空間映像に、例えば人や機器等の対象の位置及び対象の映像を重畳表示すると共に、さらに、この対象(例えば人や機器等)の関連情報を抽出して重畳表示することにより、人と人、人と機器との間のコミュニケーションを円滑かつ効率的に行うことができる。   According to the present invention, for example, the position of a target such as a person or a device and the target image are superimposed and displayed on a spatial image, and further, related information of the target (for example, a person or a device) is extracted and superimposed. Thus, communication between people and between people and devices can be performed smoothly and efficiently.

実施形態の空間情報可視化システムの全体構成を示す全体構成図である。It is a whole lineblock diagram showing the whole spatial information visualization system composition of an embodiment. 実施形態の測位システムの内部構成を示す内部構成図である。It is an internal block diagram which shows the internal structure of the positioning system of embodiment. 実施形態のアプリケーションシステムの内部構成を示す内部構成図である。It is an internal block diagram which shows the internal structure of the application system of embodiment. 実施形態の表示端末の内部構成を示す内部構成図である。It is an internal block diagram which shows the internal structure of the display terminal of embodiment. 実施形態のID端末の測位に関する処理を示すシーケンス図である。It is a sequence diagram which shows the process regarding the positioning of the ID terminal of embodiment. 実施形態のID端末の測位データを補正する処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the process which correct | amends the positioning data of the ID terminal of embodiment. 実施形態の別の測位データを補正する処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the process which correct | amends another positioning data of embodiment. 実施形態のアプリケーションシステムによるID関連情報の収集処理を示すシーケンス図である。It is a sequence diagram which shows the collection process of ID relevant information by the application system of embodiment. 実施形態の表示端末の表示部に表示される画面表示の例を示す図である。It is a figure which shows the example of the screen display displayed on the display part of the display terminal of embodiment. 実施形態の表示端末から対象のID関連情報の検索およびアプリケーションの実行処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the search of target ID relevant information from the display terminal of embodiment, and the execution process of an application.

(A)主たる実施形態
以下では、本発明の空間情報可視化システム及び関連情報提供装置の実施形態を、図面を参照しながら説明する。
(A) Main Embodiments Hereinafter, embodiments of the spatial information visualization system and related information providing apparatus of the present invention will be described with reference to the drawings.

(A−1)実施形態の構成
(A−1−1)全体構成
図1は、この実施形態の空間情報可視化システムの全体構成を例示する全体構成図である。図1において、空間情報可視化システム10は、複数のID端末1(1−1〜1−N:Nは正の整数)、測位システム2、情報伝送装置3、表示端末4、撮像装置5、アプリケーションシステム6を少なくとも有して構成される。
(A-1) Configuration of Embodiment (A-1-1) Overall Configuration FIG. 1 is an overall configuration diagram illustrating the overall configuration of the spatial information visualization system of this embodiment. In FIG. 1, a spatial information visualization system 10 includes a plurality of ID terminals 1 (1-1 to 1-N: N is a positive integer), a positioning system 2, an information transmission device 3, a display terminal 4, an imaging device 5, an application. A system 6 is provided at least.

ID端末1−1〜1−N(以下、ID端末1と示す)は、それぞれ識別情報(以下、IDデータという)が割り当てられた端末である。例えば、ID端末1は、人が利用する携帯端末(例えば、携帯電話機、PDA端末、PHS端末等)や、人が所持するカード端末(例えば、社員証など)や、例えばパーソナルコンピュータやプリンタやFAXやエアコン等の機器に搭載される装置等として適用されるものである。   ID terminals 1-1 to 1-N (hereinafter referred to as ID terminal 1) are terminals to which identification information (hereinafter referred to as ID data) is assigned, respectively. For example, the ID terminal 1 is a portable terminal (for example, a mobile phone, a PDA terminal, a PHS terminal, etc.) used by a person, a card terminal (for example, an employee ID card) possessed by a person, a personal computer, a printer, a FAX, for example. It is applied as a device mounted on a device such as an air conditioner.

ID端末1は、少なくとも無線通信機能、受信強度測定機能を有するものであり、後述する測位システム2から送信された無線信号を受信し、その無線強度(受信強度)を測定するものである。また、ID端末1は、測定した無線強度データを測位システム2に与えるものである。さらに、ID端末1は、アプリケーションシステム6から、1又は複数のアプリケーションに係るID端末制御データを受け取るものである。ここで、ID端末制御データは、アプリケーションを行うために授受される制御情報である。これにより、各アプリケーションに必要な情報をアプリケーションシステム6に送信したり、アプリケーションシステム6を介してアプリケーションを実現したりすることができる。   The ID terminal 1 has at least a wireless communication function and a reception strength measurement function, receives a wireless signal transmitted from a positioning system 2 described later, and measures the wireless strength (reception strength). The ID terminal 1 gives the measured wireless intensity data to the positioning system 2. Furthermore, the ID terminal 1 receives ID terminal control data relating to one or a plurality of applications from the application system 6. Here, the ID terminal control data is control information exchanged for performing an application. Thereby, information necessary for each application can be transmitted to the application system 6 or the application can be realized via the application system 6.

測位システム2は、空間内に存在するID端末1の位置を測位するものである。測位システム2は、周期的に空間内に無線信号を送出し、当該無線信号を受信したID端末1から無線強度データを受け取るものである。測位システム2は、ID端末1から受け取った無線強度データに基づきID端末1の位置(第1の測位データともいう)を求める。   The positioning system 2 measures the position of the ID terminal 1 existing in the space. The positioning system 2 periodically transmits a radio signal into the space and receives radio intensity data from the ID terminal 1 that has received the radio signal. The positioning system 2 obtains the position of the ID terminal 1 (also referred to as first positioning data) based on the wireless strength data received from the ID terminal 1.

また、測位システム2は、撮像装置5から撮像データ及び撮像パラメータと、アプリケーションシステム6から取得したIDデータに対応付けられた人や機器等の特徴量データ、又は、人や機器等の形状特徴を示す形状特徴量データを用いて、撮像装置5からの撮像データ及び撮像パラメータに基づく画像領域内で、第1の測位データに該当する位置又はその周辺領域から、特徴量データ又は形状特徴量データと一致する特徴を見つけ出し、この特徴の位置(第2の測位データともいう)を求めるものである。これにより、第1の測位データを補正することができ、精度の高い対象の位置を測位することができる。   In addition, the positioning system 2 obtains image data and imaging parameters from the imaging device 5, feature data such as a person or a device associated with the ID data acquired from the application system 6, or shape features such as a person or a device. Using the shape feature amount data shown, the feature amount data or the shape feature amount data from the position corresponding to the first positioning data or its peripheral region within the image region based on the image pickup data from the image pickup device 5 and the image pickup parameters A matching feature is found and the position of this feature (also referred to as second positioning data) is obtained. Thereby, the first positioning data can be corrected, and the position of the target with high accuracy can be measured.

さらに、測位システム2は、測位した測位データ(ここでは、第2の測位データ)を情報伝送装置3に与えるものである。このとき、測位データは、少なくともID端末のIDデータと対応付けて情報伝送装置3及びアプリケーションシステム6に与える。   Furthermore, the positioning system 2 provides the positioning data (here, the second positioning data) to the information transmission device 3. At this time, the positioning data is given to the information transmission device 3 and the application system 6 in association with at least the ID data of the ID terminal.

なお、この実施形態では、第2の測位データを情報伝送装置3及びアプリケーションシステム6に与えるものとするが、これに限らず、第第1の測位データを与えるようにしても良い。   In this embodiment, the second positioning data is given to the information transmission device 3 and the application system 6. However, the present invention is not limited to this, and the first positioning data may be given.

情報伝送装置3は、測位システム2からIDデータに対応付けられた測位データを受け取り、また撮像装置5から撮像データ及び撮像パラメータを受け取り、またアプリケーションシステム6からIDデータに対応付けられたID関連データを受け取る。そして、情報伝送装置3は、受け取った測位データ、撮像データ及び撮像パラメータ、ID関連データを、各IDデータに対応付けた表示用データとして表示端末4に与えるものである。   The information transmission device 3 receives positioning data associated with the ID data from the positioning system 2, receives imaging data and imaging parameters from the imaging device 5, and ID-related data associated with the ID data from the application system 6. Receive. Then, the information transmission device 3 gives the received positioning data, imaging data and imaging parameters, and ID related data to the display terminal 4 as display data associated with each ID data.

表示端末4は、少なくとも表示部、操作部、制御部等を有する端末である。表示端末4は、情報伝送装置3から受け取った表示用データに基づき映像を表示部に出力する。このとき、表示端末4は、撮像データ及び撮像パラメータの表示用データに基づく空間映像の領域内の各測位データに該当する位置に、ID端末1を持つ人や機器等の対象を示す画像を表示したり、さらには、対象に関連するID関連情報を表示したりする。   The display terminal 4 is a terminal having at least a display unit, an operation unit, a control unit, and the like. The display terminal 4 outputs an image to the display unit based on the display data received from the information transmission device 3. At this time, the display terminal 4 displays an image indicating a target such as a person or a device having the ID terminal 1 at a position corresponding to each positioning data in the area of the spatial video based on the imaging data and the imaging parameter display data. Or ID related information related to the object is displayed.

表示端末4を用いた処理の一例として、例えば、操作部を介して表示部に表示される対象の画像が選択されることにより、当該対象のID関連情報の収集を要求したり、また例えば、ユーザが希望するアプリケーションの指示と共に選択されることにより、その対象との間のアプリケーション(例えば電話、インスタントメッセージ等)を開始させることができる。この例の場合、表示端末4は、当該対象の選択によりアプリケーション入力データをアプリケーションシステム6に与え、これにより、アプリケーションシステム6は、当該ID関連情報(例えば、プレゼンス、電話番号、インスタントメールアドレス等)を表示端末4に表示させることができる。そして、表示端末4は、アプリエーションを要求するアプリケーション入力データをアプリケーションシステム6に与えることで、アプリケーションシステム6によるアプリケーション(例えば、電話、インスタントメッセージ等)を実行することができる。   As an example of processing using the display terminal 4, for example, a target image displayed on the display unit is selected via the operation unit, thereby requesting collection of ID-related information on the target, for example, By being selected together with an instruction of an application desired by the user, an application (for example, a telephone, an instant message, etc.) with the target can be started. In the case of this example, the display terminal 4 gives application input data to the application system 6 by selecting the target, whereby the application system 6 receives the ID related information (for example, presence, telephone number, instant mail address, etc.). Can be displayed on the display terminal 4. Then, the display terminal 4 can execute an application (for example, a telephone, an instant message, etc.) by the application system 6 by giving the application input data requesting the application to the application system 6.

撮像装置5は、ID端末1が存在する空間を撮像するものである。撮像装置5は、撮像した撮像データ及び撮像パラメータを、測位システム2及び情報伝送装置3に与えるものである。   The imaging device 5 images a space where the ID terminal 1 exists. The imaging device 5 gives the captured imaging data and imaging parameters to the positioning system 2 and the information transmission device 3.

アプリケーションシステム6は、表示端末4からID関連情報を要求するアプリケーション入力データを受信すると、その要求されたID端末1の位置に対応付けられたID関連情報を検索・収集し、そのID関連情報を情報伝送装置3を介して表示端末に与えるものである。このとき、アプリケーション入力データには、少なくとも、ID端末1の位置を含むものとする。すなわち、ID端末1の測位データ、又は、ID端末1のIDデータと測位データとを含むようにする。   When the application system 6 receives the application input data requesting the ID related information from the display terminal 4, the application system 6 searches and collects the ID related information associated with the requested position of the ID terminal 1, and obtains the ID related information. This is given to the display terminal via the information transmission device 3. At this time, the application input data includes at least the position of the ID terminal 1. That is, the positioning data of the ID terminal 1 or the ID data and positioning data of the ID terminal 1 is included.

また、アプリケーションシステム6は、1又は複数のアプリケーションを提供するシステムである。アプリケーションシステム6は、表示端末4からアプリケーションの実行を要求するアプリケーション入力データを受信すると、その要求されたアプリケーションを実行するものである。   The application system 6 is a system that provides one or a plurality of applications. When the application system 6 receives application input data requesting execution of an application from the display terminal 4, the application system 6 executes the requested application.

さらに、アプリケーションシステム6は、人や機器等の特徴を示す特徴量データをIDデータに対応付けて保持しており、測位システム2から特徴量データの要求を受けると、要求されたIDデータに対応する特徴量データを測位システム2に与えるものである。さらに、アプリケーションシステム6は、ID端末1に対してID端末制御データを与えるものである。   Furthermore, the application system 6 holds feature data indicating characteristics of people, devices, etc., in association with ID data. When receiving a request for feature data from the positioning system 2, the application system 6 responds to the requested ID data. The feature amount data to be given is given to the positioning system 2. Further, the application system 6 provides ID terminal control data to the ID terminal 1.

(A−1−2)測位システム2の内部構成
図2は、測位システム2の内部構成を示す内部構成図である。図2において、測位システム2は、複数(図2では4台)の無線送信部21−1〜21−4、位置推定部22を少なくとも有する。また、位置推定部22は、無線送信部位置情報記憶部221、測位データ算出部222、測位データ補正部223、形状特徴量データ記憶部224を少なくとも有する。
(A-1-2) Internal Configuration of Positioning System 2 FIG. 2 is an internal configuration diagram showing the internal configuration of the positioning system 2. In FIG. 2, the positioning system 2 includes at least a plurality (four in FIG. 2) of wireless transmission units 21-1 to 21-4 and a position estimation unit 22. The position estimation unit 22 includes at least a wireless transmission unit position information storage unit 221, a positioning data calculation unit 222, a positioning data correction unit 223, and a shape feature amount data storage unit 224.

無線送信部21−1〜21−4は、予め空間SPに設置され、所定周期毎(例えば1秒毎)に無線信号を送出するものである。なお、無線信号を送出する出力強度は、位置推定部22において認識されており、例えば予め設定されているものとする。また、無線信号には、それぞれの無線送信部21−1〜21−4を識別する識別情報(例えば、IDデータ)が含まれている。これにより、無線信号を受信したID端末1は、どの無線送信部21−1〜21−4から送信された無線信号であることを認識することができ、受信した各無線信号の無線強度データを位置推定部22に与えることができる。   The wireless transmission units 21-1 to 21-4 are installed in advance in the space SP, and transmit wireless signals at predetermined intervals (for example, every second). Note that the output intensity for transmitting the radio signal is recognized by the position estimation unit 22 and is set in advance, for example. Further, the wireless signal includes identification information (for example, ID data) for identifying each of the wireless transmission units 21-1 to 21-4. Thereby, the ID terminal 1 that has received the radio signal can recognize which radio signal is transmitted from any of the radio transmission units 21-1 to 21-4, and the radio intensity data of each received radio signal can be obtained. This can be given to the position estimation unit 22.

位置推定部22は、ID端末1から各無線信号の無線強度データを受け取り、この無線強度データを用いてID端末1の位置を推定し、各ID端末1の測位データを情報伝送装置3に与えるものである。   The position estimation unit 22 receives the wireless strength data of each wireless signal from the ID terminal 1, estimates the position of the ID terminal 1 using this wireless strength data, and gives the positioning data of each ID terminal 1 to the information transmission device 3. Is.

無線送信部位置情報記憶部221は、空間SPに配置された無線送信部21−1〜21−4の位置情報を記憶するものである。   The wireless transmission unit position information storage unit 221 stores position information of the wireless transmission units 21-1 to 21-4 disposed in the space SP.

測位データ算出部222は、ID端末1から受け取った各無線信号の無線強度データと、各無線送信部21−1〜21−4の位置情報とに基づき、無線の伝搬特性(伝搬モデル)に照らしながら、ID端末1の位置(第1の測位データ)を求めるものである。   The positioning data calculation unit 222 illuminates radio propagation characteristics (propagation model) based on the radio strength data of each radio signal received from the ID terminal 1 and the position information of each radio transmission unit 21-1 to 21-4. However, the position of the ID terminal 1 (first positioning data) is obtained.

測位データ補正部223は、第1の測位データに該当する画像領域又は周辺領域を探索し、その領域から特徴量データ又は形状特徴量データにマッチする特徴を検出し、その検出した特徴の位置(第2の測位データ)を求めるものである。また、測位データ補正部223は、求めた測位データを情報伝送装置3及びアプリケーションシステム6に与える。   The positioning data correction unit 223 searches for an image region or a peripheral region corresponding to the first positioning data, detects a feature that matches the feature amount data or the shape feature amount data from the region, and detects the position of the detected feature ( 2nd positioning data) is calculated | required. Further, the positioning data correction unit 223 gives the obtained positioning data to the information transmission device 3 and the application system 6.

形状特徴量データ記憶部224は、対象である人の形状や機器の形状の特徴量データをIDデータに対応付けて記憶するものである。形状特徴量データ記憶部224は、測位データ補正部223により形状特徴量データを用いて測位データを補正する際に、記憶している形状特徴量データが読み取られる。   The shape feature amount data storage unit 224 stores feature amount data of the shape of the target person or the shape of the device in association with the ID data. The shape feature data storage unit 224 reads the stored shape feature data when the positioning data correction unit 223 corrects the positioning data using the shape feature data.

(A−1−3)アプリケーションシステム6の内部構成
図3は、アプリケーションシステム6の構成を例示する構成図である。図3において、アプリケーションシステム6は、アプリケーション部61、特徴量データ管理部62、特徴量データ保持部63、ID関連情報管理部64、ID関連情報保持部65を少なくとも有する。
(A-1-3) Internal Configuration of Application System 6 FIG. 3 is a configuration diagram illustrating the configuration of the application system 6. 3, the application system 6 includes at least an application unit 61, a feature amount data management unit 62, a feature amount data holding unit 63, an ID related information management unit 64, and an ID related information holding unit 65.

アプリケーション部61は、アプリケーションを実行する処理部又は装置である。図3では、説明便宜上、複数の機能部を有する場合を例示するが、各機能部と連携可能であれば、各機能を提供する複数の装置(サーバ等)が分散配置された構成としても良い。   The application unit 61 is a processing unit or device that executes an application. In FIG. 3, for the sake of convenience of explanation, a case where a plurality of function units are provided is illustrated, but a configuration in which a plurality of devices (servers, etc.) that provide each function are dispersedly arranged may be used as long as they can cooperate with each function unit. .

また、アプリケーション部61のアプリケーションの一例としては、電話機能部611、会議接続機能部612、インスタントメッセージ転送機能部613、業務管理機能部614、プレゼンス機能部615、スケジュール機能部616などがある。   Examples of applications of the application unit 61 include a telephone function unit 611, a conference connection function unit 612, an instant message transfer function unit 613, a business management function unit 614, a presence function unit 615, a schedule function unit 616, and the like.

特徴量データ管理部62は、対象の特徴を示す特徴量データをIDデータに対応付けて特徴量データ保持部63に登録するものである。この特徴量データとしては、例えば、人の顔画像や上半身画像、機器の画像や色等のデータを適用することができる。また、特徴量データ管理部62は、測位システム2から特徴量データの要求を受けると、要求されたIDデータに対応する特徴量データを特徴量データ保持部63から検索し、検索した特徴量データを測位システム2に与えるものである。   The feature amount data management unit 62 registers feature amount data indicating a target feature in the feature amount data holding unit 63 in association with ID data. As the feature amount data, for example, data such as a human face image, upper body image, device image, and color can be applied. In addition, when the feature quantity data management unit 62 receives a request for feature quantity data from the positioning system 2, the feature quantity data management unit 62 retrieves feature quantity data corresponding to the requested ID data from the feature quantity data holding unit 63, and the retrieved feature quantity data. Is given to the positioning system 2.

特徴量データ保持部63は、対象の特徴量データをIDデータに対応付けて記憶するものである。   The feature data holding unit 63 stores target feature data in association with ID data.

ID関連情報管理部64は、対象のID関連情報を、対象のID端末1の位置に対応付けて、ID関連情報保持部65に登録したり、更新したりするものである。このID関連情報は、アプリケーション部61の各アプリケーションに必要な情報を適用するができ、例えば、プレゼンス情報、スケジュール情報、機器利用状況、電話番号、インスタントメッセージに係るアドレス情報等とすることができる。   The ID related information management unit 64 registers or updates the target ID related information in the ID related information holding unit 65 in association with the position of the target ID terminal 1. Information necessary for each application of the application unit 61 can be applied to the ID related information, and can be, for example, presence information, schedule information, device usage status, telephone number, address information related to an instant message, and the like.

ID関連情報管理部65は、対象のID関連情報を、対象のID端末1の位置に対応付けて保持するものである。ID関連情報管理部65の管理項目としては、例えば、図3に示すように、「ID」、「測位データ」、「ID関連データ」等がある。例えば、図3の例では、「ID:1」のID端末1について、「測位データ:(1,x,y)」、ID関連データの1つとしてプレゼンス情報「電話中」が対応付けて格納される。   The ID related information management unit 65 holds target ID related information in association with the position of the target ID terminal 1. The management items of the ID related information management unit 65 include, for example, “ID”, “positioning data”, “ID related data” and the like as shown in FIG. For example, in the example of FIG. 3, for the ID terminal 1 with “ID: 1”, “positioning data: (1, x, y)” and presence information “on the phone” are stored in association with each other as ID-related data. Is done.

(A−1−4)表示端末4の内部構成
図4は、表示端末4の内部構成を例示する構成図である。図4において、表示端末4は、表示部41、操作部42、制御部43、表示用データ保持部44を少なくとも有する。
(A-1-4) Internal Configuration of Display Terminal 4 FIG. 4 is a configuration diagram illustrating the internal configuration of the display terminal 4. In FIG. 4, the display terminal 4 includes at least a display unit 41, an operation unit 42, a control unit 43, and a display data holding unit 44.

表示部41は、表示画像を表示する表示手段(例えば、ディスプレイ等)である。操作部42は、表示端末4を操作するユーザが操作する操作手段(例えば、マウス、キーボード等)である。なお、表示部41及び操作部42は、例えば、タッチパネルのように表示部及び操作部が一体となった端末であっても良い。   The display unit 41 is a display unit (for example, a display) that displays a display image. The operation unit 42 is operation means (for example, a mouse, a keyboard, etc.) operated by a user who operates the display terminal 4. The display unit 41 and the operation unit 42 may be, for example, a terminal in which the display unit and the operation unit are integrated, such as a touch panel.

制御部43は、表示端末4の機能を司るものである。制御部43の主な機能としては、表示用データ取得部431、表示用データ管理部432、表示画像処理部433、アプリケーション処理部434などがある。   The control unit 43 controls the function of the display terminal 4. The main functions of the control unit 43 include a display data acquisition unit 431, a display data management unit 432, a display image processing unit 433, and an application processing unit 434.

表示用データ取得部431は、情報伝送装置3から送信されたIDデータに対応付けられた表示用データを取得するものである。   The display data acquisition unit 431 acquires display data associated with the ID data transmitted from the information transmission device 3.

表示用データ管理部432は、表示用データ取得部431が取得した表示用データである測位データ、撮像データ及び撮像パラメータ、ID関連データのそれぞれを、IDデータに対応付けて、ID位置−関連情報保持部44に登録・更新するものである。   The display data management unit 432 associates each of positioning data, imaging data and imaging parameters, and ID-related data, which are display data acquired by the display data acquisition unit 431, with ID data, and ID position-related information. The information is registered / updated in the holding unit 44.

表示画像処理部433は、表示部41に表示する表示画像を形成するものである。表示画像処理部433は、ID端末1の測位データに基づく表示画像上での対応位置を当該ID端末1の位置として決定する。そして、ID端末1の位置に、撮像データ及び撮像パラメータに基づく撮像データを空間画像に重畳して表示画像を形成する。また、表示画像処理部433は、ID位置−関連情報保持部44を参照して、ID関連情報に対応付けられたIDデータに対応するID端末1の位置を検索し、その検索した位置にID関連情報を空間画像に重畳して表示画像を形成する。これにより、ユーザにより画面上に映し出される人や機器等のオブジェクトやID関連情報が選択されることで、当該ID端末1の位置を特定することができる。   The display image processing unit 433 forms a display image to be displayed on the display unit 41. The display image processing unit 433 determines the corresponding position on the display image based on the positioning data of the ID terminal 1 as the position of the ID terminal 1. Then, imaging data based on imaging data and imaging parameters is superimposed on the spatial image at the position of the ID terminal 1 to form a display image. Further, the display image processing unit 433 searches the position of the ID terminal 1 corresponding to the ID data associated with the ID related information with reference to the ID position-related information holding unit 44, and sets the ID to the searched position. A related image is superimposed on the spatial image to form a display image. Thereby, the position of the said ID terminal 1 can be pinpointed by selecting objects and ID related information, such as a person and an apparatus projected on a screen by a user.

アプリケーション処理部434は、アプリケーションシステム6から指定したID端末1の位置から当該ID端末1の関連情報を要求したり、アプリケーションシステム6に対してアプリケーションの実行を要求したりするものである。   The application processing unit 434 requests related information of the ID terminal 1 from the position of the ID terminal 1 designated from the application system 6 or requests the application system 6 to execute the application.

例えば、アプリケーション処理部434は、ユーザ操作により表示画像上に映し出される対象が選択されると、その選択された領域に基づき表示用データ保持部44を参照して、当該ID端末の測位データを特定し、そのID端末1の測位データを少なくとも含むアプリケーション入力データをアプリケーションシステム6に与える。また、所定のアプリケーションを実行させるためのアプリケーション入力データをアプリケーションシステム6に与える。   For example, when an object to be displayed on the display image is selected by a user operation, the application processing unit 434 refers to the display data holding unit 44 based on the selected area and specifies the positioning data of the ID terminal. Then, application input data including at least the positioning data of the ID terminal 1 is given to the application system 6. In addition, application input data for executing a predetermined application is given to the application system 6.

(A−2)実施形態の動作
次に、この実施形態の空間情報可視化処理の動作を図面を参照しながら説明する。
(A-2) Operation | movement of embodiment Next, operation | movement of the spatial information visualization process of this embodiment is demonstrated, referring drawings.

以下では、複数の人がそれぞれ異なるIDデータを内蔵するID端末1を持ち、オフィスの同一空間にいる場合に、遠隔地の表示端末4からオフィスの状況を確認する場合を例示する。   In the following, there will be exemplified a case in which the situation of the office is confirmed from the remote display terminal 4 when a plurality of persons have ID terminals 1 incorporating different ID data and are in the same space of the office.

(A−2−1)ID端末1の測位
図5は、ID端末1の測位に関する処理を示すシーケンス図である。
(A-2-1) Positioning of ID terminal 1 FIG. 5 is a sequence diagram showing processing related to positioning of the ID terminal 1.

まず、測位システム2を構成する4つの無線送信部21−1〜21−4は、一定周期毎に(例えば、1秒毎に)、短時間の無線信号を出力する(ステップS101)。   First, the four wireless transmission units 21-1 to 21-4 constituting the positioning system 2 output short-time wireless signals at regular intervals (for example, every second) (step S101).

ここで、無線信号の例としては、例えば無線LAN(IEEE802.11)やBluetooth(登録商標)(IEEE802.15)に準拠した信号とし、その中に無線送信部21−1〜21−4の識別情報(例えばID等)を含めるものとする。   Here, as an example of the radio signal, for example, a signal conforming to a wireless LAN (IEEE802.11) or Bluetooth (registered trademark) (IEEE802.15) is used, and identification of the radio transmitters 21-1 to 21-4 is included therein. Information (for example, ID etc.) shall be included.

ID端末1は、4つの無線送信部21−1〜21−4から送出された無線信号を受信すると、4つの無線信号のそれぞれの受信強度を測定する。そして、ID端末1は、各無線信号の受信強度データとID端末1のIDデータとをまとめた情報を無線強度データとして、測位システム2の位置推定部22に与える(ステップS102)。   When the ID terminal 1 receives the radio signals transmitted from the four radio transmission units 21-1 to 21-4, the ID terminal 1 measures the reception strength of each of the four radio signals. And ID terminal 1 gives the information which put together the receiving intensity data of each radio signal, and ID data of ID terminal 1 to position estimating part 22 of positioning system 2 as radio intensity data (Step S102).

ここで、ID端末1と無線送信部21−1〜21−4との間に、例えば障害物や他の無線発信源などの外乱がない場合には、無線信号は距離とともに減衰してID端末に到達するので、無線強度データのうち、ID端末1に近い無線送信部21−1〜21−4に対応する受信強度データは、ID端末1に遠い無線送信部21−1〜21−4に対応する受信強度に比べて、大きい値を示す。   Here, when there is no disturbance such as an obstacle or another wireless transmission source between the ID terminal 1 and the wireless transmission units 21-1 to 21-4, the wireless signal is attenuated with the distance and the ID terminal. Therefore, the reception intensity data corresponding to the radio transmission units 21-1 to 21-4 close to the ID terminal 1 among the radio intensity data is transmitted to the radio transmission units 21-1 to 21-4 far from the ID terminal 1. The value is larger than the corresponding reception strength.

そこで、位置推定部22は、あらかじめ無線4つの無線送信部21−1〜21−4の位置情報を無線送信部位置情報記憶部221に記憶しており、測位データ算出部222が、無線強度データに含まれる4つの受信強度データを用いて、無線の伝搬モデルに照らし、ID端末1の位置(x,y)を推定する(ステップS103)。そして、位置推定部22は、推定したID端末1の位置(x,y)とID端末1のIDデータとを組にした測位データ(ID,x,y)を、情報伝送装置3に送信する。   Therefore, the position estimation unit 22 stores the position information of the four wireless transmission units 21-1 to 21-4 in advance in the wireless transmission unit position information storage unit 221, and the positioning data calculation unit 222 stores the wireless intensity data. Is used to estimate the position (x, y) of the ID terminal 1 in light of a wireless propagation model (step S103). Then, the position estimation unit 22 transmits positioning data (ID, x, y) obtained by combining the estimated position (x, y) of the ID terminal 1 and ID data of the ID terminal 1 to the information transmission device 3. .

このとき、測位システム2の位置推定部22は、撮像装置3に対して撮像パラメータの要求を行い(ステップS104)、撮像装置3から受信した撮像パラメータ(例えば、水平方向の向き、垂直方向の向き、ズーム量等))を受け取り(ステップS105)、撮像画面上におけるID端末1の位置をIDデータに対応付けて蓄積・更新する(ステップS106)。   At this time, the position estimation unit 22 of the positioning system 2 requests the imaging device 3 for imaging parameters (step S104), and the imaging parameters received from the imaging device 3 (for example, the horizontal direction and the vertical direction). , Zoom amount, etc.)) (step S105), and the position of the ID terminal 1 on the imaging screen is stored and updated in association with the ID data (step S106).

ここで、ID端末の位置の推定方法としては、従来公知の方法を用いてよいが、例えば、この実施形態では、無線の伝搬損失L[dB]が式(1)で近似できるモデルを想定し、ID端末1の位置を計算する。   Here, as a method for estimating the position of the ID terminal, a conventionally known method may be used. However, for example, in this embodiment, a model in which the wireless propagation loss L [dB] can be approximated by Expression (1) is assumed. The position of the ID terminal 1 is calculated.

L=20log(d)+α …(1)
ただし、dは伝搬距離、αは無線波長で決まる定数である。
L = 20 log (d) + α (1)
Here, d is a propagation distance, and α is a constant determined by a radio wavelength.

例えば、式(1)によれば、4つの受信強度データの任意の2つの組み合わせに対し、受信強度データの差分を計算すれば、2つの無線送信部からID端末1までの距離の比を求めることができる。従って、測位データ算出部222は、4つの無線送信部21−1〜21−4の位置と、各無線送信部21−1〜21−4からID端末1までの距離の比とに基づいて、ID端末1の位置を推定することができる。   For example, according to the equation (1), if the difference of the reception intensity data is calculated for any two combinations of the four reception intensity data, the ratio of the distance from the two wireless transmission units to the ID terminal 1 is obtained. be able to. Therefore, the positioning data calculation unit 222 is based on the positions of the four wireless transmission units 21-1 to 21-4 and the ratio of the distances from the wireless transmission units 21-1 to 21-4 to the ID terminal 1. The position of the ID terminal 1 can be estimated.

なお、無線の伝搬モデルと実際の無線環境に差異が存在する場合には、上記の位置推定方法で求められる測位データに誤差が生じる場合がある。そこで、位置推定部22は、以下のようにして、測位データを補正するようにしても良い。   If there is a difference between the wireless propagation model and the actual wireless environment, an error may occur in the positioning data obtained by the above position estimation method. Therefore, the position estimation unit 22 may correct the positioning data as follows.

図6は、ID端末1の測位データを補正する処理の一例を示すシーケンス図である。   FIG. 6 is a sequence diagram illustrating an example of processing for correcting the positioning data of the ID terminal 1.

図6では、アプリケーションシステム6では、特徴量データ管理部62が、各ID端末1の搭載する対象の特徴を示す特徴量データ(例えば、人の顔画像の特徴量データ)を特徴量データ保持部63に登録して蓄積しておく(ステップS201)。   In FIG. 6, in the application system 6, the feature amount data management unit 62 displays feature amount data (for example, feature amount data of a human face image) indicating a feature to be mounted on each ID terminal 1 as a feature amount data holding unit. Registered in 63 and stored (step S201).

そして、ステップS103の後に、位置推定部22は、アプリケーションシステム6に対してIDデータに対応した特徴量データを要求し(ステップS202)、アプリケーションシステム6から特徴量データを取得する(ステップS203)。   After step S103, the position estimation unit 22 requests the feature amount data corresponding to the ID data from the application system 6 (step S202), and acquires the feature amount data from the application system 6 (step S203).

さらに、位置推定部22は、撮像装置5に対して撮像データの要求を行い(ステップS204)、撮像装置5から撮像データ及び撮像パラメータを取得する(ステップS205)。   Furthermore, the position estimation unit 22 requests imaging data from the imaging device 5 (step S204), and acquires imaging data and imaging parameters from the imaging device 5 (step S205).

そして、位置推定部22では、測位データ補正部223が、測位データに該当する画像領域を探索し(ステップS206)、その画像領域又はその付近領域から特徴量データにマッチする画像位置を見つけ出す(ステップS207)。そして、この画像位置を測位データ(ID,x,y)として情報伝送装置3に送信するようにしても良い。   Then, in the position estimation unit 22, the positioning data correction unit 223 searches for an image area corresponding to the positioning data (step S206), and finds an image position matching the feature amount data from the image area or its vicinity area (step S206). S207). And you may make it transmit this image position to the information transmission apparatus 3 as positioning data (ID, x, y).

すなわち、アプリケーションシステム6は、例えばIDデータ毎の顔画像の特徴量データを保持しており、位置推定部22からの問合せに応じて、IDデータに対応した顔画像の特徴量データを出力でき、撮像装置5は、撮像データと共に、例えば水平方向の向き、垂直方向の向き、ズーム量からなる撮像パラメータを出力することができる。そこで、位置推定部22は、IDデータに基づく顔画像の特徴量データを取得し、さらに撮像パラメータと測位データとに基づいて、撮像データ上にID端末1が存在する可能性の高い領域を設定し、そこから人の顔を検出し、顔画像の特徴量データとマッチングを行って、ID端末を所持する人を発見する。これによって、測位データ(ID,x,y)の補正が可能となる。   That is, the application system 6 holds, for example, face image feature amount data for each ID data, and can output face image feature amount data corresponding to the ID data in response to an inquiry from the position estimation unit 22. The imaging device 5 can output imaging parameters including, for example, the horizontal direction, the vertical direction, and the zoom amount together with the imaging data. Therefore, the position estimation unit 22 acquires feature amount data of the face image based on the ID data, and further sets an area where the ID terminal 1 is likely to exist on the imaging data based on the imaging parameters and the positioning data. Then, a person's face is detected therefrom, and matching is performed with the feature amount data of the face image to find a person possessing the ID terminal. As a result, the positioning data (ID, x, y) can be corrected.

また、図7は、別の測位データを補正する処理の一例を示すシーケンス図である。   FIG. 7 is a sequence diagram illustrating an example of a process for correcting another positioning data.

図7では、測位システム2において、形状特徴量データ記憶部224が人物形状の特徴量データを蓄積しておく(ステップS301)。   In FIG. 7, in the positioning system 2, the shape feature quantity data storage unit 224 stores the feature quantity data of the person shape (step S301).

位置推定部22は、撮像装置5に対して撮像データの要求を行い(ステップS302)、撮像装置5から撮像データ及び撮像パラメータを取得する(ステップS303)。   The position estimation unit 22 requests imaging data from the imaging device 5 (step S302), and acquires imaging data and imaging parameters from the imaging device 5 (step S303).

そして、位置推定部22では、測位データ補正部223が、測位データに該当する画像領域を探索し(ステップS304)、その画像領域又はその付近領域から、人物形状の特徴量データにマッチする画像位置を見つけ出す(ステップS305)。そして、この画像位置を測位データ(ID,x,y)として情報伝送装置3及びアプリケーションシステム6に送信するようにしても良い。   Then, in the position estimation unit 22, the positioning data correction unit 223 searches for an image area corresponding to the positioning data (step S304), and an image position matching the feature amount data of the person shape from the image area or its vicinity area. Is found (step S305). The image position may be transmitted to the information transmission device 3 and the application system 6 as positioning data (ID, x, y).

(A−2−2)ID関連情報の収集処理
図8は、アプリケーションシステム6によるID関連情報の収集処理を示すシーケンス図である。
(A-2-2) ID-Related Information Collection Processing FIG. 8 is a sequence diagram showing ID-related information collection processing by the application system 6.

ID関連情報は、人や機器等に関する情報であり、例えば、人のプレゼンス情報、人のスケジュール情報、機器の利用状況(例えば、利用時間、消費電力値など)の情報等、様々な情報である。そのため、ID関連情報の種類に応じて種々の方法をとることができる。   ID-related information is information related to people, devices, and the like, and is various information such as, for example, people's presence information, people's schedule information, and device usage status (for example, usage time, power consumption value, etc.). . Therefore, various methods can be taken according to the type of ID related information.

そこで、図8では、ID関連情報の一例として、プレゼンス、スケジュール、機器利用情報を登録する場合の処理を例示する。   Therefore, FIG. 8 illustrates processing for registering presence, schedule, and device usage information as an example of ID-related information.

プレゼンス情報及びスケジュール情報については、例えば、ID端末1又は表示端末4において、ユーザがそれぞれの登録操作をすることで(ステップS401)、ID端末1又は表示端末4からアプリケーションシステム6に送信される(ステップS402、S403)。例えば、人のプレゼンス情報は、SIP(Session Initiative Protocol)等を用いてアプリケーションシステム6に登録することができる。また例えば、人のスケジュール情報については、ユーザがユーザ端末(ID端末1又は表示端末4)を用いてスケジュールを入力し送信することで、アプリケーションシステム6に登録することができる。   Presence information and schedule information are transmitted from the ID terminal 1 or the display terminal 4 to the application system 6 when the user performs a registration operation on the ID terminal 1 or the display terminal 4 (step S401), for example (step S401). Steps S402 and S403). For example, human presence information can be registered in the application system 6 using SIP (Session Initiative Protocol) or the like. Further, for example, human schedule information can be registered in the application system 6 by a user inputting and transmitting a schedule using a user terminal (ID terminal 1 or display terminal 4).

また、機器利用状況については、例えば、機器が定期的に利用時間や消費電力値等の利用状況を検出し(ステップS404)、その検出した機器利用状況の情報をアプリケーションシステム6に送信する(ステップS405)。   As for device usage status, for example, the device periodically detects usage status such as usage time and power consumption value (step S404), and transmits the detected device usage status information to the application system 6 (step S404). S405).

上記のようにして、アプリケーションシステム6は、ID関連情報を取得する。また、アプリケーションシステム6は、測位システム2から測位データを受信しており、ID関連情報管理部64が、IDと、測位データと、関連データとを対応付けてID関連情報保持部65に登録、更新する(ステップS406)。   As described above, the application system 6 acquires the ID related information. The application system 6 has received positioning data from the positioning system 2, and the ID related information management unit 64 registers the ID, the positioning data, and the related data in the ID related information holding unit 65 in association with each other. Update (step S406).

(A−2−3)空間情報可視化処理について
撮像装置5は、ID端末1が存在する空間を撮像し、撮像データ及び撮像パラメータ(例えば、水平方向の向き、垂直方向の向き、ズーム量等)を情報伝送装置3に送信する。また測位システム2は、IDデータと対応付けた測位データ(ID,x,y)を情報伝送装置3に送信する。さらに、アプリケーションシステム6は、IDデータを対応付けたID関連情報を情報伝送装置3に送信する。
(A-2-3) Spatial Information Visualization Processing The imaging device 5 captures the space in which the ID terminal 1 exists, and the imaging data and imaging parameters (for example, horizontal direction, vertical direction, zoom amount, etc.) Is transmitted to the information transmission apparatus 3. The positioning system 2 transmits positioning data (ID, x, y) associated with the ID data to the information transmission device 3. Further, the application system 6 transmits ID related information associated with the ID data to the information transmission apparatus 3.

そして、情報伝送装置3は、撮像装置5からの撮像データ及び撮像パラメータと、測位システム2からのIDデータに対応付けられた測位データと、IDデータを対応付けたID関連情報とを表示データとして表示端末4に送信する。   Then, the information transmission device 3 uses the imaging data and imaging parameters from the imaging device 5, the positioning data associated with the ID data from the positioning system 2, and the ID related information associated with the ID data as display data. It transmits to the display terminal 4.

表示端末4は、情報伝送装置3から受信した表示データに基づいて、ID端末1が存在する空間情報を表示部41に表示する。   The display terminal 4 displays the spatial information in which the ID terminal 1 exists on the display unit 41 based on the display data received from the information transmission device 3.

図9は、表示端末4の表示部41に表示される画面表示の例を示す図である。図9に例示する表示画面70は、人や機器等を検索するための検索ウインドウ71、撮像データに人や機器等のID関連情報に基づいて作成した属性情報を画面に重畳して表示する映像表示ウインドウ72、映像表示ウインドウ72に表示されるオブジェクトのリストを表示するオブジェクトリスト73から構成される。   FIG. 9 is a diagram illustrating an example of a screen display displayed on the display unit 41 of the display terminal 4. A display screen 70 illustrated in FIG. 9 is a search window 71 for searching for people, devices, and the like, and a video that displays image data superimposed on the screen with attribute information created based on ID-related information about people, devices, etc. A display window 72 and an object list 73 for displaying a list of objects displayed in the video display window 72 are configured.

表示端末4は、映像表示ウインドウ72での属性情報表示75に際し、各ID端末1の測位データと撮像パラメータに基づいて、撮像データ上のID端末1の位置を決定し、その位置に属性情報表示75を重畳して表示する。   When displaying the attribute information 75 in the video display window 72, the display terminal 4 determines the position of the ID terminal 1 on the imaging data based on the positioning data and imaging parameters of each ID terminal 1, and displays the attribute information at that position. 75 is superimposed and displayed.

ここで、属性情報表示75は、当該IDデータに対応付けられた1又は複数のID関連情報が表示される。属性情報表示75は、ID端末1の位置に表示される。つまり、属性情報表示75は、ID端末1の映像と重畳するように表示される。   Here, the attribute information display 75 displays one or a plurality of ID related information associated with the ID data. The attribute information display 75 is displayed at the position of the ID terminal 1. That is, the attribute information display 75 is displayed so as to be superimposed on the video of the ID terminal 1.

また、ID端末1の映像に属性情報表示75が重畳されると、属性情報表示75の内容が見えにくくなるので、ID端末1の映像領域付近に表示されるようにしても良い。例えば、ID端末1の位置から、水平方向及び又は垂直方向に所定量だけ位置をずらした位置に、属性情報表示75を表示するようにしても良い。   Further, when the attribute information display 75 is superimposed on the video of the ID terminal 1, the content of the attribute information display 75 becomes difficult to see, and may be displayed near the video area of the ID terminal 1. For example, the attribute information display 75 may be displayed at a position shifted from the position of the ID terminal 1 by a predetermined amount in the horizontal direction and / or the vertical direction.

また、映像表示ウインドウ72には、表示領域指定の操作インタフェース74が備わっており、ユーザはこの操作インタフェース74を操作して撮像装置5の撮像パラメータを制御する。これにより、映像表示ウインドウ72に映し出される空間映像の方向(水平方向、垂直方向)の移動や、ズーム量の調整によりズームアップやズームダウンを行うことができる。   The video display window 72 has an operation interface 74 for designating a display area, and the user operates the operation interface 74 to control the imaging parameters of the imaging device 5. As a result, it is possible to perform zoom-up and zoom-down by moving in the direction (horizontal direction and vertical direction) of the spatial image displayed in the image display window 72 and adjusting the zoom amount.

図10は、表示端末4から対象のID関連情報の検索およびアプリケーションの実行処理の一例を示すシーケンス図である。   FIG. 10 is a sequence diagram illustrating an example of processing for searching for target ID related information and executing an application from the display terminal 4.

表示端末4は、ユーザ操作を受けて(ステップS501)、アプリケーションシステム6に、人や機器等のID関連情報の検索を要求するため、少なくともID端末1の測位データを含むアプリケーション入力データを送信する(ステップS502)。   Upon receiving the user operation (step S501), the display terminal 4 transmits application input data including at least the positioning data of the ID terminal 1 to request the application system 6 to search for ID related information such as a person or a device. (Step S502).

このとき、ユーザ操作により検索対象とする人や機器等のオブジェクトを、個別に選択するようにしても良いし、又は、複数の人あるいは機器を選択するようにしても良いし、又は、特定のグループ毎に選択するようにしても良い。   At this time, an object such as a person or a device to be searched by a user operation may be individually selected, or a plurality of people or devices may be selected, or a specific object may be selected. You may make it select for every group.

アプリケーションシステム6は、アプリケーション入力データを受け取ると、アプリケーション入力データに含まれているID端末1の測位データに基づき、当該ID端末1の測位データに対応するID関連情報を検索する。   Upon receiving the application input data, the application system 6 searches for ID related information corresponding to the positioning data of the ID terminal 1 based on the positioning data of the ID terminal 1 included in the application input data.

例えば、アプリケーションシステム6は、ID関連情報保持部65から、アプリケーション入力データに含まれているID端末1の測位データに対応するID関連情報を検索するようにしても良い。   For example, the application system 6 may retrieve the ID related information corresponding to the positioning data of the ID terminal 1 included in the application input data from the ID related information holding unit 65.

また例えば、当該ID端末1のリアルタイムの状況のID関連情報(例えば、人のプレゼンス情報、人のスケジュール、機器利用状況など)を収集するために、アプリケーション入力データに含まれているID端末1の測位データに基づき、ID関連情報保持部65から、当該ID端末1のIDデータを検索する。そして、当該ID端末1のIDデータを用いて、ID端末1に対してID関連情報の取得要求を行い、ID端末1のID関連情報を収集するようにしても良い。   Further, for example, in order to collect ID-related information (for example, human presence information, human schedule, device usage status, etc.) of the ID terminal 1 in real time, the ID terminal 1 included in the application input data Based on the positioning data, the ID related information holding unit 65 searches the ID data of the ID terminal 1. Then, using the ID data of the ID terminal 1, an ID related information acquisition request may be made to the ID terminal 1 to collect the ID related information of the ID terminal 1.

アプリケーションシステム6は、このようにして取得したID端末1のID関連情報を情報伝送装置3に与える(ステップS503)。   The application system 6 gives the ID related information of the ID terminal 1 acquired in this way to the information transmission apparatus 3 (step S503).

情報伝送装置3は、アプリケーション入力データを受信すると、測位システム2に対して、検索対象のIDデータを指定した測位データの要求を行い(ステップS504)、測位システム2から測位データを受け取る(ステップS505)。このとき、測位システム2は、図5〜図7で説明した測位データの算出又は補正を行うようにしても良い。これにより、ID端末1の位置をリアルタイムに知らせることができる。   Upon receiving the application input data, the information transmission device 3 requests the positioning system 2 for positioning data specifying the ID data to be searched (step S504), and receives the positioning data from the positioning system 2 (step S505). ). At this time, the positioning system 2 may calculate or correct the positioning data described with reference to FIGS. Thereby, the position of the ID terminal 1 can be notified in real time.

また、情報伝送装置3は、撮像装置5に対して撮像データの要求を行い(ステップS506)、撮像装置5から撮像データ及び撮像パラメータを受け取る(ステップS507)。   Further, the information transmission device 3 requests imaging data from the imaging device 5 (step S506), and receives imaging data and imaging parameters from the imaging device 5 (step S507).

そして、情報伝送装置3は、撮像装置5からの撮像データ及び撮像パラメータと、測位システム2からのIDデータに対応付けられた測位データと、IDデータを対応付けたID関連情報とを表示データとして表示端末4に送信する(ステップS508)。これにより、表示端末4の表示部41には、検索対象とするID端末1のID関連情報を表示することができる(ステップS509)。   Then, the information transmission device 3 uses the imaging data and imaging parameters from the imaging device 5, the positioning data associated with the ID data from the positioning system 2, and the ID related information associated with the ID data as display data. It transmits to the display terminal 4 (step S508). Thereby, the ID related information of the ID terminal 1 to be searched can be displayed on the display unit 41 of the display terminal 4 (step S509).

また、ユーザが、表示端末4の映像表示ウインドウ72又はオブジェクトリスト73上で、特定の人又は機器を選択すると、選択したオブジェクトの位置に対応するID端末1の測位データを含むアプリケーション入力データがアプリケーションシステムに出力される。   When the user selects a specific person or device on the video display window 72 or the object list 73 of the display terminal 4, application input data including the positioning data of the ID terminal 1 corresponding to the position of the selected object is the application. Output to the system.

アプリケーションシステム6は、これをトリガとして、実行可能なサービスの選択肢を表示端末4に表示し、ユーザがその選択肢(例えば電話等)を選択することで(ステップS510)、アプリケーションを実行させるアプリケーション入力データ(例えば、電話要求等)がアプリケーションシステム6に与えられ(ステップS511)、アプリケーションシステム6が、ID端末制御データ(例えば通話要求等)をID端末1に出力し(ステップS512)、ID端末1と表示端末4との間で様々なアプリケーションを実行する(ステップS513)。   The application system 6 uses this as a trigger to display executable service options on the display terminal 4, and when the user selects the option (for example, telephone) (step S510), application input data that causes the application to be executed. (For example, a telephone request or the like) is given to the application system 6 (step S511), and the application system 6 outputs ID terminal control data (for example, a call request or the like) to the ID terminal 1 (step S512). Various applications are executed with the display terminal 4 (step S513).

例えば、表示端末4の映像表示ウインドウ72上で、人を選択することで、対応するID端末1との間で電話やインスタントメッセージを開始したり、機器を選択することで、機器の動作モード(例えば、省電モード等)を変更したりする。   For example, by selecting a person on the video display window 72 of the display terminal 4, starting a phone call or instant message with the corresponding ID terminal 1, or selecting a device, the device operation mode ( For example, the power saving mode or the like is changed.

(A−3)実施形態の効果
以上のように、この実施形態によれば、ID端末1の位置を測位し、この測位データを、カメラ映像の情報や業務システムで管理された人や機器のID関連情報に対応付けることによって、ID端末の利用者に関連した情報をカメラ映像上に直観的に提示することができる。従って、人や機器が稼動する屋内空間の様々な情報をリアルタイムに可視化することができ、これを遠隔地から確認することができる。
(A-3) Effect of Embodiment As described above, according to this embodiment, the position of the ID terminal 1 is measured, and this positioning data is used for information on camera images and for people and devices managed by the business system. By associating with ID-related information, information related to the user of the ID terminal can be presented intuitively on the camera video. Therefore, it is possible to visualize in real time various information in the indoor space where people and devices are operated, and confirm this from a remote location.

また、この実施形態では、ID端末1で受信される無線送信部21−1〜21−4からの無線信号の受信強度に基づいてID端末1の位置を推定した後、さらに、カメラ映像と人や物の特徴量データに基づいてID端末1の位置推定を補正するよう測位システム2を構成したので、ID端末1と人の位置を詳細に把握して、カメラ映像上に可視化することができる。   Moreover, in this embodiment, after estimating the position of the ID terminal 1 based on the reception strength of the radio signal from the radio transmission units 21-1 to 21-4 received by the ID terminal 1, the camera video and the person Since the positioning system 2 is configured to correct the position estimation of the ID terminal 1 based on the feature amount data of the object and the object, the positions of the ID terminal 1 and the person can be grasped in detail and visualized on the camera video. .

さらに、この実施形態では、ID端末1の測位データとID関連情報とを対応付けることによって、人や物の所望のID関連情報をユーザが希望する際に、そのID端末1の位置にID関連情報を表示させることや、そのID関連情報に係るアプリケーションの選択によって簡単にアプリケーションの実行をさせることができる。そのため、現在の人のプレゼンス状況やこれからの予定などや、また機器の利用状況等を知ることができ、円滑にコミュニケーションを図ることができる。さらに、これら状況に応じたアプリケーションを迅速に図ることもできる。   Furthermore, in this embodiment, when the user desires desired ID-related information of a person or an object by associating the positioning data of the ID terminal 1 with the ID-related information, the ID-related information is displayed at the position of the ID terminal 1. Can be displayed, or the application can be easily executed by selecting the application related to the ID related information. Therefore, it is possible to know the current person's presence status and future schedule, the usage status of the device, etc., and to smoothly communicate. Furthermore, it is possible to quickly achieve an application corresponding to these situations.

(B)他の実施形態
(B−1)上述した実施形態では、測位システムを、ID端末が4つの無線送信部からの無線信号を受信し、位置推定部が、各無線信号の受信強度に基づいてID端末を測位するよう構成した場合につき説明したが、測位システムの構成としては、無線信号を用いた他の従来公知の方法によっても、上述した実施形態と同様の効果が得られる。例えば、実際の運用においては、測位に係るコストと精度のバランスを考慮して、無線送信部の数を増減させてもよい。
(B) Other Embodiments (B-1) In the above-described embodiment, the positioning system is configured such that the ID terminal receives wireless signals from four wireless transmission units, and the position estimation unit determines the reception strength of each wireless signal. Although the case where the ID terminal is configured to be positioned based on the above has been described, the same effects as those of the above-described embodiment can be obtained by using another conventionally known method using a radio signal as the configuration of the positioning system. For example, in actual operation, the number of radio transmission units may be increased or decreased in consideration of the balance between positioning costs and accuracy.

また、無線信号の受信強度によらない測位方法、例えば、無線信号の伝送時間を計測し、これに基づいてID端末から各無線送信部までの距離を推定する方法等、によってID端末を測位するようにしてもよい。また、ID端末と無線送信部との間でRFIDなどの近距離無線通信を用いてID端末を測位するようにしてもよい。   In addition, the positioning of the ID terminal is performed by a positioning method that does not depend on the reception strength of the radio signal, for example, a method of measuring the transmission time of the radio signal and estimating the distance from the ID terminal to each radio transmission unit based on this. You may do it. Further, the ID terminal may be positioned using short-range wireless communication such as RFID between the ID terminal and the wireless transmission unit.

(B−2)上述した実施形態では、表示端末上に、カメラ映像に含まれるすべてのID端末を対象に、映像とテキストによる属性情報とを重畳して表示する場合について説明した。表示端末への情報提供形式は、アプリケーションに適した形で設計すればよく、上述した実施形態に示した表示形式にこだわるものではない。例えば、検索対象のID端末以外のID端末については、その属性情報を表示しないとする運用も可能である。 (B-2) In the above-described embodiment, a case has been described in which video and text attribute information are superimposed on all ID terminals included in the camera video and displayed on the display terminal. The information provision format to the display terminal may be designed in a form suitable for the application, and does not stick to the display format shown in the above-described embodiment. For example, for an ID terminal other than the ID terminal to be searched, it is possible to operate such that the attribute information is not displayed.

また、カメラ映像の代わりに、あらかじめ用意した仮想現実映像を用いれば、少ないデータ量で人や機器が稼動する空間の可視化が可能となる。さらに、表示端末に映し出す人や機器などの対象は、撮像装置が撮像した人物映像や機器映像であっても良いし、又あらかじめ用意した代替映像(例えば、アバターなど)としても良い。   If a virtual reality video prepared in advance is used instead of a camera video, it is possible to visualize a space where people and devices operate with a small amount of data. Further, the target such as a person or device displayed on the display terminal may be a person video or device video captured by the imaging device, or may be an alternative video (for example, an avatar) prepared in advance.

(B−3)上述した実施形態では、複数の人がそれぞれ異なるIDデータを内蔵するID端末を持つ場合について説明したが、パソコン、プリンタ、空調、照明などにID端末の機能を内蔵するようにしてもよい。この場合、ID端末に各機器の利用者固有のIDデータと機器固有のIDデータを設定できるようにすれば、上述した実施形態と同様の効果のほか、機器固有の属性情報をカメラ映像に対応付けて提示することができる。なお、この場合、位置推定部は、追加の処理として、IDデータに基づいて、アプリケーションシステムより、機器形状に関する特徴量データを取得し、さらに、撮像装置から撮像データと撮像パラメータを入力して、測位データに該当する画像領域の付近から該当機器を発見し、画像上の位置から測位データ(ID,x,y)を決定して、情報伝送装置に出力することも可能である。 (B-3) In the above-described embodiment, a case has been described in which a plurality of people have ID terminals that incorporate different ID data, but the function of the ID terminal is incorporated in a personal computer, a printer, an air conditioner, a lighting, or the like. May be. In this case, if the ID data unique to the user of each device and the ID data unique to the device can be set in the ID terminal, in addition to the same effects as the above-described embodiment, the device-specific attribute information corresponds to the camera video. It can be presented. In this case, as an additional process, the position estimation unit acquires feature amount data related to the device shape from the application system based on the ID data, and further inputs the imaging data and imaging parameters from the imaging device, It is also possible to find the corresponding device from the vicinity of the image area corresponding to the positioning data, determine the positioning data (ID, x, y) from the position on the image, and output it to the information transmission apparatus.

(B−4)上述した実施形態では、表示端末は、アプリケーション入力データに、ID端末の測位データを記載する場合を例示した。これは、ID端末の測位データに基づき、現在のID端末の位置から対応するID関連情報を特定できるようにすることを意図している。そのため、現在のID端末の位置から対応するID端末1のID関連情報を特定することができれば、表示端末は、ID端末のIDデータを含ませるようにしても良い。この場合、アプリケーションシステム6は、ID関連情報保持部から、受信したアプリケーション入力データに含まれるIDデータに対応する測位データを検索し、この検索した測位データに対応するID関連情報を検索するようにしても良い。 (B-4) In the above-described embodiment, the display terminal exemplifies the case where the positioning data of the ID terminal is described in the application input data. This is intended to enable identification of corresponding ID-related information from the current position of the ID terminal based on the positioning data of the ID terminal. Therefore, if the ID related information of the corresponding ID terminal 1 can be identified from the current position of the ID terminal, the display terminal may include ID data of the ID terminal. In this case, the application system 6 searches the ID related information holding unit for positioning data corresponding to the ID data included in the received application input data, and searches for ID related information corresponding to the searched positioning data. May be.

1−1〜1−N…ID端末、2…測位システム、3…情報伝送装置、4…表示端末、
5…撮像装置、6…アプリケーションシステム、61…アプリケーション部、
62…特徴量データ管理部、63…特徴量データ保持部、64…ID関連情報管理部、
65…ID関連情報保持部、10…空間情報可視化システム。
1-1 to 1-N ... ID terminal, 2 ... positioning system, 3 ... information transmission device, 4 ... display terminal,
5 ... Imaging device, 6 ... Application system, 61 ... Application part,
62 ... feature quantity data management unit, 63 ... feature quantity data holding unit, 64 ... ID-related information management unit,
65 ... ID-related information holding unit, 10 ... spatial information visualization system.

Claims (3)

空間内に存在する複数の対象に設けられた装置の位置を検出し、表示装置の表示映像内の対応位置に上記各対象を示す対象映像を重畳表示して空間内を可視化する空間情報可視化システムであって、
上記空間内の映像を撮像する撮像手段と、
上記空間内における上記各装置の位置を測位し、上記撮像手段により撮像された上記映像上の対応位置を示す測位情報を上記装置毎に求める位置検出手段と、
上記各装置が設けられた上記各対象に関する関連情報を収集する関連情報収集手段と、
上記関連情報収集手段により収集された上記関連情報を、上記位置検出手段により求められた上記各装置の上記測位情報と対応付けて保持する関連情報保持手段と
を備え、
上記表示装置が、上記位置検出手段からの上記各装置の測位情報に相当する位置に、当該装置に設けられた上記対象映像を表示すると共に、上記対象の上記関連情報を表示することを特徴とする空間情報可視化システム。
A spatial information visualization system that detects the positions of devices provided on a plurality of objects existing in a space and visualizes the space by superimposing and displaying the target images indicating the objects at corresponding positions in a display image of a display device. Because
Imaging means for capturing images in the space;
Position detecting means that measures the position of each device in the space and obtains positioning information indicating the corresponding position on the video imaged by the imaging means for each device;
Related information collecting means for collecting related information related to each of the objects provided with the devices;
And related information holding means for holding the related information collected by the related information collecting means in association with the positioning information of each device obtained by the position detecting means,
The display device displays the target video provided in the device at a position corresponding to the positioning information of each device from the position detection means, and displays the related information of the target. Spatial information visualization system.
上記各装置が設けられた上記各対象との間で所定のアプリケーションを実行するアプリケーション提供手段を備え、
上記表示装置は、上記表示映像内の上記対象映像が選択されると、この対象映像の測位情報を含むアプリケーション要求を上記アプリケーション提供手段に与え、
上記アプリケーション提供手段が、上記関連情報保持手段を参照して、上記アプリケーション要求に含まれる上記測位情報に対応する上記関連情報を用いて、所定のアプリケーションを提供することを特徴とする請求項1に記載の空間情報可視化システム。
Application providing means for executing a predetermined application with each target provided with each device,
When the target video in the display video is selected, the display device gives an application request including positioning information of the target video to the application providing unit.
The application providing means refers to the related information holding means, and provides a predetermined application using the related information corresponding to the positioning information included in the application request. The spatial information visualization system described.
空間内の映像を撮像する撮像手段と、上記空間内に存在する複数の対象に設けられた各装置の位置を測位し、上記撮像手段により撮像された上記映像上の対応位置を示す測位情報を上記装置毎に求める位置検出手段とを備え、表示装置の表示映像内の対応位置に上記各対象を示す対象映像及び関連情報を重畳表示して空間内を可視化する空間情報可視化システムを構成する関連情報提供装置において、
上記各装置が設けられた上記各対象に関する関連情報を収集する関連情報収集手段と、
上記関連情報収集手段により収集された上記関連情報を、上記位置検出手段により求められた上記各装置の上記測位情報と対応付けて保持する関連情報保持手段と
を備えることを特徴とする関連情報提供装置。
Positioning information indicating the corresponding position on the video imaged by the imaging means for imaging the image in the space and the position of each device provided in the plurality of objects existing in the space and the imaging means A position detecting means for each device, and a spatial information visualization system for visualizing the space by superimposing and displaying the target video and the related information indicating each target at the corresponding position in the display video of the display device In the information providing device,
Related information collecting means for collecting related information related to each of the objects provided with the devices;
Related information holding means for holding the related information collected by the related information collecting means in association with the positioning information of each device obtained by the position detecting means. apparatus.
JP2010038918A 2010-02-24 2010-02-24 Spatial information visualization system Active JP5526860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010038918A JP5526860B2 (en) 2010-02-24 2010-02-24 Spatial information visualization system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010038918A JP5526860B2 (en) 2010-02-24 2010-02-24 Spatial information visualization system

Publications (2)

Publication Number Publication Date
JP2011176599A true JP2011176599A (en) 2011-09-08
JP5526860B2 JP5526860B2 (en) 2014-06-18

Family

ID=44689047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010038918A Active JP5526860B2 (en) 2010-02-24 2010-02-24 Spatial information visualization system

Country Status (1)

Country Link
JP (1) JP5526860B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114315A (en) * 2011-11-25 2013-06-10 Sony Corp Image processing device, program, image processing method, and terminal
JP2014204412A (en) * 2013-04-10 2014-10-27 沖電気工業株式会社 Information processing device and program
JP2016506549A (en) * 2012-10-17 2016-03-03 フェイスブック,インク. Methods related to the granularity of existence with augmented reality
JP2016187078A (en) * 2015-03-27 2016-10-27 日本電気株式会社 Communication terminal identification device, information gathering device, and method
JP2017022438A (en) * 2015-07-07 2017-01-26 沖電気工業株式会社 Communication support device, communication support method, program, and communication support system
JP2017027186A (en) * 2015-07-17 2017-02-02 沖電気工業株式会社 Communication support device, communication support method, and program
JP2017143588A (en) * 2017-05-25 2017-08-17 沖電気工業株式会社 Information processor, information processing method, program, and network system
US10038885B2 (en) 2012-10-17 2018-07-31 Facebook, Inc. Continuous capture with augmented reality
JP2019061629A (en) * 2017-09-28 2019-04-18 沖電気工業株式会社 Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system
JP2019144917A (en) * 2018-02-22 2019-08-29 パナソニックIpマネジメント株式会社 Stay situation display system and stay situation display method
JP2020064380A (en) * 2018-10-15 2020-04-23 東京瓦斯株式会社 Communication system and program
JP2020154071A (en) * 2019-03-19 2020-09-24 沖電気工業株式会社 Display control device, display control method, program and display control system
WO2022014519A1 (en) * 2020-07-17 2022-01-20 Juwwa株式会社 Communication system and communication method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0758823A (en) * 1993-08-12 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> Telephone dial system
JP2003174578A (en) * 2001-12-07 2003-06-20 Nikon Corp Electronic camera, image display device and image display method
JP2005109964A (en) * 2003-09-30 2005-04-21 Saxa Inc Communication system, communication control apparatus, and terminal
JP2007514356A (en) * 2003-12-12 2007-05-31 ノキア コーポレイション Apparatus, system, method and computer software product for displaying additional information related to an image of an object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0758823A (en) * 1993-08-12 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> Telephone dial system
JP2003174578A (en) * 2001-12-07 2003-06-20 Nikon Corp Electronic camera, image display device and image display method
JP2005109964A (en) * 2003-09-30 2005-04-21 Saxa Inc Communication system, communication control apparatus, and terminal
JP2007514356A (en) * 2003-12-12 2007-05-31 ノキア コーポレイション Apparatus, system, method and computer software product for displaying additional information related to an image of an object

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114315A (en) * 2011-11-25 2013-06-10 Sony Corp Image processing device, program, image processing method, and terminal
CN103946850A (en) * 2011-11-25 2014-07-23 索尼公司 An information processing device and an information processing method
US9760265B2 (en) 2011-11-25 2017-09-12 Sony Corporation Information processing device and an information processing method
CN103946850B (en) * 2011-11-25 2018-10-23 索尼公司 Information processing unit and information processing method
JP2016506549A (en) * 2012-10-17 2016-03-03 フェイスブック,インク. Methods related to the granularity of existence with augmented reality
US10038885B2 (en) 2012-10-17 2018-07-31 Facebook, Inc. Continuous capture with augmented reality
JP2014204412A (en) * 2013-04-10 2014-10-27 沖電気工業株式会社 Information processing device and program
JP2016187078A (en) * 2015-03-27 2016-10-27 日本電気株式会社 Communication terminal identification device, information gathering device, and method
JP2017022438A (en) * 2015-07-07 2017-01-26 沖電気工業株式会社 Communication support device, communication support method, program, and communication support system
JP2017027186A (en) * 2015-07-17 2017-02-02 沖電気工業株式会社 Communication support device, communication support method, and program
JP2017143588A (en) * 2017-05-25 2017-08-17 沖電気工業株式会社 Information processor, information processing method, program, and network system
JP2019061629A (en) * 2017-09-28 2019-04-18 沖電気工業株式会社 Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system
JP2019144917A (en) * 2018-02-22 2019-08-29 パナソニックIpマネジメント株式会社 Stay situation display system and stay situation display method
WO2019163542A1 (en) * 2018-02-22 2019-08-29 パナソニックIpマネジメント株式会社 Presence status display system and presence status display method
CN111758110A (en) * 2018-02-22 2020-10-09 松下知识产权经营株式会社 Stay status display system and stay status display method
GB2585557A (en) * 2018-02-22 2021-01-13 Panasonic Ip Man Co Ltd Presence status display system and presence status display method
US11461736B2 (en) 2018-02-22 2022-10-04 Panasonic Intellectual Property Management Co., Ltd. Presence status display system and presence status display method
GB2585557B (en) * 2018-02-22 2022-10-12 Panasonic Ip Man Co Ltd Presence status display system and presence status display method
JP2020064380A (en) * 2018-10-15 2020-04-23 東京瓦斯株式会社 Communication system and program
JP7194554B2 (en) 2018-10-15 2022-12-22 東京瓦斯株式会社 Communication systems and programs
JP2020154071A (en) * 2019-03-19 2020-09-24 沖電気工業株式会社 Display control device, display control method, program and display control system
JP7180473B2 (en) 2019-03-19 2022-11-30 沖電気工業株式会社 Display control device, display control method, program and display control system
WO2022014519A1 (en) * 2020-07-17 2022-01-20 Juwwa株式会社 Communication system and communication method
JP2022019463A (en) * 2020-07-17 2022-01-27 Juwwa株式会社 Communication system and communication method
JP7100233B2 (en) 2020-07-17 2022-07-13 Juwwa株式会社 Communication system and communication method

Also Published As

Publication number Publication date
JP5526860B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5526860B2 (en) Spatial information visualization system
US8588809B2 (en) Managing public resources
JP6370886B2 (en) Methods to adapt to venue positioning capability
US20150208226A1 (en) Discovery method and apparatuses and system for discovery
US20130217421A1 (en) System, method and robot terminal apparatus for providing robot interaction service using location information of mobile communication terminal
US10022626B2 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method, for performing augmented reality
CN107979628B (en) Method, device and system for acquiring virtual article
WO2014074351A1 (en) Portal transition parameters for use in mobile device positioning
CN104884970A (en) Methods and systems for positioning based on observed difference of time of arrival
JP2011159163A (en) Image processing device, image processing method, and program
JP6687835B2 (en) Mobile terminal device and program
CN110290469A (en) A kind of air navigation aid and mobile terminal
WO2020230352A1 (en) Display control method and display control device
CN109937393A (en) Support augmented reality software application
JP2009157526A (en) Image processing system, method for controlling image processing system, and computer program
JP6614782B2 (en) Communication device, control method, and program
JP6682893B2 (en) Mobile terminal device, management device, program
CN106504103A (en) Set up the method and device of friend relation
JP2021152928A (en) Terminal device, method, and program
JP2014139745A (en) Equipment management system, equipment management device, equipment management method and program
CN109474889B (en) Information transmission method, mobile terminal and server
JP2018036989A (en) Information display system and image forming apparatus
US10152548B2 (en) Locating mobile users
KR101185097B1 (en) Method for using contents with mobile terminal by using localization and system thereof
JP6435640B2 (en) Congestion degree estimation system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140331

R150 Certificate of patent or registration of utility model

Ref document number: 5526860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150