JP2015096809A - Position calculation device, position calculation method and position calculation program - Google Patents

Position calculation device, position calculation method and position calculation program Download PDF

Info

Publication number
JP2015096809A
JP2015096809A JP2013236480A JP2013236480A JP2015096809A JP 2015096809 A JP2015096809 A JP 2015096809A JP 2013236480 A JP2013236480 A JP 2013236480A JP 2013236480 A JP2013236480 A JP 2013236480A JP 2015096809 A JP2015096809 A JP 2015096809A
Authority
JP
Japan
Prior art keywords
distance
wireless transmission
tag
information
azimuth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013236480A
Other languages
Japanese (ja)
Inventor
崇裕 松元
Takahiro Matsumoto
崇裕 松元
片岡 泰之
Yasuyuki Kataoka
泰之 片岡
俊一 瀬古
Shunichi Seko
俊一 瀬古
山田 智広
Tomohiro Yamada
智広 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013236480A priority Critical patent/JP2015096809A/en
Publication of JP2015096809A publication Critical patent/JP2015096809A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate a three-dimensional position of a wireless transmission tag with a simple method.SOLUTION: An azimuth information acquisition unit 11 measures an azimuth angle and elevation/depression angle from an imaging position to wireless transmission tags 2A-2D of imaging objects, and a distance information acquisition unit 12 obtains a distance between the imaging position and each of the wireless transmission tags 2A-2D, and simultaneous equations represented by equations of the distance between the imaging position and the wireless transmission tags 2A-2D are solved for three-dimensional position information of the imaging position. Thus, a three-dimensional position of the wireless transmission tags can be estimated.

Description

本発明は、目標物の3次元位置を推定する技術に関する。   The present invention relates to a technique for estimating a three-dimensional position of a target.

一般家庭内で3次元位置の推定を簡単に行うことができると、宅内でのユーザの位置を把握して様々なサービスを提供することが可能となる。   If it is possible to easily estimate the three-dimensional position in a general home, it is possible to grasp the position of the user in the home and provide various services.

無線発信タグの発する電波の強度は空間中の距離に応じて強度が減衰するため、電波の受信強度により無線発信タグから無線受信機能を持つ機器までの距離を測定することができる。1次元の距離ではなく3次元位置を推定するためには3つ以上の無線発信タグの3次元位置を決定する必要がある。   Since the intensity of the radio wave emitted by the wireless transmission tag is attenuated according to the distance in the space, the distance from the wireless transmission tag to the device having the wireless reception function can be measured by the reception intensity of the radio wave. In order to estimate a three-dimensional position rather than a one-dimensional distance, it is necessary to determine the three-dimensional positions of three or more wireless transmission tags.

N. Priyantha, A. Miu, H. Balakrishnan and S. Teller, “The Cricket Compass for Context-aware Mobile Applications”, Proceedings of the 7th Annual International Conference on Mobile Computing and Networking, 2001年7月, pp.1-14N. Priyantha, A. Miu, H. Balakrishnan and S. Teller, “The Cricket Compass for Context-aware Mobile Applications”, Proceedings of the 7th Annual International Conference on Mobile Computing and Networking, July 2001, pp.1- 14 石原達也、中村幸博、武藤伸洋、阿部匡伸、“ライフログサービスに向けた屋内におけるユーザとモノの位置推定”、電子情報通信学会技術報告、ライフインテリジェンスとオフィス情報システム、2009年7月、pp.87-92Tatsuya Ishihara, Yukihiro Nakamura, Nobuhiro Muto, Yasunobu Abe, “Indoor User and Object Location Estimation for Lifelog Service”, IEICE Technical Report, Life Intelligence and Office Information System, July 2009, pp. 87-92

無線発信タグの3次元位置の決定には、特別な計測機器を利用したり、メジャー等で室内を測定する必要があったり、精巧な屋内地図等を利用して無線発信タグの3次元位置を決定する必要があり、一般家庭においては実現が難しいという問題があった。   To determine the three-dimensional position of the wireless tag, it is necessary to use a special measuring device, measure the room with a measure, etc., or use a sophisticated indoor map to determine the three-dimensional position of the wireless tag. There was a problem that it was difficult to realize in ordinary households.

3次元位置を推定する技術として、例えば非特許文献1では、天井に1.2m四方程度の間隔で位置が既知である超音波受信機を配置し、超音波発信する機器の3次元位置を計測する手法が提案されている。しかしながら、機器の配置に多大なコストを要するため一般家庭における実現は現実的ではない。   As a technique for estimating a three-dimensional position, for example, in Non-Patent Document 1, an ultrasonic receiver whose position is known is arranged on the ceiling at intervals of about 1.2 m square, and the three-dimensional position of a device that transmits ultrasonic waves is measured. A technique has been proposed. However, realization in a general household is not realistic because it takes a great deal of cost to arrange the devices.

別の例として、非特許文献2では、無線発信タグを環境中に取り付け、無線受信機能を持つ機器を移動させてSLAM(Simultaneous Localization And Mapping)技術を用い無線受信機能を持つ機器と無線発信タグの3次元位置を同時に推定する手法が提案されている。しかしながら、非特許文献2の手法では、無線発信タグの3次元位置の計算が収束するまでに時間がかかり、3次元位置の計算が収束するまでは受信機端末を表に出した状態で環境内を1分近く歩き回ることが必要で、手法に改善の余地があった。   As another example, in Non-Patent Document 2, a wireless transmission tag is installed in the environment, a device having a wireless reception function is moved, and a device having a wireless reception function and a wireless transmission tag are moved using SLAM (Simultaneous Localization And Mapping) technology. A method for simultaneously estimating the three-dimensional positions of the two has been proposed. However, in the method of Non-Patent Document 2, it takes time until the calculation of the three-dimensional position of the wireless transmission tag is converged, and the receiver terminal is displayed in the environment until the calculation of the three-dimensional position is converged. There was room for improvement in the technique.

本発明は、上記に鑑みてなされたものであり、より簡易な方法で無線発信タグの3次元位置を推定することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to estimate the three-dimensional position of a wireless transmission tag by a simpler method.

第1の本発明に係る位置算出装置は、n個(n≧3)の目標物それぞれについて、異なるn箇所の測定位置から目標物への方位角と仰俯角を測定する方位情報測定手段と、前記n箇所の測定位置それぞれにおいて、前記n個の目標物までの距離を測定する距離測定手段と、前記方位角と仰俯角および前記距離を用いた測定位置と目標物の間の距離の式で表される連立方程式をn箇所の測定位置の3次元位置情報について解くことで目標物の3次元位置情報を算出する位置情報算出手段と、を有することを特徴とする。   The position calculation device according to the first aspect of the present invention includes, for each of n (n ≧ 3) targets, azimuth information measuring means for measuring azimuth and elevation angles from different n measurement positions to the target; In each of the n measurement positions, a distance measurement unit that measures a distance to the n target objects, and an equation of a distance between the measurement position and the target object using the azimuth and elevation angles and the distance. And a position information calculating means for calculating the three-dimensional position information of the target by solving the simultaneous equations expressed for the three-dimensional position information of n measurement positions.

上記位置算出装置において、前記距離測定手段は、前記目標物が出力する電波の受信強度に基いて当該目標物までの距離を測定することを特徴とする。   In the position calculation apparatus, the distance measuring unit measures a distance to the target based on a reception intensity of a radio wave output from the target.

上記位置算出装置において、前記位置情報算出手段は、前記測定位置の3次元位置情報を初期値と修正値で表し、前記測定位置と前記目標物の間の距離の式を前記修正値で線形化した近似式を用いてニュートン法により前記測定位置の3次元位置情報を算出することを特徴とする。   In the position calculation device, the position information calculation unit represents the three-dimensional position information of the measurement position with an initial value and a correction value, and linearizes an expression of a distance between the measurement position and the target with the correction value. The three-dimensional position information of the measurement position is calculated by the Newton method using the approximate expression.

第2の本発明に係る位置算出方法は、方位情報測定手段、距離測定手段、および位置情報算出手段を備えた位置算出装置による位置算出方法であって、n個(n≧3)の目標物それぞれについて、異なるn箇所の測定位置から目標物への方位角と仰俯角を測定するステップと、前記n箇所の測定位置それぞれにおいて、前記n個の目標物までの距離を測定するステップと、前記方位角と仰俯角および前記距離を用いた測定位置と目標物の間の距離の式で表される連立方程式をn箇所の測定位置の3次元位置情報について解くことで目標物の3次元位置情報を算出するステップと、を有することを特徴とする。   A position calculation method according to a second aspect of the present invention is a position calculation method by a position calculation device including an azimuth information measurement unit, a distance measurement unit, and a position information calculation unit, and includes n (n ≧ 3) targets. Measuring the azimuth and elevation angle from different n measurement positions to the target, measuring the distance to the n targets at each of the n measurement positions, The three-dimensional position information of the target is obtained by solving the simultaneous equations expressed by the equation of the distance between the measurement position and the target using the azimuth and elevation angles and the distance with respect to the three-dimensional position information of the n measurement positions. And a step of calculating.

第3の本発明に係る位置算出プログラムは、上記位置算出装置の各手段としてコンピュータを動作させることを特徴とする。   A position calculation program according to a third aspect of the present invention is characterized by operating a computer as each means of the position calculation device.

本発明によれば、より簡易な方法で無線発信タグの3次元位置を推定することができる。   According to the present invention, the three-dimensional position of the wireless transmission tag can be estimated by a simpler method.

本実施の形態におけるタグ位置推定装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the tag position estimation apparatus in this Embodiment. 撮影時情報記憶部に格納された撮影時情報の例を示す図である。It is a figure which shows the example of the imaging time information stored in the imaging time information storage part. 無線タグ位置情報記憶部に格納された無線タグ位置情報の例を示す図である。It is a figure which shows the example of the wireless tag position information stored in the wireless tag position information storage part. 本実施の形態におけるタグ位置推定装置が撮影時情報を得る処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in which the tag position estimation apparatus in this Embodiment obtains imaging time information. ユーザが無線発信タグを撮影する様子とタグ位置推定装置の映像表示機能の画面に映された画像の例を示す図である。It is a figure which shows the example of a mode that the user image | photographs a radio | wireless transmission tag, and the image shown on the screen of the video display function of a tag position estimation apparatus. 本実施の形態におけるタグ位置推定装置が無線発信タグの位置を求める処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in which the tag position estimation apparatus in this Embodiment calculates | requires the position of a radio | wireless transmission tag. ユーザ宅内上方から見た無線発信タグと撮影位置の幾何関係を表した図である。It is the figure showing the geometric relationship between the radio | wireless transmission tag seen from the user house upper direction, and an imaging | photography position.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施の形態におけるタグ位置推定装置の構成を示す機能ブロック図である。同図に示すタグ位置推定装置1は、方位情報取得部11、距離情報取得部12、無線タグ位置情報算出部13、撮影時情報記憶部14および無線タグ位置情報記憶部15を備える。タグ位置推定装置1が備える各部は、カメラ機能、映像表示機能、方位センサ、無線受信機能を有し、演算処理装置、記憶装置等を備えた携帯端末などのコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムはタグ位置推定装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。   FIG. 1 is a functional block diagram showing the configuration of the tag position estimation apparatus in the present embodiment. The tag position estimation apparatus 1 shown in FIG. 1 includes an orientation information acquisition unit 11, a distance information acquisition unit 12, a wireless tag position information calculation unit 13, a shooting time information storage unit 14, and a wireless tag position information storage unit 15. Each unit included in the tag position estimation apparatus 1 has a camera function, a video display function, an orientation sensor, and a wireless reception function, and is configured by a computer such as a portable terminal including an arithmetic processing device and a storage device. May be executed by a program. This program is stored in a storage device included in the tag position estimation apparatus 1, and can be recorded on a recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, or provided through a network.

タグ位置推定装置1は、ユーザ宅内に配置した無線発信タグ2A〜2Dをタグ位置推定装置1を用いて撮影した際に、撮影位置から無線発信タグ2A〜2Dへの方位角と仰俯角を測定するとともに、無線発信タグ2A〜2Dが出力するID信号を受信して、受信したID信号の電波強度に基いて撮影位置と無線発信タグ2A〜2Dの間の距離を求め、撮影位置から無線発信タグ2A〜2Dへの方位角と仰俯角および撮影位置と無線発信タグ2A〜2Dの間の距離から無線発信タグ2A〜2Dの3次元位置情報を計算する。以下、タグ位置推定装置1の各部について説明する。   The tag position estimation device 1 measures the azimuth and elevation angle from the shooting position to the wireless transmission tags 2A to 2D when the wireless transmission tags 2A to 2D arranged in the user's home are photographed using the tag position estimation device 1. At the same time, the ID signals output from the wireless transmission tags 2A to 2D are received, the distance between the photographing position and the wireless transmission tags 2A to 2D is obtained based on the radio field intensity of the received ID signal, and the wireless transmission is performed from the photographing position. The three-dimensional position information of the wireless transmission tags 2A to 2D is calculated from the azimuth and elevation angles to the tags 2A to 2D and the distance between the imaging position and the wireless transmission tags 2A to 2D. Hereinafter, each part of the tag position estimation apparatus 1 will be described.

方位情報取得部11は、タグ位置推定装置1の位置から各無線発信タグ2A〜2Dへの方位角と仰俯角を測定する。本実施の形態では、カメラ機能、映像表示機能、方位センサを用いて、ユーザにカメラの光学中心座標に合わせて無線発信タグ2A〜2Dを撮影させることで、各無線発信タグ2A〜2Dへの方位角と仰俯角を測定する。   The azimuth information acquisition unit 11 measures the azimuth angle and the elevation angle from the position of the tag position estimation device 1 to each of the wireless transmission tags 2A to 2D. In the present embodiment, by using the camera function, the video display function, and the direction sensor, the user is allowed to photograph the wireless transmission tags 2A to 2D in accordance with the optical center coordinates of the camera. Measure azimuth and elevation.

距離情報取得部12は、方位情報取得部11が方位角と仰俯角を測定した位置(撮影位置)から各無線発信タグ2A〜2Dへの距離を測定する。本実施の形態では、無線受信機能を用いて、各無線発信タグ2A〜2Dが送信するID信号を受信し、ID信号の電波強度からタグ位置推定装置1と各無線発信タグ2A〜2Dとの距離を求める。   The distance information acquisition unit 12 measures the distance from the position (shooting position) where the azimuth information acquisition unit 11 measures the azimuth angle and the elevation angle to each of the wireless transmission tags 2A to 2D. In the present embodiment, the wireless reception function is used to receive the ID signals transmitted by the wireless transmission tags 2A to 2D, and the tag position estimation device 1 and each of the wireless transmission tags 2A to 2D are determined from the radio wave intensity of the ID signal. Find the distance.

方位情報取得部11が測定したタグ位置推定装置1から各無線発信タグ2A〜2Dへの方位角と仰俯角および距離情報取得部12が測定したタグ位置推定装置1と各無線発信タグ2A〜2Dとの間の距離は、撮影時情報として撮影した無線発信タグ2A〜2D毎に撮影時情報記憶部14に記憶される。図2に、撮影時情報記憶部14に格納された撮影時情報の例を示す。撮影時情報記憶部14には、無線発信タグ毎に、無線発信タグが出力するID(撮影タグID)、無線発信タグを撮影した位置からその無線発信タグへの方位角と仰俯角、および撮影位置から各無線発信タグまでの距離が格納されている。同図では、方位角と仰俯角は度数で表記し、無線発信タグまでの距離はセンチメートルで表記した。また、まだ撮影していない無線発信タグについては、方位角、仰俯角、距離などの撮影時情報にNullを格納した。   The azimuth and elevation angles from the tag position estimation device 1 measured by the azimuth information acquisition unit 11 to the radio transmission tags 2A to 2D and the tag position estimation device 1 measured by the distance information acquisition unit 12 and the radio transmission tags 2A to 2D Is stored in the shooting time information storage unit 14 for each of the radio transmission tags 2A to 2D shot as shooting time information. FIG. 2 shows an example of the shooting time information stored in the shooting time information storage unit 14. In the shooting time information storage unit 14, for each wireless transmission tag, an ID (photographing tag ID) output by the wireless transmission tag, an azimuth and elevation angle from the position where the wireless transmission tag is captured to the wireless transmission tag, and imaging The distance from the position to each wireless transmission tag is stored. In the figure, the azimuth angle and the elevation angle are expressed in degrees, and the distance to the wireless transmission tag is expressed in centimeters. For wireless transmission tags that have not yet been photographed, Null is stored in photographing information such as azimuth angle, elevation angle, and distance.

無線タグ位置情報算出部13は、撮影時情報記憶部14から撮影時情報を読み出して各無線発信タグ2A〜2Dの3次元位置情報を計算し、無線タグ位置情報記憶部15に格納する。図3に、無線タグ位置情報記憶部15に格納された無線タグ位置情報の例を示す。無線タグ位置情報記憶部15には、無線発信タグ毎に、所定の位置を原点とした3次元座標が格納されている。本実施の形態では、いずれかの撮影位置を原点とし、センチメートル単位で表記した。   The wireless tag position information calculation unit 13 reads out the shooting time information from the shooting time information storage unit 14, calculates the three-dimensional position information of each of the wireless transmission tags 2 </ b> A to 2 </ b> D, and stores it in the wireless tag position information storage unit 15. FIG. 3 shows an example of the RFID tag position information stored in the RFID tag position information storage unit 15. The wireless tag position information storage unit 15 stores three-dimensional coordinates with a predetermined position as an origin for each wireless transmission tag. In the present embodiment, one of the photographing positions is set as the origin, and expressed in centimeter units.

次に、撮影時情報を得る処理について説明する。   Next, processing for obtaining shooting time information will be described.

図4は、本実施の形態におけるタグ位置推定装置1が撮影時情報を得る処理の流れを示すフローチャートである。同図に示す処理は、本タグ位置推定装置1を起動した際に、無線発信タグ2A〜2Dのいずれかに撮影時情報が存在していない場合に開始される。   FIG. 4 is a flowchart showing a flow of processing in which the tag position estimation apparatus 1 according to the present embodiment obtains shooting time information. The processing shown in the figure is started when the tag position estimation device 1 is activated and no information at the time of photographing exists in any of the wireless transmission tags 2A to 2D.

まず、方位情報取得部11は、撮影時情報記憶部14を参照して撮影時情報が記録されていない無線発信タグ2A〜2Dを調べ、撮影時情報が記録されていない無線発信タグ2A〜2Dを撮影するようにユーザに指示を出し(ステップS11)、無線発信タグ2A〜2Dが撮影されるのを待つ(ステップS12)。   First, the azimuth information acquisition unit 11 refers to the shooting time information storage unit 14 to check the wireless transmission tags 2A to 2D in which no shooting time information is recorded, and the wireless transmission tags 2A to 2D in which shooting time information is not recorded. The user is instructed to take a picture (step S11), and waits for the radio outgoing tags 2A to 2D to be taken (step S12).

図5(a)はユーザが無線発信タグ2Aを撮影する様子を示す図であり、図5(b)はタグ位置推定装置1の映像表示機能の画面3に映された画像の例を示す図である。タグ位置推定装置1の画面3には、ユーザに対する指示を表示した指示欄31、タグ位置推定装置1の光学中心座標を示す2本の中心線32、および撮影ボタン33が表示される。指示欄31では、撮影対象の無線発信タグ2Aをユーザが理解可能なように表記し、中心線32の交点である光学中心座標に撮影対象の無線発信タグ2Aを合わせて撮影ボタン33を押すように指示する。無線発信タグ2Aの表記例としては、無線発信タグ2A〜2Dが送信するID信号を無線発信タグ2A〜2Dに記載しておき、「タグ1」などとIDを表記する方法や、無線発信タグ2A〜2Dの色を変えておき、「タグ赤」などと表記する方法がある。   FIG. 5A is a diagram illustrating a state where the user captures the wireless transmission tag 2A, and FIG. 5B is a diagram illustrating an example of an image displayed on the screen 3 of the video display function of the tag position estimation device 1. It is. On the screen 3 of the tag position estimation apparatus 1, an instruction field 31 that displays an instruction for the user, two center lines 32 indicating the optical center coordinates of the tag position estimation apparatus 1, and a shooting button 33 are displayed. In the instruction field 31, the radio transmission tag 2 </ b> A to be imaged is described so that the user can understand it, the radio transmission tag 2 </ b> A to be imaged is aligned with the optical center coordinate that is the intersection of the center lines 32, and the image capture button 33 is pressed. To instruct. As a notation example of the wireless transmission tag 2A, an ID signal transmitted by the wireless transmission tags 2A to 2D is described in the wireless transmission tags 2A to 2D, and a method of expressing the ID as “tag 1” or the like, or a wireless transmission tag There is a method in which the colors of 2A to 2D are changed and expressed as “tag red” or the like.

撮影ボタン33が押下されると(ステップS12のYES)、方位情報取得部11は、撮影時の方位センサの測定値とカメラの光軸方向から方位情報(方位角と仰俯角)を取得する(ステップS13)。ユーザが光学中心座標に無線発信タグ2Aを合わせて撮影することでカメラの光軸が無線発信タグ2Aの方向を向く。方位センサの測定値が方位角、仰俯角共に(0,0)であるときカメラの光軸方向が(θφcam,θψcam)の値を取るならば、撮影時のタグ位置推定装置1から撮影対象の無線発信タグ2Aへの方位情報は、撮影時の方位センサの測定値(θφsensing,θψsensing)から(θφsensing+θφcam,θψsensing+θψcam)となる。 When the shooting button 33 is pressed (YES in step S12), the azimuth information acquisition unit 11 acquires azimuth information (azimuth angle and elevation angle) from the measured value of the azimuth sensor at the time of shooting and the optical axis direction of the camera ( Step S13). When the user photographs the wireless transmission tag 2A with the optical center coordinates, the optical axis of the camera faces the wireless transmission tag 2A. When the measured value of the azimuth sensor is (0, 0) for both the azimuth angle and the elevation angle, if the direction of the optical axis of the camera takes a value of (θ φcam , θ ψcam ), the image is taken from the tag position estimation device 1 at the time of shooting. orientation information to the target wireless transmitter tag 2A is a measurement of the azimuth sensor at the time of photographing φsensing, θ ψsensing) from (θ φsensing + θ φcam, θ ψsensing + θ ψcam) becomes.

方位情報が取得できると、距離情報取得部12は、全ての無線発信タグ2A〜2DからID信号を受信する(ステップS14,S15)全ての無線発信タグ2A〜2DからID信号を受信したか否かは、撮影時情報記憶部14の撮影タグIDに基いて判定する。   When the azimuth information can be acquired, the distance information acquisition unit 12 receives ID signals from all the wireless transmission tags 2A to 2D (Steps S14 and S15). Whether or not the ID information is received from all the wireless transmission tags 2A to 2D This is determined based on the shooting tag ID in the shooting time information storage unit 14.

全ての無線発信タグ2A〜2DからID信号を受信すると、各無線発信タグ2A〜2DのID信号の受信強度からタグ位置推定装置1と各無線発信タグ2A〜2Dとの距離を求める(ステップS16)。電波強度から距離への変換は、無線発信タグ2A〜2Dが出力する電波の空間中における減衰特性に基いて決定される。撮影対象の無線発信タグ2Aへの方位情報と各無線発信タグ2A〜2Dへの距離は撮影時情報として撮影時情報記憶部14に記録される。   When the ID signals are received from all the wireless transmission tags 2A to 2D, the distance between the tag position estimating device 1 and each of the wireless transmission tags 2A to 2D is obtained from the reception intensity of the ID signal of each of the wireless transmission tags 2A to 2D (step S16). ). The conversion from the radio wave intensity to the distance is determined based on the attenuation characteristics in the space of the radio wave output by the wireless transmission tags 2A to 2D. The direction information to the radio transmission tag 2A to be imaged and the distance to each of the radio transmission tags 2A to 2D are recorded in the imaging information storage unit 14 as imaging information.

撮影時情報が記録されていない無線発信タグ2A〜2Dを調べ(ステップS17)、撮影時情報が記録されていない無線発信タグ2A〜2Dが存在する場合は(ステップS17のNO)、ステップS11に戻り、その無線発信タグ2A〜2Dを撮影する指示を出す。   The wireless transmission tags 2A to 2D in which the shooting time information is not recorded are checked (step S17). If there are wireless transmission tags 2A to 2D in which the shooting time information is not recorded (NO in step S17), the process proceeds to step S11. Returning, an instruction for photographing the wireless transmission tags 2A to 2D is issued.

次に、無線発信タグの位置を求める処理について説明する。   Next, processing for obtaining the position of the wireless transmission tag will be described.

図6は、本実施の形態におけるタグ位置推定装置1が無線発信タグ2A〜2Dの位置を求める処理の流れを示すフローチャートである。同図に示す処理は、図4に示した処理により全ての無線発信タグ2A〜2Dの撮影時情報が記録された後に開始される。   FIG. 6 is a flowchart showing a flow of processing in which the tag position estimation apparatus 1 according to the present embodiment obtains the positions of the wireless transmission tags 2A to 2D. The process shown in the figure is started after the shooting time information of all the wireless transmission tags 2A to 2D is recorded by the process shown in FIG.

無線タグ位置情報算出部13は、撮影時情報記憶部14から撮影時情報を読みだして各無線発信タグ2A〜2Dの3次元位置情報を計算し(ステップS21)、各無線発信タグ2A〜2Dの3次元位置情報を無線タグ位置情報記憶部15に記録する(ステップS22)。各無線発信タグ2A〜2Dの3次元位置情報の計算の詳細については後述する。   The wireless tag position information calculation unit 13 reads the shooting time information from the shooting time information storage unit 14, calculates the three-dimensional position information of each of the wireless transmission tags 2A to 2D (step S21), and the wireless transmission tags 2A to 2D. Is recorded in the RFID tag position information storage unit 15 (step S22). Details of the calculation of the three-dimensional position information of each of the wireless transmission tags 2A to 2D will be described later.

ユーザ宅内に配置した無線発信タグ2A〜2Dの3次元位置情報が求まることで、ユーザ宅内でのユーザの持つ携帯端末の屋内3次元位置を推定できる。屋内3次元位置にリビング、キッチンなどのラベルを付与しておくと、ユーザがリビングのソファーに移動した際にテレビを点ける、キッチンに移動した際にお勧めの調理メニューを提示する、部屋から出た場合に不要な電気を落とす、目覚めてベッドから移動する際にライトをオンにするなど、ユーザの屋内3次元位置移動に応じた室内機器制御を行うことができる。また、一人暮らしの高齢者の屋内3次元位置の履歴を記録しておくことで、室内での移動量から見た健康状態の推定などの見守りシステムにも利用できる。   By obtaining the three-dimensional position information of the wireless transmission tags 2A to 2D arranged in the user's home, the indoor three-dimensional position of the portable terminal of the user in the user's home can be estimated. When labels such as living room and kitchen are attached to the indoor 3D position, the TV is turned on when the user moves to the sofa in the living room, and the recommended cooking menu is displayed when moving to the kitchen. It is possible to perform indoor device control according to the user's indoor three-dimensional position movement, such as turning off light when the user leaves the room, turning on a light when waking up and moving from the bed. In addition, by recording a history of indoor three-dimensional positions of elderly living alone, it can be used for a monitoring system such as estimating a health state viewed from the amount of indoor movement.

次に、無線発信タグの3次元位置情報の計算の詳細について説明する。   Next, details of the calculation of the three-dimensional position information of the wireless transmission tag will be described.

図7は、ユーザ宅内上方から見た無線発信タグと撮影位置の幾何関係を表した図である。同図では、3つの無線発信タグに対し、3箇所から撮影した例を示している。同図のT1,T2,T3は、無線発信タグの位置を示し、C1,C2,C3は、それぞれT1,T2,T3の無線発信タグを撮影した撮影位置を示している。また(θφ1,θψ1),(θφ2,θψ2),(θφ3,θψ3)は、無線発信タグを撮影時に方位センサから取得した撮影位置C1,C2,C3から無線発信タグT1,T2,T3への方位角と仰俯角である。d11,d12,d13は、撮影位置C1から各無線発信タグT1,T2,T3までの距離である。同様に、d21,d22,d23は、撮影位置C2から各無線発信タグT1,T2,T3までの距離、d31,d32,d33は、撮影位置C3から各無線発信タグT1,T2,T3までの距離である。 FIG. 7 is a diagram showing the geometric relationship between the wireless transmission tag and the shooting position as viewed from above the user's home. In the figure, an example is shown in which three wireless transmission tags are taken from three locations. In the figure, T 1 , T 2 , and T 3 indicate the positions of the wireless transmission tags, and C 1 , C 2 , and C 3 indicate the shooting positions at which the T 1 , T 2 , and T 3 wireless transmission tags are captured, respectively. Show. (Θ φ1 , θ ψ1 ), (θ φ2 , θ ψ2 ), and (θ φ3 , θ ψ3 ) are transmitted wirelessly from the imaging positions C 1 , C 2 , and C 3 acquired from the direction sensor at the time of imaging the wireless transmission tag. The azimuth and elevation angles to the tags T 1 , T 2 , T 3 . d 11 , d 12 , and d 13 are distances from the photographing position C 1 to the wireless transmission tags T 1 , T 2 , and T 3 . Similarly, d 21 , d 22 , and d 23 are distances from the photographing position C 2 to the wireless transmission tags T 1 , T 2 , and T 3 , and d 31 , d 32 , and d 33 are each from the photographing position C 3. This is the distance to the wireless transmission tags T 1 , T 2 , T 3 .

ここで、図7に示した記号を一般化し、n≧3を満たすn個の無線発信タグT1,T2,・・・,Tnに対して、n箇所の撮影位置C1,C2,・・・,Cnから撮影した際の各無線発信タグの3次元位置座標を求めるアルゴリズムについて述べる。 Here, the symbols shown in FIG. 7 are generalized, and n imaging positions C 1 , C 2 for n radio transmission tags T 1 , T 2 ,..., T n satisfying n ≧ 3. ,..., we describe an algorithm for determining the three-dimensional position coordinates of each wireless transmitting tag when taken from C n.

i箇所目の撮影位置Ciで無線発信タグTiを撮影した際に取得した撮影位置Ciから無線発信タグTiへの方位角と仰俯角を(θφi,θψi)、撮影位置Ciから無線発信タグTjまでの距離をdijとする。Ciの座標を(xci,yci,zci)とすると、Tiの座標は(xci+diicosθψicosθφi,yci+diicosθψisinθφi,zci+diisinθψi)となる。以降、簡単の為diicosθψicosθφi,diicosθψisinθφi,diisinθψiをXi,Yi,Ziと置き換える。Xi,Yi,Ziは、撮影により得られる実測値である。撮影位置Ciと無線発信タグTjの距離dijは次式(1)で表すことができる。

Figure 2015096809
i places th depression angle elevation and azimuth of the radio transmitting tag T i at the imaging position C i from the photographing position C i obtained upon imaging to radio transmitting tag T i (θ φi, θ ψi ), the photographing position C Let the distance from i to the wireless transmission tag T j be dij . If the coordinates of C i are (x ci , y ci , z ci ), the coordinates of T i are (x ci + d ii cos θ ψ i cos θ φ i , y ci + d ii cos θ ψ i sin θ φ i , z ci + d ii sin θ ψ i ) Become. Thereafter, d ii cos θ ψ i cos θ φ i , d ii cos θ ψ i sin θ φ i , and d ii sin θ ψ i are replaced with X i , Y i , and Z i for simplicity . X i , Y i , and Z i are actually measured values obtained by photographing. The distance d ij between the shooting position C i and the wireless transmission tag T j can be expressed by the following equation (1).
Figure 2015096809

撮影位置Ciと無線発信タグTjの各距離dijにおいてi≠jとなる距離d12,d13,・・・,dij,・・・,dn(n-1)について式(1)を立式した連立方程式を、(xc1,yc1,zc1),(xc2,yc2,zc2),・・・,(xcn,ycn,zcn)について解くことで無線発信タグT1,T2,・・・,Tnの座標を求めることができる。 The distance d 12, d 13 serving as i ≠ j at each distance d ij imaging position C i and wireless transmitting tag T j, ···, d ij, ···, for d n (n-1) Equation (1 ) Is solved for (x c1 , y c1 , z c1 ), (x c2 , y c2 , z c2 ),..., (X cn , y cn , z cn ) The coordinates of the outgoing tags T 1 , T 2 ,..., T n can be obtained.

(xc1,yc1,zc1),(xc2,yc2,zc2),・・・,(xcn,ycn,zcn)について、連立方程式を解くためにニュートン法により値を求める。まず、(xc1,yc1,zc1)の値を初期値と修正値により次式(2)で表す。

Figure 2015096809
For (x c1 , y c1 , z c1 ), (x c2 , y c2 , z c2 ),..., (X cn , y cn , z cn ), values are obtained by Newton's method in order to solve simultaneous equations . First, the value of (x c1 , y c1 , z c1 ) is expressed by the following equation (2) using an initial value and a corrected value.
Figure 2015096809

式(2)において、x’ci,y’ci,z’ciは初期値であり、Δxci,Δyci,Δzciは修正値である。 In Expression (2), x ′ ci , y ′ ci , and z ′ ci are initial values, and Δx ci , Δy ci , and Δz ci are correction values.

ここで、式(1)を修正値で線形化した近似式(3)を考える。

Figure 2015096809
Here, an approximate expression (3) obtained by linearizing expression (1) with a correction value is considered.
Figure 2015096809

また、Δdijは距離dijと初期値から計算される差分として次式(4)で表される。

Figure 2015096809
Δd ij is expressed by the following equation (4) as a difference calculated from the distance d ij and an initial value.
Figure 2015096809

このとき、∂dij/∂xci,∂dij/∂xcj,∂dij/∂yci,∂dij/∂ycj,∂dij/∂zci,∂dij/∂zcjは、式(4)を各変数xci,xcj,yci,ycj,zci,zcjで偏微分し、それぞれx’ci,y’ci,z’ci,x’cj,y’cj,z’cjを代入したものとして表される。式(3),(4)より次式(5)と置くことができる。

Figure 2015096809
At this time, ∂d ij / ∂x ci , ∂d ij / ∂x cj , ∂d ij / ∂y ci , cd ij / ∂y cj , ∂d ij / ∂z ci , ∂d ij / ∂z cj The equation (4) is partially differentiated with respect to each variable x ci , x cj , y ci , y cj , z ci , z cj , and x ′ ci , y ′ ci , z ′ ci , x ′ cj , y ′, respectively. cj and z ′ cj are substituted. From the equations (3) and (4), the following equation (5) can be used.
Figure 2015096809

無線発信タグの3次元位置の原点座標を撮影位置C1とすると、(xc1,yc1,zc1)=(0,0,0)・(x’c1,y’c1,z’c1)=(0,0,0)・(Δxc1,Δyc1,Δzc1)=(0,0,0)と置くことができる。式(5)をΔD=AΔCと置き換えると、式(5)はn=3のとき、次式(6)と置くことができる。

Figure 2015096809
Assuming that the origin coordinate of the three-dimensional position of the wireless transmission tag is the photographing position C 1 , (x c1 , y c1 , z c1 ) = (0, 0, 0) · (x ′ c1 , y ′ c1 , z ′ c1 ) = (0,0,0) · (Δx c1 , Δy c1 , Δz c1 ) = (0,0,0). If equation (5) is replaced with ΔD = AΔC, equation (5) can be replaced with the following equation (6) when n = 3.
Figure 2015096809

また、n>3のときは最小二乗法によりΔCの算出として次式(7)と置くことができる。

Figure 2015096809
Further, when n> 3, the following equation (7) can be used as the calculation of ΔC by the least square method.
Figure 2015096809

以上の式から次のアルゴリズムで逐次計算を行い、無線発信タグの3次元位置座標を求める。   From the above equation, the following algorithm is used for sequential calculation to obtain the three-dimensional position coordinates of the wireless transmission tag.

まず、各(x’ci,y’ci,z’ci)それぞれに適当な初期値を設定する(ステップS31)。 First, an appropriate initial value is set for each (x ′ ci , y ′ ci , z ′ ci ) (step S31).

式(4)によりΔdijの値と、行列Aの値を求める(ステップS32)。 The value of Δd ij and the value of the matrix A are obtained by equation (4) (step S32).

式(6),(7)によりΔCを求める(ステップS33)。   ΔC is obtained from equations (6) and (7) (step S33).

求めたΔCにおいて、各(Δxci,Δyci,Δzci)の値が十分小さいか否か判定し、値が十分小さくなければ各(x’ci,y’ci,z’ci)に(Δxci,Δyci,Δzci)を加えてステップS32に戻り、値が十分小さい場合は(x’ci,y’ci,z’ci)を(xci,yci,zci)として出力するとともに、無線発信タグT1,T2,・・・,Tnの3次元位置情報を求める(ステップS34)。 In the obtained ΔC, it is determined whether or not each (Δx ci , Δy ci , Δz ci ) is sufficiently small, and if the value is not small enough, each (x ′ ci , y ′ ci , z ′ ci ) has (Δx ci, [Delta] y ci, returns to step S32 by adding Delta] z ci), if the value is sufficiently small (x 'ci, y' ci , z 'ci) to (x ci, y ci, and outputting the results as z ci) The three-dimensional position information of the wireless transmission tags T 1 , T 2 ,..., T n is obtained (step S34).

続いて、上記のアルゴリズムにおいてより精度の高い無線発信タグT1,T2,・・・,Tnの3次元位置情報を取得するために、式(7)において重み付き最小二乗法を適用する手法を述べる。 Subsequently, in order to obtain more accurate three-dimensional position information of the wireless transmission tags T 1 , T 2 ,..., T n in the above algorithm, the weighted least square method is applied in the equation (7). Describe the technique.

タグ位置推定装置と無線発信タグ間で計測されたi≠jとなる距離d12,d13,・・・,dij,・・・,dn(n-1)に関して、計測距離から誤差の推定を行い、各距離における誤差分散σ12,σ13,・・・,σij,・・・,σn(n-1)において次式(8)のような行列Wを置く。

Figure 2015096809
For distances d 12 , d 13 ,..., D ij ,..., D n (n−1) where i ≠ j measured between the tag position estimation device and the wireless transmission tag, performs estimation error variance sigma 12 at each distance, sigma 13, put · · ·, sigma ij, · · ·, in sigma n (n-1) matrix W such as the following equation (8).
Figure 2015096809

行列Wを用いて、上記アルゴリズムのステップS33においてΔCを求める際に以下の式(9)を用いることで、距離測定時誤差を考慮した重み付き最小二乗法による答えが導出でき、無線発信タグの3次元位置情報の精度向上を図ることができる。

Figure 2015096809
By using the following equation (9) when obtaining ΔC in step S33 of the above algorithm using the matrix W, an answer by the weighted least square method considering the error at the time of distance measurement can be derived. It is possible to improve the accuracy of the three-dimensional position information.
Figure 2015096809

以上説明したように、本実施の形態によれば、方位情報取得部11が撮影位置から撮影対象の無線発信タグ2A〜2Dへの方位角と仰俯角を測定するとともに、距離情報取得部12が撮影位置と無線発信タグ2A〜2Dそれぞれとの間の距離を求め、撮影位置と無線発信タグ2A〜2Dの間の距離の式で表される連立方程式を撮影位置の3次元位置情報について解くことで、無線発信タグの3次元位置を推定することが可能となる。   As described above, according to the present embodiment, the azimuth information acquisition unit 11 measures the azimuth and elevation angles from the shooting position to the radio transmission tags 2A to 2D to be shot, and the distance information acquisition unit 12 The distance between the photographing position and each of the wireless transmission tags 2A to 2D is obtained, and the simultaneous equations expressed by the distance between the photographing position and the wireless transmission tags 2A to 2D are solved for the three-dimensional position information of the photographing position. Thus, the three-dimensional position of the wireless transmission tag can be estimated.

本実施の形態によれば、撮影位置から無線発信タグ2A〜2Dへの方位角と仰俯角を測定する際に、タグ位置推定装置1が備えるカメラ機能の光軸方向を利用することで、カメラで無線発信タグ2A〜2Dを撮影する簡単な動作で方位角と仰俯角を測定することができる。   According to the present embodiment, when measuring the azimuth and elevation angle from the shooting position to the wireless transmission tags 2A to 2D, the optical axis direction of the camera function included in the tag position estimation device 1 is used to Thus, it is possible to measure the azimuth angle and the elevation angle with a simple operation of photographing the wireless transmission tags 2A to 2D.

本実施の形態によれば、タグ位置推定装置1が備える無線受信機能を利用することで、無線発信タグ2A〜2Dが出力するID信号の電波強度に基いて撮影位置と無線発信タグ2A〜2Dの間の距離を測定することができる。   According to the present embodiment, by using the wireless reception function provided in the tag position estimation device 1, the shooting position and the wireless transmission tags 2A to 2D are based on the radio wave intensity of the ID signals output from the wireless transmission tags 2A to 2D. The distance between can be measured.

本実施の形態によれば、カメラ機能、映像表示機能、方位センサ、無線受信機能など現在広く普及している一般的な端末であるスマートフォンを用いて無線発信タグ2A〜2Dの3次元位置を推定することができる。   According to the present embodiment, the three-dimensional positions of the wireless transmission tags 2A to 2D are estimated using a smartphone that is a general terminal that is currently widely used, such as a camera function, a video display function, an orientation sensor, and a wireless reception function. can do.

1…タグ位置推定装置
11…方位情報取得部
12…距離情報取得部
13…無線タグ位置情報算出部
14…撮影時情報記憶部
15…無線タグ位置情報記憶部
2A〜2D…無線発信タグ
3…画面
31…指示欄
32…中心線
33…撮影ボタン
DESCRIPTION OF SYMBOLS 1 ... Tag position estimation apparatus 11 ... Direction information acquisition part 12 ... Distance information acquisition part 13 ... Wireless tag position information calculation part 14 ... Shooting time information storage part 15 ... Wireless tag position information storage part 2A-2D ... Wireless transmission tag 3 ... Screen 31 ... Instruction field 32 ... Center line 33 ... Shooting button

Claims (5)

n個(n≧3)の目標物それぞれについて、異なるn箇所の測定位置から目標物への方位角と仰俯角を測定する方位情報測定手段と、
前記n箇所の測定位置それぞれにおいて、前記n個の目標物までの距離を測定する距離測定手段と、
前記方位角と仰俯角および前記距離を用いた測定位置と目標物の間の距離の式で表される連立方程式をn箇所の測定位置の3次元位置情報について解くことで目標物の3次元位置情報を算出する位置情報算出手段と、
を有することを特徴とする位置算出装置。
azimuth information measuring means for measuring azimuth and elevation angles from different n measurement positions to the target for each of n (n ≧ 3) targets;
Distance measuring means for measuring the distance to the n targets at each of the n measurement positions;
The three-dimensional position of the target is solved by solving the simultaneous equations expressed by the equation of the distance between the measurement position and the target using the azimuth and elevation angles and the distance with respect to the three-dimensional position information of the n measurement positions. Position information calculation means for calculating information;
A position calculation device comprising:
前記距離測定手段は、前記目標物が出力する電波の受信強度に基いて当該目標物までの距離を測定することを特徴とする請求項1記載の位置算出装置。   2. The position calculating apparatus according to claim 1, wherein the distance measuring unit measures a distance to the target based on a reception intensity of a radio wave output from the target. 前記位置情報算出手段は、前記測定位置の3次元位置情報を初期値と修正値で表し、前記測定位置と前記目標物の間の距離の式を前記修正値で線形化した近似式を用いてニュートン法により前記測定位置の3次元位置情報を算出することを特徴とする請求項1又は2記載の位置算出装置。   The position information calculation means represents the three-dimensional position information of the measurement position with an initial value and a correction value, and uses an approximate expression obtained by linearizing the distance between the measurement position and the target with the correction value. The position calculation apparatus according to claim 1 or 2, wherein three-dimensional position information of the measurement position is calculated by a Newton method. 方位情報測定手段、距離測定手段、および位置情報算出手段を備えた位置算出装置による位置算出方法であって、
n個(n≧3)の目標物それぞれについて、異なるn箇所の測定位置から目標物への方位角と仰俯角を測定するステップと、
前記n箇所の測定位置それぞれにおいて、前記n個の目標物までの距離を測定するステップと、
前記方位角と仰俯角および前記距離を用いた測定位置と目標物の間の距離の式で表される連立方程式をn箇所の測定位置の3次元位置情報について解くことで目標物の3次元位置情報を算出するステップと、
を有することを特徴とする位置算出方法。
A position calculation method by a position calculation device comprising an azimuth information measurement means, a distance measurement means, and a position information calculation means,
For each of n (n ≧ 3) targets, measuring azimuth and elevation angles from different n measurement positions to the target;
Measuring the distance to the n targets at each of the n measurement positions;
The three-dimensional position of the target is solved by solving the simultaneous equations expressed by the equation of the distance between the measurement position and the target using the azimuth and elevation angles and the distance with respect to the three-dimensional position information of the n measurement positions. Calculating information;
A position calculation method characterized by comprising:
請求項1乃至3のいずれかに記載の位置算出装置の各手段としてコンピュータを動作させることを特徴とする位置算出プログラム。   A position calculation program that causes a computer to operate as each unit of the position calculation apparatus according to claim 1.
JP2013236480A 2013-11-15 2013-11-15 Position calculation device, position calculation method and position calculation program Pending JP2015096809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013236480A JP2015096809A (en) 2013-11-15 2013-11-15 Position calculation device, position calculation method and position calculation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013236480A JP2015096809A (en) 2013-11-15 2013-11-15 Position calculation device, position calculation method and position calculation program

Publications (1)

Publication Number Publication Date
JP2015096809A true JP2015096809A (en) 2015-05-21

Family

ID=53374172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013236480A Pending JP2015096809A (en) 2013-11-15 2013-11-15 Position calculation device, position calculation method and position calculation program

Country Status (1)

Country Link
JP (1) JP2015096809A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018221515A1 (en) * 2017-06-02 2018-12-06 チームラボ株式会社 Terminal device for position measurement, computer program, and system
CN110456308A (en) * 2019-07-08 2019-11-15 广西工业职业技术学院 A kind of three dimension location method for fast searching

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018221515A1 (en) * 2017-06-02 2018-12-06 チームラボ株式会社 Terminal device for position measurement, computer program, and system
JP2018205100A (en) * 2017-06-02 2018-12-27 チームラボ株式会社 Terminal device for measuring position, computer program, and system
TWI683123B (en) * 2017-06-02 2020-01-21 日商蒂姆聯鉑信息技術有限公司 Terminal device for position measurement, computer program and position measurement system
US10841895B2 (en) 2017-06-02 2020-11-17 Teamlab Inc. Terminal device for position measurement, computer program, and system
CN110456308A (en) * 2019-07-08 2019-11-15 广西工业职业技术学院 A kind of three dimension location method for fast searching

Similar Documents

Publication Publication Date Title
EP2945136B1 (en) Mobile terminal and method for controlling the mobile terminal
Aitenbichler et al. An IR local positioning system for smart items and devices
KR100649674B1 (en) Method for recognizing position using a built-in camera and apparatus thereof
US9170318B1 (en) Inter-device location determinations
US11893317B2 (en) Method and apparatus for associating digital content with wireless transmission nodes in a wireless communication area
JP2018535410A (en) Three-dimensional space detection system, positioning method and system
JP2022548441A (en) POSITION AND ATTITUDE DETERMINATION METHOD, APPARATUS, ELECTRONIC DEVICE, STORAGE MEDIUM AND COMPUTER PROGRAM
US8155387B2 (en) Method and system for position determination using image deformation
US10979695B2 (en) Generating 3D depth map using parallax
JP6845790B2 (en) Position estimation device, position estimation method and terminal device
US11875089B2 (en) Acoustic positioning transmitter and receiver system and method
US10949579B2 (en) Method and apparatus for enhanced position and orientation determination
US20180252815A1 (en) 3D Depth Map
US10178370B2 (en) Using multiple cameras to stitch a consolidated 3D depth map
JP2015096809A (en) Position calculation device, position calculation method and position calculation program
US10979687B2 (en) Using super imposition to render a 3D depth map
Blankenbach et al. Building information systems based on precise indoor positioning
Gómez et al. Indoor augmented reality based on ultrasound localization systems
US11475177B2 (en) Method and apparatus for improved position and orientation based information display
US9915528B1 (en) Object concealment by inverse time of flight
WO2019037517A1 (en) Mobile electronic device and method for processing task in task area
TW202006741A (en) Vital sign signal detecting method of the vital sign detecting system and method for evaluating a confidence of the vital sign signal
Renault et al. Low Cost and Energy Efficient Hybrid Wireless Positioning System Using Wi-Fi and Bluetooth Technologies for Wearable Devices
CN111800732A (en) Virtual and real information integration space positioning system
CN115170655A (en) Behavior track monitoring and notifying method, device, equipment and storage medium