JP2013042246A - Portable terminal and location and azimuth estimation program - Google Patents

Portable terminal and location and azimuth estimation program Download PDF

Info

Publication number
JP2013042246A
JP2013042246A JP2011176417A JP2011176417A JP2013042246A JP 2013042246 A JP2013042246 A JP 2013042246A JP 2011176417 A JP2011176417 A JP 2011176417A JP 2011176417 A JP2011176417 A JP 2011176417A JP 2013042246 A JP2013042246 A JP 2013042246A
Authority
JP
Japan
Prior art keywords
mobile terminal
external device
acceleration
portable terminal
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011176417A
Other languages
Japanese (ja)
Other versions
JP5708362B2 (en
Inventor
Takashi Kyo
山 姜
Yuichi Murase
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011176417A priority Critical patent/JP5708362B2/en
Publication of JP2013042246A publication Critical patent/JP2013042246A/en
Application granted granted Critical
Publication of JP5708362B2 publication Critical patent/JP5708362B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To detect the location and azimuth of a portable terminal with high accuracy in a portable terminal and a location and azimuth estimation program by using a relatively inexpensive sensor incorporated in the portable terminal.SOLUTION: In a portable terminal, an inertia navigation method for performing short-range wireless communication with an external device having own location information stored therein is used. The portable terminal is configured to include: a detection unit which, upon detecting the acceleration of the portable terminal, outputs the acceleration information; a photographing unit which photographs a picture image; a communication unit which communicates with an external device; and a control unit which, when the communication unit becomes ready to communicate with the external device, sets the location information received from the external device to the initial location of the portable terminal, as well as predicts photographing timing on the basis of an AC component of the acceleration information to control the photographing unit so that the image of the external device will be photographed with the photographing timing, and sets a yaw angle estimated from the photographed image of the external device to an initial azimuth of the portable terminal.

Description

本発明は、携帯端末及び位置及び方位推定プログラムに関する。   The present invention relates to a portable terminal and a position and orientation estimation program.

スマートホン(Smartphone)等の携帯端末には、携帯端末の位置及び方位(或いは、姿勢)を推定する機能を備えたものもある。携帯端末の位置及び方位を推定する方法としては、様々な方法が提案されている。携帯端末が推定した自己位置及び方位は、ナビゲーションに代表される種々のサービスを携帯端末のユーザに提供するのに使用される。   Some portable terminals such as a smart phone have a function of estimating the position and orientation (or posture) of the portable terminal. Various methods have been proposed for estimating the position and orientation of the mobile terminal. The self-location and direction estimated by the mobile terminal are used to provide various services represented by navigation to the user of the mobile terminal.

サービスの一例として、携帯端末の位置及び方位を推定することで、携帯端末と同じ空間中に配置されたデバイスに対する直感的なインタフェースを提供するサービスが挙げられる。例えば家庭での応用例では、携帯端末がテレビの近傍に位置しておりテレビを向いた方位を有すると、携帯端末にテレビの番組表を表示することでテレビの簡単、且つ、直感的な操作が可能なインタフェースを提供できる。又、オフィスでの応用例では、携帯端末がプリンタの近傍に位置しておりプリンタを向いた方位で一定時間静止すると、携帯端末が表示している内容をプリンタで印刷する等のプリンタの簡単、且つ、直感的な操作が可能なインタフェースを提供できる。   As an example of the service, there is a service that provides an intuitive interface with respect to a device arranged in the same space as the mobile terminal by estimating the position and orientation of the mobile terminal. For example, in a home application, if the mobile terminal is located near the TV and has an orientation facing the TV, the TV program guide is displayed on the mobile terminal, making it easy and intuitive to operate the TV. Can provide an interface capable of In addition, in the application example in the office, when the portable terminal is located in the vicinity of the printer and is stationary for a certain period of time in the direction facing the printer, the printer can easily print the content displayed on the portable terminal. In addition, an interface capable of intuitive operation can be provided.

加速度センサ、ジャイロセンサ、地磁気センサ等が搭載された携帯端末では、慣性航法を利用して一定時間内で携帯端末の位置及び方位を推定することができる。しかし、慣性航法を利用する際には、携帯端末の初期位置及び初期方位(又は、初期姿勢)を予め決めておく必要である。従来、飛行機や船舶用の慣性航法装置では、イニシャルアライメント(Initial Alignment)と呼ばれる初期設定により、比較的高性能の慣性センサを利用して慣性航法装置の静止状態で姿勢等の状態量の初期値を決定する。しかし、このような初期設定には、比較的高性能の慣性センサを利用しなければならないので、一般的な携帯端末に搭載されているMEMS(Micro Electro Mechanical Systems)センサの性能では、このような初期設定に対応することができない。   In a portable terminal equipped with an acceleration sensor, a gyro sensor, a geomagnetic sensor, and the like, the position and orientation of the portable terminal can be estimated within a predetermined time using inertial navigation. However, when using inertial navigation, it is necessary to determine in advance the initial position and initial orientation (or initial orientation) of the mobile terminal. Conventionally, in inertial navigation devices for airplanes and ships, initial values of state quantities such as posture in a stationary state of the inertial navigation device using a relatively high-performance inertial sensor by an initial setting called initial alignment. To decide. However, since such an initial setting must use a relatively high-performance inertial sensor, the performance of a MEMS (Micro Electro Mechanical Systems) sensor mounted on a general mobile terminal is The initial setting cannot be supported.

一方、室外で地磁気センサ、GPS(Global Positioning System)センサ等で検知された情報を利用して携帯端末の位置及び方位を推定する方法もある。しかし、工場、オフィス等の室内では、地磁気が乱れて磁気センサで検知された情報の精度が低下し、GPSセンサによる検知を行えない場合もあるため、この方法を室内における携帯端末の位置及び方位の推定に適用することは難しい。   On the other hand, there is also a method for estimating the position and orientation of a mobile terminal using information detected by a geomagnetic sensor, a GPS (Global Positioning System) sensor, or the like outdoors. However, in a room such as a factory or office, the geomagnetism is disturbed and the accuracy of information detected by the magnetic sensor may be reduced, and detection by the GPS sensor may not be performed. It is difficult to apply to estimation.

尚、例えば特許文献1のように、光学的に読み取られる専用タグを利用することにより携帯端末の姿勢を検知する方法も提案されている。しかし、携帯端末を専用タグを光学的に読み取れる位置まで移動させて読み取りが完了するまで携帯端末を静止状態に保つ必要があり、室内に専用タグを多数設けるには設置コストがかかるので、家庭やオフィスでの応用例には適さない。   For example, as in Patent Document 1, a method of detecting the attitude of a mobile terminal by using a dedicated tag that is optically read has also been proposed. However, it is necessary to move the portable terminal to a position where the dedicated tag can be optically read and to keep the portable terminal stationary until the reading is completed. Not suitable for office applications.

このように、従来技術では、携帯端末に搭載されている比較的安価なセンサを利用して、位置及び方位の検知精度が携帯端末の運動状態に大きく影響されないように初期位置及び初期方位(又は、初期姿勢)を決定することは難しい。   As described above, the conventional technique uses a relatively inexpensive sensor mounted on the mobile terminal, and the initial position and the initial orientation (or so that the position and orientation detection accuracy is not greatly affected by the motion state of the mobile terminal. , Initial posture) is difficult to determine.

米国特許第7287706号公報US Pat. No. 7,287,706 特表2010−520688号公報Special table 2010-520688 特開2006−194725号公報JP 2006-194725 A 特開2007−18451号公報JP 2007-18451 A 特開2008−33526号公報JP 2008-33526 A 特開2009−287940号公報JP 2009-287940 A 特開2010−271167号公報JP 2010-271167 A

従来技術では、携帯端末に搭載されている比較的安価なセンサを利用して、携帯端末の位置及び方位を高精度に検知することは難しいという問題があった。   In the prior art, there has been a problem that it is difficult to detect the position and orientation of the mobile terminal with high accuracy using a relatively inexpensive sensor mounted on the mobile terminal.

そこで、本発明は、携帯端末に搭載されている比較的安価なセンサを利用して、携帯端末の位置及び方位を高精度に検知することが可能な携帯端末及び位置及び方位推定プログラムを提供することを目的とする。   Therefore, the present invention provides a mobile terminal and a position and orientation estimation program capable of detecting the position and orientation of the mobile terminal with high accuracy using a relatively inexpensive sensor mounted on the mobile terminal. For the purpose.

本発明の一観点によれば、自己位置情報を格納した外部デバイスと短距離無線通信を行う慣性航法を用いる携帯端末であって、前記携帯端末の加速度を検知して加速度情報を出力する第1の検知部と、画像を撮影する撮影部と、前記外部デバイスと通信する通信部と、前記通信部が前記外部デバイスと通信可能になると、前記外部デバイスから受信した位置情報を前記携帯端末の初期位置に設定すると共に、前記加速度情報のAC成分に基づいて撮影タイミングを予測し、前記外部デバイスの画像を前記撮影タイミングで撮影するよう前記撮影部を制御し、前記外部デバイスの撮影画像から推定したヨー角を前記携帯端末の初期方位に設定する制御部を備えたことを特徴とする携帯端末が提供される。   According to an aspect of the present invention, there is provided a mobile terminal that uses inertial navigation that performs short-range wireless communication with an external device that stores self-location information, and detects acceleration of the mobile terminal and outputs acceleration information. When the communication unit becomes communicable with the external device, the position information received from the external device is stored in the initial position of the mobile terminal. And setting the position, predicting the shooting timing based on the AC component of the acceleration information, controlling the shooting unit to take the image of the external device at the shooting timing, and estimated from the shot image of the external device There is provided a portable terminal comprising a control unit that sets a yaw angle to an initial orientation of the portable terminal.

本発明の一観点によれば、自己位置情報を格納した外部デバイスと短距離無線通信を行う慣性航法を用いる携帯端末のコンピュータに、位置及び方位推定処理を行わせるプログラムであって、前記携帯端末の通信部が前記外部デバイスと通信可能であるか否を判定する手順と、前記通信部が前記外部デバイスと通信可能であると判定されると、前記外部デバイスから受信した位置情報を前記携帯端末の初期位置に設定する手順と、前記携帯端末の加速度センサが出力する加速度情報のAC成分に基づいて撮影タイミングを予測する手順と、前記外部デバイスの画像を前記撮影タイミングで撮影するよう前記携帯端末の撮影部を制御する手順と、前記外部デバイスの撮影画像から推定したヨー角を前記携帯端末の初期方位に設定する手順を前記コンピュータに実行させることを特徴とするプログラムが提供される。   According to an aspect of the present invention, there is provided a program for causing a computer of a mobile terminal using inertial navigation that performs short-range wireless communication with an external device that stores self-position information to perform position and orientation estimation processing. A procedure for determining whether or not the communication unit can communicate with the external device, and if it is determined that the communication unit can communicate with the external device, position information received from the external device is transmitted to the mobile terminal. A procedure for setting the initial position, a procedure for predicting a shooting timing based on an AC component of acceleration information output from the acceleration sensor of the portable terminal, and the portable terminal so that an image of the external device is shot at the shooting timing. And a procedure for setting a yaw angle estimated from a captured image of the external device as an initial orientation of the portable terminal. A program characterized by causing executed computer is provided.

開示の携帯端末及び位置及び方位推定プログラムによれば、携帯端末に搭載されている比較的安価なセンサを利用して、携帯端末の位置及び方位を高精度に検知することが可能となる。   According to the disclosed mobile terminal and the position and orientation estimation program, it is possible to detect the position and orientation of the mobile terminal with high accuracy by using a relatively inexpensive sensor mounted on the mobile terminal.

本発明の一実施例における携帯端末のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the portable terminal in one Example of this invention. 携帯端末の位置と方位の自由度を説明する図である。It is a figure explaining the freedom degree of the position and azimuth | direction of a portable terminal. NFCタグの位置取得処理を説明する斜視図である。It is a perspective view explaining the position acquisition process of a NFC tag. 携帯端末の推定位置を表す座標系の一例を示す図である。It is a figure which shows an example of the coordinate system showing the presumed position of a portable terminal. 携帯端末の初期方位の推定処理を説明する図である。It is a figure explaining the estimation process of the initial azimuth | direction of a portable terminal. 携帯端末の初期方位の推定処理を説明するフローチャートである。It is a flowchart explaining the estimation process of the initial azimuth | direction of a portable terminal. NFCタグと連動した携帯端末の運動状態の推定を説明するフローチャートである。It is a flowchart explaining the estimation of the movement state of the portable terminal linked with the NFC tag. 携帯端末の状態推定処理を説明するフローチャートである。It is a flowchart explaining the state estimation process of a portable terminal. 3軸線加速度とN=1の場合のSMAを示す図である。It is a figure which shows SMA in case of triaxial acceleration and N = 1. 撮影タイミング決定処理を説明する図である。It is a figure explaining an imaging timing determination process. 撮影タイミング決定処理を説明するフローチャートである。It is a flowchart explaining an imaging timing determination process. 静止区間の決定処理を説明するフローチャートである。It is a flowchart explaining the determination process of a still area. Roll角及びPitch角を推定処理を説明する図である。It is a figure explaining an estimation process of a roll angle and a pitch angle. タグ画像の特徴抽出及び携帯端末の方位計算を説明する図である。It is a figure explaining the feature extraction of a tag image, and the direction calculation of a portable terminal. 携帯端末の方位計算の一例を説明する図である。It is a figure explaining an example of direction calculation of a portable terminal.

開示の携帯端末及び位置及び方位推定プログラムでは、自己位置情報を格納した外部デバイスと短距離無線通信を行う携帯端末の加速度情報を第1の検知部で検知し、携帯端末の方位情報を第2の検知部で検知する。携帯端末の制御部は、携帯端末が外部デバイスと短距離無線通信が可能な位置まで移動すると、外部デバイスから受信した位置情報を携帯端末の初期位置に設定すると共に、加速度情報のAC成分に基づいて撮影部による外部デバイスの撮影タイミングを予測する。制御部は、外部デバイスの画像を予測した撮影タイミングで撮影するよう撮影部を制御し、外部デバイスの撮影画像から推定したヨー角を携帯端末の初期方位に設定する。   In the disclosed portable terminal and the position and orientation estimation program, the acceleration information of the portable terminal that performs short-range wireless communication with the external device that stores the self-position information is detected by the first detection unit, and the orientation information of the portable terminal is the second. It is detected by the detector. When the mobile terminal moves to a position where short-distance wireless communication with an external device is possible, the control unit of the mobile terminal sets the position information received from the external device as the initial position of the mobile terminal, and based on the AC component of the acceleration information The shooting timing of the external device by the shooting unit is predicted. The control unit controls the photographing unit to photograph the image of the external device at the predicted photographing timing, and sets the yaw angle estimated from the photographed image of the external device as the initial orientation of the mobile terminal.

制御部は、外部デバイスの撮影画像から推定したヨー角と、加速度情報のDC成分及び方位情報から推定したロール角及びピッチ角を携帯端末の初期方位に設定しても良い。   The control unit may set the yaw angle estimated from the captured image of the external device and the roll angle and pitch angle estimated from the DC component of the acceleration information and the orientation information as the initial orientation of the mobile terminal.

以下に、開示の携帯端末及び位置及び方位推定プログラムの各実施例を図面と共に説明する。   Hereinafter, embodiments of the disclosed portable terminal and position and orientation estimation program will be described with reference to the drawings.

図1は、本発明の一実施例における携帯端末のハードウェア構成の一例を示すブロック図である。図1において、携帯端末500は、CPU501、記憶部502、テンキー等を含む入力部503、表示部504、通信部505、及びセンサ部506を有する。この例では、記憶部502、入力部503、表示部504、通信部505、及びセンサ部506がバス507を介してCPU501に接続されているが、バス507を用いることなく記憶部502、入力部503、表示部504、通信部505、及びセンサ部506を夫々直接CPU501に接続した構成であっても良い。バス507を介さずに直接CPU501と信号の送受信を行う場合、バス507上のトラフィックの問題が軽減できる。図1に示す如きハードウェア構成を有するスマートホンは周知である。   FIG. 1 is a block diagram illustrating an example of a hardware configuration of a mobile terminal according to an embodiment of the present invention. In FIG. 1, the mobile terminal 500 includes a CPU 501, a storage unit 502, an input unit 503 including a numeric keypad, a display unit 504, a communication unit 505, and a sensor unit 506. In this example, the storage unit 502, the input unit 503, the display unit 504, the communication unit 505, and the sensor unit 506 are connected to the CPU 501 via the bus 507, but the storage unit 502, the input unit without using the bus 507 503, the display unit 504, the communication unit 505, and the sensor unit 506 may be directly connected to the CPU 501. When signals are directly transmitted to and received from the CPU 501 without going through the bus 507, the problem of traffic on the bus 507 can be reduced. A smart phone having a hardware configuration as shown in FIG. 1 is well known.

入力部503の少なくとも一部及び表示部504は、タッチパネル等により一体的に設けられていても良い。センサ部506は、例えば加速度センサ506a、ジャイロセンサ(又は、ジャイロスコープ)506b、及びカメラ506cを有する。センサ部506は、例えば地磁気センサ、GPSセンサ等を更に有しても良い。   At least a part of the input unit 503 and the display unit 504 may be integrally provided by a touch panel or the like. The sensor unit 506 includes, for example, an acceleration sensor 506a, a gyro sensor (or gyroscope) 506b, and a camera 506c. The sensor unit 506 may further include, for example, a geomagnetic sensor, a GPS sensor, and the like.

CPU501は、携帯端末500全体の制御を司り、位置及び方位推定プログラムを含む各種プログラムを実行することで携帯端末500の各機能を実現できる。記憶部502は、CPU501が実行するプログラム、及びCPU501が実行する算出処理等の中間データ、例えば地図データ等を含む各種データを格納する。記憶部502は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等で形成可能である。入力部502は、携帯端末500にコマンドやデータを入力する際にユーザにより操作される。表示部503は、入力部502からの入力情報、ユーザへのメッセージ、各種操作メニュー、地図等を表示する。通信部505は、他の装置(図示せず)と無線通信を行う。   The CPU 501 controls the entire mobile terminal 500 and can implement various functions of the mobile terminal 500 by executing various programs including a position and orientation estimation program. The storage unit 502 stores various data including programs executed by the CPU 501 and intermediate data such as calculation processing executed by the CPU 501 such as map data. The storage unit 502 can be formed by, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), or the like. The input unit 502 is operated by the user when inputting commands and data to the mobile terminal 500. A display unit 503 displays input information from the input unit 502, a message to the user, various operation menus, a map, and the like. The communication unit 505 performs wireless communication with another device (not shown).

携帯端末500に少なくとも位置及び方位推定機能を持たせるプログラム(位置及び方位推定プログラム)は、CPU501を慣性航法を用いた位置及び方位推定機能を有する携帯端末500として動作させる。プログラムは、コンピュータ読み取り可能な記憶媒体に格納されていても良い。コンピュータ読み取り可能な記憶媒体は、例えばIC(Integrated Circuit)カードメモリ等の半導体記憶装置、フロッピー(登録商標)ディスク等の磁気ディスク、光磁気ディスク、CD−ROM等の可搬型記録媒体に限定されるものではなく、CPU500でアクセス可能な各種記録媒体を含む。又、コンピュータ読み取り可能な記憶媒体は、例えば記憶部502で形成されても良い。   A program (position and direction estimation program) for causing the portable terminal 500 to have at least a position and orientation estimation function causes the CPU 501 to operate as the portable terminal 500 having a position and orientation estimation function using inertial navigation. The program may be stored in a computer-readable storage medium. The computer-readable storage medium is limited to, for example, a semiconductor storage device such as an IC (Integrated Circuit) card memory, a magnetic disk such as a floppy (registered trademark) disk, a magneto-optical disk, and a portable recording medium such as a CD-ROM. It includes various recording media that are accessible by the CPU 500. Further, a computer-readable storage medium may be formed by the storage unit 502, for example.

言うまでもなく、CPU501は、位置及び方位推定機能に加え、各種プログラムを実行することで携帯端末500の通話機能、撮影機能等の各種機能の少なくとも一部を更に実現しても良い。   Needless to say, the CPU 501 may further realize at least a part of various functions such as a call function and a photographing function of the mobile terminal 500 by executing various programs in addition to the position and orientation estimation function.

スマートホンは携帯端末500の一例である。携帯端末500は、無線通信機能、加速度検知機能、方位(又は、姿勢)検知機能及び撮影機能を備えた電子装置であれば特に限定されない。無線通信機能は、例えば無線発信機及び無線受信機を含む通信部505で実現可能であり、少なくとも後述する短距離無線通信(NFC:Near Field Communication)で周知のNFCタグ10と双方向無線通信を行う機能を含む。NFCタグ10に情報を書き込む必要がない場合には、無線通信機能は、少なくともNFCタグ10に格納された情報を読み取るタグリーダ505−1を含む通信部505で実現可能である。   A smart phone is an example of the mobile terminal 500. The portable terminal 500 is not particularly limited as long as it is an electronic device having a wireless communication function, an acceleration detection function, an orientation (or orientation) detection function, and a photographing function. The wireless communication function can be realized by the communication unit 505 including, for example, a wireless transmitter and a wireless receiver, and at least performs two-way wireless communication with the NFC tag 10 that is well-known in near field communication (NFC) described later. Includes functions to perform. When it is not necessary to write information to the NFC tag 10, the wireless communication function can be realized by the communication unit 505 including the tag reader 505-1 that reads at least information stored in the NFC tag 10.

加速度検知機能は、例えばセンサ部506の加速度センサ(又は、加速度検知部)506aで実現可能である。方位検知機能は、例えばセンサ部506のジャイロセンサ(又は、姿勢検知部)506bで実現可能である。撮影機能は、例えばセンサ部506のデジタルカメラ、デジタルビデオカメラ等のカメラ(撮影部又は撮像部)506cで実現可能である。   The acceleration detection function can be realized by, for example, the acceleration sensor (or acceleration detection unit) 506a of the sensor unit 506. The direction detection function can be realized by, for example, the gyro sensor (or posture detection unit) 506b of the sensor unit 506. The imaging function can be realized by a camera (imaging unit or imaging unit) 506c such as a digital camera or a digital video camera of the sensor unit 506, for example.

図2は、携帯端末の位置と方位の自由度を説明する図である。図2は、空間中の6自由度(位置について3自由度、方位(又は、姿勢)について3自由度)を検知する場合を示す。図2において、X, Y, Zは携帯端末500の位置が表されるXYZ座標系の3軸を示し、携帯端末500の方位はX, Y, Z軸を中心とした矢印の如き回転角度Roll, Pitch, Yawで表される。   FIG. 2 is a diagram illustrating the position and orientation freedom of the mobile terminal. FIG. 2 shows a case where six degrees of freedom in space (three degrees of freedom for position and three degrees of freedom for direction (or posture)) are detected. In FIG. 2, X, Y, and Z indicate three axes of the XYZ coordinate system in which the position of the mobile terminal 500 is represented, and the orientation of the mobile terminal 500 is a rotation angle Roll such as an arrow about the X, Y, and Z axes. , Pitch, Yaw.

次に、携帯端末500の動作を図3以降と共に説明する。図3は、NFCタグの位置取得処理を説明する斜視図である。   Next, the operation of the portable terminal 500 will be described with reference to FIG. FIG. 3 is a perspective view for explaining the NFC tag position acquisition process.

先ず、携帯端末500を使用する環境、例えば家庭或いはオフィスにおける室内の任意の位置にNFCタグ10を設置する。NFCタグ10は、携帯端末500と短距離無線通信(NFC:Near Field Communication)を行う機能を有する外部デバイスの一例である。NFCタグ10は、例えば携帯端末500を保持するユーザが携帯端末500をNFCタグ10に対して翳しやすい高さ位置の基準面11に配置されている。基準面11は、携帯端末500の外部に設けられた重力方向と略垂直な水平面であり、この例ではテーブル等の上面である。   First, the NFC tag 10 is installed at an arbitrary position in an environment where the mobile terminal 500 is used, for example, at home or office. The NFC tag 10 is an example of an external device having a function of performing short-range wireless communication (NFC: Near Field Communication) with the mobile terminal 500. For example, the NFC tag 10 is disposed on the reference surface 11 at a height position where a user holding the mobile terminal 500 can easily hold the mobile terminal 500 against the NFC tag 10. The reference plane 11 is a horizontal plane that is provided outside the mobile terminal 500 and is substantially perpendicular to the direction of gravity, and in this example is the upper surface of a table or the like.

NFCは無線通信の国際規格である。携帯端末500とNFCタグ10との間の通信には例えば13.56MHzの電波を使い、例えば10cm程度の近距離で例えば100kbps〜400kbpsの双方向通信が可能である。図3のように携帯端末500がNFCタグ100と通信可能な近距離にあれば、通信部505によりNFCタグ10への情報の書き込み又はNFCタグ10から情報読み出しを行うことができる。   NFC is an international standard for wireless communication. For example, 13.56 MHz radio waves are used for communication between the portable terminal 500 and the NFC tag 10, and bidirectional communication of, for example, 100 kbps to 400 kbps is possible at a short distance of about 10 cm. As shown in FIG. 3, if the mobile terminal 500 is at a short distance where communication with the NFC tag 100 is possible, the communication unit 505 can write information to the NFC tag 10 or read information from the NFC tag 10.

携帯端末500の通信部505(例えば、タグリーダ505−1)は、携帯端末500がNFCタグ10に近接するとNFCタグ10に格納されているタグ位置の情報を読み取る。携帯端末500の通信部505がNFCタグ10のタグ位置の情報をNFCで読み取れるということは、携帯端末500はNFCタグ10に近接しているので、読み取ったタグ位置は携帯端末500の推定位置とする。図4は、携帯端末の推定位置を表す座標系の一例を示す図である。図4は、携帯端末500の推定位置を表すXYZ座標系を示す。   The communication unit 505 (for example, tag reader 505-1) of the mobile terminal 500 reads the tag position information stored in the NFC tag 10 when the mobile terminal 500 comes close to the NFC tag 10. The fact that the communication unit 505 of the mobile terminal 500 can read the information of the tag position of the NFC tag 10 by NFC means that the mobile terminal 500 is close to the NFC tag 10, so the read tag position is the estimated position of the mobile terminal 500. To do. FIG. 4 is a diagram illustrating an example of a coordinate system representing the estimated position of the mobile terminal. FIG. 4 shows an XYZ coordinate system representing the estimated position of the mobile terminal 500.

ロール(Roll)角、ピッチ(Pitch)角及びヨー(Yaw)角で表される携帯端末500の方位(又は、姿勢)は、以下の処理を実行することで推定する。   The azimuth (or posture) of the mobile terminal 500 represented by a roll angle, a pitch angle, and a yaw angle is estimated by executing the following processing.

通信部505がNFCタグ10と通信可能となることでNFCタグ10を検知すると、加速度センサ506aが検知した加速度及びジャイロセンサ506bが検知した方位のバッファリング処理を起動すると共に、検知された加速度に基づきリアルタイムで携帯端末500の運動区間の判別処理を起動する。又、携帯端末500の静止状態からの離脱(又は、運動状態への遷移)を後述する方法で検知すると、初期速度及び初期方位での予測に基づきNFCタグ10の撮影時刻(又は、撮影タイミング)を計算する。携帯端末500でNFCタグ10を触れることで携帯端末500の初期位置及び初期方位を設定することが前提となっている。このため、通信部505がNFCタグ10を検知し、加速度センサ506aが検知した加速度の線加速度成分の積分値(即ち、速度)がゼロ(0)であると共にジャイロセンサ506bが検知した角速度がゼロ(0)であれば、携帯端末500はNFCタグ10と近接した位置で静止していることがわかるので、携帯端末500とNFCタグ10の接触状態を推定することができる。又、通信部505がNFCタグ10を検知できなくなると、即ち、NFCタグ10と通信できなくなると、携帯端末500とNFCタグ10とNFCタグ10の非接触状態を推定することができる。カメラ506cは、計算された撮影時刻にNFCタグ10の画像を撮影する。カメラ506cによるNFCタグ10の撮影が完了した時点で、携帯端末500とNFCタグ10の接触状態、或いは、非接触状態を推定し、再度Roll角及びPitch角を推定するための静止区間を求める。求めた静止区間での重力ベクトルを計算することで、Roll角及びPitch角を推定する。又、撮影されたNFCタグ10の画像の特徴を抽出することで、携帯端末500のYaw角を求める。静止区間で推定した携帯端末500の位置及び方位で現在時刻まで位置及び方位を再度更新し、連続して位置及び方位を推定する。   When the communication unit 505 detects the NFC tag 10 because it can communicate with the NFC tag 10, it starts buffering processing of the acceleration detected by the acceleration sensor 506 a and the direction detected by the gyro sensor 506 b, and also detects the detected acceleration. Based on this, the determination process of the movement section of the mobile terminal 500 is started in real time. Further, when the removal from the stationary state of the mobile terminal 500 (or the transition to the motion state) is detected by a method described later, the shooting time (or shooting timing) of the NFC tag 10 based on the prediction in the initial speed and the initial orientation. Calculate It is assumed that the initial position and initial orientation of the mobile terminal 500 are set by touching the NFC tag 10 with the mobile terminal 500. For this reason, the communication unit 505 detects the NFC tag 10, the integral value (ie, velocity) of the linear acceleration component of the acceleration detected by the acceleration sensor 506a is zero (0), and the angular velocity detected by the gyro sensor 506b is zero. If it is (0), it can be seen that the mobile terminal 500 is stationary at a position close to the NFC tag 10, so that the contact state between the mobile terminal 500 and the NFC tag 10 can be estimated. Further, if the communication unit 505 cannot detect the NFC tag 10, that is, if it cannot communicate with the NFC tag 10, it is possible to estimate the non-contact state of the mobile terminal 500, the NFC tag 10, and the NFC tag 10. The camera 506c captures an image of the NFC tag 10 at the calculated capturing time. When the photographing of the NFC tag 10 by the camera 506c is completed, the contact state or non-contact state between the mobile terminal 500 and the NFC tag 10 is estimated, and a stationary section for estimating the Roll angle and the Pitch angle is obtained again. The roll angle and pitch angle are estimated by calculating the gravitational vector in the obtained stationary section. Further, the Yaw angle of the portable terminal 500 is obtained by extracting the characteristics of the image of the photographed NFC tag 10. The position and orientation are updated again up to the current time with the position and orientation of the mobile terminal 500 estimated in the stationary section, and the position and orientation are continuously estimated.

これにより、携帯端末500で水平面に配置したNFCタグ10を触れる(以下、タッチと言う)だけで、携帯端末500の位置及び方位を推定できる。携帯端末500でNFCタグ10をタッチする時には、携帯端末500の1つの面(例えば、底面)をNFCタグ10の表面と接触させる。この際、タッチの衝撃の有無に影響されることなく、携帯端末500の位置及び方位を精度良く推定できる。携帯端末500の位置及び方位を推定するために、携帯端末500を比較的長時間静止状態に保つといったユーザへ負担となる操作は不要である。複数のNFCタグ10へのタッチにより、例えば複数の推定位置の平均及び複数の推定方位の平均を求めることで、安価な慣性センサ(加速度センサ506a、ジャイロセンサ506b)を利用した慣性航法で発生した推定誤差を減少させるようにしても良い。携帯端末500の位置及び方位の推定には、携帯端末500に搭載されている既存のセンサ506a,506b,506cを利用すれば、携帯端末500のハードウェア構成を変更したり、携帯端末500を使用する環境に専用のデバイス等を多数設置したりする必要はない。   Accordingly, the position and orientation of the mobile terminal 500 can be estimated simply by touching the NFC tag 10 placed on the horizontal plane (hereinafter referred to as touch) with the mobile terminal 500. When the NFC tag 10 is touched with the mobile terminal 500, one surface (for example, the bottom surface) of the mobile terminal 500 is brought into contact with the surface of the NFC tag 10. At this time, the position and orientation of the mobile terminal 500 can be accurately estimated without being affected by the presence or absence of a touch impact. In order to estimate the position and orientation of the mobile terminal 500, an operation that burdens the user such as keeping the mobile terminal 500 stationary for a relatively long time is unnecessary. For example, by calculating the average of a plurality of estimated positions and the average of a plurality of estimated orientations by touching a plurality of NFC tags 10, it is generated by inertial navigation using an inexpensive inertial sensor (acceleration sensor 506a, gyro sensor 506b). The estimation error may be reduced. If the existing sensors 506a, 506b, and 506c installed in the mobile terminal 500 are used to estimate the position and orientation of the mobile terminal 500, the hardware configuration of the mobile terminal 500 is changed or the mobile terminal 500 is used. There is no need to install a large number of dedicated devices in the environment.

上記の如く、携帯端末500に搭載されている加速度センサ506a、ジャイロセンサ506b及びカメラ506cを連携させることにより、携帯端末500の位置及び方位を推定する。携帯端末500の位置を推定する際、携帯端末500がNFCタグ10と通信可能な距離は例えば1cm〜10cmと短いことから、NFCタグ10の位置(X, Y ,Z)を携帯端末500の位置として推定する。又、携帯端末500の方位(又は、姿勢)を推定する際、携帯端末500がNFCタグ10と短距離無線通信が可能な位置まで移動したこと、即ち、携帯端末500とNFCタグ10との間の短距離無線通信の開始をトリガとして利用し、加速度センサ506aが検知した加速度及びジャイロセンサ506bが検知した角速度に基づいて携帯端末500でNFCタグ10をタッチする静止区間を求めることで、携帯端末500のRoll角とPitch角を特定する。更に、携帯端末500の運動を予測し、NFCタグ10の画像をカメラ506cで撮影して解析することで、携帯端末500のYaw角を推定する。   As described above, the position and orientation of the mobile terminal 500 are estimated by linking the acceleration sensor 506a, the gyro sensor 506b, and the camera 506c mounted on the mobile terminal 500. When estimating the position of the portable terminal 500, the distance that the portable terminal 500 can communicate with the NFC tag 10 is as short as 1 cm to 10 cm, for example, and therefore the position (X, Y, Z) of the NFC tag 10 is the position of the portable terminal 500. Estimate as Further, when estimating the azimuth (or posture) of the mobile terminal 500, the mobile terminal 500 has moved to a position where short-range wireless communication with the NFC tag 10 is possible, that is, between the mobile terminal 500 and the NFC tag 10. By using the start of short-range wireless communication as a trigger, and obtaining a stationary section in which the NFC tag 10 is touched on the portable terminal 500 based on the acceleration detected by the acceleration sensor 506a and the angular velocity detected by the gyro sensor 506b. Specify a roll angle and pitch angle of 500. Furthermore, the motion of the mobile terminal 500 is predicted, and an image of the NFC tag 10 is captured by the camera 506c and analyzed, so that the Yaw angle of the mobile terminal 500 is estimated.

次に、携帯端末500の初期位置及び初期方位(又は、初期姿勢)の推定について、より詳細に説明する。   Next, the estimation of the initial position and initial orientation (or initial posture) of the mobile terminal 500 will be described in more detail.

携帯端末500の初期位置は、以下の手順ST1〜ST4で推定(又は、設定)することができる。先ず、手順ST1では、事前に絶対座標系で観測したNFCタグ10の位置(x,y,z)を計測する。手順ST2では、計測したNFCタグ10の位置をNFCタグ10の固有情報(即ち、位置情報)として周知の方法でNFCタグ10へ書き込む。例えば、通信部505のタグライタ505−2、或いは、初期設定用の専用装置のタグライタを用いてNFCタグ10の位置情報をNFCタグ10へ書き込む。手順ST3では、携帯端末500でNFCタグ10をタッチする際、通信部505のタグリーダ505−1を用いて周知の方法でNFCタグ10の位置情報を読み出す。手順ST4では、タグリーダ505−1がNFCタグ10の位置情報を短距離無線通信で読み出すことから、読み出した位置情報が示すNFCタグ10の位置を絶対座標系の携帯端末500の推定位置に設定する。   The initial position of the portable terminal 500 can be estimated (or set) by the following procedures ST1 to ST4. First, in step ST1, the position (x, y, z) of the NFC tag 10 observed in advance in the absolute coordinate system is measured. In step ST2, the measured position of the NFC tag 10 is written to the NFC tag 10 by a known method as unique information (that is, position information) of the NFC tag 10. For example, the position information of the NFC tag 10 is written into the NFC tag 10 using the tag writer 505-2 of the communication unit 505 or the tag writer of the dedicated device for initial setting. In procedure ST3, when the NFC tag 10 is touched with the portable terminal 500, the position information of the NFC tag 10 is read by a known method using the tag reader 505-1 of the communication unit 505. In step ST4, since the tag reader 505-1 reads the position information of the NFC tag 10 by short-range wireless communication, the position of the NFC tag 10 indicated by the read position information is set as the estimated position of the mobile terminal 500 in the absolute coordinate system. .

一方、携帯端末500の初期方位(又は、初期姿勢)は、3軸直交加速度データで推定できるRoll角及びPitch角と、3軸直交加速度データで推定できないYaw角とをグループ分けして、グループ毎に別々の方法で推定する。図5は携帯端末の初期方位の推定処理を説明する図であり、図6は携帯端末の初期方位の推定処理を説明するフローチャートである。   On the other hand, the initial azimuth (or initial posture) of the mobile terminal 500 is obtained by grouping the Roll angle and Pitch angle that can be estimated with the triaxial orthogonal acceleration data and the Yaw angle that cannot be estimated with the triaxial orthogonal acceleration data. Estimate in different ways. FIG. 5 is a diagram illustrating an estimation process of the initial orientation of the mobile terminal, and FIG. 6 is a flowchart illustrating the estimation process of the initial orientation of the mobile terminal.

図5は、加速度センサ506a及びジャイロセンサ506bの検知データをバッファリングするデータバッファリング期間、携帯端末500の運動を予測してNFCタグ10の画像を撮影する画像撮影期間、センサ区間(又は、撮影タイミング)の特定及び撮影画像による方位推定期間、及び推定した方位での現在位置更新期間を夫々白抜きの矢印で示す。接近区間は携帯端末500がNFCタグ10に接近する区間、静止区間は携帯端末500がNFCタグ10をタッチして静止状態にある区間、離脱区間は携帯端末500が静止状態から離脱して(即ち、移動して)運動状態に遷移する区間である。携帯端末500は、時刻t1からNFCタグ10と通信可能(即ち、NFCタグ10を検知可能)となり、NFCタグ10をタッチして時刻t2に静止状態となり、時刻t3からNFCタグ10と通信可能な状態から離脱する(即ち、NFCタグ10を検知不能となる)。   FIG. 5 illustrates a data buffering period for buffering detection data of the acceleration sensor 506a and the gyro sensor 506b, an image capturing period for capturing an image of the NFC tag 10 by predicting the movement of the mobile terminal 500, and a sensor section (or capturing). (Timing) specification and the direction estimation period based on the captured image, and the current position update period in the estimated direction are indicated by white arrows. The approaching section is a section in which the mobile terminal 500 approaches the NFC tag 10, the stationary section is a section in which the mobile terminal 500 is in a stationary state by touching the NFC tag 10, and the separation section is in a state in which the portable terminal 500 is detached from the stationary state (that is, , Move) and transition to the motion state. The portable terminal 500 can communicate with the NFC tag 10 from time t1 (that is, the NFC tag 10 can be detected), touch the NFC tag 10 to be in a stationary state at time t2, and can communicate with the NFC tag 10 from time t3. Leave the state (that is, the NFC tag 10 cannot be detected).

図6において、ステップS1は、携帯端末500がNFCタグ10と通信可能となることでNFCタグ10を検知すると加速度センサ506a及びジャイロセンサ506bの検知データ502A,502Bの記憶部502へのバッファリングを起動し、加速度に基づきリアルタイムで運動区間の判別を開始する。例えば、携帯端末500の通信部505がNFCタグ10との通信を開始すると、携帯端末500がNFCタグ10と通信可能になったことを検知することができる。ステップS2は、携帯端末500の静止状態からの離脱を検知する際、初期加度及び初期方位での予測に基づきカメラ506cによるNFCタグ10の撮影時刻を計算して記憶部502に格納する。ステップS3は、計算された撮影時刻にカメラ506cでNFCタグ10を撮影し、撮影画像のデータ502Cを記憶部502に格納する。   In FIG. 6, when the mobile terminal 500 detects the NFC tag 10 because the mobile terminal 500 can communicate with the NFC tag 10, buffering of the detection data 502 </ b> A and 502 </ b> B of the acceleration sensor 506 a and the gyro sensor 506 b to the storage unit 502 is performed. Starts and starts discriminating the movement section in real time based on the acceleration. For example, when the communication unit 505 of the mobile terminal 500 starts communication with the NFC tag 10, it can be detected that the mobile terminal 500 can communicate with the NFC tag 10. In step S <b> 2, when detecting the removal of the mobile terminal 500 from the stationary state, the imaging time of the NFC tag 10 by the camera 506 c is calculated based on the initial addition and the prediction in the initial orientation, and stored in the storage unit 502. In step S3, the camera 506c captures the NFC tag 10 at the calculated capturing time, and the captured image data 502C is stored in the storage unit 502.

ステップS4は、撮影が完了した時点で、携帯端末500とNFCタグ10との接触状態又は非接触状態を検知データ502A,502Bに基づいて確認した上で、静止区間を特定して記憶部502に格納する。ステップS4と並行して、ステップS5は、撮影画像のデータ502Cから撮影画像の特徴を抽出し、抽出された特徴から携帯端末500のYaw角を特定して記憶部502に格納する。ステップS4の後、ステップS6は、静止区間での加速度の検知データ502Aに基づいて、携帯端末500のRoll角及びPitch角を特定して記憶部502に格納する。ステップS5又はS6の後、ステップS7は、静止区間で推定した位置及び方位で現在時刻までの位置及び方位を再度更新して記憶部502に格納する。   In step S4, when photographing is completed, the contact state or non-contact state between the mobile terminal 500 and the NFC tag 10 is confirmed based on the detection data 502A and 502B, and then the stationary section is identified and stored in the storage unit 502. Store. In parallel with step S4, step S5 extracts the feature of the photographed image from the photographed image data 502C, specifies the Yaw angle of the portable terminal 500 from the extracted feature, and stores it in the storage unit 502. After step S <b> 4, step S <b> 6 specifies the roll angle and pitch angle of the portable terminal 500 based on the acceleration detection data 502 </ b> A in the stationary section and stores it in the storage unit 502. After step S5 or S6, step S7 updates again the position and direction up to the current time with the position and direction estimated in the stationary section and stores them in the storage unit 502.

3軸直交加速度データでRoll角及びPitch角を精度良く推定するために、後述する理由で、図6の処理を行うために、携帯端末500がNFCタグ10へのタッチ操作中の、静止や離脱等の運動状態を先に推定して静止区間を特定する。又、Yaw角を特定するためにNFCタグ10の画像を撮影するタイミングを決定するため、携帯端末500の運動状態に基づいた撮影タイミングを予測する。この結果、加速度による携帯端末500のRoll角及びPitch角の特定、及び画像撮影による携帯端末500のYaw角の特定が可能となる。   In order to accurately estimate the Roll angle and Pitch angle from the three-axis orthogonal acceleration data, for the reason described later, in order to perform the process of FIG. The stationary state is specified by estimating the motion state such as first. In addition, in order to determine the timing for capturing an image of the NFC tag 10 in order to specify the Yaw angle, the capturing timing based on the motion state of the mobile terminal 500 is predicted. As a result, it is possible to specify the roll angle and the pitch angle of the mobile terminal 500 based on the acceleration, and the Yaw angle of the mobile terminal 500 based on the image capturing.

次に、NFCタグ10と連動した携帯端末500の運動状態の推定について説明する。携帯端末500の運動状態の推定は、NFCタグ10を検知してから、NFCタグ10の画像の撮影が完了まで行う。図7は、NFCタグと連動した携帯端末の運動状態の推定を説明するフローチャートである。   Next, estimation of the motion state of the mobile terminal 500 in conjunction with the NFC tag 10 will be described. The estimation of the motion state of the portable terminal 500 is performed until the image capturing of the NFC tag 10 is completed after the NFC tag 10 is detected. FIG. 7 is a flowchart illustrating the estimation of the motion state of the mobile terminal in conjunction with the NFC tag.

図7において、携帯端末500の状態推定のタイミングは以下のように決定することができる。携帯端末500がNFCタグ10から一定距離(例えば、1cm〜10cm)まで近づくと、通信部505がNFCタグ10と通信可能になるため、ステップS11はNFCタグ検知イベントが発生する。このNFCタグ検知イベントが発生した時点で、携帯端末500の状態推定処理を起動する。このように、状態推定処理は、NFCタグ検知イベントが発生したときだけ起動されるため、携帯端末500の消費電力を抑えることができる。   In FIG. 7, the timing of state estimation of the mobile terminal 500 can be determined as follows. When the mobile terminal 500 approaches a certain distance (for example, 1 cm to 10 cm) from the NFC tag 10, the communication unit 505 can communicate with the NFC tag 10, and thus an NFC tag detection event occurs in step S <b> 11. When this NFC tag detection event occurs, the state estimation process of the portable terminal 500 is activated. Thus, since the state estimation process is activated only when an NFC tag detection event occurs, the power consumption of the mobile terminal 500 can be suppressed.

状態推定処理のためのフィルタリング処理は、以下のように行える。携帯端末500の状態を推定するために、ステップS12は加速度センサ506aが検知した加速度データから重力ベクトルによる重力データ(成分)と携帯端末500の運動による3軸線加速度(Linear Acceleration)データ(成分)とを分離する。重力データは、加速度データをローパスフィルタ(LPF:Low-Pass Filter)を通すことで、加速度データのDC成分502A−2として求められる。一方、3軸線加速度データは、加速度データをハイパスフィルタ(HPF:High-Pass Filter)を通すことで加速度データのAC成分502A−1として求められる。LPF及びHPF自体は周知であるため、その説明は省略する。分離した3軸線加速度データを利用することで、携帯端末500の運動状態又は静止状態を推定することができる。   The filtering process for the state estimation process can be performed as follows. In order to estimate the state of the mobile terminal 500, step S12 includes gravity data (component) based on the gravity vector and triaxial acceleration (Linear Acceleration) data (component) based on the motion of the mobile terminal 500 from the acceleration data detected by the acceleration sensor 506a. Isolate. The gravity data is obtained as the DC component 502A-2 of the acceleration data by passing the acceleration data through a low-pass filter (LPF). On the other hand, the triaxial acceleration data is obtained as an AC component 502A-1 of acceleration data by passing the acceleration data through a high-pass filter (HPF). Since LPF and HPF are well known, the description thereof is omitted. By using the separated triaxial acceleration data, it is possible to estimate the motion state or the stationary state of the mobile terminal 500.

バッファリング処理は、以下のように行える。携帯端末500の状態を推定するために、ステップS12はフィルタリングされた加速度のAC成分502A1−1と加速度のDC成分502A−2を記憶部502にバッファリングすると共に、ジャイロセンサ506bが検知したジャイロデータ502Bを記憶部502にバッファリングする。又、ステップS12は、ステップS11で検知されたNFCタグ10から受信したタグ位置の情報を携帯端末500の初期位置の情報として記憶部502にバッファリングする。   The buffering process can be performed as follows. In order to estimate the state of the portable terminal 500, step S12 buffers the filtered AC component 502A1-1 and acceleration DC component 502A-2 in the storage unit 502, and also detects the gyro data detected by the gyro sensor 506b. 502B is buffered in the storage unit 502. In step S12, the tag position information received from the NFC tag 10 detected in step S11 is buffered in the storage unit 502 as the initial position information of the portable terminal 500.

携帯端末500の静止状態及び運動状態(又は、静止状態からの離脱)は、以下のように推定することができる。重力データを除いた線加速度データは、携帯端末500の運動状態を示すため、リアルタイムで携帯端末500の運動状態を判別することが可能である。そこで、ステップS13は、AC成分502A−1から携帯端末500の静止状態及び運動状態を推定する。   The stationary state and the exercise state (or detachment from the stationary state) of the mobile terminal 500 can be estimated as follows. Since the linear acceleration data excluding the gravity data indicates the motion state of the mobile terminal 500, the motion state of the mobile terminal 500 can be determined in real time. Therefore, in step S13, the stationary state and the motion state of the mobile terminal 500 are estimated from the AC component 502A-1.

図8は、携帯端末の状態推定処理を説明するフローチャートである。図8の状態推定処理は、上記ステップS12,S13の処理に相当する。図8において、ステップS21は、加速度センサ506aが検知した加速度データを取得する。ステップS22は、取得した加速度データを、重力データである加速度のDC成分502A−2と、3軸線加速度データである加速度のAC成分502A−1とに分離する。ステップS23は、加速度のAC成分502A−1のSMA(Signal Magnitude Area)を計算する。SMAは、一定時間T内の運動量の大きさ(エネルギー)を示す特徴量であり、以下の式から計算できる。   FIG. 8 is a flowchart for explaining the state estimation process of the mobile terminal. The state estimation process in FIG. 8 corresponds to the processes in steps S12 and S13. In FIG. 8, step S21 acquires acceleration data detected by the acceleration sensor 506a. In step S22, the acquired acceleration data is separated into an acceleration DC component 502A-2 that is gravity data and an acceleration AC component 502A-1 that is triaxial acceleration data. In step S23, an SMA (Signal Magnitude Area) of the AC component 502A-1 of acceleration is calculated. The SMA is a feature amount indicating the magnitude (energy) of the momentum within a certain time T, and can be calculated from the following equation.

一定時間TM以上、SMAのレベルが図9に太い破線で示す運動及び静止閾値以下であれば、携帯端末500が静止状態にあると判定できる。一方、SMAのレベルが運動及び静止閾値を超えると、携帯端末500の静止状態から運動状態への遷移を検知でき、携帯端末500が運動状態にあると判定できる。ステップS24は、SMAのレベルに基づいて携帯端末500が静止状態にあるか、或いは、運動状態にあるかを分類する。   If the SMA level is equal to or greater than the certain time TM and the SMA level is equal to or less than the motion and stillness threshold indicated by the thick broken line in FIG. On the other hand, when the level of the SMA exceeds the motion and stillness threshold, it is possible to detect the transition of the mobile terminal 500 from the stationary state to the motion state and determine that the mobile terminal 500 is in the motion state. Step S24 classifies whether portable terminal 500 is in a stationary state or an exercise state based on the level of SMA.

図7の説明に戻るに、携帯端末500の運動状態の推定に基づく撮影タイミングは、以下のように決定することができる。後述する画像処理に基づき携帯端末500のYaw角を推定するため、携帯端末500がNFCタグ10をタッチした後にNFCタグ10から離れたときに、携帯端末500がNFCタグ10から適切な高さ位置(又は、距離)にある状態でNFCタグ10を撮影できるように、ステップS14は適切な撮影タイミングを予測(即ち、計算)に基づいて決定する。撮影タイミングが早すぎたり遅すぎたりした場合、撮影されたNFCタグ10の画像データから画像処理に必要なNFCタグ10の特徴を抽出(又は、キャプチャ)できない可能性がある。そこで、携帯端末500が適切な高さ位置(NFCタグ10からの距離)でNFCタグ10を撮影できるように、ステップS12でバッファリングした加速度のAC成分502A−1と、ステップS13で検知された静止状態からの運動状態への遷移(又は、静止状態からの離脱)を利用して撮影タイミング決定処理を行う。   Returning to the description of FIG. 7, the shooting timing based on the estimation of the motion state of the mobile terminal 500 can be determined as follows. In order to estimate the Yaw angle of the mobile terminal 500 based on image processing to be described later, when the mobile terminal 500 leaves the NFC tag 10 after touching the NFC tag 10, the mobile terminal 500 is placed at an appropriate height position from the NFC tag 10. In step S14, an appropriate shooting timing is determined based on prediction (that is, calculation) so that the NFC tag 10 can be shot in a state of being (or distance). If the shooting timing is too early or too late, there is a possibility that the characteristics of the NFC tag 10 necessary for image processing cannot be extracted (or captured) from the image data of the shot NFC tag 10. Therefore, the acceleration AC component 502A-1 buffered in step S12 and detected in step S13 so that the mobile terminal 500 can photograph the NFC tag 10 at an appropriate height position (distance from the NFC tag 10). The imaging timing determination process is performed using the transition from the stationary state to the motion state (or the departure from the stationary state).

図10は、撮影タイミング決定処理を説明する図である。図10において、Sはカメラ506cによるNFCタグ10の撮影に必要な最小撮影距離を示し、例えば予め指定されているものとする。図10に示すように、ステップS13で携帯端末500の静止状態及び静止状態からの離脱が検知されると、ステップS14で撮影タイミングを決定し、その後にステップS15でカメラ506cによるNFCタグ10の撮影が行われる。ステップS15の詳細については後述する。   FIG. 10 is a diagram illustrating the photographing timing determination process. In FIG. 10, S indicates the minimum photographing distance required for photographing the NFC tag 10 by the camera 506c, and is assumed to be designated in advance, for example. As shown in FIG. 10, when the mobile terminal 500 is detected to be stationary or detached from the stationary state in step S13, the photographing timing is determined in step S14, and then the NFC tag 10 is photographed by the camera 506c in step S15. Is done. Details of step S15 will be described later.

次に、携帯端末500の静止区間の決定について説明する。図7において、ステップS16は、後述するように加速度のDC成分502A−2に基づいて携帯端末500のRoll角及びPitch角を推定するための携帯端末500の静止区間を決定する。加速度のAC成分502A−1のSMAに基づき携帯端末500の静止状態を検出することは可能であるが、加速度のAC成分502A−1のみでは検知できない携帯端末500の回転をも考慮するようにしても良い。そこで、この例では、ジャイロセンサ506bが検知したジャイロデータ502−BのSMAも加速度のAC成分502A−1のSMAと同時に評価し、夫々のSMAから求めた静止区間の時間軸上での共通区間(即ち、積集合)を推定用の静止区間に決定する。   Next, determination of the stationary section of the mobile terminal 500 will be described. In FIG. 7, step S16 determines a stationary section of the mobile terminal 500 for estimating the roll angle and the pitch angle of the mobile terminal 500 based on the DC component 502A-2 of acceleration, as will be described later. Although it is possible to detect the stationary state of the mobile terminal 500 based on the SMA of the AC component 502A-1 of acceleration, the rotation of the mobile terminal 500 that cannot be detected only by the AC component 502A-1 of acceleration is also taken into consideration. Also good. Therefore, in this example, the SMA of the gyro data 502-B detected by the gyro sensor 506b is also evaluated at the same time as the SMA of the AC component 502A-1 of the acceleration, and the common section on the time axis of the stationary section obtained from each SMA. (That is, the product set) is determined as a stationary interval for estimation.

図12は、静止区間の決定処理を説明するフローチャートである。図12において、ステップS41は、バッファリングされたジャイロデータ502−Bと加速度のAC成分502A−1を記憶部502から取得する。ステップS42は、取得したジャイロデータ502−Bのと取得した加速度のAC成分502A−1のSMAを計算する。ステップS43は、計算された各SMAが指定されたSMAの閾値以下である区間を特定する。ステップS44は、ステップS43で特定された二つの区間の共通区間(即ち、積集合)を特定し、Roll角及びPitch角の推定用静止区間に決定する。   FIG. 12 is a flowchart for explaining still area determination processing. In FIG. 12, in step S <b> 41, buffered gyro data 502 -B and acceleration AC component 502 </ b> A- 1 are acquired from the storage unit 502. In step S42, SMAs of the acquired gyro data 502-B and the AC component 502A-1 of the acquired acceleration are calculated. A step S43 specifies a section in which each calculated SMA is equal to or less than a specified SMA threshold. In step S44, a common section (that is, a product set) of the two sections identified in step S43 is identified and determined as a still section for estimating the Roll angle and the Pitch angle.

次に、決定された静止区間内の3軸直交加速度データを利用してRoll角及びPitch角を推定する処理を説明する。図7において、ステップS17は、ステップS16で決定した携帯端末500の静止区間の3軸直交加速度データ(即ち、加速度のAC成分502A−1)で重力ベクトル或いは重力データ(即ち、加速度データのDC成分502A−2)を用いて携帯端末500のRoll角及びPitch角を推定する。   Next, a process for estimating the Roll angle and the Pitch angle using the three-axis orthogonal acceleration data in the determined still section will be described. In FIG. 7, step S17 is a gravitational vector or gravity data (that is, a DC component of acceleration data) with the three-axis orthogonal acceleration data (that is, the AC component 502A-1 of acceleration) of the stationary section of the mobile terminal 500 determined in step S16. 502A-2) is used to estimate the roll angle and pitch angle of the portable terminal 500.

図13は、Roll角及びPitch角を推定処理を説明する図である。図13のように、先ず、絶対座標系(X, Y, Z)のZ軸を重力方向に設定する。絶対座標系のY軸の周りを角度θだけ回転し(X, Y, Z→X', Y', Z')、その後X'軸の周りを角度φだけ回転する(X', Y', Z' → X", Y", Z")。又、座標系(X", Y", Z")を実際に携帯端末500に配置するボディ座標系(ローカル座標系)とし、ボディ座標系で観測した3軸加速度のデータに基づいて上記の回転角度φ,θを計算することで、携帯端末500のRoll角φ及び Pitch角θを推定することができる。上記二つ回転の変換行列は次のようになる。   FIG. 13 is a diagram for explaining the roll angle and pitch angle estimation processing. As shown in FIG. 13, first, the Z axis of the absolute coordinate system (X, Y, Z) is set in the direction of gravity. Rotate around the Y axis of the absolute coordinate system by an angle θ (X, Y, Z → X ', Y', Z '), and then rotate around the X' axis by an angle φ (X ', Y', Z '→ X ", Y", Z "). Also, the coordinate system (X", Y ", Z") is the body coordinate system (local coordinate system) that is actually placed on the mobile device 500. By calculating the rotation angles φ and θ based on the observed triaxial acceleration data, the roll angle φ and the pitch angle θ of the mobile terminal 500 can be estimated. The above two rotation transformation matrix is as follows.

次に、カメラ506cで撮影したNFCタグ10の画像データに基づきYaw角を推定する処理を説明する。加速度センサ506aで検知した加速度データに基づき携帯端末500のYaw角を推定することは難しい。そこで、図7において、ステップS15はカメラ506cで撮影したNFCタグ10の画像データに基づきYaw角を推定する。具体的には、先ずNFCタグ10の方位データを予めNFCタグ10に登録しておくか、或いは、例えば記憶部502内のデータベース(DB:Data-Base)に登録しておく。又、携帯端末500のカメラ506cでNFCタグ10をステップS14で決定された撮影タイミングで撮影する。更に、撮影したNFCタグ10の画像データの特徴を抽出することにより、カメラ506cとNFCタグ10の相対方位関係と登録したNFCタグ10の絶対方位に基づいて携帯端末500の方位を計算する。   Next, a process for estimating the Yaw angle based on the image data of the NFC tag 10 photographed by the camera 506c will be described. It is difficult to estimate the Yaw angle of the portable terminal 500 based on the acceleration data detected by the acceleration sensor 506a. Therefore, in FIG. 7, step S15 estimates the Yaw angle based on the image data of the NFC tag 10 taken by the camera 506c. Specifically, first, the orientation data of the NFC tag 10 is registered in advance in the NFC tag 10 or, for example, registered in a database (DB: Data-Base) in the storage unit 502. Further, the NFC tag 10 is photographed at the photographing timing determined in step S14 by the camera 506c of the portable terminal 500. Furthermore, the orientation of the portable terminal 500 is calculated based on the relative orientation relationship between the camera 506c and the NFC tag 10 and the registered absolute orientation of the NFC tag 10 by extracting the characteristics of the image data of the photographed NFC tag 10.

図14は、タグ画像の特徴抽出及び携帯端末の方位計算を説明する図である。図14に示すように、ステップS101は、撮影したNFCタグ10の生画像とテンプレート画像を用いて周知のテンプレートマッチングによりNFCタグ10の特徴を抽出する。この例では、NFCタグ10の角部(即ち、タグコーナ)をNFCタグ10の特徴として抽出するので、テンプレート画像はNFCタグ10のコーナ画像(又は、コーナテンプレート)である。テンプレートは、事前に用意しておくことができ、NFCタグ10に登録しておくことができる。又、テンプレートは、NFCタグ10に対応するタグIDでアクセス可能に、遠隔サーバや携帯端末500の記憶部502内のDB等に登録しておくこともできる。   FIG. 14 is a diagram for explaining the feature extraction of the tag image and the orientation calculation of the mobile terminal. As shown in FIG. 14, in step S101, features of the NFC tag 10 are extracted by well-known template matching using the captured raw image of the NFC tag 10 and the template image. In this example, since the corner (that is, tag corner) of the NFC tag 10 is extracted as a feature of the NFC tag 10, the template image is a corner image (or corner template) of the NFC tag 10. The template can be prepared in advance and can be registered in the NFC tag 10. The template can also be registered in a remote server or a DB in the storage unit 502 of the portable terminal 500 so that it can be accessed with a tag ID corresponding to the NFC tag 10.

ステップS102は、抽出したNFCタグ10の特徴(図14中、○印で示すタグコーナ)の幾何特徴に基づいてNFCタグ10とNFCタグ10の向き(即ち、カメラ506cに対する相対方位)を決定する。ステップS103は、ステップS102で決定したNFCタグ10の向きと、NFCタグ10に登録されているNFCタグ10の絶対方位に基づき、カメラ506c(即ち、携帯端末500)の方位を計算する。これにより、図14に示すように、絶対座標系O、タグ座標系T、及びテンプレートマッチングにより画像で抽出した差分dに対して、絶対座標系O下の携帯端末500の座標系が求められる。   In step S102, the orientation of the NFC tag 10 and the NFC tag 10 (that is, the relative orientation with respect to the camera 506c) is determined based on the geometric feature of the extracted feature of the NFC tag 10 (the tag corner indicated by a circle in FIG. 14). In step S103, the orientation of the camera 506c (that is, the portable terminal 500) is calculated based on the orientation of the NFC tag 10 determined in step S102 and the absolute orientation of the NFC tag 10 registered in the NFC tag 10. Thereby, as shown in FIG. 14, the coordinate system of the portable terminal 500 under the absolute coordinate system O is obtained with respect to the absolute coordinate system O, the tag coordinate system T, and the difference d extracted from the image by template matching.

ところで、携帯端末500は、NFCタグ10を検知した後、予測に基づいて撮影タイミングを決定する代わりに、カメラ506cにより連続的に画像撮影を行うことにより、上記の如き画像処理でYaw角を推定しても良い。この場合、連続的に撮影された画像から特徴を多く抽出可能な画像を複数選択することができ、Yaw角の推定精度を向上させることができる。   By the way, after detecting the NFC tag 10, the mobile terminal 500 estimates the Yaw angle by the image processing as described above by continuously capturing images with the camera 506 c instead of determining the capturing timing based on the prediction. You may do it. In this case, it is possible to select a plurality of images from which many features can be extracted from continuously shot images, and it is possible to improve the estimation accuracy of the Yaw angle.

又、静止区間の加速度データに基づいて推定したRoll角及びPitch角と、予測した撮影タイミングで撮影した画像に基づいて推定したYaw角は、異なるタイミングで取得するため、慣性航法の初期方位として利用する際にはRoll角及びPitch角を再度更新しても良い。この場合、NFCタグ10の画像が撮影されるまでのジャイロデータ502Bがバッファリングされているので、携帯端末500がNFCタグ10から離れる動きを検知してから、Yaw角の推定が完了するまでのジャイロデータ502BでRoll角及びPitch角を補正れば良い。このように補正したRoll角及びPitch角と、撮影画像から推定したYawを初期方位として設定すれば良い。   Also, the Roll angle and Pitch angle estimated based on the acceleration data of the stationary section and the Yaw angle estimated based on the image captured at the predicted capturing timing are acquired at different timings, so they are used as the initial direction of inertial navigation When doing so, the Roll angle and Pitch angle may be updated again. In this case, since the gyro data 502B until the image of the NFC tag 10 is captured is buffered, the Yaw angle estimation is completed after the mobile terminal 500 detects the movement away from the NFC tag 10. The roll angle and the pitch angle may be corrected with the gyro data 502B. The Roll angle and Pitch angle corrected in this way and the Yaw estimated from the captured image may be set as the initial orientation.

上記実施例によれば、携帯端末500の初期位置及び初期方位を比較的簡単な操作で正確に設定できるので、その後携帯端末500の位置及び方位は、初期位置及び初期方位に基づいて慣性航法を用いる周知の方法で高精度に検知することが可能となる。   According to the above embodiment, since the initial position and the initial direction of the mobile terminal 500 can be accurately set with a relatively simple operation, the position and the direction of the mobile terminal 500 are then subjected to inertial navigation based on the initial position and the initial direction. It becomes possible to detect with high accuracy by a known method to be used.

携帯端末500の初期位置及び初期方位を設定した後に提供するサービスの一例として、初期位置及び初期方位に対する携帯端末500の位置及び方位は周知の方法で推定することができるので、携帯端末500と同じ空間中に配置されたデバイスに対する直感的なインタフェースを提供するサービスが挙げられる。例えば家庭での応用例では、携帯端末500がテレビ(図示せず)の近傍に位置しておりテレビを向いた方位を有すると、携帯端末500の表示部504にテレビの番組表を表示することでテレビの簡単、且つ、直感的な操作が可能なインタフェースを提供できる。又、オフィスでの応用例では、携帯端末500がプリンタ(図示せず)の近傍に位置しておりプリンタを向いた方位で一定時間静止すると、携帯端末500の表示部504に表示されている内容をプリンタで印刷する等のプリンタの簡単、且つ、直感的な操作が可能なインタフェースを提供できる。   As an example of a service provided after setting the initial position and initial orientation of the mobile terminal 500, the position and orientation of the mobile terminal 500 with respect to the initial position and initial orientation can be estimated by a well-known method. A service that provides an intuitive interface for devices arranged in a space. For example, in an application example at home, if the mobile terminal 500 is located near a television (not shown) and has an orientation facing the television, the television program guide is displayed on the display unit 504 of the mobile terminal 500. Therefore, it is possible to provide an interface that allows simple and intuitive operation of the television. Also, in an application example in an office, when the mobile terminal 500 is located near a printer (not shown) and is stationary for a certain time in an orientation facing the printer, the content displayed on the display unit 504 of the mobile terminal 500 It is possible to provide an interface that allows simple and intuitive operation of the printer such as printing with a printer.

上記の例では、携帯端末はNFCタグと通信可能であるが、携帯端末が通信するデバイスは短距離無線通信(NFC)が可能で自己位置を格納可能なデバイスであれば特に限定されない。   In the above example, the mobile terminal can communicate with the NFC tag, but the device with which the mobile terminal communicates is not particularly limited as long as the device can perform short-range wireless communication (NFC) and can store its own position.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
自己位置情報を格納した外部デバイスと短距離無線通信を行う慣性航法を用いる携帯端末であって、
前記携帯端末の加速度を検知して加速度情報を出力する第1の検知部と、
画像を撮影する撮影部と、
前記外部デバイスと通信する通信部と、
前記通信部が前記外部デバイスと通信可能になると、前記外部デバイスから受信した位置情報を前記携帯端末の初期位置に設定すると共に、前記加速度情報のAC成分に基づいて撮影タイミングを予測し、前記外部デバイスの画像を前記撮影タイミングで撮影するよう前記撮影部を制御し、前記外部デバイスの撮影画像から推定したヨー角を前記携帯端末の初期方位に設定する制御部
を備えたことを特徴とする、携帯端末。
(付記2)
前記携帯端末の方位情報を検知する第2の検知部を更に備え、
前記制御部は、前記外部デバイスの撮影画像から推定したヨー角と、前記加速度情報のDC成分及び前記方位情報から推定したロール角及びピッチ角を前記携帯端末の初期方位に設定することを特徴とする、付記1記載の携帯端末。
(付記3)
前記制御部は、前記通信部が前記外部デバイスと通信可能になると、前記加速度情報のAC成分及び前記方位情報に基づいて前記携帯端末が前記外部デバイスと接触する静止区間を推定し、前記静止区間で前記ロール角及び前記ピッチ角を推定することを特徴とする、付記2記載の携帯端末。
(付記4)
記憶部を更に備え、
前記制御部は、前記加速度情報を線加速度成分である前記AC成分と、重力成分である前記DC成分にフィルタリングして前記記憶部に格納することを特徴とする、付記2又は3記載の携帯端末。
(付記5)
前記制御部は、前記通信部の前記外部デバイスとの通信の開始をトリガとして前記静止区間の推定及び前記静止区間での前記ロール角及び前記ピッチ角の推定を行うことを特徴とする、付記1乃至4のいずれか1項記載の端末装置。
(付記6)
自己位置情報を格納した外部デバイスと短距離無線通信を行う慣性航法を用いる携帯端末のコンピュータに、位置及び方位推定処理を行わせるプログラムであって、
前記携帯端末の通信部が前記外部デバイスと通信可能であるか否を判定する手順と、
前記通信部が前記外部デバイスと通信可能であると判定されると、前記外部デバイスから受信した位置情報を前記携帯端末の初期位置に設定する手順と、
前記携帯端末の加速度センサが出力する加速度情報のAC成分に基づいて撮影タイミングを予測する手順と、
前記外部デバイスの画像を前記撮影タイミングで撮影するよう前記携帯端末の撮影部を制御する手順と、
前記外部デバイスの撮影画像から推定したヨー角を前記携帯端末の初期方位に設定する手順
を前記コンピュータに実行させることを特徴とする、プログラム。
(付記7)
前記初期方位に設定する手順は、前記外部デバイスの撮影画像から推定したヨー角と、前記加速度情報のDC成分及び前記携帯端末のジャイロセンサが出力する方位情報から推定したロール角及びピッチ角を前記携帯端末の初期方位に設定することを特徴とする、付記6記載のプログラム。
(付記8)
前記通信部が前記外部デバイスと通信可能であると判定されると、前記加速度情報のAC成分及び前記方位情報に基づいて前記携帯端末が前記外部デバイスと接触する静止区間を推定する手順と、
前記静止区間で前記ロール角及び前記ピッチ角を推定する手順
を前記コンピュータに更に実行させることを特徴とする、付記7記載のプログラム。
(付記9)
前記加速度情報を線加速度成分である前記AC成分と、重力成分である前記DC成分にフィルタリングして前記携帯端末の記憶部に格納する手順
を前記コンピュータに更に実行させることを特徴とする、付記7又は8記載のプログラム。
(付記10)
前記初期位置を設定する手順は、前記通信部と前記外部デバイスとの通信の開始を検知すると、前記通信部が前記外部デバイスと通信可能であると判定することを特徴とする、付記6乃至9のいずれか1項記載のプログラム。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
A mobile terminal using inertial navigation for short-range wireless communication with an external device storing self-location information,
A first detector that detects acceleration of the mobile terminal and outputs acceleration information;
A shooting section for shooting images;
A communication unit that communicates with the external device;
When the communication unit can communicate with the external device, the position information received from the external device is set to the initial position of the mobile terminal, and the imaging timing is predicted based on the AC component of the acceleration information, The image capturing unit is controlled to capture an image of a device at the image capturing timing, and a control unit is provided that sets a yaw angle estimated from an image captured by the external device as an initial orientation of the mobile terminal. Mobile device.
(Appendix 2)
A second detector for detecting orientation information of the mobile terminal;
The control unit sets the yaw angle estimated from the captured image of the external device, the roll angle and the pitch angle estimated from the DC component of the acceleration information and the orientation information as the initial orientation of the mobile terminal, The mobile terminal according to appendix 1.
(Appendix 3)
When the communication unit is able to communicate with the external device, the control unit estimates a stationary section where the mobile terminal contacts the external device based on an AC component of the acceleration information and the orientation information, and the stationary section The mobile terminal according to appendix 2, wherein the roll angle and the pitch angle are estimated.
(Appendix 4)
A storage unit;
The mobile terminal according to appendix 2 or 3, wherein the control unit filters the acceleration information into the AC component that is a linear acceleration component and the DC component that is a gravity component, and stores the filtered information in the storage unit. .
(Appendix 5)
The control unit performs the estimation of the stationary section and the estimation of the roll angle and the pitch angle in the stationary section, triggered by the start of communication of the communication unit with the external device. The terminal device of any one of thru | or 4.
(Appendix 6)
A program for causing a computer of a mobile terminal using inertial navigation to perform short-range wireless communication with an external device storing self-position information to perform position and orientation estimation processing,
A procedure for determining whether the communication unit of the mobile terminal can communicate with the external device;
When it is determined that the communication unit can communicate with the external device, a procedure for setting position information received from the external device as an initial position of the mobile terminal;
A procedure for predicting shooting timing based on an AC component of acceleration information output by the acceleration sensor of the mobile terminal;
A procedure for controlling the photographing unit of the portable terminal so as to photograph the image of the external device at the photographing timing;
A program for causing the computer to execute a procedure for setting a yaw angle estimated from a captured image of the external device as an initial orientation of the mobile terminal.
(Appendix 7)
The procedure for setting the initial azimuth includes a yaw angle estimated from a captured image of the external device, a DC component of the acceleration information, and a roll angle and a pitch angle estimated from the azimuth information output by the gyro sensor of the mobile terminal. The program according to appendix 6, wherein the program is set to the initial orientation of the mobile terminal.
(Appendix 8)
When it is determined that the communication unit can communicate with the external device, a procedure for estimating a stationary section where the mobile terminal contacts the external device based on the AC component of the acceleration information and the orientation information;
The program according to claim 7, further causing the computer to execute a procedure for estimating the roll angle and the pitch angle in the stationary section.
(Appendix 9)
The computer further executes a procedure for filtering the acceleration information into the AC component that is a linear acceleration component and the DC component that is a gravity component and storing the filtered information in the storage unit of the mobile terminal. Or the program of 8.
(Appendix 10)
The procedure for setting the initial position determines that the communication unit can communicate with the external device upon detecting the start of communication between the communication unit and the external device. The program according to any one of the above.

以上、開示の携帯端末及び位置及び方位推定プログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   As described above, the disclosed mobile terminal and the position and orientation estimation program have been described by way of examples. However, the present invention is not limited to the above examples, and various modifications and improvements can be made within the scope of the present invention. Needless to say.

10 NFCタグ
500 携帯端末
501 CPU
502 記憶部
505 通信部
506 センサ部
506a 加速度センサ
506b ジャイロセンサ
506c カメラ
10 NFC tag 500 Mobile terminal 501 CPU
502 storage unit 505 communication unit 506 sensor unit 506a acceleration sensor 506b gyro sensor 506c camera

Claims (5)

自己位置情報を格納した外部デバイスと短距離無線通信を行う慣性航法を用いる携帯端末であって、
前記携帯端末の加速度を検知して加速度情報を出力する第1の検知部と、
画像を撮影する撮影部と、
前記外部デバイスと通信する通信部と、
前記通信部が前記外部デバイスと通信可能になると、前記外部デバイスから受信した位置情報を前記携帯端末の初期位置に設定すると共に、前記加速度情報のAC成分に基づいて撮影タイミングを予測し、前記外部デバイスの画像を前記撮影タイミングで撮影するよう前記撮影部を制御し、前記外部デバイスの撮影画像から推定したヨー角を前記携帯端末の初期方位に設定する制御部
を備えたことを特徴とする、携帯端末。
A mobile terminal using inertial navigation for short-range wireless communication with an external device storing self-location information,
A first detector that detects acceleration of the mobile terminal and outputs acceleration information;
A shooting section for shooting images;
A communication unit that communicates with the external device;
When the communication unit can communicate with the external device, the position information received from the external device is set to the initial position of the mobile terminal, and the imaging timing is predicted based on the AC component of the acceleration information, The image capturing unit is controlled to capture an image of a device at the capturing timing, and a control unit is provided that sets a yaw angle estimated from a captured image of the external device as an initial orientation of the mobile terminal. Mobile device.
前記携帯端末の方位情報を検知する第2の検知部を更に備え、
前記制御部は、前記外部デバイスの撮影画像から推定したヨー角と、前記加速度情報のDC成分及び前記方位情報から推定したロール角及びピッチ角を前記携帯端末の初期方位に設定することを特徴とする、請求項1記載の携帯端末。
A second detector for detecting orientation information of the mobile terminal;
The control unit sets the yaw angle estimated from the captured image of the external device, the roll angle and the pitch angle estimated from the DC component of the acceleration information and the orientation information as the initial orientation of the mobile terminal, The mobile terminal according to claim 1.
前記制御部は、前記通信部が前記外部デバイスと通信可能になると、前記加速度情報のAC成分及び前記方位情報に基づいて前記携帯端末が前記外部デバイスと接触する静止区間を推定し、前記静止区間で前記ロール角及び前記ピッチ角を推定することを特徴とする、請求項2記載の携帯端末。   When the communication unit is able to communicate with the external device, the control unit estimates a stationary section where the mobile terminal contacts the external device based on an AC component of the acceleration information and the orientation information, and the stationary section The mobile terminal according to claim 2, wherein the roll angle and the pitch angle are estimated. 記憶部を更に備え、
前記制御部は、前記加速度情報を線加速度成分である前記AC成分と、重力成分である前記DC成分にフィルタリングして前記記憶部に格納することを特徴とする、請求項2又は3記載の携帯端末。
A storage unit;
The mobile unit according to claim 2 or 3, wherein the control unit filters the acceleration information into the AC component that is a linear acceleration component and the DC component that is a gravity component and stores the filtered information in the storage unit. Terminal.
自己位置情報を格納した外部デバイスと短距離無線通信を行う慣性航法を用いる携帯端末のコンピュータに、位置及び方位推定処理を行わせるプログラムであって、
前記携帯端末の通信部が前記外部デバイスと通信可能であるか否を判定する手順と、
前記通信部が前記外部デバイスと通信可能であると判定されると、前記外部デバイスから受信した位置情報を前記携帯端末の初期位置に設定する手順と、
前記携帯端末の加速度センサが出力する加速度情報のAC成分に基づいて撮影タイミングを予測する手順と、
前記外部デバイスの画像を前記撮影タイミングで撮影するよう前記携帯端末の撮影部を制御する手順と、
前記外部デバイスの撮影画像から推定したヨー角を前記携帯端末の初期方位に設定する手順
を前記コンピュータに実行させることを特徴とする、プログラム。
A program for causing a computer of a mobile terminal using inertial navigation to perform short-range wireless communication with an external device storing self-position information to perform position and orientation estimation processing,
A procedure for determining whether the communication unit of the mobile terminal can communicate with the external device;
When it is determined that the communication unit can communicate with the external device, a procedure for setting position information received from the external device as an initial position of the mobile terminal;
A procedure for predicting shooting timing based on an AC component of acceleration information output by the acceleration sensor of the mobile terminal;
A procedure for controlling the photographing unit of the portable terminal so as to photograph the image of the external device at the photographing timing;
A program for causing the computer to execute a procedure for setting a yaw angle estimated from a captured image of the external device as an initial orientation of the mobile terminal.
JP2011176417A 2011-08-11 2011-08-11 Portable terminal and position / orientation estimation program Expired - Fee Related JP5708362B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011176417A JP5708362B2 (en) 2011-08-11 2011-08-11 Portable terminal and position / orientation estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011176417A JP5708362B2 (en) 2011-08-11 2011-08-11 Portable terminal and position / orientation estimation program

Publications (2)

Publication Number Publication Date
JP2013042246A true JP2013042246A (en) 2013-02-28
JP5708362B2 JP5708362B2 (en) 2015-04-30

Family

ID=47890271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011176417A Expired - Fee Related JP5708362B2 (en) 2011-08-11 2011-08-11 Portable terminal and position / orientation estimation program

Country Status (1)

Country Link
JP (1) JP5708362B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080186A (en) * 2013-10-20 2015-04-23 杰夫 郁 Automatic positioning tracking photographing system and automatic positioning tracking photographing method
JP5846669B1 (en) * 2015-03-06 2016-01-20 Kddi株式会社 Processing execution method and information providing medium
JP2016046816A (en) * 2014-08-22 2016-04-04 Kddi株式会社 Mobile communication terminal, information providing medium, processing execution method, and program
WO2016072240A1 (en) * 2014-11-04 2016-05-12 国立研究開発法人産業技術総合研究所 Information processing device for processing sensor information, information management system, information display system, information processing method, program, recording medium, and server device
JP2016534335A (en) * 2013-07-30 2016-11-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for determining the orientation of a mobile phone in an indoor environment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178073A (en) * 1993-12-24 1995-07-18 Shimadzu Corp Body movement analyzing device
JP2004257872A (en) * 2003-02-26 2004-09-16 Seiko Epson Corp Position information acquiring system, position information acquiring device, position information acquiring method and program
JP2005033263A (en) * 2003-07-07 2005-02-03 Fuji Photo Film Co Ltd Apparatus control system, apparatus control method, and program
JP2005192206A (en) * 2003-12-01 2005-07-14 Vodafone Kk Mobile communication terminal
JP2005337949A (en) * 2004-05-28 2005-12-08 Seiko Epson Corp Position information control system, terminal device, control method of the terminal device, control program for the terminal device and computer-readable recording medium with the control program of the terminal device stored
JP2009065370A (en) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Mobile phone, dedicated terminal, and method of using mobile phone video and program
WO2011088469A2 (en) * 2010-01-18 2011-07-21 Qualcomm Incorporated Using object to align and calibrate inertial navigation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178073A (en) * 1993-12-24 1995-07-18 Shimadzu Corp Body movement analyzing device
JP2004257872A (en) * 2003-02-26 2004-09-16 Seiko Epson Corp Position information acquiring system, position information acquiring device, position information acquiring method and program
JP2005033263A (en) * 2003-07-07 2005-02-03 Fuji Photo Film Co Ltd Apparatus control system, apparatus control method, and program
JP2005192206A (en) * 2003-12-01 2005-07-14 Vodafone Kk Mobile communication terminal
JP2005337949A (en) * 2004-05-28 2005-12-08 Seiko Epson Corp Position information control system, terminal device, control method of the terminal device, control program for the terminal device and computer-readable recording medium with the control program of the terminal device stored
JP2009065370A (en) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Mobile phone, dedicated terminal, and method of using mobile phone video and program
WO2011088469A2 (en) * 2010-01-18 2011-07-21 Qualcomm Incorporated Using object to align and calibrate inertial navigation system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016534335A (en) * 2013-07-30 2016-11-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for determining the orientation of a mobile phone in an indoor environment
JP2015080186A (en) * 2013-10-20 2015-04-23 杰夫 郁 Automatic positioning tracking photographing system and automatic positioning tracking photographing method
JP2016046816A (en) * 2014-08-22 2016-04-04 Kddi株式会社 Mobile communication terminal, information providing medium, processing execution method, and program
WO2016072240A1 (en) * 2014-11-04 2016-05-12 国立研究開発法人産業技術総合研究所 Information processing device for processing sensor information, information management system, information display system, information processing method, program, recording medium, and server device
JP5846669B1 (en) * 2015-03-06 2016-01-20 Kddi株式会社 Processing execution method and information providing medium

Also Published As

Publication number Publication date
JP5708362B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
CN108596976B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
CN110555883B (en) Repositioning method and device for camera attitude tracking process and storage medium
KR101477442B1 (en) Methods and apparatuses for gesture-based user input detection in a mobile device
US9401050B2 (en) Recalibration of a flexible mixed reality device
KR101469312B1 (en) Generating virtual buttons using motion sensors
CN108876854B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
JP5708362B2 (en) Portable terminal and position / orientation estimation program
WO2012132334A1 (en) Display control device, display control method, and program
KR101341727B1 (en) Apparatus and Method for Controlling 3D GUI
JP2017146749A (en) Control program, control method, and computer
WO2017126172A1 (en) Information processing device, information processing method, and recording medium
EP2691832A1 (en) Method and apparatus for motion gesture recognition
US20130286049A1 (en) Automatic adjustment of display image using face detection
US9383783B2 (en) Apparatus and method for controlling a display based on a manner of holding the apparatus
CN108682037B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
EP3528024B1 (en) Information processing device, information processing method, and program
US10962738B2 (en) Information processing apparatus and information processing method to calibrate line-of-sight of a user
KR101685388B1 (en) Method and apparatus for recognizing motion using a plurality of sensors
WO2017005070A1 (en) Display control method and device
CN116348916A (en) Azimuth tracking for rolling shutter camera
US20180051989A1 (en) Portable device with improved sensor position change detection
KR102566520B1 (en) Control and processing unit for touch screen, system including the same and method of use
US10216290B2 (en) Gyroscope apparatus
KR101998662B1 (en) Apparatus and storage medium for mutually complementary motion recognition
KR101900754B1 (en) Method for establishing user definition motion and motion recognition apparatus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150216

R150 Certificate of patent or registration of utility model

Ref document number: 5708362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees