JP2009287940A - Attitude-moving trajectory detector, detecting method, program, and recording medium - Google Patents

Attitude-moving trajectory detector, detecting method, program, and recording medium Download PDF

Info

Publication number
JP2009287940A
JP2009287940A JP2008137812A JP2008137812A JP2009287940A JP 2009287940 A JP2009287940 A JP 2009287940A JP 2008137812 A JP2008137812 A JP 2008137812A JP 2008137812 A JP2008137812 A JP 2008137812A JP 2009287940 A JP2009287940 A JP 2009287940A
Authority
JP
Japan
Prior art keywords
posture
acceleration
section
activity
movement trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008137812A
Other languages
Japanese (ja)
Other versions
JP5160963B2 (en
Inventor
Koji Kamei
剛次 亀井
Takeshi Okatome
剛 岡留
Takuya Maekawa
卓也 前川
Yasue Kishino
泰恵 岸野
Yutaka Yanagisawa
豊 柳沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008137812A priority Critical patent/JP5160963B2/en
Publication of JP2009287940A publication Critical patent/JP2009287940A/en
Application granted granted Critical
Publication of JP5160963B2 publication Critical patent/JP5160963B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect the attitude and moving trajectory of an object using data from a sensor node mounted on the object. <P>SOLUTION: This attitude-moving trajectory detector 1 includes a static attitude estimation section 13 for estimating the attitude of the object in each static segment based on the sensor data of static segments before and after an activity segment where the object moves, a motion attitude estimation section 14 for estimating, by interpolation, the attitude of the object at each time of the activity segment based on the object's attitude, a gravitational acceleration estimation section 15 for estimating the gravitational acceleration at the object's attitude estimated by the motion attitude estimation section 14 at each time of the activity segment, a motion acceleration estimation section 16 for estimating the acceleration of the object generated by an external force at each time of the activity segment based on the sensor data and gravitational acceleration, and a moving trajectory estimation section 17 for determining the moving speed and moving amount of the object in the activity segment based on the acceleration of the object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えばカップや歯ブラシといった3次元空間中で自由に姿勢変化および移動可能な物体を対象とし、これらの物体に装着したセンサノードからセンサデータを受信して、物体の姿勢や移動軌跡を検出する姿勢・移動軌跡検出装置、検出方法、プログラムおよび記録媒体に関するものである。   The present invention targets objects that can freely change posture and move in a three-dimensional space such as a cup and a toothbrush, and receives sensor data from sensor nodes attached to these objects to determine the posture and movement trajectory of the object. The present invention relates to a posture / movement trajectory detection device to be detected, a detection method, a program, and a recording medium.

従来、物体の移動軌跡を検出するには、GPS(Global Positioning System )や超音波、赤外線、微弱電波を利用したビーコンシステムによる測位と、コンピュータビジョンによる画像解析が利用されてきた。
また、物体の姿勢の検出に関しては、前述のコンピュータビジョンによる画像解析に加えて、地磁気を測定する方位センサによる磁北の方向の検出や加速度センサにより重力加速度を測定することによる鉛直方向の検出が利用されてきた(例えば非特許文献1参照)。この検出方法は、磁北と鉛直といった平行でない2つのベクトルの方向を観測することができれば、物体の3次元姿勢を決定できるという原理による。
Conventionally, in order to detect the movement trajectory of an object, positioning by a beacon system using GPS (Global Positioning System), ultrasonic waves, infrared rays, and weak radio waves, and image analysis by computer vision have been used.
In addition to the above-mentioned image analysis by computer vision, detection of the orientation of an object uses detection of the direction of magnetic north by an orientation sensor that measures geomagnetism and detection of the vertical direction by measuring gravitational acceleration by an acceleration sensor. (For example, refer nonpatent literature 1). This detection method is based on the principle that the three-dimensional posture of an object can be determined if the directions of two non-parallel vectors such as magnetic north and vertical can be observed.

星貴之,篠田裕之,「リアルタイムに形状計測可能な布状デバイス」,第8回計測自動制御学会システムインテグレーション部門講演会(SI2007),p.977−978,2007Takayuki Hoshi, Hiroyuki Shinoda, "Cloth-like device capable of measuring shape in real time", 8th Society of Instrument and Control Engineers System Integration Division Lecture (SI2007), p. 977-978, 2007

しかしながら、GPSによる測位は、GPSの電波が受信できない室内の物体には適用できないという問題点があった。
また、ビーコンシステムおよびコンピュータビジョンによる検出では、観測対象の物体を囲むように空間中にビーコン送信機またはカメラを設置する必要があり、日常的な生活環境への設置が難しいという問題点があった。
However, GPS positioning has a problem that it cannot be applied to indoor objects that cannot receive GPS radio waves.
In addition, the detection by the beacon system and the computer vision has a problem that it is necessary to install a beacon transmitter or camera in the space so as to surround the object to be observed, and it is difficult to install it in a daily living environment. .

一方、方位センサや加速度センサは小型化が進んでおり、例えばカップや歯ブラシといった生活環境中に存在する小型の物体にこれらのセンサを装着することが可能である。さらには、バーコードやRF−IDタグのように生産時または出荷時にセンサを物体に埋め込むことも考えられる。これらのセンサを利用して、物体の姿勢に加えて移動軌跡を検出することが可能となれば、前述のGPSやビーコンシステム、コンピュータビジョンを利用した測位における設置の問題を回避できる。   On the other hand, azimuth sensors and acceleration sensors have been miniaturized, and these sensors can be attached to small objects such as cups and toothbrushes in the living environment. Furthermore, it is conceivable to embed a sensor in an object at the time of production or shipment, such as a barcode or an RF-ID tag. If these sensors can be used to detect the movement trajectory in addition to the posture of the object, the problem of installation in positioning using the GPS, beacon system, and computer vision described above can be avoided.

特に、加速度センサの利用は、物体の移動に関わる外力を検出できることから、物体の移動軌跡の検出には適していると考えられる。しかしながら、加速度センサで測定できる加速度は、地球上で鉛直方向に働く重力加速度と物体の移動に関わる外力との合力となるため、重力加速度と外力を分離する必要がある。
設置方向が固定された物体(例えば、かならず地表面に対して水平に設置され、その姿勢を保ったまま運動する物体)においては、測定される重力加速度を固定して考えることができるため、加速度の測定値から所定の重力加速度を減ずることで移動に関わる外力を求めることができる,しかしながら、カップや歯ブラシなどのように自由に移動させることのできる物体においてはこの仮定は成立せず、測定値からただちに重力加速度を除いた外力を求めることは難しい。
In particular, the use of an acceleration sensor is considered suitable for detecting the movement trajectory of an object because it can detect an external force related to the movement of the object. However, since the acceleration that can be measured by the acceleration sensor is a resultant force of the gravitational acceleration acting in the vertical direction on the earth and the external force related to the movement of the object, it is necessary to separate the gravitational acceleration and the external force.
For an object with a fixed installation direction (for example, an object that is installed horizontally with respect to the ground surface and moves while maintaining its posture), the measured gravitational acceleration can be considered fixed, so the acceleration The external force related to the movement can be obtained by subtracting the predetermined gravitational acceleration from the measured value of this, however, this assumption does not hold for objects that can be moved freely such as cups and toothbrushes. It is difficult to obtain the external force excluding gravitational acceleration immediately.

本発明は、上記課題を解決するためになされたもので、物体に装着したセンサノードからのセンサデータを利用して、物体の姿勢および移動軌跡を検出することができる姿勢・移動軌跡検出装置、検出方法、プログラムおよび記録媒体を提供することを目的とする。   The present invention has been made in order to solve the above-described problem, and a posture / movement trajectory detection device capable of detecting the posture and movement trajectory of an object using sensor data from a sensor node attached to the object, An object is to provide a detection method, a program, and a recording medium.

本発明は、センサノードが装着された物体の姿勢および移動軌跡を検出する姿勢・移動軌跡検出装置において、センサノードから受信したセンサデータに基づいて物体が運動しているアクティビティ区間を検出するアクティビティ検出手段と、前記アクティビティ区間が検出されたときに、このアクティビティ区間の前後の静止区間を探索する静止区間探索手段と、前記アクティビティ区間の前後の静止区間のセンサデータから物体の姿勢を静止区間の各々について推定する静止姿勢推定手段と、前記アクティビティ区間の前後の静止区間における物体の姿勢に基づいて、前記アクティビティ区間の各時刻における物体の姿勢を補間により推定する運動姿勢推定手段と、前記アクティビティ区間の各時刻について前記運動姿勢推定手段が推定した物体の姿勢における重力加速度を推定する重力加速度推定手段と、前記アクティビティ区間の各時刻について前記センサデータと前記重力加速度推定手段が推定した重力加速度とから、外力により生じる物体の加速度を推定する運動加速度推定手段と、この運動加速度推定手段が推定した物体の加速度から前記アクティビティ区間における物体の移動速度および移動量を求める移動軌跡推定手段とを備えることを特徴とするものである。   The present invention provides an attitude detection / movement trajectory detection apparatus for detecting the attitude and movement trajectory of an object to which a sensor node is attached, and an activity detection for detecting an activity section in which the object is moving based on sensor data received from the sensor node. Means, and when the activity section is detected, a stationary section search means for searching for a stationary section before and after the activity section, and the posture of the object from the sensor data of the stationary section before and after the activity section. Stationary posture estimation means for estimating the movement posture estimation means for estimating the posture of the object at each time of the activity section based on the posture of the object in the stationary section before and after the activity section, and the activity section The motion posture estimation means estimates for each time A gravitational acceleration estimating means for estimating the gravitational acceleration in the posture of the object, and a motion for estimating the acceleration of the object caused by an external force from the sensor data and the gravitational acceleration estimated by the gravitational acceleration estimating means at each time of the activity section It is characterized by comprising acceleration estimation means and movement trajectory estimation means for obtaining the movement speed and movement amount of the object in the activity section from the acceleration of the object estimated by the motion acceleration estimation means.

また、本発明の姿勢・移動軌跡検出装置の1構成例において、前記運動姿勢推定手段は、前記補間を行う際に、前記静止姿勢推定手段が推定した3軸の姿勢のパラメータにそれぞれ独立にジャーク最小原理を適用し、前記アクティビティ区間の各時刻における物体の3軸の姿勢のパラメータを計算することを特徴とするものである。
また、本発明の姿勢・移動軌跡検出装置の1構成例において、前記センサデータは、3軸の加速度観測値と3軸の方位観測値とを含むことを特徴とするものである。
Further, in one configuration example of the posture / movement trajectory detection device of the present invention, the motion posture estimation means independently jerk the three axis posture parameters estimated by the stationary posture estimation means when performing the interpolation. The minimum principle is applied, and the parameters of the three-axis posture of the object at each time in the activity section are calculated.
Further, in one configuration example of the posture / movement trajectory detection device of the present invention, the sensor data includes a three-axis acceleration observation value and a three-axis azimuth observation value.

また、本発明の姿勢・移動軌跡検出方法は、センサノードから受信したセンサデータに基づいて物体が運動しているアクティビティ区間を検出するアクティビティ検出手順と、前記アクティビティ区間を検出したときに、このアクティビティ区間の前後の静止区間を探索する静止区間探索手順と、前記アクティビティ区間の前後の静止区間のセンサデータから物体の姿勢を静止区間の各々について推定する静止姿勢推定手順と、前記アクティビティ区間の前後の静止区間における物体の姿勢に基づいて、前記アクティビティ区間の各時刻における物体の姿勢を補間により推定する運動姿勢推定手順と、前記アクティビティ区間の各時刻について前記運動姿勢推定手順で推定した物体の姿勢における重力加速度を推定する重力加速度推定手順と、前記アクティビティ区間の各時刻について前記センサデータと前記重力加速度推定手順で推定した重力加速度とから、外力により生じる物体の加速度を推定する運動加速度推定手順と、この運動加速度推定手順で推定した物体の加速度から前記アクティビティ区間における物体の移動速度および移動量を求める移動軌跡推定手順とを備えることを特徴とするものである。   In addition, the posture / movement trajectory detection method of the present invention includes an activity detection procedure for detecting an activity section in which an object is moving based on sensor data received from a sensor node, and the activity detection procedure when the activity section is detected. A stationary section search procedure for searching for a stationary section before and after the section; a stationary posture estimation procedure for estimating the posture of an object for each stationary section from sensor data of the stationary section before and after the activity section; and Based on the posture of the object in the stationary section, the motion posture estimation procedure for estimating the posture of the object at each time of the activity section by interpolation, and the posture of the object estimated by the motion posture estimation procedure for each time of the activity section Gravity acceleration estimation procedure to estimate gravity acceleration and A motion acceleration estimation procedure for estimating the acceleration of an object caused by an external force from the sensor data and the gravitational acceleration estimated by the gravitational acceleration estimation procedure for each time of the activity section, and an acceleration of the object estimated by the motion acceleration estimation procedure To a movement trajectory estimation procedure for obtaining a movement speed and a movement amount of the object in the activity section.

また、本発明の姿勢・移動軌跡検出プログラムは、センサノードから受信したセンサデータに基づいて物体が運動しているアクティビティ区間を検出するアクティビティ検出手順と、前記アクティビティ区間を検出したときに、このアクティビティ区間の前後の静止区間を探索する静止区間探索手順と、前記アクティビティ区間の前後の静止区間のセンサデータから物体の姿勢を静止区間の各々について推定する静止姿勢推定手順と、前記アクティビティ区間の前後の静止区間における物体の姿勢に基づいて、前記アクティビティ区間の各時刻における物体の姿勢を補間により推定する運動姿勢推定手順と、前記アクティビティ区間の各時刻について前記運動姿勢推定手順で推定した物体の姿勢における重力加速度を推定する重力加速度推定手順と、前記アクティビティ区間の各時刻について前記センサデータと前記重力加速度推定手順で推定した重力加速度とから、外力により生じる物体の加速度を推定する運動加速度推定手順と、この運動加速度推定手順で推定した物体の加速度から前記アクティビティ区間における物体の移動速度および移動量を求める移動軌跡推定手順とを、コンピュータに実行させることを特徴とするものである。
また、本発明の記録媒体は、姿勢・移動軌跡検出プログラムを記録したものである。
In addition, the posture / movement trajectory detection program of the present invention includes an activity detection procedure for detecting an activity section in which an object is moving based on sensor data received from a sensor node, and this activity section when the activity section is detected. A stationary section search procedure for searching for a stationary section before and after the section, a stationary posture estimation procedure for estimating the posture of an object for each stationary section from sensor data of the stationary section before and after the activity section, and before and after the activity section. Based on the posture of the object in the stationary section, the motion posture estimation procedure for estimating the posture of the object at each time of the activity section by interpolation, and the posture of the object estimated by the motion posture estimation procedure for each time of the activity section Gravity acceleration estimation to estimate gravity acceleration The motion acceleration estimation procedure for estimating the acceleration of an object caused by an external force from the sensor data and the gravitational acceleration estimated by the gravitational acceleration estimation procedure for each time of the activity interval, and the motion acceleration estimation procedure The computer is caused to execute a movement trajectory estimation procedure for obtaining the movement speed and movement amount of the object in the activity section from the acceleration of the object.
The recording medium of the present invention records an attitude / movement trajectory detection program.

本発明によれば、物体が運動しているアクティビティ区間を検出し、アクティビティ区間の前後の静止区間のセンサデータから物体の姿勢を静止区間の各々について推定し、この推定した物体の姿勢に基づいて、アクティビティ区間における物体の姿勢を補間により推定することにより、物体の運動中の姿勢を求めることができる。さらに、本発明では、アクティビティ区間について推定した物体の姿勢における重力加速度を推定し、アクティビティ区間について測定されたセンサデータと重力加速度とから外力により生じる物体の加速度を推定し、この物体の加速度からアクティビティ区間における物体の移動速度および移動量を求めるようにしたので、物体の運動中に観測される重力加速度と物体の移動に関わる外力とを分離することができ、物体の運動中の移動軌跡(移動速度および移動量)を求めることができる。本発明では、ビーコンシステムやコンピュータビジョンといった手法を使用しないので、日常的な生活環境に容易に適用することができる。   According to the present invention, the activity section in which the object is moving is detected, the posture of the object is estimated for each stationary section from the sensor data of the stationary section before and after the activity section, and based on the estimated posture of the object By estimating the posture of the object in the activity section by interpolation, the posture of the object in motion can be obtained. Furthermore, in the present invention, the gravitational acceleration in the posture of the object estimated for the activity section is estimated, the acceleration of the object caused by the external force is estimated from the sensor data measured for the activity section and the gravitational acceleration, and the activity is determined from the acceleration of the object. Since the movement speed and movement amount of the object in the section are calculated, the gravitational acceleration observed during the movement of the object and the external force related to the movement of the object can be separated, and the movement trajectory (movement of the object) Speed and amount of movement). In the present invention, since a method such as a beacon system or computer vision is not used, it can be easily applied to a daily living environment.

また、本発明では、運動姿勢推定手段が補間を行う際に、静止姿勢推定手段が推定した3軸の姿勢のパラメータにそれぞれ独立にジャーク最小原理を適用し、アクティビティ区間の各時刻における物体の3軸の姿勢のパラメータを計算するので、物体の運動に関与する人の手の運動を考慮して補間することができ、センサデータから物体の運動中の姿勢と移動軌跡を高精度に検出することが可能となる。   Further, in the present invention, when the motion posture estimation means performs interpolation, the jerk minimum principle is independently applied to the three-axis posture parameters estimated by the stationary posture estimation means, and the object 3 at each time of the activity section is applied. Since the axis posture parameters are calculated, it is possible to interpolate in consideration of the movement of the human hand involved in the movement of the object, and to accurately detect the posture and movement trajectory during movement of the object from the sensor data. Is possible.

[発明の原理]
本発明は、3次元空間中で自由に姿勢変化および移動が可能な物体の姿勢および移動軌跡を検出するにあたり、移動前後の静止状態における物体の姿勢を求め、移動前の静止状態と移動後の静止状態との間の物体の姿勢を補間することで移動中の物体の姿勢を推定し、推定した物体の姿勢において測定されるべき重力加速度を算出し、実際に測定された加速度から、算出した重力加速度を減ずることで外力による加速度を推定し、この推定した加速度を時間について積分することで物体の移動速度および移動量を算出して、物体の移動軌跡を推定する。
[Principle of the Invention]
In detecting the posture and movement trajectory of an object that can freely change and move in a three-dimensional space, the present invention obtains the posture of the object in a stationary state before and after the movement, Estimate the posture of the moving object by interpolating the posture of the object between the stationary state, calculate the gravitational acceleration that should be measured in the estimated posture of the object, and calculate from the actually measured acceleration The acceleration due to the external force is estimated by reducing the gravitational acceleration, the moving speed and the moving amount of the object are calculated by integrating the estimated acceleration with respect to time, and the moving trajectory of the object is estimated.

移動前後の静止状態における物体の姿勢は、従来技術で求めることができる。物体の姿勢の補間にあたっては、数学的には一次式による補間を用いても良いのであるが、日常生活環境における物体の移動には人による行為が関与していることから、人の手の運動を近似する方法として知られているジャーク最小モデルに基づく補間式を用いることで、物体の姿勢と移動軌跡の適切な推定を実現する。   The posture of the object in a stationary state before and after the movement can be obtained by a conventional technique. In the interpolation of the posture of an object, it is possible to use interpolation by a linear expression mathematically. However, since the movement of an object in daily life environment involves human actions, By using an interpolation formula based on the jerk minimum model, which is known as a method for approximating the above, it is possible to appropriately estimate the posture and movement trajectory of the object.

[実施の形態]
以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の実施の形態に係る姿勢・移動軌跡検出装置の構成を示すブロック図である。
本実施の形態の姿勢・移動軌跡検出装置1は、サーバ10と、アクティビティ検出部11と、静止区間探索部12と、静止姿勢推定部13と、運動姿勢推定部14と、重力加速度推定部15と、運動加速度推定部16と、移動軌跡推定部17とから構成される。
[Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a posture / movement trajectory detection apparatus according to an embodiment of the present invention.
The posture / movement trajectory detection device 1 of the present embodiment includes a server 10, an activity detection unit 11, a stationary section search unit 12, a stationary posture estimation unit 13, a motion posture estimation unit 14, and a gravitational acceleration estimation unit 15. And a motion acceleration estimation unit 16 and a movement trajectory estimation unit 17.

本実施の形態が想定している環境では、室内のさまざまな物体に汎用的なセンサノード2が装着されている。図2は本発明の実施の形態に係るセンサノード2の構成を示すブロック図である。センサノード2は、複数種類のセンサ20と、他のセンサノード2やサーバ10にデータを送信する通信モジュール21と、プログラムを記憶するメモリ22と、メモリ22に格納されたプログラムに従ってセンサ20や通信モジュール21を制御するプロセッサ23とから構成される。   In the environment assumed by the present embodiment, general-purpose sensor nodes 2 are attached to various objects in the room. FIG. 2 is a block diagram showing a configuration of the sensor node 2 according to the embodiment of the present invention. The sensor node 2 includes a plurality of types of sensors 20, a communication module 21 that transmits data to other sensor nodes 2 and the server 10, a memory 22 that stores a program, and a sensor 20 and a communication according to a program stored in the memory 22. And a processor 23 for controlling the module 21.

センサノード2のプロセッサ23は、稼動しているセンサ20の測定値を常時収集して処埋する。また、プロセッサ23は、必要に応じて、通信モジュール21を通して他のセンサノード2やサーバ10に収集したデータを送信して、処理を委ねる。プロセッサ23は、例えば一定時間ごとにデータを送信する。   The processor 23 of the sensor node 2 always collects and processes the measurement values of the sensor 20 that is operating. Further, the processor 23 sends the collected data to other sensor nodes 2 and the server 10 through the communication module 21 as necessary, and entrusts the processing. The processor 23 transmits data at regular time intervals, for example.

センサノード2は、3次元空間中で自由に姿勢変化および移動が可能な物体に装着されるので、センサノード2間、およびセンサノード2とサーバ10間の通信には無線通信を用いることが好ましい。無線通信としては、例えば無線LAN(Local Area Network)などを利用できる。   Since the sensor node 2 is attached to an object that can freely change its posture and move in a three-dimensional space, it is preferable to use wireless communication for communication between the sensor nodes 2 and between the sensor node 2 and the server 10. . As the wireless communication, for example, a wireless LAN (Local Area Network) can be used.

物体の姿勢と移動軌跡の検出にあたっては、センサノード2に搭載されている複数種類のセンサ20のうち、地磁気を検出する方位センサと加速度を検出する加速度センサとから収集した情報を用いる。方位センサは、互いに交差する2方向ないし3方向に配されたセンサからなり、2次元ないし3次元のベクトル値として、地磁気の大きさを測定することができる。同様に、加速度センサも、2方向ないし3方向に配されたセンサからなり、2次元ないし3次元のベクトル値として、加速度の大きさを測定することができる。測定の頻度は任意であるが、現在市販されているセンサでは5ms間隔程度での測定を連続して行うことが可能である。   In detecting the posture and movement trajectory of an object, information collected from an orientation sensor that detects geomagnetism and an acceleration sensor that detects acceleration among a plurality of types of sensors 20 mounted on the sensor node 2 is used. The azimuth sensor is composed of sensors arranged in two or three directions crossing each other, and can measure the magnitude of geomagnetism as a two-dimensional or three-dimensional vector value. Similarly, the acceleration sensor is also composed of sensors arranged in two or three directions, and the magnitude of acceleration can be measured as a two-dimensional or three-dimensional vector value. The frequency of measurement is arbitrary, but currently commercially available sensors can continuously measure at intervals of about 5 ms.

静止しているときの物体の姿勢は、2つの方向ベクトルを用いることで決定することができる。例えば、1つ目の方向ベクトルとして方位センサにより検出した磁北の方向だけが与えられた場合、物体の姿勢はそれだけでは決定することができず、磁北を指すベクトルの周りの回転について自由度が残る。そこで、磁北を指すベクトルと平行でないもう1つのベクトルとして、地球上の鉛直方向を意味する重力加速度のベクトルを与えると、物体の姿勢を決定することができる。   The posture of the object when it is stationary can be determined by using two direction vectors. For example, if only the direction of magnetic north detected by the direction sensor is given as the first direction vector, the posture of the object cannot be determined by itself, and there remains a degree of freedom for rotation around the vector pointing to magnetic north. . Therefore, if another vector that is not parallel to the vector pointing to magnetic north is given as a vector of gravity acceleration that means the vertical direction on the earth, the posture of the object can be determined.

また、物体の姿勢に制約がある場合には、必ずしも3次元のベクトルを用いる必要はない。例えばドアなどに装着されたセンサの場合、鉛直方向への姿勢変化は考慮する必要が無いため、2次元のベクトルが検出できれば十分である。現在市販されているセンサでは、3次元の方位センサと加速度センサがパッケージ化されたものが存在するため、磁北のベクトルと重力加速度のベクトルの組を用いることが実装上は容易である。しかしながら、物体に外力が働いている場合には、重力加速度の方向の検出に工夫が必要であり、本実施の形態はその点について解決する。   Further, when there is a restriction on the posture of the object, it is not always necessary to use a three-dimensional vector. For example, in the case of a sensor mounted on a door or the like, it is not necessary to consider a change in posture in the vertical direction, and it is sufficient if a two-dimensional vector can be detected. Currently available sensors include three-dimensional azimuth sensors and acceleration sensors that are packaged. Therefore, it is easy to implement using a set of magnetic north vectors and gravity acceleration vectors. However, when an external force is acting on the object, it is necessary to devise in detecting the direction of gravitational acceleration, and this embodiment solves this point.

図3は本実施の形態の姿勢・移動軌跡検出装置1の動作を示すフローチャートである。前記のとおり、サーバ10は、センサノード2からのデータを受信する(図3ステップS1)。本実施の形態では、センサノード2から送信されるデータは、3軸の加速度ベクトルである加速度観測値と、3軸の地磁気ベクトルである方位観測値である。   FIG. 3 is a flowchart showing the operation of the posture / movement trajectory detection apparatus 1 of the present embodiment. As described above, the server 10 receives data from the sensor node 2 (step S1 in FIG. 3). In the present embodiment, data transmitted from the sensor node 2 is an acceleration observation value that is a triaxial acceleration vector and an azimuth observation value that is a triaxial geomagnetic vector.

次に、静止時の物体の姿勢の決定に先立って、物体が静止しているか否かの判別が必要である。物体が静止状態にあるとき、方位および加速度の測定値には変化が生じないことから、センサデータに変化が生じていない時区間を静止区間とし、他方、センサデータに変化が連続して生じている時区間をアクティビティ区間とする。アクティビティ検出部11は、センサノード2から受信したセンサデータに変化が連続して生じている時区間をアクティビティ区間として検出し、それ以外の時区間を静止区間とする(図3ステップS2)。   Next, it is necessary to determine whether or not the object is stationary prior to determining the posture of the object when stationary. When the object is in a stationary state, the measured values of direction and acceleration do not change, so the time interval when the sensor data does not change is set as the stationary interval, while the change occurs continuously in the sensor data. The time interval is the activity interval. The activity detection unit 11 detects a time interval in which changes occur continuously in the sensor data received from the sensor node 2 as an activity interval, and sets the other time intervals as a stationary interval (step S2 in FIG. 3).

移動していない物体の状態変化は積極的に計算し続ける必要が無いため、物体の姿勢および移動軌跡の検出は、アクティビティ区間を対象として行う。アクティビティ区間が検出された際に、その前後の静止区間における物体の姿勢を求め、その姿勢を用いてアクティビティ区間における物体の姿勢および移動軌跡を推定する。   Since it is not necessary to actively calculate the state change of the object that is not moving, the detection of the posture of the object and the movement trajectory is performed for the activity section. When the activity section is detected, the posture of the object in the stationary section before and after the activity section is obtained, and the posture and movement trajectory of the object in the activity section are estimated using the posture.

物体の移動軌跡の推定にあたって、まず物体の姿勢に変化がない場合の移動軌跡の推定について考える。物体に外力が加えられた場合、物体は移動する。このときの外力の強さに応じた加速度が、この物体に装着されたセンサノード2の加速度センサによって測定される。ここで、加速度センサによる測定値は、外力による加速度に加えて、物体が存在する地点における重力加速度が重畳されたものとなる。   In estimating the movement trajectory of an object, first, the estimation of the movement trajectory when there is no change in the posture of the object will be considered. When an external force is applied to the object, the object moves. The acceleration according to the strength of the external force at this time is measured by the acceleration sensor of the sensor node 2 attached to this object. Here, the measurement value by the acceleration sensor is obtained by superimposing the gravitational acceleration at the point where the object exists in addition to the acceleration by the external force.

物体の姿勢に変化がない場合、観測される重力加速度は移動の前後で変化しないので、物体の静止時に測定された加速度の値をその静止地点における重力加速度として、この重力加速度を物体の移動中に観測された個々の加速度測定値から減ずることで、運動に寄与する外力による加速度を算出することができる。この外力による加速度を時間について積分することで物体の速度を求めることができ、さらに物体の速度を積分することで物体の移動量を求めることができる。   If there is no change in the posture of the object, the observed gravitational acceleration does not change before and after the movement, so the acceleration value measured when the object is stationary is the gravitational acceleration at the stationary point, and this gravitational acceleration is being moved. By subtracting from the individual measured acceleration values, the acceleration due to the external force that contributes to the motion can be calculated. The speed of the object can be obtained by integrating the acceleration due to the external force with respect to time, and the amount of movement of the object can be obtained by further integrating the speed of the object.

物体の姿勢に変化がある場合、その姿勢に応じて物体から見た重力加速度の方向が変化するため、静止時に測定された重力加速度の値を加速度測定値から単純に減ずることはできない。そこで、各時点における物体の姿勢を推定することで、その姿勢において加速度センサで観測されるべき重力加速度の大きさを推定し、推定した重力加速度を加速度測定値から減ずることにより、運動に寄与する外力による加速度を算出することができる。   When there is a change in the posture of the object, the direction of the gravitational acceleration as viewed from the object changes according to the posture, and thus the value of the gravitational acceleration measured at rest cannot be simply subtracted from the measured acceleration value. Therefore, by estimating the posture of the object at each time point, the magnitude of the gravitational acceleration that should be observed by the acceleration sensor in that posture is estimated, and the estimated gravitational acceleration is subtracted from the acceleration measurement value, thereby contributing to motion. Acceleration due to external force can be calculated.

静止区間探索部12は、アクティビティ検出部11においてアクティビティ区間が検出されたときに、このアクティビティ区間の前後の静止区間を探索する(図3ステップS3)。ここでは、アクティビティ区間の直前に存在する静止区間をST1、アクティビティ区間の直後に存在する静止区間をST2とする。 When the activity detection unit 11 detects an activity section, the still section search unit 12 searches for a still section before and after this activity section (step S3 in FIG. 3). Here, it is assumed that the still section immediately before the activity section is ST 1 and the still section immediately after the activity section is ST 2 .

静止姿勢推定部13は、静止区間ST1,ST2において測定されたセンサデータからそれぞれ静止区間ST1,ST2における物体の静止時の姿勢を推定する(図3ステップS4)。ここでは、物体の姿勢のパラメータを以下のように定める。まず、物体が静止している地点における北方向をX、西方向をY、鉛直上向きをZとした空間座標系を定める。この物体に装着されたセンサノード2における3次元のxyz座標系と上述のXYZ空間座標系との関係として、x軸、y軸、z軸がそれぞれX軸、Y軸、Z軸と一致する方向をセンサノード2(物体)の基準姿勢とする。この基準姿勢から、まずz軸周りに回転角ξの回転を行ない、次いでy軸周りに回転角φの回転を行ない、x軸周りに回転角θの回転を行ったときの物体の姿勢を(θ,φ,ξ)で表わすこととする。 Static attitude estimation section 13 estimates the resting posture of the object in the still picture sequence ST 1, each stationary section ST 1 from the measured sensor data in ST 2, ST 2 (FIG. 3 step S4). Here, the parameters of the posture of the object are determined as follows. First, a spatial coordinate system is defined in which the north direction at the point where the object is stationary is X, the west direction is Y, and the vertical upward direction is Z. As the relationship between the three-dimensional xyz coordinate system in the sensor node 2 attached to this object and the XYZ space coordinate system described above, the x-axis, y-axis, and z-axis coincide with the X-axis, Y-axis, and Z-axis, respectively. Is the reference posture of the sensor node 2 (object). From this reference posture, first, the rotation angle ξ is rotated about the z axis, then the rotation angle φ is rotated about the y axis, and the posture of the object when the rotation angle θ is rotated about the x axis ( (θ, φ, ξ).

3軸の加速度センサと3軸の方位センサを持つセンサノード2では、各瞬間に加速度ベクトルa(t)=(ax(t),ay(t),az(t))と、地磁気ベクトルh(t)=(hx(t),hy(t),hz(t))を観測できる。物体が基準姿勢で静止しているときの加速度ベクトルをa0=(ax0,ay0,az0)、地磁気ベクトルをh0=(hx0,hy0,hz0)とする。静止姿勢における加速度は、その静止した地点での重力加速度ベクトルに相当する。 In third sensor node 2 having an azimuth sensor of the acceleration sensor and three-axis axis, each moment acceleration vector a (t) = (a x (t), a y (t), a z (t)), geomagnetism The vector h (t) = (h x (t), h y (t), h z (t)) can be observed. Assume that the acceleration vector when the object is stationary in the reference posture is a 0 = (a x0 , a y0 , a z0 ), and the geomagnetic vector is h 0 = (h x0 , h y0 , h z0 ). The acceleration in the stationary posture corresponds to the gravitational acceleration vector at the stationary point.

ある時刻tにおいて物体が静止しており、センサノード2から観測値a(t)=(ax(t),ay(t),az(t))とh(t)=(hx(t),hy(t),hz(t))が得られたとする。観測地点の周辺で重力加速度ベクトルと地磁気ベクトルはほぼ一定であるから、基準姿勢での観測値a0,h0がそれぞれ時刻tにおける観測値a(t),h(t)と一致するように物体を基準姿勢から回転させると、時刻tにおける物体の姿勢パラメータ(θ(t),φ(t),ξ(t))を求めることができる。 And the object is stationary at a certain time t, from the sensor node 2 observations a (t) = (a x (t), a y (t), a z (t)) and h (t) = (h x (T), h y (t), h z (t)) are obtained. Since the gravitational acceleration vector and the geomagnetic vector are substantially constant around the observation point, the observation values a 0 and h 0 in the reference posture coincide with the observation values a (t) and h (t) at time t, respectively. When the object is rotated from the reference posture, the posture parameters (θ (t), φ (t), ξ (t)) of the object at time t can be obtained.

物体が運動しているアクティビティ区間をt1≦t≦t2とすると、静止姿勢推定部13は、アクティビティ区間の直前の静止区間ST1(正確にはアクティビティ区間の先端時刻t1における静止状態)についてこのときの観測値a(t1),h(t1)と基準姿勢での観測値a0,h0とから上記のようにして物体の姿勢パラメータ(θ(t1),φ(t1),ξ(t1))を求め、またアクティビティ区間の直後の静止区間ST2(正確にはアクティビティ区間の終端時刻t2における静止状態)について観測値a(t2),h(t2)と基準姿勢での観測値a0,h0とから物体の姿勢パラメータ(θ(t2),φ(t2),ξ(t2))を求める(図3ステップS4)。 Assuming that the activity section in which the object is moving is t 1 ≦ t ≦ t 2 , the stationary posture estimation unit 13 determines the stationary section ST 1 immediately before the activity section (more precisely, the stationary state at the tip time t 1 of the activity section). From the observed values a (t 1 ), h (t 1 ) at this time and the observed values a 0 , h 0 at the reference posture, the object posture parameters (θ (t 1 ), φ (t 1 ), ξ (t 1 )), and the observed values a (t 2 ), h (t 2 ) for the stationary section ST 2 immediately after the activity section (more precisely, the stationary state at the end time t 2 of the activity section). ) And the observed values a 0 and h 0 at the reference posture, the object posture parameters (θ (t 2 ), φ (t 2 ), ξ (t 2 )) are obtained (step S 4 in FIG. 3).

運動姿勢推定部14は、静止区間ST1における物体の姿勢と静止区間ST2における物体の姿勢とから補間を行うことで、アクティビティ区間の各時刻における物体の姿勢を推定する(図3ステップS5)。この補間は、数学的には1次式による補間でも十分であるが、本実施の形態においては、日常生活空間における物体の移動には人の行為が関与していることに注目し、人の手の運動の近似として知られているジャーク最小モデルに基づく補間を行う。 The motion posture estimation unit 14 estimates the posture of the object at each time in the activity section by performing interpolation from the posture of the object in the stationary section ST 1 and the posture of the object in the stationary section ST 2 (step S5 in FIG. 3). . In this embodiment, linear interpolation is sufficient for this interpolation, but in this embodiment, attention is paid to the fact that human actions are involved in the movement of objects in daily life space. Interpolate based on a jerk minimum model known as approximation of hand movement.

ジャーク最小モデルは、人の手の運動を観測した結果として得られたもので、人は本能的にジャーク(跳度、すなわち加速度の時間微分)が最小となるような軌跡で手を動かしていることを示すものである。直感的には、人の手の運動は加速度が滑らかに変化するような軌跡を描いており、そのときの移動量は時間についての5次式として表現される。運動姿勢推定部14は、姿勢パラメータ(θ,φ,ξ)のそれぞれについて、ジャーク最小モデルによる補間を行う。   The jerk minimum model is obtained as a result of observing the movement of a person's hand, and the person instinctively moves his hand along a trajectory that minimizes jerk (the degree of jump, ie, time derivative of acceleration). It shows that. Intuitively, the movement of a human hand draws a trajectory in which the acceleration changes smoothly, and the amount of movement at that time is expressed as a quintic expression with respect to time. The motion posture estimation unit 14 performs interpolation using the jerk minimum model for each of the posture parameters (θ, φ, ξ).

時刻tにおける物体の位置をx(t)とする。x(t)がtについてn回微分可能であるとして、x(t)をn回微分したものをx(n)(t)と表わすことにする。これにより、時刻tにおける物体の速度はx(1)(t)、加速度はx(2)(t)、跳度はx(3)(t)と表すことができる。跳度が最小となるとき,その2回微分についてx(5)(t)=0が成り立つ。 Let x (t) be the position of the object at time t. Assuming that x (t) can be differentiated n times with respect to t, x (t) differentiated n times is represented as x (n) (t). Thus, the velocity of the object at time t can be expressed as x (1) (t), the acceleration can be expressed as x (2) (t), and the recoil degree can be expressed as x (3) (t). When the recoil degree is minimum, x (5) (t) = 0 holds for the second derivative.

上記と同様に、アクティビティ区間をt1≦t≦t2とする。アクティビティ区間の先端時刻t1における静止状態および終端時刻t2における静止状態においては、速度、加速度共に0であるから、時刻t1における物体の位置をx1=x(t1)、時刻t2における物体の位置をx2=x(t2)と表すと、x(t)は以下の方程式の解として定義できる。 Similarly to the above, the activity section is set to t 1 ≦ t ≦ t 2 . In the stationary state at the front end time t 1 of the activity section and the stationary state at the end time t 2 , both the velocity and the acceleration are 0. Therefore, the position of the object at the time t 1 is x 1 = x (t 1 ), and the time t 2. X (t) can be defined as a solution of the following equation: x 2 = x (t 2 ).

(5)(t)=0 ・・・(1)
x(t1)=x1,x(1)(t1)=0,x(2)(t1)=0 ・・・(2)
x(t2)=x2,x(1)(t2)=0,x(2)(t2)=0 ・・・(3)
x (5) (t) = 0 (1)
x (t 1 ) = x 1 , x (1) (t 1 ) = 0, x (2) (t 1 ) = 0 (2)
x (t 2 ) = x 2 , x (1) (t 2 ) = 0, x (2) (t 2 ) = 0 (3)

この方程式の解はtに関する以下の5次式となる。
x(t)=x1+(x2−x1)(10(t/(t2−t1))3
−15(t/(t2−t1))4+6(t/(t2−t1))5) ・・(4)
The solution of this equation is the following quintic equation for t.
x (t) = x 1 + (x 2 −x 1 ) (10 (t / (t 2 −t 1 )) 3
−15 (t / (t 2 −t 1 )) 4 +6 (t / (t 2 −t 1 )) 5 ) (4)

運動姿勢推定部14は、以上のジャーク最小原理に基づく補間を、姿勢パラメータθ,φ,ξに対してそれぞれ独立に適用することで、時刻t1における姿勢パラメータθ(t1),φ(t1),ξ(t1)と、時刻t2における姿勢パラメータθ(t2),φ(t2),ξ(t2)とから、アクティビティ区間の時刻t(t1≦t≦t2)における姿勢パラメータθ^(t),φ^(t),ξ^(t)を求めることができる(図3ステップS5)。 Exercise posture estimation unit 14, an interpolation based on the above jerk minimum principle posture parameter theta, phi, by applying independently to xi], posture parameter θ (t 1) at time t 1, phi (t 1), ξ (t 1) and, the attitude parameters at time t 2 θ (t 2), φ (t 2), ξ ( since t 2) and, of the activity interval time t (t 1 ≦ t ≦ t 2) The posture parameters θ ^ (t), φ ^ (t), and ξ ^ (t) can be obtained (step S5 in FIG. 3).

次に、重力加速度推定部15は、アクティビティ区間の各時刻について、運動姿勢推定部14が推定した物体の姿勢における重力加速度を推定する(図3ステップS6)。重力加速度推定部15は、アクティビティ区間の時刻t(t1≦t≦t2)における姿勢パラメータθ^(t),φ^(t),ξ^(t)を用いて、静止姿勢における重力加速度ベクトルa0を回転させることで、時刻tの物体の姿勢で観測されるべき重力加速度g^(t)を求めることができる。 Next, the gravitational acceleration estimation unit 15 estimates the gravitational acceleration in the posture of the object estimated by the motion posture estimation unit 14 for each time of the activity section (step S6 in FIG. 3). The gravitational acceleration estimation unit 15 uses the posture parameters θ ^ (t), φ ^ (t), and ξ ^ (t) at the time t (t 1 ≦ t ≦ t 2 ) of the activity section, and the gravitational acceleration in the stationary posture By rotating the vector a 0 , the gravitational acceleration g ^ (t) to be observed with the posture of the object at time t can be obtained.

運動加速度推定部16は、アクティビティ区間の各時刻について、運動に寄与する外力により生じる物体の加速度を推定する(図3ステップS7)。運動加速度推定部16は、物体に装着されたセンサノード2がアクティビティ区間の時刻t(t1≦t≦t2)で観測した加速度ベクトルa(t)=(ax(t),ay(t),az(t))から、重力加速度推定部15が推定した重力加速度g^(t)を減ずることで、その瞬間の運動に関わる物体の加速度a^(t)を求めることができる。
a^(t)=a(t)−g^(t) ・・・(5)
The motion acceleration estimation unit 16 estimates the acceleration of the object caused by the external force contributing to the motion at each time in the activity section (step S7 in FIG. 3). The motion acceleration estimation unit 16 detects the acceleration vector a (t) = (a x (t), a y (a) (the sensor node 2 attached to the object observed at the time t (t 1 ≦ t ≦ t 2 ) of the activity section. By subtracting the gravitational acceleration g ^ (t) estimated by the gravitational acceleration estimator 15 from t), a z (t)), the acceleration a ^ (t) of the object related to the instantaneous motion can be obtained. .
a ^ (t) = a (t) -g ^ (t) (5)

最後に、移動軌跡推定部17は、運動加速度推定部16が求めた物体の加速度a^(t)を時間について積分することで、アクティビティ区間における物体の移動速度v(t)および移動量x(t)を算出する(図3ステップS8)。移動軌跡推定部17は、運動加速度推定部16が求めた運動加速度a^(t)を時刻tに関して積分することで移動速度v(t)を求めることができ、さらに移動速度v(t)を積分することで移動量x(t)を求めることができる。   Finally, the movement trajectory estimation unit 17 integrates the object acceleration a ^ (t) obtained by the motion acceleration estimation unit 16 with respect to time, so that the object movement speed v (t) and the movement amount x ( t) is calculated (step S8 in FIG. 3). The movement trajectory estimation unit 17 can obtain the movement speed v (t) by integrating the movement acceleration a ^ (t) obtained by the movement acceleration estimation unit 16 with respect to the time t, and further calculates the movement speed v (t). The amount of movement x (t) can be obtained by integrating.

Figure 2009287940
Figure 2009287940

以上のようにして、本実施の形態では、物体の運動中の姿勢および移動軌跡を求めることができる。   As described above, in the present embodiment, the posture and movement trajectory of an object during movement can be obtained.

なお、本実施の形態の姿勢・移動軌跡検出装置は、CPU、記憶装置および外部とのインタフェースを備えたコンピュータとこれらのハードウェア資源を制御するプログラムによって実現することができる。このようなコンピュータにおいて、本発明の姿勢・移動軌跡検出方法を実現させるための姿勢・移動軌跡検出プログラムは、フレキシブルディスク、CD−ROM、DVD−ROM、メモリカードなどの記録媒体に記録された状態で提供される。CPUは、記録媒体から読み込んだプログラムを記憶装置に書き込み、プログラムに従って本実施の形態で説明したような処理を実行する。   Note that the posture / movement trajectory detection apparatus of the present embodiment can be realized by a computer having a CPU, a storage device, and an external interface, and a program for controlling these hardware resources. In such a computer, the attitude / movement locus detection program for realizing the attitude / movement locus detection method of the present invention is recorded in a recording medium such as a flexible disk, a CD-ROM, a DVD-ROM, or a memory card. Provided in. The CPU writes the program read from the recording medium into the storage device, and executes processing as described in this embodiment according to the program.

本発明は、物体に装着されたセンサノードからのセンサデータを用いて、運動中の物体の姿勢と移動軌跡を検出する技術に適用することができる。   The present invention can be applied to a technique for detecting the posture and movement trajectory of an object in motion using sensor data from a sensor node attached to the object.

本発明の実施の形態に係る姿勢・移動軌跡検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the attitude | position and movement trace detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るセンサノードの構成を示すブロック図である。It is a block diagram which shows the structure of the sensor node which concerns on embodiment of this invention. 本発明の実施の形態に係る姿勢・移動軌跡検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the attitude | position and movement trace detection apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…姿勢・移動軌跡検出装置、2…センサノード、10…サーバ、11…アクティビティ検出部、12…静止区間探索部、13…静止姿勢推定部、14…運動姿勢推定部、15…重力加速度推定部、16…運動加速度推定部、17…移動軌跡推定部、20…センサ、21…通信モジュール、22…メモリ、23…プロセッサ。   DESCRIPTION OF SYMBOLS 1 ... Posture / movement trajectory detection device, 2 ... Sensor node, 10 ... Server, 11 ... Activity detection unit, 12 ... Static section search unit, 13 ... Static posture estimation unit, 14 ... Motion posture estimation unit, 15 ... Gravity acceleration estimation 16, motion acceleration estimation unit, 17 movement trajectory estimation unit, 20 sensor, 21 communication module, 22 memory, 23 processor.

Claims (8)

センサノードが装着された物体の姿勢および移動軌跡を検出する姿勢・移動軌跡検出装置において、
センサノードから受信したセンサデータに基づいて物体が運動しているアクティビティ区間を検出するアクティビティ検出手段と、
前記アクティビティ区間が検出されたときに、このアクティビティ区間の前後の静止区間を探索する静止区間探索手段と、
前記アクティビティ区間の前後の静止区間のセンサデータから物体の姿勢を静止区間の各々について推定する静止姿勢推定手段と、
前記アクティビティ区間の前後の静止区間における物体の姿勢に基づいて、前記アクティビティ区間の各時刻における物体の姿勢を補間により推定する運動姿勢推定手段と、
前記アクティビティ区間の各時刻について前記運動姿勢推定手段が推定した物体の姿勢における重力加速度を推定する重力加速度推定手段と、
前記アクティビティ区間の各時刻について前記センサデータと前記重力加速度推定手段が推定した重力加速度とから、外力により生じる物体の加速度を推定する運動加速度推定手段と、
この運動加速度推定手段が推定した物体の加速度から前記アクティビティ区間における物体の移動速度および移動量を求める移動軌跡推定手段とを備えることを特徴とする姿勢・移動軌跡検出装置。
In an attitude / movement trajectory detection device for detecting the attitude and movement trajectory of an object to which a sensor node is attached,
Activity detecting means for detecting an activity section in which an object is moving based on sensor data received from a sensor node;
When the activity section is detected, a stationary section search means for searching for a stationary section before and after the activity section,
Static posture estimation means for estimating the posture of an object for each of the static intervals from sensor data of the static interval before and after the activity interval;
Based on the posture of the object in the stationary section before and after the activity section, the motion posture estimation means for estimating the posture of the object at each time of the activity section by interpolation,
Gravity acceleration estimating means for estimating the gravitational acceleration in the posture of the object estimated by the motion posture estimating means for each time of the activity section;
Motion acceleration estimation means for estimating the acceleration of an object caused by an external force from the sensor data and the gravitational acceleration estimated by the gravitational acceleration estimation means for each time of the activity section;
A posture / movement trajectory detection device comprising: movement trajectory estimation means for obtaining a movement speed and movement amount of an object in the activity section from the acceleration of the object estimated by the motion acceleration estimation means.
請求項1記載の姿勢・移動軌跡検出装置において、
前記運動姿勢推定手段は、前記補間を行う際に、前記静止姿勢推定手段が推定した3軸の姿勢のパラメータにそれぞれ独立にジャーク最小原理を適用し、前記アクティビティ区間の各時刻における物体の3軸の姿勢のパラメータを計算することを特徴とする姿勢・移動軌跡検出装置。
The posture / movement trajectory detecting device according to claim 1,
The motion posture estimation means applies the jerk minimum principle independently to the three-axis posture parameters estimated by the stationary posture estimation means when performing the interpolation, and the three axes of the object at each time in the activity section A posture / movement trajectory detection apparatus characterized by calculating a posture parameter of a robot.
請求項1記載の姿勢・移動軌跡検出装置において、
前記センサデータは、3軸の加速度観測値と3軸の方位観測値とを含むことを特徴とする姿勢・移動軌跡検出装置。
The posture / movement trajectory detecting device according to claim 1,
The posture / movement trajectory detecting apparatus, wherein the sensor data includes a three-axis acceleration observation value and a three-axis azimuth observation value.
センサノードが装着された物体の姿勢および移動軌跡を検出する姿勢・移動軌跡検出方法において、
センサノードから受信したセンサデータに基づいて物体が運動しているアクティビティ区間を検出するアクティビティ検出手順と、
前記アクティビティ区間を検出したときに、このアクティビティ区間の前後の静止区間を探索する静止区間探索手順と、
前記アクティビティ区間の前後の静止区間のセンサデータから物体の姿勢を静止区間の各々について推定する静止姿勢推定手順と、
前記アクティビティ区間の前後の静止区間における物体の姿勢に基づいて、前記アクティビティ区間の各時刻における物体の姿勢を補間により推定する運動姿勢推定手順と、
前記アクティビティ区間の各時刻について前記運動姿勢推定手順で推定した物体の姿勢における重力加速度を推定する重力加速度推定手順と、
前記アクティビティ区間の各時刻について前記センサデータと前記重力加速度推定手順で推定した重力加速度とから、外力により生じる物体の加速度を推定する運動加速度推定手順と、
この運動加速度推定手順で推定した物体の加速度から前記アクティビティ区間における物体の移動速度および移動量を求める移動軌跡推定手順とを備えることを特徴とする姿勢・移動軌跡検出方法。
In an attitude / movement trajectory detection method for detecting the attitude and movement trajectory of an object to which a sensor node is attached,
An activity detection procedure for detecting an activity section in which an object is moving based on sensor data received from a sensor node;
When detecting the activity section, a stationary section search procedure for searching for a stationary section before and after this activity section,
A stationary posture estimation procedure for estimating the posture of an object for each stationary section from sensor data of a stationary section before and after the activity section;
Based on the posture of the object in the stationary section before and after the activity section, a motion posture estimation procedure for estimating the posture of the object at each time of the activity section by interpolation,
A gravitational acceleration estimation procedure for estimating the gravitational acceleration in the posture of the object estimated in the motion posture estimation procedure for each time of the activity section;
A motion acceleration estimation procedure for estimating an acceleration of an object caused by an external force from the sensor data and the gravitational acceleration estimated by the gravitational acceleration estimation procedure for each time of the activity section;
A posture / movement trajectory detection method comprising: a movement trajectory estimation procedure for obtaining a movement speed and a movement amount of an object in the activity section from the acceleration of the object estimated by the motion acceleration estimation procedure.
請求項4記載の姿勢・移動軌跡検出方法において、
前記運動姿勢推定手順は、前記補間を行う際に、前記静止姿勢推定手順で推定した3軸の姿勢のパラメータにそれぞれ独立にジャーク最小原理を適用し、前記アクティビティ区間の各時刻における物体の3軸の姿勢のパラメータを計算することを特徴とする姿勢・移動軌跡検出方法。
In the posture / movement trajectory detection method according to claim 4,
In the motion posture estimation procedure, when performing the interpolation, the jerk minimum principle is independently applied to the three axis posture parameters estimated in the stationary posture estimation procedure, and the three axes of the object at each time of the activity section are applied. A posture / movement trajectory detection method characterized by calculating a parameter of a posture.
請求項4記載の姿勢・移動軌跡検出方法において、
前記センサデータは、3軸の加速度観測値と3軸の方位観測値とを含むことを特徴とする姿勢・移動軌跡検出方法。
In the posture / movement trajectory detection method according to claim 4,
The sensor data includes a three-axis acceleration observation value and a three-axis azimuth observation value.
センサノードが装着された物体の姿勢および移動軌跡を検出する姿勢・移動軌跡検出装置としてコンピュータを動作させる姿勢・移動軌跡検出プログラムにおいて、
センサノードから受信したセンサデータに基づいて物体が運動しているアクティビティ区間を検出するアクティビティ検出手順と、
前記アクティビティ区間を検出したときに、このアクティビティ区間の前後の静止区間を探索する静止区間探索手順と、
前記アクティビティ区間の前後の静止区間のセンサデータから物体の姿勢を静止区間の各々について推定する静止姿勢推定手順と、
前記アクティビティ区間の前後の静止区間における物体の姿勢に基づいて、前記アクティビティ区間の各時刻における物体の姿勢を補間により推定する運動姿勢推定手順と、
前記アクティビティ区間の各時刻について前記運動姿勢推定手順で推定した物体の姿勢における重力加速度を推定する重力加速度推定手順と、
前記アクティビティ区間の各時刻について前記センサデータと前記重力加速度推定手順で推定した重力加速度とから、外力により生じる物体の加速度を推定する運動加速度推定手順と、
この運動加速度推定手順で推定した物体の加速度から前記アクティビティ区間における物体の移動速度および移動量を求める移動軌跡推定手順とを、コンピュータに実行させることを特徴とする姿勢・移動軌跡検出プログラム。
In an attitude / movement trajectory detection program for operating a computer as an attitude / movement trajectory detection device for detecting the attitude and movement trajectory of an object to which a sensor node is attached,
An activity detection procedure for detecting an activity section in which an object is moving based on sensor data received from a sensor node;
When detecting the activity section, a stationary section search procedure for searching for a stationary section before and after this activity section,
A stationary posture estimation procedure for estimating the posture of an object for each stationary section from sensor data of a stationary section before and after the activity section;
Based on the posture of the object in the stationary section before and after the activity section, a motion posture estimation procedure for estimating the posture of the object at each time of the activity section by interpolation,
A gravitational acceleration estimation procedure for estimating the gravitational acceleration in the posture of the object estimated in the motion posture estimation procedure for each time of the activity section;
A motion acceleration estimation procedure for estimating an acceleration of an object caused by an external force from the sensor data and the gravitational acceleration estimated by the gravitational acceleration estimation procedure for each time of the activity section;
An attitude / movement trajectory detection program for causing a computer to execute a movement trajectory estimation procedure for obtaining a movement speed and movement amount of an object in the activity section from the acceleration of the object estimated by the motion acceleration estimation procedure.
請求項7記載の姿勢・移動軌跡検出プログラムを記録したことを特徴とする記録媒体。   A recording medium on which the posture / movement trajectory detection program according to claim 7 is recorded.
JP2008137812A 2008-05-27 2008-05-27 Posture / movement trajectory detection device, detection method, program, and recording medium Expired - Fee Related JP5160963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008137812A JP5160963B2 (en) 2008-05-27 2008-05-27 Posture / movement trajectory detection device, detection method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008137812A JP5160963B2 (en) 2008-05-27 2008-05-27 Posture / movement trajectory detection device, detection method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2009287940A true JP2009287940A (en) 2009-12-10
JP5160963B2 JP5160963B2 (en) 2013-03-13

Family

ID=41457313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008137812A Expired - Fee Related JP5160963B2 (en) 2008-05-27 2008-05-27 Posture / movement trajectory detection device, detection method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP5160963B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012110359A (en) * 2010-11-19 2012-06-14 Seiko Epson Corp Motion analyzing apparatus
CN107735047A (en) * 2015-06-18 2018-02-23 高露洁-棕榄公司 Electric toothbrush apparatus and method
CN109115224A (en) * 2018-08-30 2019-01-01 衡阳市衡山科学城科技创新研究院有限公司 A kind of high dynamic trajectory processing method and device of nine axle sensors

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264028A (en) * 2003-01-15 2004-09-24 National Institute Of Advanced Industrial & Technology Attitude angle processing unit and attitude angle processing method
JP2005114452A (en) * 2003-10-06 2005-04-28 Canon Inc Position posture measuring device, its method, program code and storage medium
JP2007066180A (en) * 2005-09-01 2007-03-15 Softbank Mobile Corp Method for processing motion trajectory information and personal digital assistant
JP2007130172A (en) * 2005-11-09 2007-05-31 Toyohashi Univ Of Technology Walking assist control method and its walking assist controller

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264028A (en) * 2003-01-15 2004-09-24 National Institute Of Advanced Industrial & Technology Attitude angle processing unit and attitude angle processing method
JP2005114452A (en) * 2003-10-06 2005-04-28 Canon Inc Position posture measuring device, its method, program code and storage medium
JP2007066180A (en) * 2005-09-01 2007-03-15 Softbank Mobile Corp Method for processing motion trajectory information and personal digital assistant
JP2007130172A (en) * 2005-11-09 2007-05-31 Toyohashi Univ Of Technology Walking assist control method and its walking assist controller

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012110359A (en) * 2010-11-19 2012-06-14 Seiko Epson Corp Motion analyzing apparatus
US9020197B2 (en) 2010-11-19 2015-04-28 Seiko Epson Corporation Motion analyzing apparatus
CN107735047A (en) * 2015-06-18 2018-02-23 高露洁-棕榄公司 Electric toothbrush apparatus and method
CN109115224A (en) * 2018-08-30 2019-01-01 衡阳市衡山科学城科技创新研究院有限公司 A kind of high dynamic trajectory processing method and device of nine axle sensors

Also Published As

Publication number Publication date
JP5160963B2 (en) 2013-03-13

Similar Documents

Publication Publication Date Title
CN108939512B (en) Swimming posture measuring method based on wearable sensor
Zhao et al. Motion measurement using inertial sensors, ultrasonic sensors, and magnetometers with extended kalman filter for data fusion
EP3535687B1 (en) Automatic magnetometer calibration for mobile devices
CN104969030B (en) Inertial device, methods and procedures
Roetenberg et al. Estimating body segment orientation by applying inertial and magnetic sensing near ferromagnetic materials
CN108844533B (en) Free attitude PDR positioning method based on multi-sensor fusion and attitude calculation
US9175962B2 (en) Pedestrian observation system, recording medium, and estimation of direction of travel
JP5861235B2 (en) Method for estimating the orientation of an object more accurately and attitude control system implementing the method
JP5754051B2 (en) Apparatus, system and method for determining the characteristics of a path formed by successive positions of a three-axis accelerometer rigidly coupled to a moving element
CN101405570B (en) Motion capture device and associated method
JP6997112B2 (en) Accelerometer
CN109798891A (en) Inertial Measurement Unit calibration system based on high-precision motion capture system
US10533874B2 (en) Inertial positioning and navigation device featuring a novel walk detection method
Manos et al. Walking direction estimation using smartphone sensors: A deep network-based framework
Salehi et al. A low-cost and light-weight motion tracking suit
US20120059621A1 (en) Method and device for localizing objects
CN110609621A (en) Posture calibration method and human motion capture system based on micro-sensor
JP5160963B2 (en) Posture / movement trajectory detection device, detection method, program, and recording medium
JP2013096724A (en) State estimation device
JP6548305B2 (en) Traveling direction estimation device and traveling direction estimation method
Madrigal et al. 3D motion tracking of the shoulder joint with respect to the thorax using MARG sensors and data fusion algorithm
Wu et al. Indoor positioning method for pedestrian dead reckoning based on multi-source sensors
JP6147446B1 (en) Inertial sensor initialization using soft constraints and penalty functions
Yi et al. G-constellations: G-sensor motion tracking systems
US11860246B1 (en) Short-range position tracking using stationary magnetic field gradient

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100713

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111118

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121213

R151 Written notification of patent or utility model registration

Ref document number: 5160963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees