JP2007241867A - センサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法 - Google Patents

センサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法 Download PDF

Info

Publication number
JP2007241867A
JP2007241867A JP2006066185A JP2006066185A JP2007241867A JP 2007241867 A JP2007241867 A JP 2007241867A JP 2006066185 A JP2006066185 A JP 2006066185A JP 2006066185 A JP2006066185 A JP 2006066185A JP 2007241867 A JP2007241867 A JP 2007241867A
Authority
JP
Japan
Prior art keywords
sensor data
feature vector
feature
walking state
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006066185A
Other languages
English (en)
Other versions
JP2007241867A5 (ja
JP4897314B2 (ja
Inventor
Toshiki Iso
俊樹 磯
Kenichi Yamazaki
憲一 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2006066185A priority Critical patent/JP4897314B2/ja
Publication of JP2007241867A publication Critical patent/JP2007241867A/ja
Publication of JP2007241867A5 publication Critical patent/JP2007241867A5/ja
Application granted granted Critical
Publication of JP4897314B2 publication Critical patent/JP4897314B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】センサ携行方法に制約を与えずにユーザの歩行形態に応じて歩行状態を検出し、運動強度等を算出する。
【解決手段】検出したい複数の歩行状態のセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成し、その特徴ベクトルを学習させて獲得した特徴抽出マップから複数の歩行状態の基底センサデータを抽出する。空間の各軸回りに回転して生成された擬似センサデータを基底関数分解した結果に基づき生成された特徴ベクトルを学習させ特徴抽出マップを生成する。歩行状態のセンサデータを基底関数分解して特徴ベクトルを生成し、それを特徴抽出マップに入力した時の結果に基づき歩行状態を検出する。特徴ベクトルの分布統計量に基づき歩行状態の強度を算出する。センサデータの特徴ベクトルを特徴抽出マップに入力した結果に応じて追加学習し、新たに特徴抽出マップを生成し歩行形態の経年変化にも対応する。
【選択図】 図4

Description

本発明はセンサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法に関し、特にユーザに健康管理情報を提供するための歩行状態検出システム、歩行状態検出方法に関する。
実世界指向型サービスを実現する上でモバイル環境下での個人の状況を理解することは重要である。特に生活習慣病予防のためにはユーザの日頃の運動量や消費カロリーを計測することは健康アドバイスサービスなどのヘルスケアの分野では極めてニーズが高い。
従来、ユーザの運動量や消費カロリーを計測するためには、万歩計(登録商標)などの健康管理専用のセンサを利用するのが一般的であった。また、本発明と同様に加速度センサを用いたものもあるが、センサをある位置に固定することを前提とし、個人差を考慮しない一律の基準に基づいて歩行状態を検出している(例えば、非特許文献1参照)。このセンサを用いることによって、「走る」や「歩く」といった歩行状況を認識している。
"加速度センサを用いた人間の歩行動作の認識方法"(電気学会論文誌、pp.218−226、Vol.118−A、No.3、1998)
しかしながら、万歩計(登録商標)などの健康管理専用のセンサを利用した運動量や消費カロリーの計測方法には、以下の課題がある。
(1)健康管理専用のセンサは、原則、定められた体の部位に装着することが必要である。
(2)健康管理専用のセンサは歩行の有無を判定するものがほとんど。スペクトル分布のピークに基づいてヒューリステックな手法により“階段を上っている”や“走っている”等の歩行状態を検出する試みはあるが、歩行の判定はユーザに依らず同じ基準を用いており、個人の歩行形態に適応させる機能は無い。
(3)歩行数を計測するのみで、運動強度に応じて消費カロリーを算出する機能は無い。
(4)各個人の歩行に関する経年変化には未対応である。
本発明は上述した従来技術の問題点を解決するためになされたものであり、その目的はセンサの携行方法に制約を与えることなく、個人の歩行形態に応じて歩行状態を検出することが可能で、さらには、歩行状態に応じて運動強度や消費カロリーを算出するとともに、個人の歩行形態の経年変化にも対応可能な歩行状態検出システム、歩行状態検出方法を提供することである。
本発明の請求項1によるセンサ搭載型携帯電話機による歩行状態検出システムは、
センサを搭載した携帯電話機を携行しているユーザの歩行状態を検出するセンサ搭載型携帯端末による歩行状態検出システムであって、
検出したい複数種類の歩行状態のセンサデータを取得するセンサデータ取得手段と、
前記センサデータ取得手段によって取得されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成手段と、
前記特徴ベクトル生成手段によって生成されたセンサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得手段と、
前記特徴抽出マップ獲得手段によって獲得された特徴抽出マップから複数の歩行状態の基底センサデータを抽出する基底センサデータ抽出手段と、
前記基底センサデータ抽出手段によって取得された複数の歩行状態の基底センサデータを空間の各軸回りに回転することで擬似センサデータを生成する擬似センサデータ生成手段と、
前記擬似センサデータ生成手段によって生成された擬似センサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成手段と、
前記特徴ベクトル生成手段によって生成された擬似センサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得手段と、
を含むことを特徴とする。このような構成によれば、センサ搭載型携帯電話機の携行方法に制約を与えることなく、個人の歩行形態に応じて歩行状態を検出することができる。
本発明の請求項2によるセンサ搭載型携帯電話機による歩行状態検出システムは、請求項1において、
任意の歩行状態のセンサデータを獲得するセンサデータ獲得手段と、
前記センサデータ獲得手段によって生成されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成手段と、
前記特徴ベクトル生成手段によって生成されたセンサデータの特徴ベクトルを、既に獲得された複数の特徴抽出マップに入力した時の結果に基づいて歩行状態を検出する歩行状態検出手段と、
前記歩行状態検出手段によって得られたセンサデータの特徴ベクトルの分布統計量に基づいて歩行状態の強度を算出する歩行状態強度算出手段と、
を更に含むことを特徴とする。このように構成すれば、検出した歩行状態に応じて運動強度や消費カロリーを算出することができる。
本発明の請求項3によるセンサ搭載型携帯電話機による歩行状態検出システムは、請求項2において、
前記特徴ベクトル生成手段によって生成されたセンサデータの特徴ベクトルを特徴抽出マップに入力した時の結果に基づいて追加学習の必要性を判断する追加学習判断手段と、
前記追加学習判断手段によって追加学習の必要性が判断された場合に、センサデータの特徴ベクトルと学習済の特徴抽出マップを用いて追加学習を行い、新たに特徴抽出マップを生成する特徴抽出マップ生成手段と、
を更に含むことを特徴とする。このように構成すれば、個人の歩行形態の経年変化にも対応できる。
本発明の請求項4によるセンサ搭載型携帯電話機による歩行状態検出方法は、
センサを搭載した携帯電話機を携行しているユーザの歩行状態を検出するセンサ搭載型携帯端末を用いた歩行状態検出方法であって、
検出したい複数種類の歩行状態のセンサデータを取得するセンサデータ取得ステップと、
前記センサデータ取得ステップにおいて取得されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成ステップと、
前記特徴ベクトル生成ステップにおいて生成されたセンサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得ステップと、
前記特徴抽出マップ獲得ステップにおいて獲得された特徴抽出マップから複数の歩行状態の基底センサデータを抽出する基底センサデータ抽出ステップと、
前記基底センサデータ抽出ステップにおいて取得された複数の歩行状態の基底センサデータを空間の各軸回りに回転することで擬似センサデータを生成する擬似センサデータ生成ステップと、
前記擬似センサデータ生成ステップにおいて生成された擬似センサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成ステップと、
前記特徴ベクトル生成ステップにおいて生成された擬似センサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得ステップと、
を含むことを特徴とする。このような構成によれば、センサ搭載型携帯電話機の携行方法に制約を与えることなく、個人の歩行形態に応じて歩行状態を検出することができる。
本発明の請求項5によるセンサ搭載型携帯電話機による歩行状態検出方法は、請求項4において、
任意の歩行状態のセンサデータを獲得するセンサデータ獲得ステップと、
前記センサデータ獲得ステップにおいて生成されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成ステップと、
前記特徴ベクトル生成ステップにおいて生成されたセンサデータの特徴ベクトルを、既に獲得された複数の特徴抽出マップに入力した時の結果に基づいて歩行状態を検出する歩行状態検出ステップと、
前記歩行状態検出ステップにおいて得られたセンサデータの特徴ベクトルの分布統計量に基づいて歩行状態の強度を算出する歩行状態強度算出ステップと、
を更に含むことを特徴とする。このように構成すれば、検出した歩行状態に応じて運動強度や消費カロリーを算出することができる。
本発明の請求項6によるセンサ搭載型携帯電話機による歩行状態検出方法は、請求項5において、
前記特徴ベクトル生成ステップにおいて生成されたセンサデータの特徴ベクトルを特徴抽出マップに入力した時の結果に基づいて追加学習の必要性を判断する追加学習判断ステップと、
前記追加学習判断ステップにおいて追加学習の必要性が判断された場合に、センサデータの特徴ベクトルと学習済の特徴抽出マップを用いて追加学習を行い、新たに特徴抽出マップを生成する特徴抽出マップ生成ステップと、
を更に含むことを特徴とする。このように構成すれば、個人の歩行形態の経年変化にも対応できる。
以上説明したように本発明は、センサ搭載型携帯電話機の携行方法に制約を与えることなく、個人の歩行形態に応じて歩行状態を検出することが可能で、さらには、歩行状態に応じて運動強度や消費カロリーを算出するとともに、個人の歩行形態の経年変化にも対応できるという効果がある。
以下、本発明の実施の形態を、図面を参照して説明する。以下の説明において参照する各図では、他の図と同等部分は同一符号によって示されている。
なお、以下の説明において、(→)が付加されている符号はそれがベクトルであることを示している。また、→が上に付加されている符号もそれがベクトルであることを示している。
(基本構成)
本発明の実施形態による歩行状態検出システムの構成について図1を参照して説明する。同図は、歩行状態検出システムの基本的な構成例を示すものである。
同図を参照すると、本システムは、ユーザAの状況(コンテキスト)を獲得するために必要な複軸センサデータを検出できる加速度センサを搭載した携帯端末200と、この携帯端末200に搭載された加速度センサから検出された複軸センサデータからユーザAの健康状態を健康管理情報として提供する健康アドバイス提供サーバ100とを含んで構成されている。なお、同図中のモバイルネットワークNWは、これらの間で信号授受を実現するためのネットワークであり、図示せぬ無線基地局装置、無線基地局制御装置等によって実現される。
図1中のユーザAの携帯端末200の内部構成例が図2に示されている。同図を参照すると、携帯端末200は、加速度センサから複軸センサデータを検出するセンサデータ獲得機能部21と、検出された複軸センサデータを健康アドバイス提供サーバ100へ送信するセンサデータ送信機能部22と、健康アドバイス提供サーバ100から送信されるユーザAの健康管理情報を受信して表示する情報受信機能部23とが搭載されている。この携帯端末200は、図示せぬCPU、通信部、メモリ、入出力操作部、表示部等、一般的な携帯電話端末としてのハードウェア構成を有しており、これらの構成によって上記の機能を実現している。
図1中の健康アドバイス提供サーバ100の内部構成例が図3に示されている。同図を参照すると、健康アドバイス提供サーバ100は、上記携帯端末200より送信された複軸センサデータを受信するセンサデータ受信機能部11と、このセンサデータ受信機能部11によって受信された複軸センサデータから信号パターン特徴ベクトルを抽出するセンサデータ解析機能部12と、事前に検出対象となる特定信号パターン特徴ベクトルを抽出し、そのデータを特定信号パターンデータベース101へ格納する特定信号パターン獲得機能部13と、センサデータ解析機能部12で抽出された信号パターン特徴ベクトルとデータベース101に格納されている特定信号パターン特徴ベクトルとを照合するセンサデータ照合機能部14と、センサデータ照合機能部14で照合された特定信号パターン特徴ベクトルを健康管理情報変換データベース102に基づいてプレゼンス情報に変換する健康管理情報変換機能部15と、変換された健康管理情報をユーザAのリクエストに応じて提供する健康管理情報送信機能部16とを含んで構成されている。この健康アドバイス提供サーバ100は、図示せぬCPU、通信部、メモリ、入出力部、表示部等、一般的なサーバ装置としてのハードウェア構成を有しており、これらの構成によって上記の機能を実現している。
(センサ搭載型携帯端末による歩行状態検出方法)
図1〜図3に示されている構成からなるシステムによって実現される、センサ搭載型携帯端末による歩行状態検出方法の具体的な処理の流れについて、以下説明する。
図4に示されているように、本検出方法による処理は、オフライン処理で学習を行う段階(C−1)及び段階(C−2)と、オンライン処理で実測を行う段階(C−3)と、経年変化に対応するための追加学習を行う段階(C−4)の4つの段階に大別することができる。
(C−1)
この段階は、質の良いデータを抽出する段階である。この段階では、辞書データD1を入力とし、前処理(S11)、特徴抽出処理(S12)、自己組織化学習(S13)、学習結果解析処理(S14)、基底センサデータ抽出処理(S15)を経て、特定信号パターン特徴マップ及び特定信号パターン発火確立マップからなるデータD2と、特定信号パターン基底センサデータD3とを導出する。
(C−2)
この段階は、上記の段階(C−1)で得たデータを基に、より質の良い辞書データを得る段階である。この段階では、上記段階(C−1)で得られた特定信号パターン基底センサデータD3を入力とし、擬似データ生成処理(S21)、特徴抽出処理(S22)、自己組織化学習(S23)、学習結果解析処理(S24)を経て、特定信号パターン基底センサデータD4を導出する。
(C−3)
この段階は、上記の段階(C−2)で得たデータを基に、実際の測定を行う段階である。この段階では、実測データD5を入力とし、前処理(S31)、特徴抽出処理(S32)、特定信号パターン検出処理(S33)、運動強度算出処理(S34)を経て、特定信号パターン分析結果データD6を導出する。
(C−4)
この段階は、上記の段階(C−3)で導出された特定信号パターン分析結果データD6について、自己組織化追加学習処理(S41)、学習結果解析処理(S42)、追加学習修正処理(S43)を経て、特定信号パターン分類用学習データD4を導出する。そして、導出された特定信号パターン分類用学習データD4を上記の段階(C−1)のデータD2、上記の段階(C−2)の特定信号パターン基底センサデータD4、にそれぞれフィードバックする。
以下、各段階について、図5〜図15を参照して詳細に説明する。
(質の良いデータの抽出)
図5は、図4中の段階(C−1)の詳細な処理内容を示す図である。
図4中の段階(C−1)中の前処理(S11)は図5中の処理(C−1−2)及び(C−1−3)に対応する。図4中の段階(C−1)中の特徴抽出処理(S12)は図5中の処理(C−1−4)から(C−1−7)までに対応する。図4中の段階(C−1)中の自己組織化学習処理(S13)は図5中の処理(C−1−8)に対応する。図4中の段階(C−1)中の学習結果解析処理(S14)は図5中の処理(C−1−9)及び(C−1−10)に対応する。図4中の段階(C−1)中の基底センサデータ抽出処理(S15)は図5中の処理(C−1−11)に対応する。以下、これらの処理の内容について説明する。
処理(C−1−1):ユーザAは複数軸センサデータが獲得できる加速度センサを搭載してある携帯端末を携行している。逐次、ユーザAの状況(コンテキスト)に応じて変動する複数軸センサデータ(加速度ベクトル)が獲得され、パケット通信でプレゼンス提供サーバへ送信される。
処理(C−1−2):プレゼンス提供サーバでは、ユーザAの携帯端末から送信された加速度ベクトルの時系列データを逐次受信する。時系列データとして受信される加速度ベクトル(→)a0(t)をデータ分割する。手法は限定されないが、ここでは、複数の時間窓
Figure 2007241867
を用意してデータ分割する。
処理(C−1−3):その後、データ補正処理を実施する。データ補正処理方法は加速度センサの用途によって異なるが、ここでは、Gaussianフィルターによるノイズ除去処理と、時間窓{tk}での加速度の正規化を行う。
続いて、センサデータ解析から特定信号パターンとの照合について述べる。
任意の姿勢で設置されたセンサから観測される時刻tでの実測データ加速度ベクトルを
(→)a0(t)=(a0x(t)、a0y(t)、a0z(t)) …(2)
理想的な姿勢で設置されたセンサから観測される時刻tにおける辞書データとなる加速度ベクトル(重力加速度も含む)を
(→)aD(t)=(aDX(t)、a0Y(t)、a0Z(t)) …(3)
とおく。
はじめに、辞書データとなる加速度ベクトル(→)aD(t)から歩行状態を表す特定信号パターンの特徴マップを作成する方法について説明する。
処理(C−1−4):まず、加速度ベクトル(→)aD(t)の特徴を解析するために基底関数展開することで時空間解像度レベルごとに時空間分解センサデータに分解する。ここでは局在波による関数展開であるMother WaveletをHarr関数とするWavelet Packet分解を利用する。上記の式(3)の両辺にWavelet Packet分解を施すと解像度レベルpでの加速度ベクトル(→)aD(t)は以下のように表せる。
Figure 2007241867
ここで、(→)u(pq) D(t)は、解像度レベルpのq番目の分解波形(基底関数)を表す。
処理(C−1−5):次に、これら分解波形である基底関数
(→)u(pq) D(t)=
((→)u(pq) x(t)、(→)u(pq) y(t)、(→)u(pq) z(t))
のうち、加速度ベクトル(→)aD(t)を表現するのに最良基底関数となる基底関数を選択する。そこで、以下の情報エントロピーコスト関数を定義する。
Figure 2007241867
式(5)の左辺を最小にするpとqとの組み合わせを選択する。これにより、情報エントロピーの増加を防ぎ(冗長な表現ではなく)、波形を正確に分解することができる。
さらに、選択された基底関数(→)u(pq) D_BN(t)の情報エントロピー
Figure 2007241867
がもっとも大きいものから選び、それらを順次加えていった和が全情報エントロピー(情報エントロピーの総和)に対して閾値TSoEに達するまでの基底関数を選択する。
処理(C−1−6):そして、最終的に得られた基底関数(→)u(pq) D_F(t)に基づいて辞書データの特徴ベクトル加速度ベクトル(→)XDを以下のように定義する。
Figure 2007241867
ここで、
Figure 2007241867
であり、直流成分X(i) D_BN(0)の項は用いない。
処理(C−1−7):また、このとき特徴ベクトルの分布統計量として、下記のモーメントを算出する、ここでは、分布統計量ベクトルを下記のベクトル(→)M((→)X0)として表す。
(→)M((→)X0)=(M(1)((→)X0)、M(2)((→)X0)、…、M(n)((→)X0))…(9)
Figure 2007241867
ただし、
Figure 2007241867
そして、辞書データとなる全ての加速度ベクトル(→)aD(t)について辞書データの特徴ベクトル(→)XDを求める。
処理(C−1−8):次に、特徴ベクトル(→)XDを入力ベクトルとして自己組織化アルゴリズムによって学習させる。ここでは、既に公知であるKohonenの自己組織化アルゴリズムを用いる。
処理(C−1−9):学習終了後に得られる自己組織化特徴マップのノード(i、j)における特徴ノードベクトル(→)VD (ij)に基づいて、辞書データの特徴ベクトルを入力した時に発火する特徴ノードベクトルとの対応関係を蓄積する。
ここで、自己組織化特徴マップの例が、図6〜図12に示されている。図6は、階段降り動作を行った場合の自己組織化特徴マップの例、図7は、階段昇り動作を行った場合の自己組織化特徴マップの例、図8は、早歩き動作を行った場合の自己組織化特徴マップの例、図9は、電車内歩行動作を行った場合の自己組織化特徴マップの例、図10は、電車着座動作を行った場合の自己組織化特徴マップの例、図11は、走行動作を行った場合の自己組織化特徴マップの例、図12は、平地歩行動作を行った場合の自己組織化特徴マップの例、である。これらは、その動作が行われている最中にいずれかのノードを発火させ、そのノード内に記載されている数値を上昇させたマップである。そして、1つのノードの数値を上昇させる場合、そのノードに隣接する近傍の6つのノードについても数値を上昇させる。このマッピング処理を所定周期(例えば、数秒周期)で繰返し行う。このようにマッピングすることにより、数値の大きなノードほど発火の頻度が高いことになる。すなわち、このマッピング処理によって、発火度数を把握することができる。
非特許文献1においては、自己組織化特徴マップのノードについて区分けを行い(すなわちクラスタリングを行い)、その区分けを固定しそれに従って処理を行っている。このため、図7〜図12のように発火ノードが比較的集中している場合には、非特許文献1に記載の技術を利用して処理を行っても問題無いが、図6のように発火ノードが分散している傾向がある場合には、非特許文献1に記載の技術を利用して処理を行うと正しいコンテキスト情報が得られない。
これに対し、本発明では、ノードの区分けを行わない。そして、ゆらぎのある質の悪いデータは学習対象とせず、質の良いデータのみを自己組織化特徴マップ中から抽出して学習対象とする。このため、図7〜図12のように発火ノードが比較的集中している場合はもちろん、図6のように発火ノードが分散している傾向がある場合でも、正しいコンテキスト情報が得られる。
処理(C−1−10):上記対応関係の蓄積結果に基づいて、特徴ノードベクトル(→)VD (ij)が発火した時に辞書データの特徴ベクトル(→)XDが歩行状態を表す特定信号パターンCnである確率P(ij)(Cn)を算出する。
Figure 2007241867
ここで、
Figure 2007241867
は特定信号パターンCnのうち特徴ノードベクトル(→)VD (ij)で発火する確率を、P(Cn)は特定信号パターンCnが発生する確率を表し、下記のように定義される。
Figure 2007241867
Figure 2007241867
ただし、
Figure 2007241867
はZが生じる個数を、(→)VD (ij)は特徴ノード(i、j)で特定信号パターンCnが生じる事象を表す。
そして、全ての特徴ノード(i、j)についての{(→)VD (ij)}を特定信号パターン特徴マップとして、{P(ij)(Cn)}を特定信号パターン発火確率マップとして獲得する。
処理(C−1−11):この時、P(ij)(Cn)が予め設定された閾値TPBを越えている特徴ノードを基底特徴ノードベクトル(→)VD (ij)として抽出する。さらに基底特徴ノードベクトル(→)VD (ij)を発火させた特徴ベクトル(→)XDを求め、それを算出する基となった加速度データを基底信号パターンセンサ信号(→)a(B) D(t)として抽出する。
(より質の良い辞書データの構築)
図13は、図4中の段階(C−2)の詳細な処理内容を示す図である。
図4中の段階(C−2)中の擬似データ生成処理(S21)は図13中の処理(C−2−1)に対応する。図4中の段階(C−2)中の特徴抽出処理(S22)は図13中の処理(C−2−2)から(C−2−5)までに対応する。図4中の段階(C−2)中の自己組織化学習処理(S23)は図13中の処理(C−2−6)に対応する。図4中の段階(C−2)中の学習結果解析処理(S24)は図13中の処理(C−2−7)及び(C−2−8)に対応する。以下、これらの処理の内容について説明する。
処理(C−2−1):次に基底信号パターン(→)a(B) D(t)から生成された擬似データである加速度ベクトル(→)a(D) D(t)から特定信号パターン特徴マップを作成する方法について説明する。
各軸のまわりに予め設定された角度α、β、γをそれぞれ独立にΔθ刻みで変えながら以下の式に従って基底信号パターン(→)a(B) D(t)を回転させることで(→)a(D) D(t)を生成する。
Figure 2007241867
そして、回転角の組み合わせ(α、β、γ)ごとに得られた擬似データ(→)a(D) D(t)を、前述の辞書データから特定信号パターン特徴マップと特定信号パターン発火確率マップを獲得したのと同様の手順で擬似データに関する特定信号パターン特徴マップ{(→)V(D) D (ij)}と特定信号パターン発火確率マップP(ij) (D)(Cn)を得る。
次に、実測データとなる加速度ベクトル(→)a0(t)から特定信号パターンを抽出する方法について説明する。
前述で辞書データから特定信号パターン特徴マップと特定信号パターン発火確率マップを獲得したのと同様の手順で、実測データとなる加速度ベクトル(→)a0(t)から特徴ベクトル(→)X0ならびに特徴ベクトルの分布統計量ベクトル(→)M((→)X0)を作成する。
処理(C−2−2):まず、加速度ベクトル(→)aD(t)の特徴を解析するために基底関数展開することで時空間解像度レベルごとに時空間分解センサデータに分解する。ここでは局在波による関数展開であるMother WaveletをHarr関数とするWavelet Packet分解を利用する。上記の式(3)の両辺にWavelet Packet分解を施すと解像度レベルpでの加速度ベクトル(→)aD(t)は上述した式(4)のように表せる。
処理(C−2−3):次に、これら分解波形である基底関数
(→)u(pq) D(t)=
((→)u(pq) x(t)、(→)u(pq) y(t)、(→)u(pq) z(t))
のうち、加速度ベクトル(→)aD(t)を表現するのに最良基底関数となる基底関数を選択する。そこで、上記式(5)により情報エントロピーコスト関数を定義し、式(5)左辺を最小にするpとqとの組み合わせを選択する。
さらに、選択された基底関数(→)u(pq) D_BN(t)の情報エントロピー(上述した式(6))がもっとも大きいものから選び、それらを順次加えていった和が全情報エントロピー(情報エントロピーの総和)に対して閾値TSoEに達するまでの基底関数を選択する。
処理(C−2−4):そして、最終的に得られた基底関数(→)u(pq) D_F(t)に基づいて辞書データの特徴ベクトル加速度ベクトル(→)XDを上記式(7)のように定義する。また、上記式(8)と同様であり、直流成分X(i) D_BN(0)の項は用いない。
処理(C−2−5):また、このとき特徴ベクトルの分布統計量として、下記のモーメントを算出する、ここでは、分布統計量ベクトルを上記式(9)、式(10)と同様にベクトル(→)M((→)X0)として表す。
そして、辞書データとなる全ての加速度ベクトル(→)aD(t)について辞書データの特徴ベクトル(→)XDを求める。
処理(C−2−6):次に、特徴ベクトル(→)XDを入力ベクトルとして自己組織化アルゴリズムによって学習させる。ここでは、既に公知であるKohonenの自己組織化アルゴリズムを用いる。
処理(C−2−7):学習終了後に得られる自己組織化特徴マップのノード(i、j)における特徴ノードベクトル(→)VD (ij)に基づいて、辞書データの特徴ベクトルを入力した時に発火する特徴ノードベクトルとの対応関係を蓄積する。自己組織化特徴マップの例は、すでに述べたので、その説明を省略する。
処理(C−2−8):上記対応関係の蓄積結果に基づいて、特徴ノードベクトル(→)VD (ij)が発火した時に辞書データの特徴ベクトル(→)XDが歩行状態を表す特定信号パターンCnである確率P(ij)(Cn)を上記式(12)によって算出する。
そして、全ての特徴ノード(i、j)についての{(→)VD (ij)}を特定信号パターン特徴マップとして、{P(ij)(Cn)}を特定信号パターン発火確率マップとして獲得する。
(実際の測定)
図14は、図4中の段階(C−3)の詳細な処理内容を示す図である。
図4中の段階(C−3)中の前処理(S31)は図14中の処理(C−3−2)及び(C−3−3)に対応する。図4中の段階(C−2)中の特徴抽出処理(S32)は図14中の処理(C−3−4)から(C−3−7)までに対応する。図4中の段階(C−3)中の特定信号パターン検出処理(S33)は図14中の処理(C−3−8)及び(C−3−9)に対応する。以下、これらの処理の内容について説明する。
処理(C−3−1):ユーザAは複数軸センサデータが獲得できる加速度センサを搭載してある携帯端末を携行している。逐次、ユーザAの状況(コンテキスト)に応じて変動する複数軸センサデータ(加速度ベクトル)が獲得され、パケット通信でプレゼンス提供サーバへ送信される。
処理(C−3−2):プレゼンス提供サーバでは、ユーザAの携帯端末から送信された加速度ベクトルの時系列データを逐次受信する。時系列データとして受信される加速度ベクトル(→)a0(t)をデータ分割する。手法は限定されないが、ここでは、複数の時間窓を上記式(1)にしたがって用意してデータ分割する。
処理(C−3−3):その後、データ補正処理を実施する。データ補正処理方法は加速度センサの用途によって異なるが、ここでは、Gaussianフィルターによるノイズ除去処理と、時間窓{tk}での加速度の正規化を行う。
続いて、センサデータ解析から特定信号パターンとの照合について述べる。
任意の姿勢で設置されたセンサから観測される時刻tでの実測データ加速度ベクトルを上記式(2)とし、理想的な姿勢で設置されたセンサから観測される時刻tにおける辞書データとなる加速度ベクトル(重力加速度も含む)を上記式(3)とおく。
はじめに、辞書データとなる加速度ベクトル(→)aD(t)から歩行状態を表す特定信号パターンの特徴マップを作成する方法について説明する。
処理(C−3−4):まず、加速度ベクトル(→)aD(t)の特徴を解析するために基底関数展開することで時空間解像度レベルごとに時空間分解センサデータに分解する。ここでは局在波による関数展開であるMother WaveletをHarr関数とするWavelet Packet分解を利用する。上記の式(3)の両辺にWavelet Packet分解を施すと解像度レベルpでの加速度ベクトル(→)aD(t)は上記(4)のように表せる。
ここで、(→)u(pq) D(t)は、解像度レベルpのq番目の分解波形(基底関数)を表す。
処理(C−3−5):次に、これら分解波形である基底関数
(→)u(pq) D(t)=
((→)u(pq) x(t)、(→)u(pq) y(t)、(→)u(pq) z(t))
のうち、加速度ベクトル(→)aD(t)を表現するのに最良基底関数となる基底関数を選択する。そこで、上記式(5)により情報エントロピーコスト関数を定義し、式(5)左辺を最小にするpとqとの組み合わせを選択する。
さらに、選択された基底関数(→)u(pq) D_BN(t)の情報エントロピー(上述した式(6))がもっとも大きいものから選び、それらを順次加えていった和が全情報エントロピー(情報エントロピーの総和)に対して閾値TSoEに達するまでの基底関数を選択する。
処理(C−3−6):そして、最終的に得られた基底関数(→)u(pq) D_F(t)に基づいて辞書データの特徴ベクトル加速度ベクトル(→)XDを上記式(7)のように定義する。また、上記式(8)と同様であり、直流成分X(i) D_BN(0)の項は用いない。
処理(C−3−7):また、このとき特徴ベクトルの分布統計量として、下記のモーメントを算出する、ここでは、分布統計量ベクトルを上記式(9)、式(10)と同様にベクトル(→)M((→)X0)として表す。
そして、辞書データとなる全ての加速度ベクトル(→)aD(t)について辞書データの特徴ベクトル(→)XDを求める。
処理(C−3−8):そして、この(→)X0を入力ベクトルとして、前述で生成された辞書データならびに回転角の組み合わせ(α、β、γ)ごとの擬似データに基づいた特定信号パターン特徴マップ{(→)V(Dk) D (ij)}と特定信号パターン発火確率マップ{P(ij) (Dk)(Cn)}に基づいて特定信号パターン発火確率P(ij)(Cn、(→)X0)を求める。
処理(C−3−9):そして、以下の条件を満たすCnが歩行状態を表す特定信号パターンとして検出される。
Figure 2007241867
処理(C−3−10):また、このとき運動強度を表す一つの尺度として消費カロリー
Figure 2007241867
を以下の式に基づき算出する。
Figure 2007241867
ここで、w(k)は、ある周波数帯kにおける運動強度の重み係数を表し、単位時間当たりの歩数とその時の消費カロリーの割合に基づいて予め定義しておく。
前記で検出された特定信号パターンCnと関連付けられている健康管理情報を健康管理データベースから検索する。なお。健康管理データベースは以下のデータ構造を有している。
Figure 2007241867
ユーザXの要求に対し健康アドバイス提供サーバは、ユーザXの健康管理情報として、歩行状態と消費カロリーの情報をユーザXに対して送信することができる。
(追加学習処理)
図15は、図4中の段階(C−4)の詳細な処理内容を示す図である。
図4中の段階(C−4)中の自己組織化追加学習処理(S41)は図15中の(C−4−1)及び(C−4−2)に対応する。図4中の段階(C−4)中の学習結果解析処理(S42)は図15中の(C−4−3)に対応する。図4中の段階(C−4)中の追加学習修正処理(S43)は図15中の(C−4−4)に対応する。以下、これらの処理の内容について説明する。
処理(C−4−1):ここでは、ユーザの歩行状態の経年変化に対応するための処理を行う。はじめに、歩行状態Cnを表す特定信号パターンとして検出された特徴ベクトル
Figure 2007241867
が以下の条件を満たす場合、追加学習用データ
Figure 2007241867
として保持する。
Figure 2007241867
処理(C−4−2):そして、追加学習用データ群
Figure 2007241867
が閾値以上蓄積されたら、学習済の特定信号パターン特徴マップ
Figure 2007241867
を初期状態、追加学習用データ群
Figure 2007241867
を入力データとして、再び自己組織化アルゴリズムに基づいて追加学習させる。
処理(C−4−3):追加学習させて得られる特定信号パターン特徴マップ
Figure 2007241867
を用いて、特定信号パターン発火確率マップP(ij) (D) Relearning(Cn)を算出する。
処理(C−4−4):そして、辞書データ、擬似データ、そして追加学習用データ群を入力データとして、追加学習前と追加学習後とで歩行状態の検出精度を比較する。そして、検出精度の高い特定信号パターン特徴マップならびに特定信号パターン発火確率マップを歩行状態検出用として用いる。このように経年変化を考慮してフィードバック処理によって検出精度のより高いマップを用いることで、ユーザの歩行状態の経年変化に対応する。
(実施例)
以上説明したセンサ搭載型携帯端末による歩行状態検出方法を実現するための、歩行状態検出システムの実施例の構成について、図16を参照して説明する。同図において、本例の特定信号パターン検出装置は、センサデータ抽出部(Sensory Data Extraction)100aと、センサデータ前処理部(Sensory Data Preprocessing)100bと、ウェブレットパケット分解部(Wavelet Packet Decomposition)100cと、最良基底関数選択部(Best Basis Function Selection Based on AIC)100dと、特徴パターン算出部(XYZ−Feature Pattern by composition of Entropy Distribution on each axis)100eと、特徴パターン算出部(XYZ−Feature Pattern by composition of Statistic Values of Entropy Distribution on each axis)100fと、自己組織化特徴マップ(Self−Organizing Feature Map(Training Stage))100gと、特定信号パターン発生確率マップ(Specific Patterns Occurrence Probabilities Map based on Best Matching Units)100hと、基底特徴パターン抽出部(Basis Feature Pattern Extraction)100iと、基底センサデータ抽出部(Basis Sensory Data Extraction)100jと、擬似センサデータ生成部(Pseudo−Sensory Data Generation)100kと、センサデータ抽出部(Sensory Data Extraction)100mと、自己組織化特徴マップ部(Self−Organizing Feature Map(Clustering Stage))100nと、特定信号パターン抽出部(Specific Patterns Extraction)100pと、辞書選択部(Select Dictionary)100rと、辞書特徴パターン抽出部(Dictionary Feature Map Extraction)100qと、カロリー計算部(calculate calorie)100sと、類似度算出部(Similarities between Feature Pattern and Best Matching Units)100tと、データ格納部(Storing good data for re-learning)100uとを含んで構成されている。
これらの構成において、センサデータ抽出部100aは、上述した処理(C−1−1)を行う。
センサデータ前処理部100bは、上述した処理(C−1−2)及び(C−1−3)、(C−3−2)及び(C−3−3)を行う。
ウェブレットパケット分解部100cは、上述した処理(C−1−4)、(C−2−2)及び(C−3−4)を行う。
最良基底関数選択部100dは、上述した処理(C−1−5)及び(C−2−3)、(C−3−5)を行う。
特徴パターン算出部100eは、上述した処理(C−1−6)、(C−2−4)及び(C−3−6)を行う。
特徴パターン算出部100fは、上述した処理(C−1−7)、(C−2−5)及び(C−3−7)を行う。
自己組織化特徴マップ100gは、上述した処理(C−1−8)及び(C−2−6)を行う。
特定信号パターン発生確率マップ100hは、上述した処理(C−1−9)及び(C−1−10)、(C−2−7)及び(C−2−8)を行う。
基底特徴パターン抽出部100i及び基底センサデータ抽出部100jは、上述した処理(C−1−11)を行う。
擬似センサデータ生成部100kは、上述した処理(C−2−1)を行う。
センサデータ抽出部100mは、上述した処理(C−3−1)を行う。
自己組織化特徴マップ部100nは、上述した処理(C−3−8)を行う。
特定信号パターン抽出部100pは、上述した処理(C−3−9)を行う。
類似度算出部100tは、上述した処理(C−4−1)を行う。
データ格納部100uは、上述した処理(C−4−2)を行う。
辞書選択部100rは、上述した処理(C−4−4)を行う。
カロリー計算部100sは、カロリーの計算を行う。
辞書特徴パターン抽出部100qは、辞書特徴マップを出力する処理を行う。
このように、上述した4つの段階(C−1)、(C−2)、(C−3)及び(C−4)を行うため、重複する処理については、その処理を行う構成要素をそれぞれ設けるのではなく、重複する処理に共通して1つの構成要素を設けている。例えば、上記ウェブレットパケット分解部100cは、上述した3回の処理(C−1−4)、(C−2−2)及び(C−3−4)に共通に設けられている。このように重複する処理に共通して1つの構成要素を設ければ、システムのハードウェア規模が増大することを防止できる。
なお、センサデータ抽出部100mは、図2中のセンサデータ獲得機能部21及びセンサデータ送信機能部22、並びに、図3中のセンサデータ受信機能部11に対応する。
また、センサデータ前処理部100b、ウェブレットパケット分解部100c、最良基底関数選択部100d、特徴パターン算出部100e、及び特徴パターン算出部100fは、図3中のセンサデータ解析機能部12に対応する。
さらに、センサデータ抽出部100a、センサデータ前処理部100b、ウェブレットパケット分解部100c、最良基底関数選択部100d、特徴パターン算出部100e、特徴パターン算出部100f、自己組織化特徴マップ100g、特定信号パターン発生確率マップ100h、及び辞書特徴パターン抽出部100qは、図3中のセンサデータ照合機能部14に対応する。
自己組織化特徴マップ部100nは、図3中の特定信号パターン獲得機能部13に対応する。
なお、健康アドバイス提供サーバ100で提供された健康管理情報すなわちカロリーの計算結果のデータは、ユーザAの携帯端末200に送信する他に、ユーザAの健康管理を行う医者等の管理者に送信してもよい。管理者に送信する場合、管理者が使用する携帯端末やパーソナルコンピュータに、ユーザAのプレゼンス情報を受信し表示するための情報受信機能部が設けられていればよい。
また、上述した図3又は図16中の構成要素の一部(すなわち機能の一部)を、携帯端末200内に設けても良い。これにより、健康アドバイス提供サーバ100の処理負荷を軽減することができる。
本発明は、加速度センサやジャイロセンサなど複数の軸の物理的な状態が検出できるセンサを搭載した携帯電話機を用いてユーザの歩行状態を検出するものであり、各個人の状況(コンテキスト)を認識するシステムに利用されるものであり、プレゼンスサービス、コンテキスト通信、コンテキストに基づくサービスナビゲーションならびに健康アドバイスサービスなどのヘルスケアの分野に利用することができる。
本発明の実施の形態による歩行状態検出システムの構成を示す図である。 図1中のユーザAの携帯端末の内部構成例を示す図である。 図1中の健康アドバイス提供サーバの内部構成例を示す図である。 センサ搭載型携帯端末による歩行状態検出方法の具体的な処理の流れを示す図である。 図4中の段階(C−1)の詳細な処理内容を示す図である。 階段降り動作を行った場合の自己組織化特徴マップの例を示す図である。 階段昇り動作を行った場合の自己組織化特徴マップの例を示す図である。 早歩き動作を行った場合の自己組織化特徴マップの例を示す図である。 電車内歩行動作を行った場合の自己組織化特徴マップの例を示す図である。 電車着座動作を行った場合の自己組織化特徴マップの例を示す図である。 走行動作を行った場合の自己組織化特徴マップの例を示す図である。 平地歩行動作を行った場合の自己組織化特徴マップの例を示す図である。 図4中の段階(C−2)の詳細な処理内容を示す図である。 図4中の段階(C−3)の詳細な処理内容を示す図である。 図4中の段階(C−4)の詳細な処理内容を示す図である。 センサ搭載型携帯端末による歩行状態検出方法を実現するための、歩行状態検出システムの実施例の構成を示す図である。
符号の説明
11 センサデータ受信機能部
12 センサデータ解析機能部
13 特定信号パターン獲得機能部
14 センサデータ照合機能部
15 健康管理情報変換機能部
16 健康管理情報送信機能部
21 センサデータ獲得機能部
22 センサデータ送信機能部
23 情報受信機能部
100 健康アドバイス提供サーバ
100a センサデータ抽出部
100b センサデータ前処理部
100c ウェブレットパケット分解部
100d 最良基底関数選択部
100e、100f 特徴パターン算出部
100g 自己組織化特徴マップ
100h 特定信号パターン発生確率マップ
100i 基底特徴パターン抽出部
100j 基底センサデータ抽出部
100k 擬似センサデータ生成部
100m センサデータ抽出部
100n 自己組織化特徴マップ部
100q 辞書特徴パターン抽出部
100r 辞書選択部
100s カロリー計算部
100t 類似度算出部
100u データ格納部
100p 特定信号パターン抽出部
101 特定信号パターンデータベース
102 健康管理情報変換データベース
200 携帯端末
A ユーザ

Claims (6)

  1. センサを搭載した携帯電話機を携行しているユーザの歩行状態を検出するセンサ搭載型携帯端末による歩行状態検出システムであって、
    検出したい複数種類の歩行状態のセンサデータを取得するセンサデータ取得手段と、(100a)
    前記センサデータ取得手段によって取得されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成手段と、(100b,100c,100d,100e,100f)
    前記特徴ベクトル生成手段によって生成されたセンサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得手段と、(100g,100h)
    前記特徴抽出マップ獲得手段によって獲得された特徴抽出マップから複数の歩行状態の基底センサデータを抽出する基底センサデータ抽出手段と、(100i,100j)
    前記基底センサデータ抽出手段によって取得された複数の歩行状態の基底センサデータを空間の各軸回りに回転することで擬似センサデータを生成する擬似センサデータ生成手段と、(100k)
    前記擬似センサデータ生成手段によって生成された擬似センサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成手段と、(100b,100c,100d,100e,100f)
    前記特徴ベクトル生成手段によって生成された擬似センサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得手段と、(100g,100h)
    を含むことを特徴とするセンサ搭載型携帯電話機による歩行状態検出システム。
  2. 任意の歩行状態のセンサデータを獲得するセンサデータ獲得手段と、(100m)
    前記センサデータ獲得手段によって生成されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成手段と、(100b,100c,100d,100e,100f)
    前記特徴ベクトル生成手段によって生成されたセンサデータの特徴ベクトルを、既に獲得された複数の特徴抽出マップに入力した時の結果に基づいて歩行状態を検出する歩行状態検出手段と、(100g,100n,100p)
    前記歩行状態検出手段によって得られたセンサデータの特徴ベクトルの分布統計量に基づいて歩行状態の強度を算出する歩行状態強度算出手段と、(100s)
    を更に含むことを特徴とする請求項1記載のセンサ搭載型携帯電話機による歩行状態検出システム。
  3. 前記特徴ベクトル生成手段によって生成されたセンサデータの特徴ベクトルを特徴抽出マップに入力した時の結果に基づいて追加学習の必要性を判断する追加学習判断手段と、(100t,100u)
    前記追加学習判断手段によって追加学習の必要性が判断された場合に、センサデータの特徴ベクトルと学習済の特徴抽出マップを用いて追加学習を行い、新たに特徴抽出マップを生成する特徴抽出マップ生成手段と、(100g,100h,100r,100q)
    を更に含むことを特徴とする請求項2記載のセンサ搭載型携帯電話機による歩行状態検出システム。
  4. センサを搭載した携帯電話機を携行しているユーザの歩行状態を検出するセンサ搭載型携帯端末を用いた歩行状態検出方法であって、
    検出したい複数種類の歩行状態のセンサデータを取得するセンサデータ取得ステップと、(C-1-1)
    前記センサデータ取得ステップにおいて取得されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成ステップと、(C-1-2, C-1-3, C-1-4, C-1-5, C-1-6, C-1-7)
    前記特徴ベクトル生成ステップにおいて生成されたセンサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得ステップと、(C-1-8, C-1-9, C-1-10)
    前記特徴抽出マップ獲得ステップにおいて獲得された特徴抽出マップから複数の歩行状態の基底センサデータを抽出する基底センサデータ抽出ステップと、(C-1-11)
    前記基底センサデータ抽出ステップにおいて取得された複数の歩行状態の基底センサデータを空間の各軸回りに回転することで擬似センサデータを生成する擬似センサデータ生成ステップと、(C-2-1)
    前記擬似センサデータ生成ステップにおいて生成された擬似センサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成ステップと、(C-2-1, C-2-2, C-2-3, C-2-4, C-2-5)
    前記特徴ベクトル生成ステップにおいて生成された擬似センサデータの特徴ベクトルを学習させて特徴抽出マップを獲得する特徴抽出マップ獲得ステップと、(C-2-6, C-2-7, C-2-8)
    を含むことを特徴とするセンサ搭載型携帯電話機による歩行状態検出方法。
  5. 任意の歩行状態のセンサデータを獲得するセンサデータ獲得ステップと、(C-3-1, C-3-2, C-3-3)
    前記センサデータ獲得ステップにおいて生成されたセンサデータを基底関数分解して得られた結果に基づいて特徴ベクトルを生成する特徴ベクトル生成ステップと、(C-3-4, C-3-5, C-3-6, C-3-7)
    前記特徴ベクトル生成ステップにおいて生成されたセンサデータの特徴ベクトルを、既に獲得された複数の特徴抽出マップに入力した時の結果に基づいて歩行状態を検出する歩行状態検出ステップと、(C-3-8, C-3-9)
    前記歩行状態検出ステップにおいて得られたセンサデータの特徴ベクトルの分布統計量に基づいて歩行状態の強度を算出する歩行状態強度算出ステップと、(C-3-10)
    を更に含むことを特徴とする請求項4記載のセンサ搭載型携帯電話機による歩行状態検出方法。
  6. 前記特徴ベクトル生成ステップにおいて生成されたセンサデータの特徴ベクトルを特徴抽出マップに入力した時の結果に基づいて追加学習の必要性を判断する追加学習判断ステップと、(C-4-1)
    前記追加学習判断ステップにおいて追加学習の必要性が判断された場合に、センサデータの特徴ベクトルと学習済の特徴抽出マップを用いて追加学習を行い、新たに特徴抽出マップを生成する特徴抽出マップ生成ステップと、(C-4-2, C-4-3, C-4-4)
    を更に含むことを特徴とする請求項5記載のセンサ搭載型携帯電話機による歩行状態検出方法。
JP2006066185A 2006-03-10 2006-03-10 センサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法 Active JP4897314B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006066185A JP4897314B2 (ja) 2006-03-10 2006-03-10 センサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006066185A JP4897314B2 (ja) 2006-03-10 2006-03-10 センサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法

Publications (3)

Publication Number Publication Date
JP2007241867A true JP2007241867A (ja) 2007-09-20
JP2007241867A5 JP2007241867A5 (ja) 2009-01-15
JP4897314B2 JP4897314B2 (ja) 2012-03-14

Family

ID=38587315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006066185A Active JP4897314B2 (ja) 2006-03-10 2006-03-10 センサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法

Country Status (1)

Country Link
JP (1) JP4897314B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014504932A (ja) * 2011-02-10 2014-02-27 ドーサヴィ ピーティーワイ. エルティーディー. 哺乳動物の体の向きを分類するための装置および方法
US9761118B2 (en) 2010-08-06 2017-09-12 Samsung Electronics Co., Ltd. Detecting apparatus and method, and mobile terminal apparatus having detecting apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1024026A (ja) * 1996-07-11 1998-01-27 Ricoh Co Ltd 携帯型情報処理装置
JP2003325490A (ja) * 2002-05-10 2003-11-18 Seiko Epson Corp 加重力測定機能付き携帯機器及び健康状態管理システム、並びに健康状態管理方法
JP2005114537A (ja) * 2003-10-07 2005-04-28 National Institute Of Advanced Industrial & Technology 歩行動作検出処理装置および歩行動作検出処理方法
WO2005096597A1 (ja) * 2004-03-30 2005-10-13 Sharp Kabushiki Kaisha 携帯情報処理装置、情報処理システム、携帯情報処理装置の制御方法、携帯情報処理装置の制御プログラムおよび記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1024026A (ja) * 1996-07-11 1998-01-27 Ricoh Co Ltd 携帯型情報処理装置
JP2003325490A (ja) * 2002-05-10 2003-11-18 Seiko Epson Corp 加重力測定機能付き携帯機器及び健康状態管理システム、並びに健康状態管理方法
JP2005114537A (ja) * 2003-10-07 2005-04-28 National Institute Of Advanced Industrial & Technology 歩行動作検出処理装置および歩行動作検出処理方法
WO2005096597A1 (ja) * 2004-03-30 2005-10-13 Sharp Kabushiki Kaisha 携帯情報処理装置、情報処理システム、携帯情報処理装置の制御方法、携帯情報処理装置の制御プログラムおよび記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9761118B2 (en) 2010-08-06 2017-09-12 Samsung Electronics Co., Ltd. Detecting apparatus and method, and mobile terminal apparatus having detecting apparatus
JP2014504932A (ja) * 2011-02-10 2014-02-27 ドーサヴィ ピーティーワイ. エルティーディー. 哺乳動物の体の向きを分類するための装置および方法
US10126108B2 (en) 2011-02-10 2018-11-13 dorsaVi Ltd Apparatus and method for classifying orientation of a body of a mammal

Also Published As

Publication number Publication date
JP4897314B2 (ja) 2012-03-14

Similar Documents

Publication Publication Date Title
Zhang et al. Human activity recognition based on motion sensor using u-net
JP4992043B2 (ja) 行動識別装置、行動識別システムおよび行動識別方法
Ghasemzadeh et al. Power-aware computing in wearable sensor networks: An optimal feature selection
Yang et al. Distributed recognition of human actions using wearable motion sensor networks
US9060714B2 (en) System for detection of body motion
Ghasemzadeh et al. Structural action recognition in body sensor networks: Distributed classification based on string matching
CN108171278B (zh) 一种基于运动训练数据的运动模式识别方法和系统
Zhang et al. A comprehensive study of smartphone-based indoor activity recognition via Xgboost
CN109102029B (zh) 信息最大化生成对抗网络模型合成人脸样本质量评估方法
JP5009543B2 (ja) 複軸センサからの特定信号パターン検出システム、複軸センサからの特定信号パターン検出方法
Mondal et al. Gait based personal identification system using rotation sensor
CN109665399A (zh) 一种矿井提升机无线传输的故障诊断系统及方法
Esfahani et al. PAMS: A new position-aware multi-sensor dataset for human activity recognition using smartphones
Lan et al. Estimating calorie expenditure from output voltage of piezoelectric energy harvester: an experimental feasibility study
Zheng et al. Meta-learning meets the Internet of Things: Graph prototypical models for sensor-based human activity recognition
Hussein et al. Reliable machine learning for wearable activity monitoring: Novel algorithms and theoretical guarantees
CN111160443B (zh) 一种基于深度多任务学习的活动和用户识别方法
Zhang et al. CSI-based location-independent human activity recognition using feature fusion
JP4897314B2 (ja) センサ搭載型携帯端末による歩行状態検出システム、センサ搭載型携帯端末による歩行状態検出方法
Zhu et al. Smartphone-based human activity recognition in buildings using locality-constrained linear coding
Cui et al. Cost-effective activity recognition on mobile devices
Guenterberg et al. A distributed hidden markov model for fine-grained annotation in body sensor networks
Kumari et al. Effect of reduced dimensionality on deep learning for human activity recognition
JP5297547B2 (ja) 複軸センサからの特定信号パターン検出システム、複軸センサからの特定信号パターン検出方法
Gerych et al. Gan for generating user-specific human activity data from an incomplete training corpus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111222

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4897314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250