JP2017070603A - 情報処理方法、情報処理装置及びプログラム - Google Patents

情報処理方法、情報処理装置及びプログラム Download PDF

Info

Publication number
JP2017070603A
JP2017070603A JP2015200571A JP2015200571A JP2017070603A JP 2017070603 A JP2017070603 A JP 2017070603A JP 2015200571 A JP2015200571 A JP 2015200571A JP 2015200571 A JP2015200571 A JP 2015200571A JP 2017070603 A JP2017070603 A JP 2017070603A
Authority
JP
Japan
Prior art keywords
parameters
parameter
movement
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015200571A
Other languages
English (en)
Other versions
JP6621134B2 (ja
Inventor
一鷹 井上
Kazutaka Inoue
一鷹 井上
木村 正人
Masato Kimura
正人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jin Co Ltd
Original Assignee
Jin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jin Co Ltd filed Critical Jin Co Ltd
Priority to JP2015200571A priority Critical patent/JP6621134B2/ja
Publication of JP2017070603A publication Critical patent/JP2017070603A/ja
Application granted granted Critical
Publication of JP6621134B2 publication Critical patent/JP6621134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】ユーザの体の状態を直感的に容易に把握させる。【解決手段】開示の技術における情報処理方法は、制御部を有するコンピュータが実行する情報処理方法であって、制御部は、表示対象のオブジェクトの移動周期、オブジェクトの傾き方向、及びオブジェクトの移動幅を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、体の状態に関する体パラメータを関連付けること、関連付けられた少なくとも2つの体パラメータを取得すること、少なくとも2つの体パラメータが取得される度に、各体パラメータの変動に基づいて各動きパラメータを更新すること、更新された各動きパラメータに基づくオブジェクトを画面に表示制御すること、を実行する。【選択図】図4

Description

本発明は、情報処理方法、情報処理装置及びプログラムに関する。
従来、歩行姿勢のレベルを判定し、判定された歩行姿勢のレベルをグラフで表示することが知られている(例えば、特許文献1参照)。
特開2011−78534号公報
しかしながら、従来技術は、歩行姿勢のレベルをグラフ化して表示するものであるため、歩行姿勢に限らず、ユーザの体の状態を直感的に容易に把握させるものではなかった。
そこで、開示技術は、ユーザの体の状態を直感的に容易に把握させることを目的とする。
開示技術の一態様における情報処理方法は、制御部を有するコンピュータが実行する情報処理方法であって、前記制御部は、表示対象のオブジェクトの移動周期、前記オブジェクトの傾き方向、及び前記オブジェクトの移動幅を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、体の状態に関する体パラメータを関連付けること、関連付けられた少なくとも2つの体パラメータを取得すること、前記少なくとも2つの体パラメータが取得される度に、各体パラメータの変動に基づいて各動きパラメータを更新すること、更新された各動きパラメータに基づくオブジェクトを画面に表示制御すること、を実行する。
開示技術によれば、ユーザの体の状態を直感的に容易に把握させることができる。
実施例における情報処理システムの一例を示す図である。 実施例における情報処理装置のハードウェア構成を示す概略構成図である。 実施例における処理装置の構成の一例を示すブロック図である。 実施例における情報処理装置の構成の一例を示す図である。 実施例における取得部の構成の一例を示すブロック図である。 実施例における表示制御部の構成の一例を示すブロック図である。 複数種類の生体情報のデータ例を示す図である。 各体パラメータのデータ例を示す図である。 アプリケーションの表示画面の第1例を示す図である。 アプリケーションの表示画面の第2例を示す図である。 アプリケーションの表示画面の第3例を示す図である。 アプリケーションの表示画面の第4例を示す図である。 実施例におけるアプリケーションの全体処理の一例を示すフローチャートである。 実施例における取得処理の一例を示すフローチャートである。 実施例における表示制御処理の一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
[実施例]
実施例では、加速度センサ及び角速度センサ、生体電極を搭載する対象として、アイウエアを例に挙げるが、これに限られない。図1は、実施例における情報処理システム1の一例を示す図である。図1に示す情報処理システム1は、外部装置10とアイウエア30とサーバ40を含み、外部装置10とアイウエア30とサーバ40は、ネットワークを介して接続され、データ通信可能になっている。
アイウエア30は、例えばテンプル部分に処理装置20を搭載する。処理装置20は、3軸加速度センサ及び3軸角速度センサ(6軸センサでもよい)を含む。また、アイウエア30は、一対のノーズパッド及びブリッジ部分にそれぞれ生体電極31、33、35を有してもよい。生体電極がアイウエア30に設けられる場合、生体電極から取得される眼電位信号は、処理装置20に送信される。
処理装置20は、センサ信号や眼電位信号等を外部装置10やサーバ40に送信する。処理装置20の設置位置は、必ずしもテンプルである必要はないが、アイウエア30が装着された際のバランスを考慮して位置決めされればよい。
外部装置10は、通信機能を有する情報処理装置である。例えば、外部装置10は、ユーザが所持する携帯電話及びスマートフォン等の携帯通信端末、PC(Personal Computer)、タブレット端末等である。外部装置10は、処理装置20から受信したセンサ信号に基づいて、ユーザの体の状態に対応する動きパラメータに基づいて動くオブジェクトを表示する。以下、外部装置10は、情報処理装置10と称して説明する。
サーバ40は、処理装置20からセンサ信号や眼電位信号等を取得し、記憶する。また、サーバ40は、必要に応じて外部装置10からのリクエストに応じ、センサ信号等を外部装置10に送信する。また、サーバ40は、センサ信号等を用いて、所定基準に従って、体の状態を示す1又は複数種類の体パラメータを算出してもよい。
<情報処理装置10のハードウェア構成>
図2は、実施例における情報処理装置10のハードウェア構成を示す概略構成図である。情報処理装置10の典型的な一例は、スマートフォンなどの携帯電話であるが、この他、ネットワークに無線又は有線接続可能な携帯端末、あるいはタブレット型端末のようなタッチパネルを搭載した電子機器など、ネットワークを使って通信しながらデータ処理しつつ画面表示可能な汎用機器なども実施形態における情報処理装置10に該当しうる。
実施形態における情報処理装置10は、例えば、図示しない矩形の薄形筐体を備え、その筐体の一方の面には、タッチパネル102が構成される。情報処理装置10では、各構成要素が主制御部150に接続されている。主制御部150は、例えばプロセッサである。
主制御部150には、移動体通信用アンテナ112、移動体通信部114、無線LAN通信用アンテナ116、無線LAN通信部118、記憶部120、スピーカ104、マイクロフォン106、ハードボタン108、ハードキー110及び6軸センサ111が接続されている。また、主制御部150には、さらに、タッチパネル102、カメラ130、及び外部インターフェース140が接続されている。外部インターフェース140は、音声出力端子142を含む。
タッチパネル102は、表示装置及び入力装置の両方の機能を備え、表示機能を担うディスプレイ(表示画面)102Aと、入力機能を担うタッチセンサ102Bとで構成される。ディスプレイ102Aは、例えば、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどの一般的な表示デバイスにより構成される。タッチセンサ102Bは、ディスプレイ102Aの上面に配置された接触操作を検知するための素子及びその上に積層された透明な操作面を備えて構成される。タッチセンサ102Bの接触検知方式としては、静電容量式、抵抗膜式(感圧式)、電磁誘導式など既知の方式のうちの任意の方式を採用することができる。
表示装置としてのタッチパネル102は、主制御部150によるプログラム122の実行により生成されるアプリケーションの画像を表示する。入力装置としてのタッチパネル102は、操作面に対して接触する接触物(プレイヤの指やスタイラスなどを含む。以下、「指」である場合を代表例として説明する。)の動作を検知することで、操作入力を受け付け、その接触位置の情報を主制御部150に与える。指の動作は、接触点の位置または領域を示す座標情報として検知され、座標情報は、例えば、タッチパネル102の短辺方向及び長辺方向の二軸上の座標値として表される。
記憶部120は、プログラム122を記憶する。このプログラム122は、ユーザの体の状態に対応する動きパラメータに基づくオブジェクトを表示制御する機能として、コンピュータにより実行される。この記憶部120は、外部装置10と別体であってもよく、例えば、SDカードやCD−RAM等の記録媒体であってもよい。
情報処理装置10は、移動体通信用アンテナ112や無線LAN通信用アンテナ116を通じてネットワークNに接続され、処理装置20やサーバ40との間でデータ通信をすることが可能である。
<処理装置20の構成>
図3は、実施例における処理装置20の構成の一例を示すブロック図である。図3に示すように、処理装置20は、処理部202、送信部204、6軸センサ206、及び電源部208を有する。また、各生体電極31、33、35は、例えば増幅部を介して電線を用いて処理部202に接続される。なお、処理装置20の各部は、一方のテンプルに設けられるのではなく、一対のテンプルに分散して設けられてもよい。
6軸センサ206は、3軸加速度センサ及び3軸角速度センサである。また、これらの各センサは別個に設けられてもよい。6軸センサ206は、検出したセンサ信号を処理部202に出力する。
処理部202は、例えばプロセッサであり、6軸センサ206から得られるセンサ信号や、生体電極から得られる眼電位信号を必要に応じて処理し、送信部204に出力する。例えば、処理部202は、6軸センサ206からのセンサ信号を用いて、歩行(走行含む)や姿勢に関する生体情報を算出する。また、処理部202は、6軸センサ206から得られるセンサ信号を増幅等するだけでもよい。以下では、情報処理装置10において、生体情報を算出する例を用いて説明するが、処理装置20又はサーバ40により算出されてもよい。
送信部204は、センサ信号を情報処理装置10やサーバ40に送信する。例えば、送信部204は、Bluetooth(登録商標)及び無線LAN等の無線通信、又は有線通信によってセンサ信号又は生体情報を情報処理装置10やサーバ40に送信する。電源部208は、処理部202、送信部204、6軸センサ206等に電力を供給する。
<情報処理装置10の構成>
次に、情報処理装置10の構成について説明する。図4は、実施例における情報処理装置10の構成の一例を示す図である。情報処理装置10は、記憶部302、通信部304、及び制御部306を有する。
記憶部302は、例えば、図2に示す記憶部120等により実現されうる。記憶部302は、実施例における体の状態を示すオブジェクトを表示するための処理を実行するアプリケーションに関するデータ等を記憶する。アプリケーションに関するデータは、例えば、処理装置20又はサーバ40から受信したデータや、画面に表示される画面情報等である。また、記憶部302は、オブジェクトの動きを制御するための各動きパラメータを記憶する。
通信部304は、例えば移動体通信部114や無線LAN通信部118等により実現されうる。通信部304は、例えば処理装置20又はサーバ40からデータを受信する。また、通信部304は、情報処理装置10において処理されたデータをサーバ40に送信したりしてもよい。すなわち、通信部304は、送信部と受信部としての機能を有する。
制御部306は、例えば主制御部150等により実現されうる。制御部306は、アプリケーションを実行する。実施例におけるアプリケーションは、1又は複数種類のセンサ信号に基づいて算出された各体パラメータを取得し、各体パラメータに関連付けられた各動きパラメータにより移動又は回転等されるオブジェクトを画面に表示する機能を有する。この機能を実現するため、制御部306は、関連付け部312、取得部314、及び表示制御部316を有する。
関連付け部312は、表示対象のオブジェクトの移動周期、オブジェクトの傾き方向、及びオブジェクトの移動幅を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、体の状態に関する体パラメータを関連付ける。
関連付けられる各体パラメータは、ムーブメント(Movement)に関する第1体パラメータと、ポスチャー(Posture)に関する第2体パラメータと、スタビリティ(Stability)に関する第3体パラメータとを含む。
ムーブメントに関する第1体パラメータは、例えば、ユーザの運動、活動等を示すパラメータであり、歩数等に基づいて算出される。ポスチャーに関する第2体パラメータは、例えば、ユーザの姿勢、姿態等を示すパラメータであり、進行方向における横方向(ロール)のブレと、前後方向(ピッチ)のブレ等に基づいて算出される。スタビリティに関する第3体パラメータは、例えば、ユーザの体の安定性、固定性、持続性等を示すパラメータであり、進行方向における横方向のブレ幅、前後方向のブレ幅に基づいて算出される。
関連付け部312は、一度関連付けを行うと、以降、その関連付けの内容を用いてもよいし、ユーザ設定に応じて、適宜関連付けの内容を変更してもよい。
取得部314は、関連付け部312により関連付けられている各体パラメータを取得する。取得部314は、サーバ40等により算出され、送信された各体パラメータを取得したり、処理装置20等により送信されたセンサ信号に基づいて、各体パラメータを算出して取得したりしてもよい。取得部314の詳細は、図5を用いて後述する。
表示制御部316は、取得部314により各体パラメータが取得される度に、この各体パラメータの変動に基づいて各動きパラメータを更新し、更新した各動きパラメータに基づくオブジェクトを画面に表示制御する。表示制御部316の詳細は、図6を用いて後述する。
以上の処理によれば、各体パラメータに応じて、オブジェクトの移動周期、傾き方向、及び移動幅が動的に変更されるオブジェクトが表示されるので、ユーザ自身の体の状態がどのような状態にあるのかを直感的に容易に把握させることができる。
また、関連付け部312は、オブジェクトの移動周期を示す第1動きパラメータに、第1体パラメータを関連付け、オブジェクトの傾き方向を示す第2動きパラメータに、第2体パラメータを関連付け、オブジェクトの移動幅を示す第3動きパラメータに、第3体パラメータを関連付けてもよい。
これにより、オブジェクトの移動周期の速さを用いてムーブメントを示すため、周期が短いほどムーブメントが大きく、周期が長いほどムーブメントが小さいことを、より直感的に表現することができる。また、オブジェクトの傾き方向を用いてポスチャーを示すため、オブジェクトが傾くほどポスチャーが悪く、オブジェクトが傾かないほどポスチャーが良いことを、より直感的に表現することができる。例えば、傾き方向は、体(例えば頭)の傾き方向を示す。また、オブジェクトの移動幅を用いてスタビリティを示すため、移動幅が大きいほど体が安定(固定)しておらず、移動幅が小さいほど体が安定していることを、より直感的に表現することができる。以上より、ユーザの体の状態をより直感的に容易に把握させることができる。
≪取得部≫
次に、取得部314の詳細について説明する。図5は、実施例における取得部314の構成の一例を示すブロック図である。図5に示す取得部314は、生体情報取得部3142と、算出部3144とを含む。
生体情報取得部3142は、処理装置20又はサーバ40から、1又は複数のセンサ信号を取得する。例えば、生体情報取得部3142は、アイウエア30に設けられた加速度センサ等から取得されたセンサ信号に基づく生体情報を取得してもよい。
生体情報を取得するタイミングは、定期的でもよいし、情報処理装置10側から処理装置20又はサーバ40に取得要求を出した時でもよい。例えば、複数種類の生体情報は、歩数に関する第1生体情報、早歩き時の歩数に関する第2生体情報、ピッチの平均に関する第3生体情報、ピッチ幅の平均に関する第4生体情報、ロールの平均に関する第5生体情報、及びロール幅の平均に関する第6生体情報を含む。
算出部3144は、第1生体情報及び第2生体情報に基づいて第1体パラメータを算出し、第3生体情報及び第4生体情報に基づいて第2体パラメータを算出し、第5生体情報及び第6生体情報に基づいて第3体パラメータを算出する。
より具体的には、算出部3144は、所定時間内の歩数及び早歩き歩数をパラメータとする関数に基づいて第1体パラメータを算出する。また、算出部3144は、ピッチ及びロールそれぞれの平均値をパラメータとする関数に基づいて第2体パラメータを算出する。また、算出部3144は、ピッチ幅及びロール幅それぞれの平均値をパラメータとする関数に基づいて第3体パラメータを算出する。
次に、第1〜第3体パラメータの算出アルゴリズムの一例について説明する。算出部3144は、第1〜第3体パラメータそれぞれについて、直近60分単位で0〜100の値を算出する。
(第1体パラメータ)
ムーブメント(Movement):歩数に関する第1生体情報及び早歩き時の歩数に関する第2生体情報を用いて、歩数が多いほど、かつ全体の歩数のうち早歩きの歩数が多いほど値が100に近くなる関数により算出される値
一般的に、歩数が多いほど運動量は高いが、歩数が多いだけでは運動量はそこまで高くはなく、歩く中でも早歩きが多いほど運動量は高くなると言われている。この考えに基づき、ムーブメントの関数が設定されればよい。
(第2体パラメータ)
ポスチャー(Posture)=(SittingPosture×時間1+WalkingPosture×時間2)/60
時間1:歩数が5歩以下の時間(単位:分)
時間2:歩数が6歩以上の時間(単位:分)
SittingPosture:ピッチの平均値及びロールの平均値を用いて、体が前後又は左右に動かないほど値が100に近くなる関数により算出される値
WalkingPosture:歩行時のピッチの平均値及びロールの平均値を用いて、体が前後又は左右に動かないほど値が100に近くなる関数により算出される値
(第3体パラメータ)
スタビリティ(Stability):ピッチ幅の平均値及びロール幅の平均値を用いて、体の前後の振れ幅、及び左右の振れ幅が小さいほど値が100に近くなる関数により算出された値
また、算出部3144は、第1〜第3体パラメータに基づいて、総合的な点数を算出することができる。総合的な点数を、以下では体年齢と称す。体年齢が低い(若い)ほど、ユーザが姿勢よく機敏に動いていることを示し、体年齢が高いほど、ユーザが動きが鈍く姿勢が悪いことを示す。算出部3144は、直近の60分間の各パラメータの得点に対し、以下の式により体年齢を算出する。
体年齢=((20+(100−ムーブメントの得点)/2)+(20+(100−ポスチャーの得点)/2)+(20+(100−スタビリティの得点)/2))/3
なお、上記算出例はあくまでも一例であって、算出部3144は、各体パラメータが所定の関数等により定義されている場合、その関数等を用いて、パラメータ値を求めてもよい。
≪表示制御部≫
次に、表示制御部316の詳細について説明する。図6は、実施例における表示制御部316の構成の一例を示すブロック図である。図6に示す表示制御部316は、パラメータ更新部3162と、変形部3164とを含む。
パラメータ更新部3162は、取得部314(例えば算出部3144)により算出された第1〜第3体パラメータを取得し、各体パラメータに基づいて各動きパラメータを更新する。パラメータ更新部3162は、第1〜第3体パラメータが取得される度に、各動きパラメータを更新する。パラメータ更新部3162は、各体パラメータの値に応じて各動きパラメータの値が決定されるような関数やテーブルを準備しておけばよい。
変形部3164は、画面に表示されているオブジェクトを、パラメータ更新部3162により更新された第1〜第3動きパラメータに基づいて移動又は回転させる。これにより、第1〜第3体パラメータが取得される度に、更新された第1〜第3動きパラメータに基づいて動くオブジェクトが画面に表示されるため、ユーザはオブジェクトの動きを把握することで、自身の体の状態を直感的に容易に把握することができる。
<データ例>
次に、実施例におけるアプリケーションに用いられる各種データの例について説明する。図7は、複数種類の生体情報のデータ例を示す図である。図7に示す例では、横軸に歩数、早歩き時の歩数、ピッチ平均、ピッチ幅の平均、ロール平均、及びロール幅の平均が設定され、縦軸に単位時間(例えば1分)における時系列のデータが設定される。なお、ピッチは、進行方向における左右のブレを表し、ロールは、前後(上下)方向のブレを表す。
歩数は、所定時間(例えば、1分間)における、加速度センサからの鉛直方向のセンサ値に基づき算出される歩数を表す。早歩き時の歩数(早歩数)は、所定時間(例えば、1分間)における、加速度センサからの鉛直方向のセンサ値に基づき算出される、歩行周期が所定値以上の場合の歩数を表す。ピッチ平均及びピッチ幅平均は、例えば、加速度センサ及び角速度センサからのセンサ信号から求められたピッチの平均値及びピッチ幅の平均値を表す。ロール平均及びロール幅平均は、加速度センサ及び角速度センサからのセンサ信号から求められたロールの平均値及びピッチ幅の平均値を表す。
各データは、処理装置20、サーバ40、及び情報処理装置10のいずれかにより算出されればよい。また、各データは、分散して各装置で算出されてもよい。例えば歩数、早歩き時の歩数については、情報処理装置10により算出され、ピッチ及びロールに関しては、処理装置20により算出されてもよい。図7に示すデータは、例えば、記憶部302に記憶される。
図8は、各体パラメータのデータ例を示す図である。図8に示す例では、横軸にムーブメント、ポスチャー、及びスタビリティが設定され、縦軸に単位時間(例えば1分)における時系列のデータが設定される。
ムーブメント、ポスチャー、及びスタビリティは、例えば、上述した算出式により、単位時間(例えば、直近60分)ごとの得点が記憶される。図8に示すデータは、例えば、記憶部302に記憶される。
<画面例>
次に、実施例におけるアプリケーションの画面例について説明する。図9は、アプリケーションの表示画面の第1例を示す図である。図9に示す画面には、例えば、オブジェクトG10が表示される。図9に示す場合、オブジェクトG10は、立体的な球をモデル化したオブジェクトであり、縦と横に基準線が描画される。ユーザは、この基準線により、その交点における仮想的な球上の法線を基準方向として、オブジェクトの傾き方向及び傾き量を把握することができる。なお、実際の画面では、オブジェクトG10が所定周期で横の移動T10、縦の移動幅T12に基づいて弾むように繰り返し動いているが、図9に示す画面は、その動きのうちの一時点のものを示す画面である。
ここで、オブジェクトG10は、上述したように任意方向に弾むような動きの移動周期が設定されており、この移動周期は、第1体パラメータの値によって決まる。例えば、第1体パラメータの値が大きければ(例、運動量が大きければ)、オブジェクトG10の移動周期がより短くなる(早くなる)。
また、オブジェクトG10は、基準線により傾きを表現することが可能であり、傾きの方向や傾き量は、第2体パラメータの値によって決まる。例えば、第2体パラメータの値が大きければ(例、ポスチャーの値が大きければ)、オブジェクトG10がより傾くように表示される。また、オブジェクトG10は、ユーザが倒れている方向に対応する方向に、より傾くようにする。
また、オブジェクトG10は、横の移動幅T10及び縦の移動幅T12が設定されており、これらの移動幅は、第3体パラメータの値によって決まる。例えば、第3体パラメータの値が大きければ(例、安定性が高ければ)、オブジェクトG10の移動幅がより狭くなる。なお、移動幅T10及び移動幅T12において、オブジェクトG10の現在位置が分かるように黒丸が表示される。
また、オブジェクトG10の中心部分には、各体パラメータを用いて算出される体年齢A10が表示される。図9に示す例では、体年齢A10は45歳である。
図9に示す例では、表示画面の下部に、第1体パラメータ(Movement)P1、第2体パラメータA(Posture V)P2、第2体パラメータB(Posture H)、及び第3体パラメータ(Stability)P4が表示される。それぞれの体パラメータは、スライドバーを用いて、各値V10、V12、V14、V16が表示される。図9に示す例では、ムーブメント及びポスチャーVの値が小さいため、体年齢A10は、良い値ではない。なお、第2体パラメータAは、ピッチに関するパラメータであり、第2パラメータBは、ロールに関するパラメータである。これらの第2体パラメータは、1つにまとめられてもよい。
図10は、アプリケーションの表示画面の第2例を示す図である。図10に示す画面例において、例えば、図10に示すオブジェクトG20は、図9に示すオブジェクトG10と同じ動きパラメータであるが、表示される一時点が異なるため、その表示位置が異なる。なお、図9及び図10に示す画面は、ユーザが不自然な姿勢でデスクワークをし続けているときに表示される画面の例である。
図11は、アプリケーションの表示画面の第3例を示す図である。図11に示す画面例は、例えば、ユーザが所定距離以上歩いている状態を示すオブジェクトG30が表示される。
図11に示すように、ユーザは運動中であるため、第1体パラメータP1の値V30は大きく、ユーザは姿勢よく歩いているため、第2体パラメータP2、P3の値V32、V34も比較的大きく、第3体パラメータP4の値V36も大きい。
図11に示す各体パラメータP1、P2、P3、P4の各値に基づき、オブジェクトG30が形成され、表示される。第1体パラメータP1の値V30が大きいことにより、オブジェクトG30の移動周期はより短くなる。また、第2体パラメータP2、P3の値V32、V34が比較的大きいことにより、オブジェクトG40はそれほど傾かない。
図11に示す例では、第1体パラメータP1の値V30と、第2体パラメータP2、P3の値V32、V34と、第3体パラメータP4の値V36とが用いられ、算出された頭年齢A30「22歳」が画面に表示される。
図12は、アプリケーションの表示画面の第4例を示す図である。図12に示す画面例において、例えば、図12に示すオブジェクトG40は、図11に示すオブジェクトG30と同じ動きパラメータであるが、表示される一時点が異なるため、その表示位置等が異なる。
以上の画面が表示制御部316により表示されることで、ユーザは、オブジェクトの動きにより、自身の体の状態を容易に把握することができる。さらに、画面に体年齢が表示されることで、数値を用いて、ユーザの体の状態を迅速に把握させることができる。
<動作>
次に、実施例における情報処理装置10の動作について説明する。図13は、実施例におけるアプリケーションの全体処理の一例を示すフローチャートである。
図13に示すステップS102で、関連付け部312は、表示対象のオブジェクトの移動周期、オブジェクトの傾き方向、及びオブジェクトの移動幅を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、体の状態に関する体パラメータを関連付ける。この処理は、体の状態を示すオブジェクトを表示する前に事前に行われる処理である。この関連付けは、一度行われれば、その内容を記憶しておき、その内容が用いられればよい。
ステップS104で、取得部314は、1又は複数種類の生体情報に基づく、関連付けられた各体パラメータを取得する。この取得処理は、図14を用いて説明する。
ステップS106で、表示制御部316は、少なくとも2つの体パラメータが取得される度に、各体パラメータの変動に基づいて動くオブジェクトを画面に表示制御する。この表示制御処理は、図15を用いて説明する。
ステップS108で、制御部306は、このアプリケーションの終了が指示されたか否かを判定する。終了指示があれば(ステップS108−YES)、処理はステップS104に戻り、終了指示がなければ(ステップS108−ON)、処理は終了する。
図14は、実施例における取得処理の一例を示すフローチャートである。図14に示すステップS202で、生体情報取得部3142は、処理装置20又はサーバ40から1又は複数種類の生体情報を取得する。生体情報は、例えば、歩数に関する生体情報や、ピッチ及びロールに関する生体情報である。
ステップS204で、算出部3144は、取得された1又は複数種類の生体情報に基づいて、1又は複数種類の体パラメータを算出する。実施例では、算出部3144は、ムーブメント、ポスチャー、スタビリティに関する各体パラメータを、所定の算出式等を用いることで算出する。算出された各体パラメータは、表示制御部316に出力される。
図15は、実施例における表示制御処理の一例を示すフローチャートである。図15に示すステップS302で、パラメータ更新部3162は、算出された各体パラメータを取得し、取得した各体パラメータに基づいて各動きパラメータを更新する。
ステップS304で、変形部3164は、パラメータ更新部3162により更新された各動きパラメータに基づいて、オブジェクトの移動周期や、傾き、移動幅等を決定し、決定された内容に基づいてオブジェクトを表示制御する。
なお、図13〜15で説明した処理のフローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。
以上、実施例によれば、ユーザの体の状態がどのような状態にあるのかを直感的に容易に把握させることができる。
なお、実施例において、アイウエア30がメガネである場合について説明した。しかし、アイウエアはこれに限定されない。アイウエアは、眼に関連する装具であればよく、メガネ、サングラス、ゴーグル及びヘッドマウントディスプレイならびにこれらのフレームなどの顔面装着具又は頭部装着具であってよい。
なお、実施例において、アイウエア30が生体電極を設けてもよいことを説明したが、この生体電極から取得できる眼電位信号に基づいて、視線移動や瞬目を検出してもよい。このとき、6軸センサ206から取得できる各データと、視線移動や瞬目とが関連付けて記憶されてもよい。これにより、運動時の瞬目や視線移動を分析することが可能になる。
なお、実施例において、算出部3144により算出された頭年齢が表示されることを説明したが、情報処理装置10のスピーカ104又は振動部(不図示)が、頭年齢が所定値以下又は未満の場合、算出された頭年齢をユーザに報知してもよい。これにより、ユーザは、自身が疲れていることを知ることができる。
なお、実施例において、アイウエア30に搭載された6軸センサ206からのセンサ信号を用いて説明したが、情報処理装置10に搭載された6軸センサ111からのセンサ信号を用いても、実施例において説明したアプリケーションを実行することが可能である。すなわち、6軸センサは頭部だけではなく、人体のいずれかの位置に装着されていればよい。
また、実施例において、生体情報として、歩数やピッチ、ロール等を用いて説明したが、これら以外にも、瞬目、視線移動、心拍、脈拍等の生体情報を用いてもよい。また、体パラメータとして、ムーブメント、ポスチャー、スタビリティを用いて説明したが、その他の体の状態をパラメータとして用いてもよい。
以上、本発明について実施例を用いて説明したが、本発明の技術的範囲は上記実施例に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
10 情報処理装置
20 処理装置
30 アイウエア
40 サーバ
302 記憶部
304 通信部
306 制御部
312 関連付け部
314 取得部
316 表示制御部

Claims (5)

  1. 制御部を有するコンピュータが実行する情報処理方法であって、
    前記制御部は、
    表示対象のオブジェクトの移動周期、前記オブジェクトの傾き方向、及び前記オブジェクトの移動幅を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、体の状態に関する体パラメータを関連付けること、
    関連付けられた少なくとも2つの体パラメータを取得すること、
    前記少なくとも2つの体パラメータが取得される度に、各体パラメータの変動に基づいて各動きパラメータを更新すること、
    更新された各動きパラメータに基づくオブジェクトを画面に表示制御すること、
    を実行する情報処理方法。
  2. 前記体パラメータは、ムーブメントに関する第1体パラメータと、ポスチャーに関する第2体パラメータと、スタビリティに関する第3体パラメータとを含み、
    前記関連付けることは、
    前記オブジェクトの移動周期を示す第1動きパラメータに、前記第1体パラメータを関連付け、前記オブジェクトの傾き方向を示す第2動きパラメータに、前記第2体パラメータを関連付け、前記オブジェクトの移動幅を示す第3動きパラメータに、前記第3体パラメータを関連付ける、請求項1に記載の情報処理方法。
  3. 前記取得することは、
    加速度センサ及び角速度センサからのセンサ信号を取得し、
    前記センサ信号に基づき前記体パラメータを取得する、請求項2に記載の情報処理方法。
  4. オブジェクトの移動周期、前記オブジェクトの傾き方向、及び前記オブジェクトの移動幅を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、体の状態を示す体パラメータを関連付ける関連付け部と、
    関連付けられた少なくとも2つの体パラメータを取得する取得部と、
    前記少なくとも2つの体パラメータが取得される度に、各体パラメータの変動に基づいて各動きパラメータを更新し、更新された各動きパラメータに基づくオブジェクトを画面に表示制御する表示制御部と、
    を有する情報処理装置。
  5. コンピュータに、
    オブジェクトの移動周期、前記オブジェクトの傾き方向、並びに前記オブジェクトの移動幅を示す各動きパラメータのうち、少なくとも2つの動きパラメータに、該動きパラメータそれぞれを用いて表現可能な体の状態を示す体パラメータを関連付けること、
    関連付けられた少なくとも2つの体パラメータを取得すること、
    前記少なくとも2つの体パラメータが取得される度に、各体パラメータに基づいて各動きパラメータを更新すること、
    更新された各動きパラメータに基づくオブジェクトを画面に表示制御すること、
    を実行させるプログラム。
JP2015200571A 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム Active JP6621134B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015200571A JP6621134B2 (ja) 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200571A JP6621134B2 (ja) 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017070603A true JP2017070603A (ja) 2017-04-13
JP6621134B2 JP6621134B2 (ja) 2019-12-18

Family

ID=58538832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200571A Active JP6621134B2 (ja) 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6621134B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (ja) * 1996-07-03 1998-05-06 Hitachi Ltd 動作及び行動の認識方法及び装置及びシステム
US20120190505A1 (en) * 2011-01-26 2012-07-26 Flow-Motion Research And Development Ltd Method and system for monitoring and feed-backing on execution of physical exercise routines
JP2014124448A (ja) * 2012-12-27 2014-07-07 Casio Comput Co Ltd 運動情報表示システムおよび運動情報表示方法、運動情報表示プログラム
CN104190065A (zh) * 2014-08-31 2014-12-10 陆俊 一种人体运动状态检测装置及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (ja) * 1996-07-03 1998-05-06 Hitachi Ltd 動作及び行動の認識方法及び装置及びシステム
US20120190505A1 (en) * 2011-01-26 2012-07-26 Flow-Motion Research And Development Ltd Method and system for monitoring and feed-backing on execution of physical exercise routines
JP2014124448A (ja) * 2012-12-27 2014-07-07 Casio Comput Co Ltd 運動情報表示システムおよび運動情報表示方法、運動情報表示プログラム
CN104190065A (zh) * 2014-08-31 2014-12-10 陆俊 一种人体运动状态检测装置及方法

Also Published As

Publication number Publication date
JP6621134B2 (ja) 2019-12-18

Similar Documents

Publication Publication Date Title
US9459698B2 (en) Gesture based power management system and method
US9250799B2 (en) Control method for information input device, information input device, program therefor, and information storage medium therefor
TWI457539B (zh) 多姿態步距校正定位系統與方法
JP6621133B2 (ja) 情報処理方法、情報処理装置及びプログラム
US10139902B2 (en) Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
US20130271351A1 (en) Multi-segment wearable accessory
JP2014197066A (ja) 表示制御装置、表示制御方法、およびプログラム
TW200915141A (en) Control device, input device, control system, hand-held type information processng device, control method and its program
US20160189534A1 (en) Wearable system and method for balancing recognition accuracy and power consumption
US20240221482A1 (en) System, method and smart wearable device for user posture monitoring
US11006873B2 (en) Calculating a score of a degree of arousal of a user
JP2017185076A (ja) 情報処理方法、情報処理装置及びプログラム
CN113485545B (zh) 可穿戴设备的控制方法、可穿戴设备及介质
JP6697300B2 (ja) 情報処理方法、プログラム及び情報処理装置
JP6621134B2 (ja) 情報処理方法、情報処理装置及びプログラム
JP6706958B2 (ja) 情報処理方法、情報処理装置及びプログラム
JP2020135340A (ja) ユーザの首曲げ状態を推定可能な携帯装置、プログラム及び方法
JP6689889B2 (ja) 情報処理方法、情報処理装置及びプログラム
JP6067148B1 (ja) 情報処理方法、情報処理装置及びプログラム
JP2017070723A (ja) 情報処理方法、情報処理装置及びプログラム
US10503277B1 (en) Accelerometer-based content display adjustment
JP6941715B2 (ja) 表示装置、表示プログラム、表示方法及び表示システム
JP2018158052A (ja) 運動解析装置、運動解析システム、運動解析方法及びプログラム
US11797100B1 (en) Systems and methods for classifying touch events based on relative orientation
WO2017190293A1 (zh) 虚拟现实的显示方法、装置及终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191114

R150 Certificate of patent or registration of utility model

Ref document number: 6621134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250