JP2019030491A - 運動パフォーマンス推定装置、トレーニング装置、それらの方法、およびプログラム - Google Patents
運動パフォーマンス推定装置、トレーニング装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- JP2019030491A JP2019030491A JP2017153134A JP2017153134A JP2019030491A JP 2019030491 A JP2019030491 A JP 2019030491A JP 2017153134 A JP2017153134 A JP 2017153134A JP 2017153134 A JP2017153134 A JP 2017153134A JP 2019030491 A JP2019030491 A JP 2019030491A
- Authority
- JP
- Japan
- Prior art keywords
- attention range
- exercise performance
- information
- size
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
[原理]
まず、各実施形態のベースとなる原理を説明する。
各実施形態は、ヒトの眼の動的な変化を表す特徴量と注意範囲の広さとに相関性があり、また、ヒトの注意範囲の広さと運動パフォーマンス(例えば、反応速度や反応の正確性)との間に相関性があるという自然法則の発見に基づく。各実施形態では、この自然法則を利用し、対象者(ヒト)の眼の動的な変化に基づく特徴量を抽出し、抽出された特徴量に基づいて対象者の注意範囲の広さに対応する情報の推定結果である推定注意範囲情報を得、ヒトの注意範囲の広さに対応する情報とヒトの運動パフォーマンスとの関連付けに基づいて、推定注意範囲情報から、対象者の運動パフォーマンスの指標を得る。また、対象者の反応速度や反応の正確性を向上させるために、目標となる注意範囲の広さを表す目標注意範囲情報を提示し、対象者の運動パフォーマンス向上を支援する。すなわち、得られた運動パフォーマンスの指標から、ヒトの運動パフォーマンスと注意範囲の広さに対応する情報との関連付けに基づいて、当該指標が表す運動パフォーマンスよりも高い運動パフォーマンスに関連付けられた注意範囲の広さに対応する情報である目標注意範囲情報を得、当該目標注意範囲情報を対象者が認識可能な形で提示する。なお、眼の動的な変化を表す特徴量とは、例えばマイクロサッカードの発生頻度や減衰係数、固有角振動数等である(詳細は後述する)。また「注意範囲」とは注意の範囲を意味し、「注目範囲」と同義である。
背景となる実験結果を示す。
まず、ヒトの眼の動的な変化を表す特徴量と注意範囲の広さとの相関性を調べる実験について説明する。
予め特定の広さの注意範囲Cに注意を向けるよう指示した状況下で、当該注意範囲C内に表示されるターゲット図形Tが現れたら所定の動作(タッピング等)を行うよう対象者に指示する(図6A)。例えば、ターゲット図形Tの移動方向が右(R)か左(L)かをタッピングによって回答するよう対象者に指示する。図6Bおよび図6Cにこの実験結果を示す。図6Bおよび図6Cは、「広(large)」「中(medium)」「狭(small)」の3段階のカテゴリを採用し、複数の被験者が「広」に対応する広い注意範囲、「中」に対応する中ほどの注意範囲、および「狭」に対応する狭い注意範囲のそれぞれを見ていたときのマイクロサッカードの特徴量の平均値(被験者ごとの平均値)を示す。ただし、図6Bおよび図6Cの横軸は3段階のカテゴリ(「広」「中」「狭」)に対応する注意範囲を表す。図6Bの縦軸はマイクロサッカードの発生頻度(Microsaccade Rate)の被験者ごとの平均値を表し、図6Cの縦軸はマイクロサッカードの振動性(Microsaccade Damping Rate)の被験者ごとの平均値を表す。これらの結果から、注意範囲が広いほど、マイクロサッカードの発生頻度が高くなり、また、マイクロサッカードの振動性が強くなる傾向が見られる。マイクロサッカードの発生頻度や振動性が大きいときは注意範囲が広いと推定されやすく、マイクロサッカードの発生頻度や振動性が小さいときは注意範囲が狭いと推定されやすいことが分かる。
(1)被験者の眼の動きの情報から「眼の動的な変化を表す特徴量」を算出する。
(2)算出した「眼の動的な変化を表す特徴量」から注意範囲の広さを推定する。
なお、(2)の注意範囲の広さの推定には機械学習を用いる。例えば、上述のタスクを実行している際の対象者の眼の動きを計測して「眼の動的な変化を表す特徴量」が得られる。これを注意範囲Cの広さを変えて実施することで、「眼の動的な変化を表す特徴量」と注意範囲の広さを対応付けたデータ対が取得される。複数の被験者に同様のタスクを実施してもらうことで得たデータ対の集合を学習用データとし、コンピュータによる機械学習によって「眼の動的な変化を表す特徴量」を入力として注意範囲の広さの推定結果を出力するモデルを学習する。例えば、注意範囲の広さを大、中、小のようなカテゴリに分け、サポートベクターマシーン(SVM)などの識別学習法を用いれば、入力された「眼の動的な変化を表す特徴量」に基づいて、どの注意範囲の広さのカテゴリに属するかを推定できる。こうして得た学習済みモデルに上記(1)で得た「眼の動的な変化を表す特徴量」を入力すれば、上記(2)の注意範囲の広さの推定結果が得られる。
被験者10名に対して次の実験を行った。被験者に対して投手が投球をする映像を視聴してもらい、投手の動きから「ストレート」と「カーブ」のどちらを投げるかを判別して回答してもらう(図5A)。このとき、被験者の眼の動きの情報を取得しておくとともに、以下の方法で「反応の正確性を表す指標」と「反応速度を表す指標」を計算する。
反応の正確性を表す指標:
全試行のうちカーブかストレートかの判別結果が正しい回答であった割合、すなわち回答の正答率を「反応の正確性を表す指標」とする。
反応速度を表す指標:
ピッチャーが投げた球がホームベースに到達する時点を基準として回答時点がどれだけ早いかを示す指標を「反応速度を表す指標」とする。例えば、ピッチャーが投げた球がホームベースに到達した時刻と回答時刻との差分が「反応速度を表す指標」である。
・注意範囲が広いほうが、注意範囲が狭いときよりも反応の正確性が高い(反応の正確性についての運動パフォーマンスが高い)。
・注意範囲が広いほうが、注意範囲が狭いときよりも反応速度が遅い(反応速度についての運動パフォーマンスが低い)。
この実験結果から、反応の正確性や反応速度に限らず、その他の運動パフォーマンスを表す指標も、注意範囲の広さと何らかの相関性を持つと期待できる。
本実施形態では、注意範囲の広さを入力として、対象者の運動パフォーマンスを表す指標を出力するようなモデル(運動パフォーマンス推定モデル)を仮定し、このモデルに基づいて、入力された任意の対象者の眼の動きから推定される注意範囲の広さから、その対象者の(そのときの)運動パフォーマンスを推定する。運動パフォーマンス推定モデルは、ヒトの注意範囲の広さと運動パフォーマンスを表す指標(の正解)とを対応付けた学習用データを用いて機械学習により学習しておく。以下に詳細に説明する。
眼球情報取得部111は、対象者の各離散時間の「眼の動的な変化」に関する時系列情報を取得し、取得した眼の動的な変化に関する時系列情報を特徴量抽出部112へ出力する。「対象者」はヒトである。「眼の動的な変化」は、眼球自体の動き(眼球の位置の経時変化)であってもよいし、瞳孔の動き(瞳孔径の経時変化)であってもよいし、それら両方であってもよい。眼球情報取得部111は、両眼の動的な変化に関する時系列情報を取得してもよいし、何れか一方の眼の動的な変化に関する時系列情報を取得してもよい。
特徴量抽出部112は、入力された対象者の眼の動的な変化に基づく特徴量を抽出して注意範囲推定部113に出力する。「特徴量」はどのようなものであってもよく、スカラであってもよいし、複数の要素からなるベクトルであってもよい。「特徴量」は複数の離散時間や時間区間のそれぞれに対応する時系列であってもよいし、時系列でなくてもよい。「眼の動的な変化」に基づく特徴量は、「眼球自体の動き」に基づく特徴を含んでもよいし、「瞳孔の動き」に基づく特徴を含んでもよいし、「眼球自体の動き」に基づく特徴および「瞳孔の動き」に基づく特徴の両方を含んでもよい。
注意範囲推定モデル114は、ヒトから取得した眼の動的な変化に基づく特徴量と当該ヒトの注意範囲(注意範囲の正解)とを含む学習用データを用い、コンピュータにより学習されることで得られるモデルである。注意範囲推定モデル114は、ヒトの眼の動的な変化に基づく特徴量と当該ヒトの注意範囲との関係を表す。
1.モニタやスクリーンなどの表示部(図示せず)が、複数の「学習用注意範囲」それぞれに応じた位置に「注視対象」を表示する。例えば、表示部は、「学習用注意範囲」の境界線を所定時間表示させた後に当該境界線を非表示とし、さらに所定時間経過後に当該境界線が表示されていた位置よりも内側に「注視対象」を表示する。
2.「学習用注意範囲」の境界線が非表示となってから当該「注視対象」が表示されるまでの「学習用対象者」の「眼の動的な変化」に基づく「特徴量」(注視対象が表示されたときの対象者の眼の動的な変化に基づく特徴量)が、当該「注視対象」に対応する「学習用注意範囲」それぞれに対応する「学習用特徴量」として抽出される。
3.複数の「学習用注意範囲」およびそれらについて抽出された「学習用特徴量」との組を学習用データとして用い、「眼の動的な変化」に基づく「特徴量」を「注意範囲」の広さを示すカテゴリの何れか1つに分類する注意範囲推定モデル114を得る。
1.表示部が、複数の「注意範囲」それぞれに応じた位置に「注視対象」を表示する。
2.当該「注視対象」が表示されるまでの「学習用対象者」の「眼の動的な変化」に基づく「特徴量」(注視対象が表示されたときの対象者の眼の動的な変化に基づく特徴量)が、当該「注視対象」に対応する「注意範囲」それぞれに対応する「特徴量」として抽出される。
3.このように得られた「学習用注意範囲」のそれぞれに対応する「学習用特徴量」を用い、「眼の動的な変化」に基づく「特徴量」の変数と「注意範囲」に対応する情報の変数との「関係を表す情報」が得られる。「関係を表す情報」は上述の頻度g(r,κ)そのものであってもよいし、頻度g(r,κ)を特定するための情報であってもよい。
なお、学習処理は、「注意範囲」の推定の対象となる「対象者」自身の「眼の動的な変化」に基づく「特徴量」を用いて行われることが望ましい。これにより、マイクロサッカード等の「眼の動的な変化」に基づく「特徴量」から「対象者」の「注意範囲」を高い精度で推定できる。ただし、「注意範囲」の推定の対象となる「対象者」以外の「眼の動的な変化」に基づく「特徴量」を用いて学習処理が行われてもよい。
注意範囲推定部113は、特徴量抽出部112で抽出された「特徴量」に基づいて対象者の注意範囲の広さに対応する情報の推定結果である「推定注意範囲情報」を得、当該「推定注意範囲情報」を運動パフォーマンス推定部120に出力する。本実施形態の注意範囲推定部113は、特徴量抽出部112で抽出された「特徴量」を注意範囲推定モデル114に適用することで「推定注意範囲情報」を得て出力する。すなわち、注意範囲推定部113は、特徴量抽出部112から出力された「特徴量」を注意範囲推定モデル114に入力して「推定注意範囲情報」を得て出力する。「推定注意範囲情報」は、注意範囲の広さに対応する情報の推定結果である。
運動パフォーマンス推定モデル130は、注意範囲の広さに対応する情報を入力とし、ヒトの運動パフォーマンスを示す指標を出力する学習済みモデル(第1の学習済みモデル)である。「運動パフォーマンスを示す指標」の例は、前述した「反応の正確性を表す指標」や「反応速度を表す指標」である。しかし、これは本発明を限定しない。例えば、「反応の強さを表す指標」「反応の大きさを表す指標」「疲労具合を表す指標」「緊張状態を表す指標」などを「運動パフォーマンスを示す指標」としてもよい。運動パフォーマンス推定モデル130は、1つのモデルのみを含んでいてもよいし、複数個のモデルを含んでいてもよい。すなわち、運動パフォーマンス推定モデル130は、注意範囲の広さに対応する情報を入力とし、1種類の運動パフォーマンスを示す指標を出力するものであってもよいし、複数種類の運動パフォーマンスを示す指標を出力するものであってもよい。
運動パフォーマンス推定部120は、ヒトの注意範囲の広さに対応する情報と当該ヒトの運動パフォーマンスとの関連付けに基づいて、注意範囲推定部113で得た「推定注意範囲情報」から「対象者」の運動パフォーマンスの指標を得て出力する。本実施形態の運動パフォーマンス推定部120は、運動パフォーマンス推定モデル130に基づいて「推定注意範囲情報」から運動パフォーマンスを示す指標を得て出力する。つまり、運動パフォーマンス推定部120は、注意範囲推定部113から出力された注意範囲の広さを表す情報を運動パフォーマンス推定モデル130に入力することで、運動パフォーマンスを表す指標(の推定値)を得て出力する。運動パフォーマンス推定部120は、1種類の運動パフォーマンスを示す指標のみを出力してもよいし、複数種類の運動パフォーマンスを示す指標を出力してもよい。
第2実施形態でも、注意範囲の広さに対応する情報と人の運動パフォーマンスとの関連付けに基づいて、注意範囲推定部113で得た推定注意範囲情報から対象者の運動パフォーマンスの指標を得る。ただし、本実施形態では、前述の背景となる実験結果で示した相関関係に関する知見を直接利用し、対象者の眼の動きに基づいて、対象者の反応速度や反応の正確性を推定する。すなわち、第1実施形態では、反応速度や反応の正確性に限定しない様々な運動パフォーマンスを推定するために学習済みモデル(運動パフォーマンス推定モデル)を用いた。しかし、第2実施形態では、運動パフォーマンス推定モデルの代わりに実験により得た知見を応用することで直接的に反応速度や反応の正確性を推定する。以下、これまで説明した事項との相違点を中心に説明し、既に説明した事項については同じ参照番号を用いて説明を簡略化する。
運動パフォーマンス推定部220は、注意範囲推定部113から出力された注意範囲の広さに対応する情報(推定注意範囲情報)に基づいて、反応速度および/または反応の正確性を示す指標(運動パフォーマンスの指標)を得て出力する。
第3実施形態では、第1実施形態で用いた注意範囲と運動パフォーマンスを表す指標との相関性を利用し、対象者の運動パフォーマンスを向上させるよう支援する情報を提示する。
注意範囲生成モデル350は、運動パフォーマンスを示す指標を入力とし、注意範囲の広さに対応する情報を出力する学習済みモデルである。つまり、運動パフォーマンス推定モデル130とは逆方向の推定をするモデルである。注意範囲生成モデル350の学習には、運動パフォーマンス推定モデル130の学習に用いた学習用データ集合と同じ学習用データ集合を用いればよい。運動パフォーマンス推定モデル130の学習とは入力と出力の関係を逆にして、機械学習やニューラルネットワーク等により注意範囲生成モデル350を学習すればよい。つまり、注意範囲推定モデル114を用いて眼の動的な変化に基づく特徴量から注意範囲の広さが推定され、推定された注意範囲の広さと運動パフォーマンスを示す指標の正解との組からなるデータ集合を用いて学習を行えばよい。すなわち、注意範囲生成モデル350は、ヒトから取得した注意範囲の広さに対応する情報と、ヒトの運動パフォーマンスの指標の正解と、を含む学習用データを用いて、コンピュータにより学習されたものである。注意範囲の広さに対応する情報とは、注意範囲の大きさそのものであってもよいし、注意範囲が広さ毎にカテゴリ分けされているものとしてそのカテゴリを特定する情報であってもよい。注意範囲生成モデル350は、トレーニング装置3の記憶部(図示せず)に記憶されていてもよいし、外部からトレーニング装置3に入力されてもよい。
訓練情報生成部340は、ヒトの運動パフォーマンスと注意範囲の広さに対応する情報との関連付けに基づいて、運動パフォーマンス推定部120で得た運動パフォーマンスの指標から、指標が表す運動パフォーマンスよりも高い運動パフォーマンスに関連付けられた注意範囲の広さに対応する情報である目標注意範囲情報を得て出力する。本実施形態では、訓練情報生成部340は、注意範囲生成モデル350に基づいて、運動パフォーマンス推定部120で得た運動パフォーマンスの指標から目標注意範囲情報を得る。
訓練情報提示部360は、訓練情報生成部340が出力した注意範囲の広さに対応した情報(目標注意範囲情報)を、対象者が認識可能な形で提示する。つまり、対象者の注意範囲を、訓練情報生成部340が出力した「目標注意範囲情報」に対応する注意範囲の広さに近づけるための情報を提示する。例えば、対象者がディスプレイの対象物を見ている場合、訓練情報提示部360は、ディスプレイに表示された対象物の映像に、「目標注意範囲情報」に対応する注意範囲の広さを示す円形などの図形を重畳した映像を提示してもよい。あるいは、訓練情報提示部360は、注意範囲推定部113で得た「推定注意範囲情報」に対応する注意範囲の広さを示す指標(現在の注意範囲の広さ)と、訓練情報生成部340で得た「目標注意範囲情報」に対応する注意範囲の広さを示す指標とを視認可能なようにディスプレイ上に表示してもよい。これにより、対象者は現在の注意範囲の状態と目指すべき注意範囲の状態を把握できる。あるいは、訓練情報提示部360は、音声等により、注意範囲推定部113で得た「推定注意範囲情報」に対応する注意範囲の広さを示す指標(現在の注意範囲の広さ)と、訓練情報生成部340で得た「目標注意範囲情報」に対応する注意範囲の広さを示す指標との差分を認識可能なように提示してもよい。これにより、対象者は現在の注意範囲の状態と目指すべき注意範囲の状態の差分を把握できる。
第4実施形態では、第2実施形態の運動パフォーマンス推定装置2の構成を利用して、対象者の反応速度や反応の正確性を向上させるよう支援する情報を提示する。
訓練情報生成部440は、ヒトの運動パフォーマンスと注意範囲の広さに対応する情報との関連付けに基づいて、運動パフォーマンス推定部220で得た運動パフォーマンスの指標から、指標が表す運動パフォーマンスよりも高い運動パフォーマンスに関連付けられた注意範囲の広さに対応する情報である目標注意範囲情報を得て出力する。本実施形態の訓練情報生成部440は、運動パフォーマンス推定部220で推定した運動パフォーマンスの指標(反応速度の指標または反応の正確性の指標)に基づいて、推定した運動パフォーマンスの指標よりも運動パフォーマンスが向上する方向に注意範囲の広さを変化させるための情報(目的注意範囲情報)を得て出力する。すなわち、運動パフォーマンスが反応の正確性である場合には、訓練情報提示部460は、注意範囲推定部113が出力した「推定注意範囲情報」が示す注意範囲の広さよりも広い注意範囲に対応する「目的注意範囲情報」を得る。また、運動パフォーマンスが反応速度である場合には、訓練情報提示部460は、注意範囲推定部113が出力した「推定注意範囲情報」が示す注意範囲の広さよりも狭い注意範囲に対応する「目的注意範囲情報」を得る。
訓練情報提示部460は、訓練情報生成部440が出力した「目的注意範囲情報」を、対象者が認識可能な形で提示する。例えば、運動パフォーマンスが反応の正確性であり、対象者がディスプレイの対象物を見ている場合、訓練情報提示部460は、対象物の映像に、注意範囲推定部113で得た「推定注意範囲情報」に対応する注意範囲の広さよりも広い範囲を示す円形などの図形を重畳した映像を提示する。あるいは、訓練情報提示部460は、「推定注意範囲情報」に対応する注意範囲の広さを示す指標と、「目的注意範囲情報」に対応する注意範囲の広さを示す指標とをディスプレイ上に表示してもよい。これにより、対象者は現在の注意範囲の状態と目指すべき注意範囲の状態を把握できる。あるいは、訓練情報提示部460は、「推定注意範囲情報」に対応する注意範囲の広さを示す指標と、「目的注意範囲情報」に対応する注意範囲の広さを示す指標との差分を認識可能な音声等を提示してもよい。これにより、対象者は現在の注意範囲の状態と目指すべき注意範囲の状態を把握できる。あるいは、訓練情報提示部460は、音声等により、注意範囲を広げる(狭める)ことを勧めるアナウンスを流してもよい。
3,4 トレーニング装置
Claims (9)
- 対象者の眼の動的な変化に基づく特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部で抽出された前記特徴量に基づいて前記対象者の注意範囲の広さに対応する情報の推定結果である推定注意範囲情報を得る注意範囲推定部と、
注意範囲の広さに対応する情報とヒトの運動パフォーマンスとの関連付けに基づいて、前記注意範囲推定部で得た前記推定注意範囲情報から前記対象者の運動パフォーマンスの指標を得る運動パフォーマンス推定部と、
を有する運動パフォーマンス推定装置。 - 前記注意範囲の広さに対応する情報とヒトの運動パフォーマンスとの関連付けは、ヒトから取得した注意範囲の広さに対応する情報と、前記ヒトの運動パフォーマンスの指標の正解と、を含む学習用データを用いて、コンピュータにより学習された学習済みモデルにより与えられる
ことを特徴とする請求項1の運動パフォーマンス推定装置。 - 前記運動パフォーマンス推定部は、
前記注意範囲推定部で得た前記推定注意範囲情報に対応する注意範囲の広さが第1の広さである場合に第1の反応の正確性を表す前記運動パフォーマンスの指標を得、前記注意範囲推定部で得た前記推定注意範囲情報に対応する注意範囲の広さが前記第1の広さよりも広い第2の広さである場合に前記第1の反応の正確性よりも高い第2の反応の正確性を表す前記運動パフォーマンスの指標を得る、および/または、
前記注意範囲推定部で得た前記推定注意範囲情報に対応する注意範囲の広さが第3の広さである場合に第3の反応速度を表す前記運動パフォーマンスの指標を得、前記注意範囲推定部で得た前記推定注意範囲情報に対応する注意範囲の広さが前記第3の広さよりも広い第4の広さである場合に前記第3の反応速度よりも遅い第4の反応速度を表す前記運動パフォーマンスの指標を得る
ことを特徴とする請求項1の運動パフォーマンス推定装置。 - 対象者の眼の動的な変化に基づく特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部で抽出された前記特徴量に基づいて前記対象者の注意範囲の広さに対応する情報の推定結果である推定注意範囲情報を得る注意範囲推定部と、
注意範囲の広さに対応する情報とヒトの運動パフォーマンスとの関連付けに基づいて、前記推定注意範囲情報から前記対象者の運動パフォーマンスの指標を得る運動パフォーマンス推定部と、
ヒトの運動パフォーマンスと注意範囲の広さに対応する情報との関連付けに基づいて、前記運動パフォーマンス推定部で得た前記運動パフォーマンスの指標から、前記指標が表す運動パフォーマンスよりも高い運動パフォーマンスに関連付けられた注意範囲の広さに対応する情報である目標注意範囲情報を得る訓練情報生成部と、
前記目標注意範囲情報を前記対象者が認識可能な形で提示する訓練情報提示部と、
を有するトレーニング装置。 - 前記運動パフォーマンス推定部は、注意範囲の広さに対応する情報を入力として運動パフォーマンスの指標を出力する第1の学習済みモデルに基づいて、前記推定注意範囲情報から前記対象者の運動パフォーマンスの指標を得るものであり、
前記訓練情報生成部は、運動パフォーマンスの指標を入力として注意範囲の広さに対応する情報を出力する第2の学習済みモデルに基づいて、前記運動パフォーマンス推定部で得た前記運動パフォーマンスの指標から前記目標注意範囲情報を得るものであり、
前記第1の学習済みモデルは、ヒトから取得した注意範囲の広さに対応する情報と、前記ヒトの運動パフォーマンスの指標の正解と、を含む学習用データを用いて、コンピュータにより学習されたものであり、
前記第2の学習済みモデルは、ヒトから取得した眼の動的な変化に基づく特徴量またはヒトから取得した注意範囲の広さに対応する情報と、前記ヒトの運動パフォーマンスの指標の正解と、を含む学習用データを用いて、コンピュータにより学習されたものである
ことを特徴とする請求項4のトレーニング装置。 - 前記運動パフォーマンス推定部は、
前記推定注意範囲情報に対応する注意範囲の広さが第1の広さである場合に第1の反応の正確性を表す前記運動パフォーマンスの指標を得、前記推定注意範囲情報に対応する注意範囲の広さが前記第1の広さよりも広い第2の広さである場合に前記第1の反応の正確性よりも高い第2の反応の正確性を表す前記運動パフォーマンスの指標を得る、または、
前記推定注意範囲情報に対応する注意範囲の広さが第3の広さである場合に第3の反応速度を表す前記運動パフォーマンスの指標を得、前記推定注意範囲情報に対応する注意範囲の広さが前記第3の広さよりも広い第4の広さである場合に前記第3の反応速度よりも遅い第4の反応速度を表す前記運動パフォーマンス指標を得、
前記訓練情報生成部は、
前記運動パフォーマンスが反応の正確性である場合には、前記推定注意範囲情報が示す注意範囲の広さよりも広い注意範囲に対応する前記目的注意範囲情報を得、前記運動パフォーマンスが反応速度である場合には、前記推定注意範囲情報が示す注意範囲の広さよりも狭い注意範囲に対応する前記目標注意範囲情報を得る
ことを特徴とする請求項4のトレーニング装置。 - 対象者の眼の動的な変化に基づく特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップで抽出された前記特徴量に基づいて前記対象者の注意範囲の広さに対応する情報の推定結果である推定注意範囲情報を得る注意範囲推定ステップと、
注意範囲の広さに対応する情報とヒトの運動パフォーマンスとの関連付けに基づいて、前記注意範囲推定ステップで得た前記推定注意範囲情報から前記対象者の運動パフォーマンスの指標を得る運動パフォーマンス推定ステップと、
を有する運動パフォーマンス推定方法。 - 対象者の眼の動的な変化に基づく特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップで抽出された前記特徴量に基づいて前記対象者の注意範囲の広さに対応する情報の推定結果である推定注意範囲情報を得る注意範囲推定ステップと、
注意範囲の広さに対応する情報とヒトの運動パフォーマンスとの関連付けに基づいて、前記推定注意範囲情報から前記対象者の運動パフォーマンスの指標を得る運動パフォーマンス推定ステップと、
ヒトの運動パフォーマンスと注意範囲の広さに対応する情報との関連付けに基づいて、前記運動パフォーマンス推定ステップで得た前記運動パフォーマンスの指標から、前記指標が表す運動パフォーマンスよりも高い運動パフォーマンスに関連付けられた注意範囲の広さに対応する情報である目標注意範囲情報を得る訓練情報生成ステップと、
前記目標注意範囲情報を前記対象者が認識可能な形で提示する訓練情報提示ステップと、
を有するトレーニング方法。 - 請求項1から3の何れかの運動パフォーマンス推定装置または請求項4から6の何れかのトレーニング装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153134A JP6755839B2 (ja) | 2017-08-08 | 2017-08-08 | 運動パフォーマンス推定装置、その方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153134A JP6755839B2 (ja) | 2017-08-08 | 2017-08-08 | 運動パフォーマンス推定装置、その方法、およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020135746A Division JP7017171B2 (ja) | 2020-08-11 | 2020-08-11 | 運動パフォーマンス推定装置、トレーニング装置、それらの方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019030491A true JP2019030491A (ja) | 2019-02-28 |
JP6755839B2 JP6755839B2 (ja) | 2020-09-16 |
Family
ID=65522680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017153134A Active JP6755839B2 (ja) | 2017-08-08 | 2017-08-08 | 運動パフォーマンス推定装置、その方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6755839B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021115224A (ja) * | 2020-01-24 | 2021-08-10 | 日本電信電話株式会社 | 運動パフォーマンス評価装置、運動パフォーマンス評価方法、プログラム |
JPWO2021199127A1 (ja) * | 2020-03-30 | 2021-10-07 | ||
WO2022107288A1 (ja) * | 2020-11-19 | 2022-05-27 | 日本電信電話株式会社 | 推定装置、推定方法、および、推定プログラム |
WO2022249324A1 (ja) * | 2021-05-26 | 2022-12-01 | 日本電信電話株式会社 | 運動パフォーマンス推定装置、運動パフォーマンス推定方法、およびプログラム |
CN115920192A (zh) * | 2023-02-06 | 2023-04-07 | 西南医科大学附属医院 | 专注力分配能力训练系统、运行方法及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11235314A (ja) * | 1998-02-24 | 1999-08-31 | Kansai Shingijutsu Kenkyusho:Kk | 視覚能力測定方法 |
JP2007293587A (ja) * | 2006-04-25 | 2007-11-08 | Toyohashi Univ Of Technology | 覚醒状態の変化を早期発見する方法および検知装置 |
JP2010259769A (ja) * | 2009-04-06 | 2010-11-18 | Toyota Motor Corp | 視覚訓練装置 |
JP2017215963A (ja) * | 2016-05-30 | 2017-12-07 | 日本電信電話株式会社 | 注目範囲推定装置、学習装置、それらの方法およびプログラム |
-
2017
- 2017-08-08 JP JP2017153134A patent/JP6755839B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11235314A (ja) * | 1998-02-24 | 1999-08-31 | Kansai Shingijutsu Kenkyusho:Kk | 視覚能力測定方法 |
JP2007293587A (ja) * | 2006-04-25 | 2007-11-08 | Toyohashi Univ Of Technology | 覚醒状態の変化を早期発見する方法および検知装置 |
JP2010259769A (ja) * | 2009-04-06 | 2010-11-18 | Toyota Motor Corp | 視覚訓練装置 |
JP2017215963A (ja) * | 2016-05-30 | 2017-12-07 | 日本電信電話株式会社 | 注目範囲推定装置、学習装置、それらの方法およびプログラム |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021115224A (ja) * | 2020-01-24 | 2021-08-10 | 日本電信電話株式会社 | 運動パフォーマンス評価装置、運動パフォーマンス評価方法、プログラム |
JP7306280B2 (ja) | 2020-01-24 | 2023-07-11 | 日本電信電話株式会社 | 運動パフォーマンス評価装置、運動パフォーマンス評価方法、プログラム |
JPWO2021199127A1 (ja) * | 2020-03-30 | 2021-10-07 | ||
WO2021199127A1 (ja) * | 2020-03-30 | 2021-10-07 | 日本電信電話株式会社 | 運動パフォーマンス推定装置、運動パフォーマンス推定方法、およびプログラム |
JP7367853B2 (ja) | 2020-03-30 | 2023-10-24 | 日本電信電話株式会社 | 運動パフォーマンス推定装置、運動パフォーマンス推定方法、およびプログラム |
WO2022107288A1 (ja) * | 2020-11-19 | 2022-05-27 | 日本電信電話株式会社 | 推定装置、推定方法、および、推定プログラム |
WO2022249324A1 (ja) * | 2021-05-26 | 2022-12-01 | 日本電信電話株式会社 | 運動パフォーマンス推定装置、運動パフォーマンス推定方法、およびプログラム |
CN115920192A (zh) * | 2023-02-06 | 2023-04-07 | 西南医科大学附属医院 | 专注力分配能力训练系统、运行方法及存储介质 |
CN115920192B (zh) * | 2023-02-06 | 2023-05-09 | 西南医科大学附属医院 | 专注力分配能力训练系统、运行方法及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6755839B2 (ja) | 2020-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6755839B2 (ja) | 運動パフォーマンス推定装置、その方法、およびプログラム | |
US11013449B2 (en) | Methods and systems for decoding, inducing, and training peak mind/body states via multi-modal technologies | |
US11089985B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
US20200089317A1 (en) | System and Method for Dynamic Content Delivery Based on Gaze Analytics | |
US11013985B2 (en) | Information processing device and information processing method | |
JP6084953B2 (ja) | コンテンツ評価システム及びそれを用いたコンテンツ評価方法 | |
JP7070605B2 (ja) | 注目範囲推定装置、その方法およびプログラム | |
JP2015518402A (ja) | 注意測定方法 | |
CN105913046A (zh) | 微表情识别装置及方法 | |
JP2015229040A (ja) | 感情分析システム、感情分析方法および感情分析プログラム | |
CN113837153B (zh) | 一种融合瞳孔数据和面部表情的实时情绪识别方法及系统 | |
US20170156585A1 (en) | Eye condition determination system | |
CN113693552A (zh) | 视觉疲劳监测方法、装置、电子设备及可读存储介质 | |
US20230043838A1 (en) | Method for determining preference, and device for determining preference using same | |
CN109923529A (zh) | 信息处理装置、信息处理方法和程序 | |
AU2014234955B2 (en) | Automatic detection of task transition | |
JP2017202047A (ja) | 特徴量抽出装置、推定装置、それらの方法、およびプログラム | |
US20230404451A1 (en) | Sightline-position determination device, sightline-position determination method, and training method | |
JP6509712B2 (ja) | 印象推定装置およびプログラム | |
CN112613364A (zh) | 目标物体的确定方法、系统、存储介质和电子设备 | |
JP7017171B2 (ja) | 運動パフォーマンス推定装置、トレーニング装置、それらの方法、およびプログラム | |
JP5718495B1 (ja) | 印象推定装置、その方法、及びプログラム | |
Masmoudi et al. | Meltdowncrisis: Dataset of autistic children during meltdown crisis | |
US10779726B2 (en) | Device and method for determining eye movements by tactile interface | |
JP6445418B2 (ja) | 印象推定装置、印象推定方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20170830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6755839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |