JP6191242B2 - 集中度推定装置 - Google Patents

集中度推定装置 Download PDF

Info

Publication number
JP6191242B2
JP6191242B2 JP2013114236A JP2013114236A JP6191242B2 JP 6191242 B2 JP6191242 B2 JP 6191242B2 JP 2013114236 A JP2013114236 A JP 2013114236A JP 2013114236 A JP2013114236 A JP 2013114236A JP 6191242 B2 JP6191242 B2 JP 6191242B2
Authority
JP
Japan
Prior art keywords
concentration
information
degree
learning
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013114236A
Other languages
English (en)
Other versions
JP2014230717A (ja
Inventor
梶 洋隆
洋隆 梶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013114236A priority Critical patent/JP6191242B2/ja
Publication of JP2014230717A publication Critical patent/JP2014230717A/ja
Application granted granted Critical
Publication of JP6191242B2 publication Critical patent/JP6191242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Description

本発明は、集中度推定装置に関する。
人の集中度は、脳波(特に、θ波)と深い関係があることが知られている。しかし、日常、人から脳波を計測するのは難しい。そこで、集中度と相関のある生理情報(心拍、呼吸、皮膚電位活動等)を検出し、生理情報を用いて集中度を推定する技術が提案されている。特許文献1には、人から計測した複数の生体情報(心拍、呼吸、皮膚抵抗値等)と、複数の生体情報と集中状態とを対応付けた集中度ルール設定情報とから集中度を推定し、その推定した集中度を表示する集中度推定装置が開示されている。
特開平9−262216号公報 特開2008−79737号公報 特開2012−63885号公報 特開2012−10856号公報 特開2011−167323号公報
集中度には個人差が見られるため、個人差に応じた集中度の推定を行う上では改善の余地がある。特許文献1に開示されている集中度推定装置の場合、複数の生体情報と集中状態とを対応付けた集中度ルール設定情報に従って集中度を推定しており、この推定された集中度には個人差が反映されていない。
そこで、本発明は、個人差に応じて集中度を高精度に推定できる集中度推定装置を提供することを課題とする。
本発明に係る集中度推定装置は、対象者の集中度を推定する集中度推定装置であって、対象者から集中度と相関のある第1の情報を検出する第1情報検出手段と、第1情報検出手段で検出した第1の情報から集中度を推定する集中度推定手段と、対象者の入力による集中度と相関のある第2の情報を収集する第2情報収集手段と、第2情報収集手段で収集した第2の情報を集中度に変換する変換手段と、第2情報収集手段で収集した第2の情報に対応する第1情報検出手段で検出した第1の情報と、変換手段で変換した集中度を学習データとして学習する学習手段とを備え、集中度推定手段は、学習手段での学習結果を用いて第1の情報から集中度を推定することを特徴とする。
この集中度推定装置では、第1情報検出手段によって集中度と相関のある第1の情報を対象者から検出する。この第1の情報は、人の集中度と相関があるので、集中度の推定に用いることができ、例えば、心拍、呼吸、皮膚電位活動等の生理情報である。また、集中度推定装置では、第2情報収集手段によって集中度と相関のある第2の情報を対象者から収集する。この第2の情報は、人の入力による集中度と相関のある情報であるので、第1の情報と集中度との関係を個人適合させるために用いることができ、例えば、人によって入力される主観的な集中度、任意のタスクに対する反応時間である。集中度推定装置では、変換手段によって第2の情報を集中度に変換し、学習手段によって第2の情報に対応する第1の情報と、第2の情報から変換した集中度を学習データとして学習する。この学習により、第1の情報と集中度との関係を個人適合させることができる。そこで、集中度推定装置では、集中度推定手段によってその学習結果を用いて第1の情報から集中度を推定する。この推定された集中度は、個人適合させるための学習結果が反映されているので、対象者個人に応じた集中度である。このように、集中度推定装置は、対象者によって入力された集中度と相関のある第2の情報を収集し、第1の情報と、第2の情報から変換した集中度を学習データとして学習することにより、第1の情報と集中度との関係を個人適合させることができ、個人差に応じて集中度を高精度に推定できる。
本発明の上記集中度推定装置では、変換手段は、第2の情報から変換される集中度についてのばらつきを算出し、学習手段は、変換手段で算出した集中度のばらつきを加味して学習すると好適である。
第2の情報は、人によって入力されるので、ばらつき(誤差)がある。したがって、第2の情報から変換される集中度にも、ばらつきがある。そこで、集中度推定装置では、変換手段によって第2の情報から集中度を変換する際にその集中度のばらつきも算出する。そして、集中度推定装置では、学習手段によってその集中度のばらつきを加味して学習を行う。このように、集中度推定装置は、対象者によって入力された第2の情報のばらつき(ひいては、第2の情報から変換される集中度のばらつき)を加味して学習を行うことにより、学習によって集中度の推定結果が急激に変化せず、安定した推定が可能となる。
本発明によれば、対象者によって入力された集中度と相関のある第2の情報を収集し、第1の情報と、第2の情報から変換した集中度を学習データとして学習することにより、第1の情報と集中度との関係を個人適合させることができ、個人差に応じて集中度を高精度に推定できる。
本実施の形態に係る集中度推定装置の構成図である。 心拍特徴量から推定された集中度(推定ラベル)と脳波のθ波含有率による集中度(正解ラベル)との比較例を示すグラフである。 θ波含有率から集中度のクラスラベルを分類する方法の説明図である。 図1の記憶部に記憶される学習データの一例を示す模式図である。 図1の収集部で使用者による入力情報を収集するための表示画面の一例であり、(a)が主観集中度を収集するための表示画面であり、(b)が反応時間を収集するための表示画面である。 心拍特徴量計測区間と使用者による入力情報の収集との対応関係の一例であり、(a)が心拍特徴量計測区間と主観集中度収集タイミングとの対応関係であり、(b)が心拍特徴量計測区間と反応時間収集区間との対応関係である。 主観集中度及び反応時間とθ波含有率(集中度)との関係の一例であり、(a)が主観集中度とθ波含有率との関係であり、(b)が反応時間とθ波含有率との関係である。 θ波含有率(集中度)と主観集中度との間のばらつきを示す図である。 使用者が歩行した場合の心拍特徴量計測区間と使用者による主観集中度収集タイミングとの対応関係の一例である。
以下、図面を参照して、本発明に係る集中度推定装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。
本実施の形態に係る集中度推定装置は、使用者(特許請求の範囲に記載する集中度が推定される対象者に相当)が携帯するスマートフォンに集中度推定用アプリケーションが組み込まれて構成される。本実施の形態に係る集中度推定装置は、脳波(特に、θ波)を用いずに人の集中度を推定する。本実施の形態に係る集中度推定装置は、集中度を推定するために、集中度と相関のある第1の情報として心拍を用い、集中度と相関のある第2の情報として使用者が入力する主観集中度や使用者による入力の反応時間を用いる。
人の背景脳波のうちで4〜8Hzの帯域は、θ波と呼ばれ、眠気を催したときに発生することが知られている。一方で、前頭部で計測されるFmθ波と呼ばれる特徴的な脳波があり、このFmθ波は一つのことに集中すると発生することが知られている。本発明者は、実験を通じてボタン押しや文章作成あるいは車両の運転中等においても、θ波パワーが有意に高まる現象を確認した。この結果から、Fmθ波を直接観察せずに、θ波含有率又はθ波パワーから人の集中状態を判定できることが示唆されている。したがって、脳波のθ波含有率やθパワーによって、集中度を定義できる。しかし、日常、人から脳波を計測するのは難しい。
脳波以外の生理情報としては、例えば、心拍、呼吸、皮膚電位活動がある。これらの生理情報は、腕時計型や胸バンド型の装置を用いることにより、脳波計測よりも簡便に計測可能である。そこで、本実施の形態では、これらの生理情報の中から心拍を用いて、脳波により定義された集中度を推定する。
集中度には個人差が見られ、心拍等の生理情報が同じときでも人によって集中度が異なる場合がある。しかし、これらの生理情報と集中度との関係には、個人毎のデータが存在しない場合がある。そこで、この関係を個人適合させるために、集中度と相関のある使用者が入力する主観的な集中度と使用者による入力の反応時間を用いて学習を行う。
この学習としては、例えば、サポートベクタマシンに代表される機械学習手法で多クラス分類(特に、2クラス分類)又は回帰モデルを学習する。この学習には、不特定多数の人から取得した基本学習データセットと使用者から取得した追加学習データセットを用いる、基本学習データは、事前に集中するタスクと安静するタスクを実施したときの脳波のθ波含有率(集中度)と心拍の特徴量とを同時に計測して、θ波含有率を閾値判定した集中度と心拍特徴量とをセットとしたデータである。追加学習データは、使用者によって入力された主観集中度や反応時間を収集するとともにそれに対応した使用者の心拍の特徴量を計測し、この主観集中度や反応時間から変換された集中度と心拍特徴量とをセットしたデータである。
本実施の形態で用いる心拍特徴量について説明しておく。本実施の形態では、使用者から検出された心電位から複数の心拍特徴量を抽出する。この抽出方法としては、心電位の時系列データからRR間隔(R波とR波の間隔)データを取得し、所定時間(例えば、3分間)のRR間隔データから心拍特徴量を算出する。この心拍特徴量としては、RRV、LF/HF、重心周波数、ピーク周波数の4つの特徴量を用いる。RRVは、RR間隔の分散である。LF/HFは、RR間隔のパワースペクトルのうちLF成分(0.04〜0.15[Hz])をHF成分(0.15〜0.4[Hz])で除算したものである。重心周波数は、RR間隔のパワースペクトルの重心を示す周波数である。ピーク周波数は、RR間隔のパワースペクトルの最大値を示す周波数である。本実施の形態では、このRRV、LF/HF、重心周波数、ピーク周波数の各値からなるベクトルを心拍特徴量ベクトルxと呼ぶ。
図2には、この4つの心拍特徴量から推定した集中度と脳波のθ波含有量による集中度との比較例を示す。ここでは、ある被験者から心電位と脳波とを同時に検出し、心電位から4つの心拍特徴量を算出するとともに脳波からθ波含有率を取得した。本実施の形態では、集中度を集中と安静の2クラスで判別する。また、本実施の形態では、4つの心拍特徴量から2クラスの集中度を判別する手法として、2次判別分析(QDA[Quadratic Discriminant Analysis])を用いる。図2では、θ波含有率の時間変化G1を閾値Sを用いて判別しており、閾値Sより大きい場合を集中とし、閾値S以下の場合を安静としている。この判別結果を、正解ラベルとして○印で示している。閾値Sは、実験等によって適宜設定される。また、心拍特徴量から推定した集中度を、推定ラベルとして×印で示している。この集中の正解ラベルと推定ラベルとを比較するとともに安静の正解ラベルと推定ラベルとを比較すると、正解ラベルと推定ラベルとが一致する部分が多い。この結果から、この心拍と脳波のθ波含有率(集中度)との間に相関があることが判る。
なお、本実施の形態には、3つの形態がある。第1の実施の形態は、集中度推定装置の基本の形態である。第2の実施の形態は、追加学習データのデータ量が増えるほど追加学習データを重視して学習を行う形態である。第3の実施の形態は、使用者からの主観集中度等の収集率を高めるための形態である。
それでは、図1を参照して、第1の実施の形態に係る集中度推定装置1について具体的に説明する。図1は、本実施の形態に係る集中度推定装置の構成図である。
集中度推定装置1は、心拍センサ10、記憶部11、収集部12、変換部13、学習部14、集中度推定部15、表示部16を備えている。記憶部11、収集部12、変換部13、学習部14、集中度推定部15、表示部16は、スマートフォン内に構成される。心拍センサ10は、スマートフォンと無線通信可能である。なお、第1の実施の形態では、心拍センサ10が特許請求の範囲に記載する第1情報検出手段に相当し、収集部12が特許請求の範囲に記載する第2情報収集手段に相当し、変換部13が特許請求の範囲に記載する変換手段に相当し、学習部14が特許請求の範囲に記載する学習手段に相当し、集中度推定部15が特許請求の範囲に記載する集中度推定手段に相当する。
心拍センサ10について説明する。心拍センサ10は、心電位を検出するセンサである。心拍センサ10は、使用者の胸部に装着される胸バンド型である。心拍センサ10は、スマートフォンと無線通信するために、Bluetooth(登録商標)等の無線通信機能を有している。心拍センサ10では、常時、使用者の心電位を検出し、検出した心電位を無線通信でスマートフォンに送信する。
記憶部11について説明する。記憶部11は、スマートフォンのメモリ装置の所定の領域に構成される。記憶部11は、学習部14で用いる学習データを記憶する。学習データには、記憶部11に事前に記憶されている基本学習データと使用者から収集する毎に記憶部11に記憶される追加学習データとがある。学習データは、心拍特徴量ベクトルx(RRV、LF/HF、重心周波数、ピーク周波数)と集中度ベクトルw(安静クラスの確率、集中クラスの確率)との対からなる。
基本学習データは、使用開始前に不特定多数の人から取得された学習データである。この基本学習データの作成方法について説明する。事前の予備実験で、不特定多数の人から、脳波と心電位とを同時に所定時間分検出する。脳波からθ波含有率を取得すると、図3に示すように、θ波含有率G2を閾値Sを用いて判別する。そして、閾値Sより大きい場合、集中クラスの確率を1とし、安静クラスの確率を0とする。閾値S以下の場合、安静クラスの確率を1とし、集中クラスの確率を0とする。また、心電位からRR間隔を取得すると、RR間隔からRRV、LF/HF、重心周波数、ピーク周波数を算出する。図4には、記憶部11に記憶される基本学習データx,x,・・・の一例を示している。なお、使用者本人の脳波や心電位を事前に検出できるのであれば、使用者本人の基本学習データを作成し、記憶部11に記憶しておいてもよい。
追加学習データは、使用開始後に使用者から取得された学習データである。追加学習データの心拍特徴量ベクトルxについては集中度推定部15で作成されるので、集中度推定部15で説明する。追加学習データの集中度ベクトルwについては変換部13で作成されるので、変換部13で説明する。図4には、記憶部11に記憶される追加学習データx’,x’,・・・の一例を示している。
収集部12について説明する。収集部12では、使用者に入力させることによって使用者が集中している度合いの指標を収集する。この指標としては、使用者が判断する主観的な集中度と、使用者のタスクに対する集中度(本実施の形態では、タスクに対する反応時間)とがある。収集部12は、スマートフォンの表示機能とタッチパネル機能を利用する。具体的には、収集部12では、スマートフォンのディスプレイに使用者に入力させるための案内画面を表示させ、案内画面に従って使用者にタッチパネルで画面入力させる。そして、収集部12では、その入力された情報を記録する。この記録された情報は、変換部13で使われる。
主観集中度は、VAS[Visual Analog Scale]によって収集される。VASとは、100[mm]の水平な直線の両端に0[集中していなかった]と100[集中していた]が記載されており、使用者の主観で最もよく当てはまる位置に水平線に対して線を引いてもらう手法である。図5(a)には、VASによる主観集中度を入力させるためのディスプレイでの表示画面例が示されており、「集中していた」寄りの位置に使用者によって入力された線が引かれている。収集部12では、この100mmの水平線に対して引かれた線の左端からの距離をmm単位で計測し、その値を主観集中度とする。主観集中度を収集する場合、デスクワーク(例えば、パソコンによる文章作成)、会議等の作業が終わってから、その作業のときの主観的な集中度を使用者に入力させる。この入力される主観集中度に対応する心拍特徴量の計測区間は、図6(a)に示すように、主観集中度の入力タイミングよりも前の区間(デスクワーク、会議等の作業を行っている区間)となる。
反応時間は、例えば、ディスプレイの画面内の所定の部分が光ってから使用者が画面を押すまでの時間が収集される。反応時間の収集は、1回だけ収集し、その1回の反応時間としてもよいし、あるいは、所定時間(例えば、5分間)の間に複数回収集し、その平均反応時間としてもよい。図5(b)には、反応時間を収集するためのディスプレイでの表示画面例が示されており、画面の中心の円部分が光るとタッチパネル機能で使用者によって押される。収集部12では、この光ってから押されるまでの時間を計測し、反応時間とする。反応時間の収集する場合、デスクワーク、会議等の作業が行われていない任意の時間に行ってよい。この収集される反応時間に対応する心拍特徴量の計測区間は、図6(b)に示すように、反応時間を入力させる課題を実施している区間と同じ区間である。この区間で反応時間が複数回収集された後に、その複数回の反応時間の平均値が算出される。
変換部13について説明する。変換部13は、収集部12によって収集された主観集中度や反応時間を集中度(安静クラスの所属確率と集中クラスの所属確率)に変換する。変換部13での処理について具体的に説明する前に、各クラスの所属確率の求め方を説明する。図7には、5名の任意の人による事前実験で収集した主観集中度及び反応時間とθ波含有率(集中度)との関係の一例を示している。図7(a)には主観集中度とθ波含有率との関係を示しており、θ波含有率が高まるほど主観集中度が上昇している。このデータを線形回帰すると、線形回帰線L1が得られる。また、図7(b)には反応時間とθ波含有率との関係を示しており、θ波含有率が高まるほど反応時間が短縮している。このデータを線形回帰すると、線形回帰線L2が得られる。この図7の例からも判るように、主観集中度や反応時間は、人が入力する情報であるので、入力した人の集中度(脳波のθ波含有率)との間に相関がある。したがって、この相関関係を線形回帰によって抽出することにより、主観集中度や反応時間からθ波含有率(集中度)を推定できる。
しかし、図7の例でも判るように、主観集中度や反応時間は、人の主観的な入力や人の行動であるので、集中度(脳波のθ波含有率)との間にばらつきがある。このように集中度と主観集中度や反応時間との間にはばらつき(誤差)が存在するので、主観集中度や反応時間を学習に用いる場合にはこのばらつきによる不確実性を考慮する必要がある。図8に示すように、θ波含有率(集中度)と主観集中度との間のばらつきについては、本実施の形態ではガウス分布Dに従うと仮定する。このガウス分布については、式(1)の線形回帰式f(x)及びその回帰残差の分散σを求め、これをガウス分布のパラメータ(平均f(x)、分散σ)とする。本実施の形態では、ガウス分布Dにおいて閾値Sより大きい部分(斜線部分)の面積の割合を集中クラスの所属確率とし、ガウス分布Dにおいて閾値Sより小さい部分(無地部分)の面積の割合を安静クラスの所属確率とする。この面積については、正規分布表や公知の関数から求めることができる。なお、相関関係について、線形回帰以外にも、2次多項式等の非線形な関数を用いてもよい。
Figure 0006191242
式(1)で示す線形回帰式f(x)及び分散σを求めるためには、脳波(θ波含有率)のデータと主観集中度や反応時間のデータが必要となる。脳波については、基本的には、使用者から計測することができない。そこで、事前の予備実験で、不特定多数の人から、脳波を計測するとともに、主観集中度や反応時間を収集する。この各データの収集は、基本学習データの収集と合わせて行うとよい。そして、この脳波(θ波含有率)データと主観集中度や反応時間の各データとを用いて線形回帰を行い、主観集中度についての線形回帰式f(x)及びその回帰残差の分散σ、反応時間についての線形回帰式f(x)及びその回帰残差の分散σをそれぞれ求める。変換部13では、この事前に求めておいた線形回帰式f(x)及び分散σを用いる。なお、使用者の脳波を計測できる場合、変換部13で使用者の脳波のデータに基づく線形回帰式f(x)及び分散σを求めるようにしてもよい。使用者の線形回帰式f(x)及び分散σを求めることができれば、使用者個人への適合をより精度良く行うことができる。
変換部13では、収集部12で主観集中度が収集されると、その主観集中度に応じたガウス分布を主観集中度についての線形回帰式f(x)及び分散σを用いて設定し、そのガウス分布を閾値Sで分割して安静クラスの所属確率と集中クラスの所属確率を算出する。また、変換部13では、収集部12で反応時間が収集されると、その反応時間に応じたガウス分布を反応時間についての線形回帰式f(x)及び分散σを用いて設定し、そのガウス分布を閾値Sで分割して安静クラスの所属確率と集中クラスの所属確率を算出する。この変換部13で安静クラスの所属確率と集中クラスの所属確率に変換される毎に、集中度推定部15で算出される該当する区間の4つの心拍特徴量が対応付けられ、心拍特徴量ベクトルx’と集中度ベクトルw’との対で記憶部11に追加学習データとして記憶される。学習部14では、使用者個人に適合させるために、この心拍特徴量ベクトルx’と、集中度ベクトルw’を学習データとして学習する。
学習部14について説明する。学習部14は、記憶部11に記憶されている基本学習データと追加学習データを用いて2次判別分析による学習を行う。この学習では、安静クラスと集中クラスに分けて学習を行い、各クラスの平均ベクトルと分散共分散行列を算出する。具体的には、学習部14では、式(2)により、クラスj毎に重み付き標本平均ベクトルをそれぞれ算出する。さらに、学習部14では、算出した重み付き標本平均ベクトルを用いて、式(3)により、クラスj毎に重み付き標本分散共分散Sをそれぞれ算出する。なお、jは、クラス番号であり、{1(=安静クラス),2(=集中クラス)}である。lは、基本学習データの個数である。uは、追加学習データの個数である。wijは、重みベクトル(集中度ベクトル)であり、{wi1(=安静クラスの確率),wi2(=集中クラスの確率)}である。xは、心拍特徴量ベクトルである。
Figure 0006191242
この学習部14で求められた各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散は、集中度推定部15で心拍特徴量ベクトルから集中度を推定する際に用いられる。なお、学習部14での学習頻度は、追加学習データが1個追加される毎に学習を行ってもよいし、あるいは、追加学習データが所定個追加される毎に学習を行ってもよい。
集中度推定部15について説明する。集中度推定部15は、心拍センサ10で検出された心電位を用いて4つの心拍特徴量を算出し、この4つの心拍特徴量から2クラスの集中度(θ波含有率が小さい場合の安静クラスと大きい場合の集中クラス)を推定する。この推定は、上記したように2次判別分析(QDA)によって行われ、学習部14で学習が既に行われている場合にはその学習結果(各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散)が用いられる。具体的には、集中度推定部15では、心拍センサ10で検出された所定時間分の心電位の時系列データからRR間隔データを取得し、この所定時間分のRR間隔データからRRV、LF/HF、重心周波数、ピーク周波数を算出する。そして、集中度推定部15では、RRV、LF/HF、重心周波数、ピーク周波数からなる心拍特徴量ベクトルxを用いて、式(4)により、クラスj毎にマハラノビス距離D(x)をそれぞれ算出する。さらに、集中度推定部15では、この各クラスのマハラノビス距離D(x)を用いて、式(5)により、集中度(安静クラス、集中クラス)c(x)を推定する。なお、追加学習データがなく、学習部14で学習が未だ行われていない初期段階の場合、各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散については事前に設定されている初期値を用いる。
Figure 0006191242
表示部16について説明する。表示部16は、スマートフォンのディスプレイによる表示機能を用いる。表示部16では、集中度推定部15での集中度の推定結果(安静クラス、集中クラス)をディスプレイに表示する。なお、表示部16では、集中度の推定結果以外にも、その推定結果に関連する他の情報を表示してもよい。
図1を参照して、集中度推定装置1における動作の流れを簡単について説明する。使用者のスマートフォンには、集中度推定用アプリケーションが組み込まれている。記憶部11には、基本学習データが事前に格納されている。また、変換部13には、主観集中度についての線形回帰線f(x)と分散σ及び反応時間についての線形回帰線f(x)と分散σが事前に設定されている。心拍センサ10は、使用者の胸部に装着される。
使用開始すると、常時、心拍センサ10では、使用者の心電位を検出し、その心電位データをスマートフォンに無線送信する。スマートフォンでは、この心電位データを受信する。集中度推定部15では、所定時間分の心電位データからRR間隔データを抽出し、所定時間分のRR間隔データからRRV、LF/HF、重心周波数、ピーク周波数(心拍特徴量ベクトル)を算出する。
使用者から主観集中度を収集できる場合、収集部12では、VASによって使用者の主観集中度を収集する。あるいは、使用者の反応時間を収集できる場合、収集部12では、使用者の反応の入力動作によって反応時間を収集する。収集部12で主観集中度又は反応時間を収集する毎に、変換部13では、その主観集中度又は反応時間に応じたガウス分布を線形回帰式f(x)と分散σを用いて設定し、そのガウス分布を閾値Sで分割して安静クラスの所属確率と集中クラスの所属確率を算出する。この算出された各クラスの所属確率からなる集中度ベクトルと対応する区間の心拍特徴量ベクトルとは、記憶部11に追加学習データとして記憶される。
記憶部11に追加学習データが新たに追加されると、学習部14では、式(2)によりクラスj毎に重み付き標本平均ベクトルをそれぞれ算出する。さらに、学習部14では、この各クラスjの重み付き標本平均ベクトルを用いて、式(3)によりクラスj毎に重み付き標本分散共分散をそれぞれ算出する。
集中度推定部15では、心拍特徴量ベクトルxを算出する毎に、各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散を用いて、式(4)によりクラスj毎にマハラノビス距離をそれぞれ算出する。さらに、集中度推定部15では、この各クラスのマハラノビス距離を用いて、式(5)により集中度のクラスを推定する。表示部16では、この推定した集中度(安静クラス、集中クラス)をディスプレイに表示する。
この集中度推定装置1によれば、使用者の入力による主観集中度や反応時間を収集し、使用者の心拍特徴量と、主観集中度や反応時間から変換した集中度を学習データとして学習することにより、心拍特徴量と集中度(脳波のθ波)との関係を使用者個人に適合させることができ、使用者の集中度を高精度に推定できる。
また、集中度推定装置1によれば、対象者の入力による主観集中度や反応時間のばらつき(ひいては、主観集中度や反応時間から変換される集中度のばらつき)を加味して学習を行うことにより、不確実性のある追加学習データの学習への影響を抑えることができ、学習によって集中度の推定結果が急激に変化せず、安定した推定が可能となる。例えば、誤差が大きい主観集中度や反応時間があった場合でも、推定結果への影響が小さい。また、集中度推定装置1によれば、使用者の追加学習データを徐々に追加していくので、集中度の推定の傾向が緩やかに個人適合してゆくため、違和感がない。
また、集中度推定装置1によれば、スマートフォンのタッチパネル機能を利用して主観集中度の入力や単純なタスクに対する入力を使用者にさせるだけなので、追加学習データを簡単に収集することができる。使用者は、このような入力を行うだけなので、負担が少ない。また、集中度推定装置1によれば、使用者が常時携帯するスマートフォンに構成することにより、使用者の主観集中度や反応時間を収集する機会を増やすことができ、多くの追加学習データを収集することができる。
図1を参照して、第2の実施の形態に係る集中度推定装置2について説明する。この集中度推定装置2は、第1の実施の形態に係る集中度推定装置1と比較すると、追加学習データの個数が増えるほど追加学習データを重視して学習を行う点が異なる。したがって、集中度推定装置2は、第1の実施の形態に係る集中度推定装置1の学習部14に代えて、学習部24を備えている。第2の実施の形態では、学習部24が特許請求の範囲に記載する学習手段に相当する。第2の実施の形態では、この学習部24についてのみ説明する。
第1の実施の形態に係る集中度推定装置1では、基本学習データと追加学習データとを同様に取り扱って学習を行った。しかし、この学習は使用者個人に適合させるための学習であるが、基本学習データは使用者から得たデータでない。そこで、集中度推定装置2では、追加学習データの個数が多くなるほど、基本学習データの学習に及ぼす影響を小さくすることによって追加学習データを重視して学習を行う。
学習部24での具体的な処理について説明する。学習部24は、第1の実施の形態に係る学習部14での学習に、追加学習データの個数の増加に応じた重みを加えて学習を行う。具体的には、学習部24では、式(6)で示す重みパラメータaを導入する。この重みパラメータaは、追加学習データで学習する場合の重みを1に固定し、基本学習データで学習する場合の重みを追加学習データの個数uの割合が増加するほど小さくする。学習部24では、この重みパラメータaを用いて、式(7)により、クラスj毎に重み付き標本平均ベクトルをそれぞれ算出する。さらに、学習部24では、各クラスの重み付き標本平均ベクトル及び重みパラメータaを用いて、式(8)により、クラスj毎に重み付き標本分散共分散Sをそれぞれ算出する。
Figure 0006191242
この集中度推定装置2によれば、追加学習データの個数が増えるほど追加学習データを重視して学習を行うことにより、追加学習データの学習に及ぼす影響が大きくなり(基本学習データの学習に及ぼす影響が小さくなり)、心拍特徴量と集中度(脳波のθ波)との関係を使用者個人により適合させることができ、使用者の集中度をより高精度に推定できる。
図1を参照して、第3の実施の形態に係る集中度推定装置3について説明する。この集中度推定装置3は、第1の実施の形態に係る集中度推定装置1又は第2の実施の形態に係る集中度推定装置2と比較すると、使用者の入力による主観集中度等の収集方法を改善した点が異なる。したがって、集中度推定装置3は、第1、2の実施の形態に係る集中度推定装置1、2の収集部12に代えて、収集部32を備えている。第3の実施の形態では、収集部32が特許請求の範囲に記載する第2情報収集手段に相当する。第3の実施の形態では、この収集部32についてのみ説明する。
第1、2の実施の形態に係る集中度推定装置1、2では、デスクワーク等の作業を実施した後に、その作業の実施中の主観集中度を使用者に入力させている。しかし、使用者によっては入力を失念してしまい、主観集中度を収集できないと、追加学習データを十分に得られない。そこで、集中度推定装置3では、使用者の行動認識を行い、行動認識の結果に応じて使用者に対して主観集中度の入力を促す。例えば、デスクワーク中に歩行が認識された場合、デスクワークが中断又は終了したことを示していると考えられる。そこで、デスクワーク終了後に主観集中度が入力されていない状態で歩行した場合、歩行終了後の静止状態において使用者に歩行開始前のデスクワーク中の主観集中度の入力を促す。歩行しているか否かの判断には、スマートフォンに搭載される加速度センサを利用する。また、使用者に対する入力の促しには、スマートフォンのバイブレータ機能やアラーム機能を利用する。
収集部32での具体的な処理について説明する。収集部32は、スマートフォンの加速度センサで検出した加速度のノルムが閾値以上か否かを判定し、閾値以上の場合には使用者が歩行しているかあるいは何らかの作業をしている状態と推定し、閾値未満の場合には使用者が着座している状態と推定する。使用者が着座している状態(静止状態)と推定した場合、収集部32では、その静止状態が一定時間以上続くと、バイブレータ機能で振動させたりあるいはアラーム機能でアラーム音を発生させるとともに、ディスプレイにVASによる主観集中度を入力させるための画面を表示させる。この表示する画面には、例えば、「歩行する前のデスクワーク中の集中度を入力して下さい」といく文章を挿入する。なお、加速度のノルムを判定する方法以外にも、加速度のノルムを周波数解析するなどの他の種々の方法で判定してもよい。また、加速度以外の情報を用いて歩行しているかを推定してもよい。
歩行している区間は、運動による心拍の変動が大きくなる。したがって、この区間の心拍特徴量は、追加学習データとして用いることはできない。そこで、歩行後に入力される主観集中度に対応する心拍特徴量の計測区間は、図9に示すように、歩行する前の区間とする。
なお、静止状態と推定した場合に、心拍に急激な変動があったときに主観集中度の入力を促してもよい。また、心拍等の生理情報を取得し、取得した生理情報が大きく変動した時刻を記録しておき、その生理情報が定常状態に戻った後にその大きく変動したときの時刻とその変動した事実を示し、その時刻のときの主観集中度の入力を促してもよい。また、任意のイベントが終了した後に主観集中度の入力を促してもよい。また、作業が持続していると考えられる場合(例えば、使用者の集中度が高い状態が継続した場合)、安静と推定されるまで主観集中度の入力を待ってもよい。また、主観集中度を1度だけ入力させるのではなく、上記した各入力を促すタイミングを基点として所定時間間隔(例えば、10分間隔)で主観集中度の入力を複数回促してもよい。また、主観集中度の例を示しているが、反応時間についても同様に適用可能できる。
この集中度推定装置3によれば、使用者の行動や生理状態等を認識することにより、主観集中度等の入力を適切なタイミングで促すことができ、より多くの追加学習データを収集することができる。その結果、使用者個人により適合させることができ、使用者の集中度をより高精度に推定できる。
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。
例えば、本実施の形態ではスマートフォンを利用して集中度推定装置を構成したが、スマートフォン以外の携帯端末に集中度推定装置を構成してもよいし、タブレット型パソコンやノートパソコン等の携帯型のパソコンに集中度推定装置を構成してもよいし、車両に搭載のカーナビゲーションシステムに集中度推定装置を構成してもよいし、デスクトップ型のパソコンに集中度推定装置を構成してもよいし、あるいは、検出した心拍データや収集した主観集中度等をセンタのサーバやクラウドコンピュータ等に送信して、これらの遠隔のコンピュータにおいて集中度推定装置を構成してもよい。カーナビゲーションシステムに集中度推定装置を構成した場合、車両情報から車両の停車中を判断し、停車時間が一定時間続いたときにナビゲーション画面で主観集中度等の入力を促すことができる。このように構成することにより、車両運転中にスマートフォン等を操作できない状況でも運転終了後に追加学習データを収集することができ、収集率を向上できる。
また、本実施の形態では集中度と相関のある第1の情報として心拍を適用したが、第1の情報としては集中度と相関があれば他の情報でもよく、例えば、呼吸、皮膚電位活動等の他の生理情報でもよいし、体の揺れや目の動き等の体の動きの情報でもよいし、車両の運転者の場合には車間距離、ステアリング操作のふらつき、ヨーレートの変化等の運転情報でもよい。
また、本実施の形態では使用者によって入力される集中度と相関のある第2の情報としてスマートフォンのタッチパネルを利用した主観集中度や反応時間を適用したが、第2の情報としては集中度と相関のある他の情報でもよく、例えば、計算課題の回答時間や正答率、アクションゲームの反応時間や得点がある。また、入力方法についても、音声等の他の入力でもよい。
また、本実施の形態では集中度として集中と安静の2クラスで推定する構成としたが、集中度を3クラス以上で推定してもよい。
1,2,3…集中度推定装置、10…心拍センサ、11…記憶部、12,32…収集部、13…変換部、14,24…学習部、15…集中度推定部、16…表示部。

Claims (2)

  1. 対象者の集中度を推定する集中度推定装置であって、
    対象者から集中度と相関のある第1の情報を検出する第1情報検出手段と、
    前記第1情報検出手段で検出した第1の情報を所定の演算式に適用する演算により集中度を推定する集中度推定手段と、
    対象者の入力による集中度と相関のある第2の情報を収集する第2情報収集手段と、
    前記第2情報収集手段で収集した第2の情報を集中度に変換する変換手段と、
    前記第2情報収集手段で収集した第2の情報に対応する前記第1情報検出手段で検出した第1の情報と、前記変換手段で変換した集中度と、を学習データとして前記演算式に適用することで、前記演算の修正を行って学習する学習手段と、
    を備え、
    前記集中度推定手段は、前記学習手段での学習結果及び前記第1の情報を用いて集中度を推定することを特徴とする集中度推定装置。
  2. 前記変換手段は、前記第2の情報から変換される集中度についてのばらつきを算出し、
    前記学習手段は、前記変換手段で算出した集中度のばらつきを加味して学習することを特徴とする請求項1に記載の集中度推定装置。
JP2013114236A 2013-05-30 2013-05-30 集中度推定装置 Active JP6191242B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013114236A JP6191242B2 (ja) 2013-05-30 2013-05-30 集中度推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013114236A JP6191242B2 (ja) 2013-05-30 2013-05-30 集中度推定装置

Publications (2)

Publication Number Publication Date
JP2014230717A JP2014230717A (ja) 2014-12-11
JP6191242B2 true JP6191242B2 (ja) 2017-09-06

Family

ID=52124486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013114236A Active JP6191242B2 (ja) 2013-05-30 2013-05-30 集中度推定装置

Country Status (1)

Country Link
JP (1) JP6191242B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6468637B2 (ja) * 2014-12-25 2019-02-13 東芝情報システム株式会社 眠気推定装置及び眠気推定プログラム
JP6468636B2 (ja) * 2014-12-25 2019-02-13 東芝情報システム株式会社 眠気推定ルール更新装置及び眠気推定ルール更新プログラム
JP6468635B2 (ja) * 2014-12-25 2019-02-13 東芝情報システム株式会社 眠気推定装置及び眠気推定プログラム
JP6749696B2 (ja) * 2015-06-02 2020-09-02 国立研究開発法人理化学研究所 復元装置、復元方法、プログラム、ならびに、情報記録媒体
JP6475114B2 (ja) * 2015-07-07 2019-02-27 サイバートラスト株式会社 生体情報管理システム、生体情報管理方法および生体情報管理プログラム
JP6813897B2 (ja) * 2015-12-12 2021-01-13 デルタ工業株式会社 生体状態推定装置、生体状態推定方法、コンピュータプログラム及び記録媒体
US9955925B2 (en) * 2015-12-18 2018-05-01 Microsoft Technology Licensing, Llc Drowsiness onset detection
JP6761433B2 (ja) * 2016-02-19 2020-09-23 株式会社半導体エネルギー研究所 装置、測定方法及び評価方法
KR102068658B1 (ko) * 2016-11-30 2020-01-22 동국대학교 산학협력단 유아 지능 계발을 위한 교육 시스템 및 그 운영방법
JP6791361B2 (ja) * 2017-03-30 2020-11-25 日本電気株式会社 情報処理装置と方法とプログラム
JP6935774B2 (ja) * 2018-03-14 2021-09-15 オムロン株式会社 推定システム、学習装置、学習方法、推定装置及び推定方法
JP6966363B2 (ja) * 2018-03-14 2021-11-17 オムロン株式会社 推定システム、推定装置及び推定方法
KR102214460B1 (ko) * 2018-10-02 2021-02-09 상명대학교산학협력단 심전도를 이용한 집중도 인식 방법 및 장치
JP7297236B2 (ja) * 2019-04-04 2023-06-26 株式会社Nttドコモ 推定処理装置及び推定モデル構築装置
JP7369946B2 (ja) * 2019-06-11 2023-10-27 パナソニックIpマネジメント株式会社 集中度計測装置、集中度計測方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09135826A (ja) * 1995-11-15 1997-05-27 Omron Corp 集中度判定方法、目の疲労度判定方法、及び難易度制御方法
JP2007079647A (ja) * 2005-09-09 2007-03-29 Fuji Xerox Co Ltd 情報処理システム、情報処理方法およびプログラム
JP2010057710A (ja) * 2008-09-04 2010-03-18 Toyota Central R&D Labs Inc 集中度算出装置及びプログラム
JP2012146208A (ja) * 2011-01-13 2012-08-02 Nikon Corp 電子機器および電子機器の制御プログラム

Also Published As

Publication number Publication date
JP2014230717A (ja) 2014-12-11

Similar Documents

Publication Publication Date Title
JP6191242B2 (ja) 集中度推定装置
US10475351B2 (en) Systems, computer medium and methods for management training systems
US9740827B2 (en) Method and system for monitoring intoxication
US9655559B2 (en) Automated sleep staging using wearable sensors
EP3582123A1 (en) Emotion state prediction method and robot
US9551608B2 (en) Wearable device and method for controlling the same
CN107209807B (zh) 疼痛管理可穿戴设备
EP3474287A1 (en) Apparatus and method for correcting error of bio-information sensor, and apparatus and method for estimating bio-information
Appel et al. Predicting cognitive load in an emergency simulation based on behavioral and physiological measures
US20100145214A1 (en) system and method for processing brain signals in a bci system
KR102436726B1 (ko) 생리학적 노화 수준을 평가하는 방법 및 장치
US10877444B1 (en) System and method for biofeedback including relevance assessment
CN109480800B (zh) 用于估计生物信息的设备和方法及血压监视装置
US9769166B1 (en) Wearable sensor based system for person identification
WO2011158965A1 (ja) 感性評価システム、感性評価方法、およびプログラム
US20220031239A1 (en) System and method for collecting, analyzing and sharing biorhythm data among users
KR20200040564A (ko) 혈압 추정 장치 및 방법과, 혈압 추정 지원 장치
CN113271851A (zh) 通过监控用户的情绪状态和增强目标状态来改善用户之间的交互的系统和方法
US20210106290A1 (en) Systems and methods for the determination of arousal states, calibrated communication signals and monitoring arousal states
WO2018087286A1 (en) Methods and apparatuses for handgrip strength assessment using pressure-sensitive elements
JP2018195164A (ja) 解析装置、解析プログラム及び解析方法
JP2016129629A (ja) 生体状態推定装置
EP3449824A1 (en) Bioinformation measurement device, method for determining correctness of bioinformation, and program for determining correctness of bioinformation
KR20190080598A (ko) 생체신호를 이용한 감성 검출 시스템 및 그 방법
EP3501385A1 (en) System and method for determining a subject's stress condition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170724

R151 Written notification of patent or utility model registration

Ref document number: 6191242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151