JP2014230717A - Concentration level estimation device - Google Patents

Concentration level estimation device Download PDF

Info

Publication number
JP2014230717A
JP2014230717A JP2013114236A JP2013114236A JP2014230717A JP 2014230717 A JP2014230717 A JP 2014230717A JP 2013114236 A JP2013114236 A JP 2013114236A JP 2013114236 A JP2013114236 A JP 2013114236A JP 2014230717 A JP2014230717 A JP 2014230717A
Authority
JP
Japan
Prior art keywords
concentration
information
degree
learning
concentration level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013114236A
Other languages
Japanese (ja)
Other versions
JP6191242B2 (en
Inventor
梶 洋隆
Hirotaka Kaji
洋隆 梶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013114236A priority Critical patent/JP6191242B2/en
Publication of JP2014230717A publication Critical patent/JP2014230717A/en
Application granted granted Critical
Publication of JP6191242B2 publication Critical patent/JP6191242B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a concentration level estimation device capable of estimating a concentration level according to individual differences with a high degree of precision.SOLUTION: A concentration level estimation device 1 for estimating a concentration level of an object person includes: a heartbeat sensor 10 for detecting the information on heartbeats from the object person; a concentration level estimation part 15 for estimating a concentration level from the information on the heartbeats; a collection part 12 for collecting a subjective concentration level correlated with the concentration level by the input of the object person, a reaction time, etc.; a conversion part 13 for converting the subjective concentration level, the reaction time, etc. into a concentration level; and a learning part 14 for learning the heartbeat information corresponding to the input subjective concentration level, the reaction time, etc. and the concentration level converted by the conversion part 13 as learning data. The concentration level estimation part 15 estimates the concentration level from the heartbeat information using the result of the learning at the learning part 14.

Description

本発明は、集中度推定装置に関する。   The present invention relates to a concentration estimation apparatus.

人の集中度は、脳波(特に、θ波)と深い関係があることが知られている。しかし、日常、人から脳波を計測するのは難しい。そこで、集中度と相関のある生理情報(心拍、呼吸、皮膚電位活動等)を検出し、生理情報を用いて集中度を推定する技術が提案されている。特許文献1には、人から計測した複数の生体情報(心拍、呼吸、皮膚抵抗値等)と、複数の生体情報と集中状態とを対応付けた集中度ルール設定情報とから集中度を推定し、その推定した集中度を表示する集中度推定装置が開示されている。   It is known that the degree of human concentration has a deep relationship with brain waves (especially θ waves). However, it is difficult to measure brain waves from people every day. Therefore, a technique has been proposed in which physiological information (such as heartbeat, respiration, and skin potential activity) that correlates with the concentration level is detected and the concentration level is estimated using the physiological information. In Patent Document 1, the degree of concentration is estimated from a plurality of pieces of biological information (such as heart rate, respiration, and skin resistance value) measured from a person, and concentration level rule setting information that associates the pieces of biological information with the concentration state. A concentration level estimation device that displays the estimated concentration level is disclosed.

特開平9−262216号公報Japanese Patent Laid-Open No. 9-262216 特開2008−79737号公報JP 2008-79737 A 特開2012−63885号公報JP 2012-63885 A 特開2012−10856号公報JP 2012-10856 A 特開2011−167323号公報JP 2011-167323 A

集中度には個人差が見られるため、個人差に応じた集中度の推定を行う上では改善の余地がある。特許文献1に開示されている集中度推定装置の場合、複数の生体情報と集中状態とを対応付けた集中度ルール設定情報に従って集中度を推定しており、この推定された集中度には個人差が反映されていない。   Since there are individual differences in the degree of concentration, there is room for improvement in estimating the degree of concentration according to individual differences. In the case of the concentration estimation device disclosed in Patent Document 1, the concentration is estimated according to the concentration rule setting information in which a plurality of pieces of biological information are associated with the concentration state. The difference is not reflected.

そこで、本発明は、個人差に応じて集中度を高精度に推定できる集中度推定装置を提供することを課題とする。   Therefore, an object of the present invention is to provide a concentration degree estimation device that can estimate the degree of concentration with high accuracy according to individual differences.

本発明に係る集中度推定装置は、対象者の集中度を推定する集中度推定装置であって、対象者から集中度と相関のある第1の情報を検出する第1情報検出手段と、第1情報検出手段で検出した第1の情報から集中度を推定する集中度推定手段と、対象者の入力による集中度と相関のある第2の情報を収集する第2情報収集手段と、第2情報収集手段で収集した第2の情報を集中度に変換する変換手段と、第2情報収集手段で収集した第2の情報に対応する第1情報検出手段で検出した第1の情報と、変換手段で変換した集中度を学習データとして学習する学習手段とを備え、集中度推定手段は、学習手段での学習結果を用いて第1の情報から集中度を推定することを特徴とする。   A concentration level estimation apparatus according to the present invention is a concentration level estimation device for estimating a concentration level of a target person, and includes first information detection means for detecting first information correlated with the concentration level from the target person, A concentration degree estimating means for estimating the degree of concentration from the first information detected by the one information detecting means; a second information collecting means for collecting second information correlated with the concentration degree by the input of the subject; Conversion means for converting the second information collected by the information collection means into a degree of concentration, first information detected by the first information detection means corresponding to the second information collected by the second information collection means, and conversion Learning means for learning the concentration degree converted by the means as learning data, and the concentration degree estimation means estimates the concentration degree from the first information using the learning result of the learning means.

この集中度推定装置では、第1情報検出手段によって集中度と相関のある第1の情報を対象者から検出する。この第1の情報は、人の集中度と相関があるので、集中度の推定に用いることができ、例えば、心拍、呼吸、皮膚電位活動等の生理情報である。また、集中度推定装置では、第2情報収集手段によって集中度と相関のある第2の情報を対象者から収集する。この第2の情報は、人の入力による集中度と相関のある情報であるので、第1の情報と集中度との関係を個人適合させるために用いることができ、例えば、人によって入力される主観的な集中度、任意のタスクに対する反応時間である。集中度推定装置では、変換手段によって第2の情報を集中度に変換し、学習手段によって第2の情報に対応する第1の情報と、第2の情報から変換した集中度を学習データとして学習する。この学習により、第1の情報と集中度との関係を個人適合させることができる。そこで、集中度推定装置では、集中度推定手段によってその学習結果を用いて第1の情報から集中度を推定する。この推定された集中度は、個人適合させるための学習結果が反映されているので、対象者個人に応じた集中度である。このように、集中度推定装置は、対象者によって入力された集中度と相関のある第2の情報を収集し、第1の情報と、第2の情報から変換した集中度を学習データとして学習することにより、第1の情報と集中度との関係を個人適合させることができ、個人差に応じて集中度を高精度に推定できる。   In this concentration level estimation device, the first information having a correlation with the concentration level is detected from the subject by the first information detection means. Since this first information has a correlation with the degree of concentration of a person, it can be used for estimation of the degree of concentration, for example, physiological information such as heartbeat, respiration, and skin potential activity. In the concentration estimation apparatus, the second information collecting means collects second information correlated with the concentration from the target person. Since this second information is correlated with the degree of concentration by human input, it can be used to personally adapt the relationship between the first information and the degree of concentration. For example, the second information is input by a person. Subjective concentration, reaction time for any task. In the concentration estimation device, the conversion means converts the second information into the concentration, and the learning means learns the first information corresponding to the second information and the concentration converted from the second information as learning data. To do. By this learning, the relationship between the first information and the degree of concentration can be personally adapted. Therefore, in the concentration degree estimation device, the concentration degree is estimated from the first information by using the learning result by the concentration degree estimating means. This estimated degree of concentration reflects the learning result for personal adaptation, and is a degree of concentration according to the individual of the subject person. As described above, the concentration estimation apparatus collects the second information correlated with the concentration input by the target person, and learns the first information and the concentration converted from the second information as learning data. By doing so, the relationship between the first information and the degree of concentration can be personally adapted, and the degree of concentration can be estimated with high accuracy according to individual differences.

本発明の上記集中度推定装置では、変換手段は、第2の情報から変換される集中度についてのばらつきを算出し、学習手段は、変換手段で算出した集中度のばらつきを加味して学習すると好適である。   In the concentration level estimation apparatus of the present invention, the conversion unit calculates a variation in the concentration level converted from the second information, and the learning unit learns considering the variation in the concentration level calculated by the conversion unit. Is preferred.

第2の情報は、人によって入力されるので、ばらつき(誤差)がある。したがって、第2の情報から変換される集中度にも、ばらつきがある。そこで、集中度推定装置では、変換手段によって第2の情報から集中度を変換する際にその集中度のばらつきも算出する。そして、集中度推定装置では、学習手段によってその集中度のばらつきを加味して学習を行う。このように、集中度推定装置は、対象者によって入力された第2の情報のばらつき(ひいては、第2の情報から変換される集中度のばらつき)を加味して学習を行うことにより、学習によって集中度の推定結果が急激に変化せず、安定した推定が可能となる。   Since the second information is input by a person, there is variation (error). Therefore, the degree of concentration converted from the second information also varies. Therefore, in the concentration level estimation device, when the conversion unit converts the concentration level from the second information, the concentration level variation is also calculated. In the concentration estimation apparatus, learning is performed by taking into account the variation in the concentration by the learning means. In this way, the concentration estimation apparatus performs learning by taking into account the variation in the second information input by the subject (and thus the variation in the concentration converted from the second information), thereby performing learning. The estimation result of the degree of concentration does not change abruptly, and stable estimation is possible.

本発明によれば、対象者によって入力された集中度と相関のある第2の情報を収集し、第1の情報と、第2の情報から変換した集中度を学習データとして学習することにより、第1の情報と集中度との関係を個人適合させることができ、個人差に応じて集中度を高精度に推定できる。   According to the present invention, the second information correlated with the degree of concentration input by the subject is collected, and the first information and the degree of concentration converted from the second information are learned as learning data. The relationship between the first information and the degree of concentration can be personally adapted, and the degree of concentration can be estimated with high accuracy according to individual differences.

本実施の形態に係る集中度推定装置の構成図である。It is a block diagram of the concentration estimation apparatus which concerns on this Embodiment. 心拍特徴量から推定された集中度(推定ラベル)と脳波のθ波含有率による集中度(正解ラベル)との比較例を示すグラフである。It is a graph which shows the comparative example of the concentration degree (estimated label) estimated from the heartbeat feature-value, and the concentration degree (correct answer label) by the theta wave content rate of an electroencephalogram. θ波含有率から集中度のクラスラベルを分類する方法の説明図である。It is explanatory drawing of the method of classifying the class label of a concentration degree from (theta) wave content rate. 図1の記憶部に記憶される学習データの一例を示す模式図である。It is a schematic diagram which shows an example of the learning data memorize | stored in the memory | storage part of FIG. 図1の収集部で使用者による入力情報を収集するための表示画面の一例であり、(a)が主観集中度を収集するための表示画面であり、(b)が反応時間を収集するための表示画面である。It is an example of the display screen for collecting the input information by a user in the collection part of FIG. 1, (a) is a display screen for collecting subjective concentration, and (b) for collecting reaction time It is a display screen. 心拍特徴量計測区間と使用者による入力情報の収集との対応関係の一例であり、(a)が心拍特徴量計測区間と主観集中度収集タイミングとの対応関係であり、(b)が心拍特徴量計測区間と反応時間収集区間との対応関係である。It is an example of the correspondence between the heart rate feature amount measurement section and the collection of input information by the user, (a) is the correspondence relationship between the heart rate feature amount measurement section and the subjective concentration degree collection timing, and (b) is the heart rate feature. This is a correspondence relationship between the quantity measurement section and the reaction time collection section. 主観集中度及び反応時間とθ波含有率(集中度)との関係の一例であり、(a)が主観集中度とθ波含有率との関係であり、(b)が反応時間とθ波含有率との関係である。It is an example of the relationship between the subjective concentration and the reaction time and the θ wave content (concentration), (a) is the relationship between the subjective concentration and the θ wave content, and (b) is the reaction time and the θ wave. It is the relationship with the content rate. θ波含有率(集中度)と主観集中度との間のばらつきを示す図である。It is a figure which shows the dispersion | variation between (theta) wave content rate (concentration degree) and subjective concentration degree. 使用者が歩行した場合の心拍特徴量計測区間と使用者による主観集中度収集タイミングとの対応関係の一例である。It is an example of the correspondence of the heart rate feature-value measurement area when a user walks, and the subjective concentration degree collection timing by a user.

以下、図面を参照して、本発明に係る集中度推定装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of a concentration estimation apparatus according to the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected about the element which is the same or it corresponds in each figure, and the overlapping description is abbreviate | omitted.

本実施の形態に係る集中度推定装置は、使用者(特許請求の範囲に記載する集中度が推定される対象者に相当)が携帯するスマートフォンに集中度推定用アプリケーションが組み込まれて構成される。本実施の形態に係る集中度推定装置は、脳波(特に、θ波)を用いずに人の集中度を推定する。本実施の形態に係る集中度推定装置は、集中度を推定するために、集中度と相関のある第1の情報として心拍を用い、集中度と相関のある第2の情報として使用者が入力する主観集中度や使用者による入力の反応時間を用いる。   The concentration estimation apparatus according to the present embodiment is configured by incorporating a concentration estimation application into a smartphone carried by a user (corresponding to a subject whose concentration is described in the claims). . The concentration level estimation apparatus according to the present embodiment estimates the concentration level of a person without using an electroencephalogram (particularly, a θ wave). In order to estimate the degree of concentration, the concentration degree estimation apparatus according to the present embodiment uses the heartbeat as the first information correlated with the degree of concentration, and is input by the user as the second information correlated with the degree of concentration. Subjective concentration and reaction time of input by the user are used.

人の背景脳波のうちで4〜8Hzの帯域は、θ波と呼ばれ、眠気を催したときに発生することが知られている。一方で、前頭部で計測されるFmθ波と呼ばれる特徴的な脳波があり、このFmθ波は一つのことに集中すると発生することが知られている。本発明者は、実験を通じてボタン押しや文章作成あるいは車両の運転中等においても、θ波パワーが有意に高まる現象を確認した。この結果から、Fmθ波を直接観察せずに、θ波含有率又はθ波パワーから人の集中状態を判定できることが示唆されている。したがって、脳波のθ波含有率やθパワーによって、集中度を定義できる。しかし、日常、人から脳波を計測するのは難しい。   Among human background brain waves, a band of 4 to 8 Hz is called a θ wave, and is known to occur when sleepiness occurs. On the other hand, there is a characteristic brain wave called Fmθ wave measured in the frontal region, and it is known that this Fmθ wave is generated when concentrated on one thing. The present inventor has confirmed a phenomenon in which the θ wave power is significantly increased through the experiment even when the button is pressed, the sentence is created, or the vehicle is driven. This result suggests that the concentration state of a person can be determined from the θ wave content rate or the θ wave power without directly observing the Fmθ wave. Therefore, the degree of concentration can be defined by the θ wave content rate or θ power of the electroencephalogram. However, it is difficult to measure brain waves from people every day.

脳波以外の生理情報としては、例えば、心拍、呼吸、皮膚電位活動がある。これらの生理情報は、腕時計型や胸バンド型の装置を用いることにより、脳波計測よりも簡便に計測可能である。そこで、本実施の形態では、これらの生理情報の中から心拍を用いて、脳波により定義された集中度を推定する。   Examples of physiological information other than brain waves include heartbeat, respiration, and skin potential activity. Such physiological information can be measured more easily than the electroencephalogram measurement by using a wristwatch type or chest band type device. Therefore, in the present embodiment, the degree of concentration defined by the electroencephalogram is estimated using the heartbeat from the physiological information.

集中度には個人差が見られ、心拍等の生理情報が同じときでも人によって集中度が異なる場合がある。しかし、これらの生理情報と集中度との関係には、個人毎のデータが存在しない場合がある。そこで、この関係を個人適合させるために、集中度と相関のある使用者が入力する主観的な集中度と使用者による入力の反応時間を用いて学習を行う。   There are individual differences in the degree of concentration, and the degree of concentration may vary from person to person even when physiological information such as heartbeat is the same. However, there is a case where there is no data for each individual in the relationship between the physiological information and the degree of concentration. Therefore, in order to personally adapt this relationship, learning is performed using the subjective concentration level input by the user having a correlation with the concentration level and the reaction time of the input by the user.

この学習としては、例えば、サポートベクタマシンに代表される機械学習手法で多クラス分類(特に、2クラス分類)又は回帰モデルを学習する。この学習には、不特定多数の人から取得した基本学習データセットと使用者から取得した追加学習データセットを用いる、基本学習データは、事前に集中するタスクと安静するタスクを実施したときの脳波のθ波含有率(集中度)と心拍の特徴量とを同時に計測して、θ波含有率を閾値判定した集中度と心拍特徴量とをセットとしたデータである。追加学習データは、使用者によって入力された主観集中度や反応時間を収集するとともにそれに対応した使用者の心拍の特徴量を計測し、この主観集中度や反応時間から変換された集中度と心拍特徴量とをセットしたデータである。   As this learning, for example, a multi-class classification (particularly, two-class classification) or a regression model is learned by a machine learning technique represented by a support vector machine. This learning uses a basic learning data set obtained from an unspecified large number of people and an additional learning data set obtained from users. The basic learning data is an electroencephalogram when performing a task that concentrates in advance and a task that rests. This is data that simultaneously measures the θ wave content rate (concentration level) and the heart rate feature amount, and sets the concentration level and the heart rate feature amount for which the θ wave content rate is determined as a threshold. The additional learning data collects the subjective concentration level and reaction time input by the user and measures the features of the user's heart rate corresponding to it, and the concentration level and heart rate converted from this subjective concentration level and reaction time. This is data in which feature quantities are set.

本実施の形態で用いる心拍特徴量について説明しておく。本実施の形態では、使用者から検出された心電位から複数の心拍特徴量を抽出する。この抽出方法としては、心電位の時系列データからRR間隔(R波とR波の間隔)データを取得し、所定時間(例えば、3分間)のRR間隔データから心拍特徴量を算出する。この心拍特徴量としては、RRV、LF/HF、重心周波数、ピーク周波数の4つの特徴量を用いる。RRVは、RR間隔の分散である。LF/HFは、RR間隔のパワースペクトルのうちLF成分(0.04〜0.15[Hz])をHF成分(0.15〜0.4[Hz])で除算したものである。重心周波数は、RR間隔のパワースペクトルの重心を示す周波数である。ピーク周波数は、RR間隔のパワースペクトルの最大値を示す周波数である。本実施の形態では、このRRV、LF/HF、重心周波数、ピーク周波数の各値からなるベクトルを心拍特徴量ベクトルxと呼ぶ。   The heartbeat feature amount used in this embodiment will be described. In the present embodiment, a plurality of heartbeat feature amounts are extracted from the electrocardiogram detected by the user. As this extraction method, RR interval (R wave and R wave interval) data is acquired from time series data of cardiac potentials, and a heartbeat feature amount is calculated from the RR interval data for a predetermined time (for example, 3 minutes). As the heartbeat feature amount, four feature amounts of RRV, LF / HF, barycentric frequency, and peak frequency are used. RRV is the variance of the RR interval. LF / HF is obtained by dividing the LF component (0.04 to 0.15 [Hz]) in the power spectrum of the RR interval by the HF component (0.15 to 0.4 [Hz]). The centroid frequency is a frequency indicating the centroid of the power spectrum at the RR interval. The peak frequency is a frequency indicating the maximum value of the power spectrum in the RR interval. In the present embodiment, a vector composed of values of RRV, LF / HF, barycentric frequency, and peak frequency is referred to as a heartbeat feature vector x.

図2には、この4つの心拍特徴量から推定した集中度と脳波のθ波含有量による集中度との比較例を示す。ここでは、ある被験者から心電位と脳波とを同時に検出し、心電位から4つの心拍特徴量を算出するとともに脳波からθ波含有率を取得した。本実施の形態では、集中度を集中と安静の2クラスで判別する。また、本実施の形態では、4つの心拍特徴量から2クラスの集中度を判別する手法として、2次判別分析(QDA[Quadratic Discriminant Analysis])を用いる。図2では、θ波含有率の時間変化G1を閾値Sを用いて判別しており、閾値Sより大きい場合を集中とし、閾値S以下の場合を安静としている。この判別結果を、正解ラベルとして○印で示している。閾値Sは、実験等によって適宜設定される。また、心拍特徴量から推定した集中度を、推定ラベルとして×印で示している。この集中の正解ラベルと推定ラベルとを比較するとともに安静の正解ラベルと推定ラベルとを比較すると、正解ラベルと推定ラベルとが一致する部分が多い。この結果から、この心拍と脳波のθ波含有率(集中度)との間に相関があることが判る。   FIG. 2 shows a comparative example of the degree of concentration estimated from the four heartbeat feature amounts and the concentration degree based on the θ wave content of the electroencephalogram. Here, an electrocardiogram and an electroencephalogram were simultaneously detected from a subject, four heartbeat feature quantities were calculated from the electrocardiogram, and a θ wave content rate was obtained from the electroencephalogram. In the present embodiment, the degree of concentration is determined by two classes of concentration and rest. In the present embodiment, quadratic discriminant analysis (QDA [Quadratic Discriminant Analysis]) is used as a method for discriminating two classes of concentration from the four heartbeat feature quantities. In FIG. 2, the time change G1 of the θ wave content rate is discriminated using the threshold value S, and the case where it is larger than the threshold value S is concentrated, and the case where it is equal to or smaller than the threshold value S is rested. This discrimination result is indicated by a circle as a correct answer label. The threshold value S is appropriately set by experiment or the like. In addition, the degree of concentration estimated from the heartbeat feature amount is indicated by an x mark as an estimation label. When the concentrated correct answer label and the estimated label are compared and the correct answer label of the rest and the estimated label are compared, there are many portions where the correct answer label matches the estimated label. From this result, it can be seen that there is a correlation between the heartbeat and the θ wave content rate (concentration) of the electroencephalogram.

なお、本実施の形態には、3つの形態がある。第1の実施の形態は、集中度推定装置の基本の形態である。第2の実施の形態は、追加学習データのデータ量が増えるほど追加学習データを重視して学習を行う形態である。第3の実施の形態は、使用者からの主観集中度等の収集率を高めるための形態である。   There are three forms in this embodiment. The first embodiment is a basic form of a concentration degree estimation apparatus. In the second embodiment, learning is performed with emphasis on additional learning data as the amount of additional learning data increases. The third embodiment is a form for increasing the collection rate such as the subjective concentration from the user.

それでは、図1を参照して、第1の実施の形態に係る集中度推定装置1について具体的に説明する。図1は、本実施の形態に係る集中度推定装置の構成図である。   Now, with reference to FIG. 1, the concentration estimation apparatus 1 according to the first embodiment will be described in detail. FIG. 1 is a configuration diagram of a concentration degree estimation apparatus according to the present embodiment.

集中度推定装置1は、心拍センサ10、記憶部11、収集部12、変換部13、学習部14、集中度推定部15、表示部16を備えている。記憶部11、収集部12、変換部13、学習部14、集中度推定部15、表示部16は、スマートフォン内に構成される。心拍センサ10は、スマートフォンと無線通信可能である。なお、第1の実施の形態では、心拍センサ10が特許請求の範囲に記載する第1情報検出手段に相当し、収集部12が特許請求の範囲に記載する第2情報収集手段に相当し、変換部13が特許請求の範囲に記載する変換手段に相当し、学習部14が特許請求の範囲に記載する学習手段に相当し、集中度推定部15が特許請求の範囲に記載する集中度推定手段に相当する。   The concentration level estimation device 1 includes a heart rate sensor 10, a storage unit 11, a collection unit 12, a conversion unit 13, a learning unit 14, a concentration level estimation unit 15, and a display unit 16. The memory | storage part 11, the collection part 12, the conversion part 13, the learning part 14, the concentration degree estimation part 15, and the display part 16 are comprised in a smart phone. The heart rate sensor 10 can wirelessly communicate with a smartphone. In the first embodiment, the heart rate sensor 10 corresponds to the first information detection unit described in the claims, the collection unit 12 corresponds to the second information collection unit described in the claims, The conversion unit 13 corresponds to the conversion unit described in the claims, the learning unit 14 corresponds to the learning unit described in the claims, and the concentration degree estimation unit 15 estimates the concentration degree described in the claims. Corresponds to means.

心拍センサ10について説明する。心拍センサ10は、心電位を検出するセンサである。心拍センサ10は、使用者の胸部に装着される胸バンド型である。心拍センサ10は、スマートフォンと無線通信するために、Bluetooth(登録商標)等の無線通信機能を有している。心拍センサ10では、常時、使用者の心電位を検出し、検出した心電位を無線通信でスマートフォンに送信する。   The heart rate sensor 10 will be described. The heart rate sensor 10 is a sensor that detects a cardiac potential. The heart rate sensor 10 is a chest band type worn on the chest of the user. The heart rate sensor 10 has a wireless communication function such as Bluetooth (registered trademark) for wireless communication with a smartphone. The heart rate sensor 10 always detects the user's cardiac potential and transmits the detected cardiac potential to the smartphone via wireless communication.

記憶部11について説明する。記憶部11は、スマートフォンのメモリ装置の所定の領域に構成される。記憶部11は、学習部14で用いる学習データを記憶する。学習データには、記憶部11に事前に記憶されている基本学習データと使用者から収集する毎に記憶部11に記憶される追加学習データとがある。学習データは、心拍特徴量ベクトルx(RRV、LF/HF、重心周波数、ピーク周波数)と集中度ベクトルw(安静クラスの確率、集中クラスの確率)との対からなる。   The storage unit 11 will be described. The memory | storage part 11 is comprised in the predetermined area | region of the memory device of a smart phone. The storage unit 11 stores learning data used by the learning unit 14. The learning data includes basic learning data stored in advance in the storage unit 11 and additional learning data stored in the storage unit 11 every time it is collected from the user. The learning data consists of a pair of a heart rate feature vector x (RRV, LF / HF, barycentric frequency, peak frequency) and a concentration degree vector w (rest class probability, concentration class probability).

基本学習データは、使用開始前に不特定多数の人から取得された学習データである。この基本学習データの作成方法について説明する。事前の予備実験で、不特定多数の人から、脳波と心電位とを同時に所定時間分検出する。脳波からθ波含有率を取得すると、図3に示すように、θ波含有率G2を閾値Sを用いて判別する。そして、閾値Sより大きい場合、集中クラスの確率を1とし、安静クラスの確率を0とする。閾値S以下の場合、安静クラスの確率を1とし、集中クラスの確率を0とする。また、心電位からRR間隔を取得すると、RR間隔からRRV、LF/HF、重心周波数、ピーク周波数を算出する。図4には、記憶部11に記憶される基本学習データx,x,・・・の一例を示している。なお、使用者本人の脳波や心電位を事前に検出できるのであれば、使用者本人の基本学習データを作成し、記憶部11に記憶しておいてもよい。 The basic learning data is learning data acquired from an unspecified number of people before the start of use. A method of creating this basic learning data will be described. In a preliminary experiment, an electroencephalogram and an electrocardiogram are simultaneously detected for a predetermined time from an unspecified number of people. When the θ wave content rate is acquired from the electroencephalogram, the θ wave content rate G2 is determined using the threshold value S as shown in FIG. If it is larger than the threshold value S, the probability of the concentrated class is set to 1, and the probability of the rest class is set to 0. If the threshold is less than or equal to the threshold S, the rest class probability is set to 1 and the concentrated class probability is set to 0. Further, when the RR interval is acquired from the cardiac potential, RRV, LF / HF, barycentric frequency, and peak frequency are calculated from the RR interval. FIG. 4 shows an example of basic learning data x 1 , x 2 ,... Stored in the storage unit 11. If the user's own brain wave or electrocardiogram can be detected in advance, the basic learning data of the user may be created and stored in the storage unit 11.

追加学習データは、使用開始後に使用者から取得された学習データである。追加学習データの心拍特徴量ベクトルxについては集中度推定部15で作成されるので、集中度推定部15で説明する。追加学習データの集中度ベクトルwについては変換部13で作成されるので、変換部13で説明する。図4には、記憶部11に記憶される追加学習データx’,x’,・・・の一例を示している。 Additional learning data is learning data acquired from the user after the start of use. The heart rate feature quantity vector x of the additional learning data is created by the concentration level estimation unit 15 and will be described in the concentration level estimation unit 15. The concentration vector w of the additional learning data is created by the conversion unit 13 and will be described in the conversion unit 13. FIG. 4 shows an example of additional learning data x ′ 1 , x ′ 2 ,... Stored in the storage unit 11.

収集部12について説明する。収集部12では、使用者に入力させることによって使用者が集中している度合いの指標を収集する。この指標としては、使用者が判断する主観的な集中度と、使用者のタスクに対する集中度(本実施の形態では、タスクに対する反応時間)とがある。収集部12は、スマートフォンの表示機能とタッチパネル機能を利用する。具体的には、収集部12では、スマートフォンのディスプレイに使用者に入力させるための案内画面を表示させ、案内画面に従って使用者にタッチパネルで画面入力させる。そして、収集部12では、その入力された情報を記録する。この記録された情報は、変換部13で使われる。   The collecting unit 12 will be described. The collection unit 12 collects an index of the degree of concentration of the user by causing the user to input. As this index, there are a subjective concentration determined by the user and a concentration level of the user with respect to the task (in this embodiment, a reaction time with respect to the task). The collection unit 12 uses the display function and touch panel function of the smartphone. Specifically, the collection unit 12 displays a guidance screen for the user to input on the display of the smartphone, and causes the user to input a screen on the touch panel according to the guidance screen. Then, the collection unit 12 records the input information. This recorded information is used by the conversion unit 13.

主観集中度は、VAS[Visual Analog Scale]によって収集される。VASとは、100[mm]の水平な直線の両端に0[集中していなかった]と100[集中していた]が記載されており、使用者の主観で最もよく当てはまる位置に水平線に対して線を引いてもらう手法である。図5(a)には、VASによる主観集中度を入力させるためのディスプレイでの表示画面例が示されており、「集中していた」寄りの位置に使用者によって入力された線が引かれている。収集部12では、この100mmの水平線に対して引かれた線の左端からの距離をmm単位で計測し、その値を主観集中度とする。主観集中度を収集する場合、デスクワーク(例えば、パソコンによる文章作成)、会議等の作業が終わってから、その作業のときの主観的な集中度を使用者に入力させる。この入力される主観集中度に対応する心拍特徴量の計測区間は、図6(a)に示すように、主観集中度の入力タイミングよりも前の区間(デスクワーク、会議等の作業を行っている区間)となる。   Subjective concentration is collected by VAS [Visual Analog Scale]. VAS is described as 0 [not concentrating] and 100 [concentrating] at both ends of a horizontal line of 100 [mm], and the horizontal line at the position that best fits the subjectivity of the user. This is a technique to draw a line. FIG. 5A shows an example of a display screen on the display for inputting the subjective concentration degree by VAS, and a line input by the user is drawn at a position closer to “concentrated”. ing. The collection unit 12 measures the distance from the left end of the line drawn with respect to the 100 mm horizontal line in mm units, and sets the value as the subjective concentration. When collecting the subjective concentration, the user is made to input the subjective concentration at the time of work such as desk work (for example, creation of a sentence by a personal computer) and a meeting. As shown in FIG. 6 (a), the heart rate feature amount measurement interval corresponding to the input subjective concentration level is an interval (desk work, conference, etc.) before the input timing of the subjective concentration level. Section).

反応時間は、例えば、ディスプレイの画面内の所定の部分が光ってから使用者が画面を押すまでの時間が収集される。反応時間の収集は、1回だけ収集し、その1回の反応時間としてもよいし、あるいは、所定時間(例えば、5分間)の間に複数回収集し、その平均反応時間としてもよい。図5(b)には、反応時間を収集するためのディスプレイでの表示画面例が示されており、画面の中心の円部分が光るとタッチパネル機能で使用者によって押される。収集部12では、この光ってから押されるまでの時間を計測し、反応時間とする。反応時間の収集する場合、デスクワーク、会議等の作業が行われていない任意の時間に行ってよい。この収集される反応時間に対応する心拍特徴量の計測区間は、図6(b)に示すように、反応時間を入力させる課題を実施している区間と同じ区間である。この区間で反応時間が複数回収集された後に、その複数回の反応時間の平均値が算出される。   As the reaction time, for example, the time from when a predetermined portion in the screen of the display shines until the user presses the screen is collected. The reaction time may be collected only once and may be the reaction time of one time, or may be collected a plurality of times during a predetermined time (for example, 5 minutes) and the average reaction time may be obtained. FIG. 5B shows an example of a display screen on the display for collecting the reaction time. When the circular portion at the center of the screen shines, it is pushed by the user with the touch panel function. The collection unit 12 measures the time from when this light is emitted until it is pressed, and sets it as the reaction time. When collecting the reaction time, it may be performed at any time when work such as desk work or conference is not performed. The heart rate feature amount measurement interval corresponding to the collected reaction time is the same as the interval in which the task of inputting the reaction time is performed, as shown in FIG. After the reaction time is collected a plurality of times in this section, the average value of the reaction times of the plurality of times is calculated.

変換部13について説明する。変換部13は、収集部12によって収集された主観集中度や反応時間を集中度(安静クラスの所属確率と集中クラスの所属確率)に変換する。変換部13での処理について具体的に説明する前に、各クラスの所属確率の求め方を説明する。図7には、5名の任意の人による事前実験で収集した主観集中度及び反応時間とθ波含有率(集中度)との関係の一例を示している。図7(a)には主観集中度とθ波含有率との関係を示しており、θ波含有率が高まるほど主観集中度が上昇している。このデータを線形回帰すると、線形回帰線L1が得られる。また、図7(b)には反応時間とθ波含有率との関係を示しており、θ波含有率が高まるほど反応時間が短縮している。このデータを線形回帰すると、線形回帰線L2が得られる。この図7の例からも判るように、主観集中度や反応時間は、人が入力する情報であるので、入力した人の集中度(脳波のθ波含有率)との間に相関がある。したがって、この相関関係を線形回帰によって抽出することにより、主観集中度や反応時間からθ波含有率(集中度)を推定できる。   The conversion unit 13 will be described. The conversion unit 13 converts the subjective concentration level and reaction time collected by the collection unit 12 into a concentration level (resting class belonging probability and concentrated class belonging probability). Before specifically describing the processing in the conversion unit 13, how to determine the belonging probability of each class will be described. FIG. 7 shows an example of the relationship between the subjective concentration and reaction time collected in a prior experiment by five arbitrary persons and the θ wave content rate (concentration). FIG. 7A shows the relationship between the subjective concentration and the θ wave content, and the subjective concentration increases as the θ wave content increases. When this data is linearly regressed, a linear regression line L1 is obtained. FIG. 7B shows the relationship between the reaction time and the θ wave content, and the reaction time is shortened as the θ wave content increases. When this data is linearly regressed, a linear regression line L2 is obtained. As can be seen from the example of FIG. 7, the subjective concentration level and the reaction time are information input by a person, and thus have a correlation with the input concentration level (the content of θ waves of brain waves). Therefore, by extracting this correlation by linear regression, the θ wave content rate (concentration level) can be estimated from the subjective concentration level and the reaction time.

しかし、図7の例でも判るように、主観集中度や反応時間は、人の主観的な入力や人の行動であるので、集中度(脳波のθ波含有率)との間にばらつきがある。このように集中度と主観集中度や反応時間との間にはばらつき(誤差)が存在するので、主観集中度や反応時間を学習に用いる場合にはこのばらつきによる不確実性を考慮する必要がある。図8に示すように、θ波含有率(集中度)と主観集中度との間のばらつきについては、本実施の形態ではガウス分布Dに従うと仮定する。このガウス分布については、式(1)の線形回帰式f(x)及びその回帰残差の分散σを求め、これをガウス分布のパラメータ(平均f(x)、分散σ)とする。本実施の形態では、ガウス分布Dにおいて閾値Sより大きい部分(斜線部分)の面積の割合を集中クラスの所属確率とし、ガウス分布Dにおいて閾値Sより小さい部分(無地部分)の面積の割合を安静クラスの所属確率とする。この面積については、正規分布表や公知の関数から求めることができる。なお、相関関係について、線形回帰以外にも、2次多項式等の非線形な関数を用いてもよい。

Figure 2014230717
However, as can be seen from the example of FIG. 7, the subjective concentration level and the reaction time are a human subjective input and a human action, and thus there is a variation between the concentration level (the θ wave content rate of the electroencephalogram). . As described above, since there is a variation (error) between the concentration level, the subjective concentration level, and the reaction time, it is necessary to consider the uncertainty due to this variation when using the subjective concentration level and the reaction time for learning. is there. As shown in FIG. 8, it is assumed that the variation between the θ wave content rate (concentration level) and the subjective concentration level follows a Gaussian distribution D in the present embodiment. For this Gaussian distribution, the linear regression equation f (x) of Equation (1) and the variance σ 2 of the regression residual are obtained, and these are used as Gaussian distribution parameters (average f (x), variance σ 2 ). In the present embodiment, the proportion of the area of the Gaussian distribution D that is larger than the threshold S (shaded portion) is the concentration class belonging probability, and the proportion of the area of the Gaussian distribution D that is smaller than the threshold S (plain portion) is resting. Class membership probability. This area can be obtained from a normal distribution table or a known function. In addition to the linear regression, a non-linear function such as a quadratic polynomial may be used for the correlation.
Figure 2014230717

式(1)で示す線形回帰式f(x)及び分散σを求めるためには、脳波(θ波含有率)のデータと主観集中度や反応時間のデータが必要となる。脳波については、基本的には、使用者から計測することができない。そこで、事前の予備実験で、不特定多数の人から、脳波を計測するとともに、主観集中度や反応時間を収集する。この各データの収集は、基本学習データの収集と合わせて行うとよい。そして、この脳波(θ波含有率)データと主観集中度や反応時間の各データとを用いて線形回帰を行い、主観集中度についての線形回帰式f(x)及びその回帰残差の分散σ、反応時間についての線形回帰式f(x)及びその回帰残差の分散σをそれぞれ求める。変換部13では、この事前に求めておいた線形回帰式f(x)及び分散σを用いる。なお、使用者の脳波を計測できる場合、変換部13で使用者の脳波のデータに基づく線形回帰式f(x)及び分散σを求めるようにしてもよい。使用者の線形回帰式f(x)及び分散σを求めることができれば、使用者個人への適合をより精度良く行うことができる。 In order to obtain the linear regression equation f (x) and the variance σ 2 expressed by the equation (1), the data of the electroencephalogram (θ wave content rate) and the data of the subjective concentration and the reaction time are required. Basically, brain waves cannot be measured from the user. Therefore, in preliminary experiments, we measure brain waves from a large number of unspecified people, and collect subjective concentration and reaction time. The collection of each data may be performed together with the collection of basic learning data. Then, linear regression is performed using the electroencephalogram (θ wave content) data and each data of the subjective concentration and the reaction time, and the linear regression equation f (x) for the subjective concentration and the variance σ of the regression residual 2 , the linear regression equation f (x) for the reaction time and the variance σ 2 of the regression residual are obtained. The conversion unit 13 uses the linear regression equation f (x) and the variance σ 2 obtained in advance. When the user's brain wave can be measured, the conversion unit 13 may obtain the linear regression equation f (x) and the variance σ 2 based on the user's brain wave data. If the user's linear regression equation f (x) and variance σ 2 can be obtained, the adaptation to the individual user can be performed with higher accuracy.

変換部13では、収集部12で主観集中度が収集されると、その主観集中度に応じたガウス分布を主観集中度についての線形回帰式f(x)及び分散σを用いて設定し、そのガウス分布を閾値Sで分割して安静クラスの所属確率と集中クラスの所属確率を算出する。また、変換部13では、収集部12で反応時間が収集されると、その反応時間に応じたガウス分布を反応時間についての線形回帰式f(x)及び分散σを用いて設定し、そのガウス分布を閾値Sで分割して安静クラスの所属確率と集中クラスの所属確率を算出する。この変換部13で安静クラスの所属確率と集中クラスの所属確率に変換される毎に、集中度推定部15で算出される該当する区間の4つの心拍特徴量が対応付けられ、心拍特徴量ベクトルx’と集中度ベクトルw’との対で記憶部11に追加学習データとして記憶される。学習部14では、使用者個人に適合させるために、この心拍特徴量ベクトルx’と、集中度ベクトルw’を学習データとして学習する。 In the conversion unit 13, when the subjective concentration is collected by the collection unit 12, a Gaussian distribution corresponding to the subjective concentration is set using the linear regression equation f (x) and the variance σ 2 for the subjective concentration, The Gaussian distribution is divided by the threshold value S to calculate the belonging probability of the rest class and the belonging probability of the concentrated class. Further, in the conversion unit 13, when the reaction time is collected by the collection unit 12, a Gaussian distribution corresponding to the reaction time is set using the linear regression equation f (x) and the variance σ 2 for the reaction time, The Gaussian distribution is divided by the threshold value S, and the belonging probability of the rest class and the belonging probability of the concentrated class are calculated. Each time the conversion unit 13 converts the belonging probability of the rest class and the belonging probability of the concentration class, four heart rate feature amounts of the corresponding section calculated by the concentration degree estimation unit 15 are associated with each other, and the heart rate feature amount vector A pair of x ′ and the concentration vector w ′ is stored as additional learning data in the storage unit 11. The learning unit 14 learns the heartbeat feature vector x ′ and the concentration vector w ′ as learning data in order to adapt to the individual user.

学習部14について説明する。学習部14は、記憶部11に記憶されている基本学習データと追加学習データを用いて2次判別分析による学習を行う。この学習では、安静クラスと集中クラスに分けて学習を行い、各クラスの平均ベクトルと分散共分散行列を算出する。具体的には、学習部14では、式(2)により、クラスj毎に重み付き標本平均ベクトルをそれぞれ算出する。さらに、学習部14では、算出した重み付き標本平均ベクトルを用いて、式(3)により、クラスj毎に重み付き標本分散共分散Sをそれぞれ算出する。なお、jは、クラス番号であり、{1(=安静クラス),2(=集中クラス)}である。lは、基本学習データの個数である。uは、追加学習データの個数である。wijは、重みベクトル(集中度ベクトル)であり、{wi1(=安静クラスの確率),wi2(=集中クラスの確率)}である。xは、心拍特徴量ベクトルである。

Figure 2014230717
The learning unit 14 will be described. The learning unit 14 performs learning by secondary discriminant analysis using the basic learning data and the additional learning data stored in the storage unit 11. In this learning, learning is performed separately for a rest class and a concentrated class, and an average vector and a variance-covariance matrix for each class are calculated. Specifically, the learning unit 14 calculates a weighted sample average vector for each class j using Equation (2). Further, the learning unit 14 calculates the weighted sample variance covariance S j for each class j by using the calculated weighted sample average vector according to Equation (3). Note that j is a class number, {1 (= rest class), 2 (= concentrated class)}. l is the number of basic learning data. u is the number of additional learning data. w ij is a weight vector (concentration degree vector) and is {w i1 (= rest class probability), w i2 (= concentration class probability)}. x i is a heartbeat feature vector.
Figure 2014230717

この学習部14で求められた各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散は、集中度推定部15で心拍特徴量ベクトルから集中度を推定する際に用いられる。なお、学習部14での学習頻度は、追加学習データが1個追加される毎に学習を行ってもよいし、あるいは、追加学習データが所定個追加される毎に学習を行ってもよい。   The weighted sample average vector and the weighted sample variance covariance of each class obtained by the learning unit 14 are used when the concentration degree estimation unit 15 estimates the concentration degree from the heartbeat feature amount vector. The learning frequency in the learning unit 14 may be learned every time one additional learning data is added, or may be learned every time a predetermined number of additional learning data is added.

集中度推定部15について説明する。集中度推定部15は、心拍センサ10で検出された心電位を用いて4つの心拍特徴量を算出し、この4つの心拍特徴量から2クラスの集中度(θ波含有率が小さい場合の安静クラスと大きい場合の集中クラス)を推定する。この推定は、上記したように2次判別分析(QDA)によって行われ、学習部14で学習が既に行われている場合にはその学習結果(各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散)が用いられる。具体的には、集中度推定部15では、心拍センサ10で検出された所定時間分の心電位の時系列データからRR間隔データを取得し、この所定時間分のRR間隔データからRRV、LF/HF、重心周波数、ピーク周波数を算出する。そして、集中度推定部15では、RRV、LF/HF、重心周波数、ピーク周波数からなる心拍特徴量ベクトルxを用いて、式(4)により、クラスj毎にマハラノビス距離D(x)をそれぞれ算出する。さらに、集中度推定部15では、この各クラスのマハラノビス距離D(x)を用いて、式(5)により、集中度(安静クラス、集中クラス)c(x)を推定する。なお、追加学習データがなく、学習部14で学習が未だ行われていない初期段階の場合、各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散については事前に設定されている初期値を用いる。

Figure 2014230717
The concentration degree estimation unit 15 will be described. The concentration degree estimation unit 15 calculates four heart rate feature amounts using the electrocardiogram detected by the heart rate sensor 10, and uses the four heart rate feature amounts for two classes of concentration (rest when the θ wave content rate is small). Estimate class and concentration class when large). This estimation is performed by the secondary discriminant analysis (QDA) as described above, and when learning is already performed in the learning unit 14, the learning result (weighted sample average vector and weighted sample variance of each class) Covariance) is used. Specifically, the concentration degree estimation unit 15 acquires RR interval data from time series data of a cardiac potential for a predetermined time detected by the heart rate sensor 10, and RRV, LF / from the RR interval data for the predetermined time HF, centroid frequency, and peak frequency are calculated. Then, the concentration level estimation unit 15 calculates the Mahalanobis distance D j (x) for each class j by using the heart rate feature vector x consisting of RRV, LF / HF, barycentric frequency, and peak frequency according to equation (4). calculate. Further, the concentration level estimation unit 15 estimates the concentration level (rest class, concentration class) c (x) according to Equation (5) using the Mahalanobis distance D j (x) of each class. In addition, in the initial stage where there is no additional learning data and the learning unit 14 has not yet performed the learning, the weighted sample average vector and the weighted sample variance covariance of each class are set to preset initial values. Use.
Figure 2014230717

表示部16について説明する。表示部16は、スマートフォンのディスプレイによる表示機能を用いる。表示部16では、集中度推定部15での集中度の推定結果(安静クラス、集中クラス)をディスプレイに表示する。なお、表示部16では、集中度の推定結果以外にも、その推定結果に関連する他の情報を表示してもよい。   The display unit 16 will be described. The display part 16 uses the display function by the display of a smart phone. The display unit 16 displays the estimation result (rest class, concentration class) of the concentration level in the concentration level estimation unit 15 on the display. The display unit 16 may display other information related to the estimation result in addition to the concentration degree estimation result.

図1を参照して、集中度推定装置1における動作の流れを簡単について説明する。使用者のスマートフォンには、集中度推定用アプリケーションが組み込まれている。記憶部11には、基本学習データが事前に格納されている。また、変換部13には、主観集中度についての線形回帰線f(x)と分散σ及び反応時間についての線形回帰線f(x)と分散σが事前に設定されている。心拍センサ10は、使用者の胸部に装着される。 With reference to FIG. 1, the flow of operation in the concentration degree estimation apparatus 1 will be briefly described. The user's smartphone has an application for estimating the degree of concentration. The storage unit 11 stores basic learning data in advance. The conversion unit 13 is preset with a linear regression line f (x) and variance σ 2 for the subjective concentration and a linear regression line f (x) and variance σ 2 for the reaction time. The heart rate sensor 10 is worn on the chest of the user.

使用開始すると、常時、心拍センサ10では、使用者の心電位を検出し、その心電位データをスマートフォンに無線送信する。スマートフォンでは、この心電位データを受信する。集中度推定部15では、所定時間分の心電位データからRR間隔データを抽出し、所定時間分のRR間隔データからRRV、LF/HF、重心周波数、ピーク周波数(心拍特徴量ベクトル)を算出する。   When the use is started, the heart rate sensor 10 always detects the user's cardiac potential and wirelessly transmits the cardiac potential data to the smartphone. The smartphone receives this electrocardiographic data. The concentration level estimation unit 15 extracts RR interval data from the electrocardiographic data for a predetermined time, and calculates RRV, LF / HF, barycentric frequency, and peak frequency (heart rate feature vector) from the RR interval data for a predetermined time. .

使用者から主観集中度を収集できる場合、収集部12では、VASによって使用者の主観集中度を収集する。あるいは、使用者の反応時間を収集できる場合、収集部12では、使用者の反応の入力動作によって反応時間を収集する。収集部12で主観集中度又は反応時間を収集する毎に、変換部13では、その主観集中度又は反応時間に応じたガウス分布を線形回帰式f(x)と分散σを用いて設定し、そのガウス分布を閾値Sで分割して安静クラスの所属確率と集中クラスの所属確率を算出する。この算出された各クラスの所属確率からなる集中度ベクトルと対応する区間の心拍特徴量ベクトルとは、記憶部11に追加学習データとして記憶される。 When the subjective concentration can be collected from the user, the collection unit 12 collects the user's subjective concentration by VAS. Alternatively, if the user's reaction time can be collected, the collection unit 12 collects the reaction time by the user's reaction input operation. Each time the collection unit 12 collects the subjective concentration or reaction time, the conversion unit 13 sets a Gaussian distribution corresponding to the subjective concentration or reaction time using the linear regression equation f (x) and the variance σ 2. Then, the Gaussian distribution is divided by the threshold value S to calculate the belonging probability of the rest class and the belonging probability of the concentrated class. The calculated concentration vector consisting of the calculated affiliation probabilities of each class and the heart rate feature vector of the corresponding section are stored in the storage unit 11 as additional learning data.

記憶部11に追加学習データが新たに追加されると、学習部14では、式(2)によりクラスj毎に重み付き標本平均ベクトルをそれぞれ算出する。さらに、学習部14では、この各クラスjの重み付き標本平均ベクトルを用いて、式(3)によりクラスj毎に重み付き標本分散共分散をそれぞれ算出する。   When additional learning data is newly added to the storage unit 11, the learning unit 14 calculates a weighted sample average vector for each class j using Equation (2). Further, the learning unit 14 calculates the weighted sample variance covariance for each class j using Equation (3) using the weighted sample average vector of each class j.

集中度推定部15では、心拍特徴量ベクトルxを算出する毎に、各クラスの重み付き標本平均ベクトルと重み付き標本分散共分散を用いて、式(4)によりクラスj毎にマハラノビス距離をそれぞれ算出する。さらに、集中度推定部15では、この各クラスのマハラノビス距離を用いて、式(5)により集中度のクラスを推定する。表示部16では、この推定した集中度(安静クラス、集中クラス)をディスプレイに表示する。   The concentration estimation unit 15 calculates the Mahalanobis distance for each class j using equation (4) using the weighted sample average vector and the weighted sample variance covariance for each class each time the heart rate feature vector x is calculated. calculate. Furthermore, the concentration level estimation unit 15 estimates the concentration level class using Equation (5) using the Mahalanobis distance of each class. The display unit 16 displays the estimated degree of concentration (rest class, concentration class) on the display.

この集中度推定装置1によれば、使用者の入力による主観集中度や反応時間を収集し、使用者の心拍特徴量と、主観集中度や反応時間から変換した集中度を学習データとして学習することにより、心拍特徴量と集中度(脳波のθ波)との関係を使用者個人に適合させることができ、使用者の集中度を高精度に推定できる。   According to this concentration estimation apparatus 1, the subjective concentration and reaction time by the user's input are collected, and the heart rate feature amount of the user and the concentration converted from the subjective concentration and reaction time are learned as learning data. As a result, the relationship between the heartbeat feature amount and the degree of concentration (theta wave of the electroencephalogram) can be adapted to the individual user, and the concentration level of the user can be estimated with high accuracy.

また、集中度推定装置1によれば、対象者の入力による主観集中度や反応時間のばらつき(ひいては、主観集中度や反応時間から変換される集中度のばらつき)を加味して学習を行うことにより、不確実性のある追加学習データの学習への影響を抑えることができ、学習によって集中度の推定結果が急激に変化せず、安定した推定が可能となる。例えば、誤差が大きい主観集中度や反応時間があった場合でも、推定結果への影響が小さい。また、集中度推定装置1によれば、使用者の追加学習データを徐々に追加していくので、集中度の推定の傾向が緩やかに個人適合してゆくため、違和感がない。   Further, according to the concentration degree estimation apparatus 1, learning is performed in consideration of the subjective concentration degree and the variation in reaction time (and consequently the variation in the concentration degree converted from the subjective concentration degree and the reaction time) due to the input of the subject. Thus, the influence of uncertain additional learning data on learning can be suppressed, and the estimation result of the degree of concentration does not change suddenly by learning, and stable estimation is possible. For example, even when there is a subjective concentration or reaction time with a large error, the influence on the estimation result is small. Further, according to the concentration degree estimation device 1, since additional learning data of the user is gradually added, the tendency of the concentration degree estimation gradually adapts to the individual, so there is no sense of incongruity.

また、集中度推定装置1によれば、スマートフォンのタッチパネル機能を利用して主観集中度の入力や単純なタスクに対する入力を使用者にさせるだけなので、追加学習データを簡単に収集することができる。使用者は、このような入力を行うだけなので、負担が少ない。また、集中度推定装置1によれば、使用者が常時携帯するスマートフォンに構成することにより、使用者の主観集中度や反応時間を収集する機会を増やすことができ、多くの追加学習データを収集することができる。   Further, according to the concentration level estimation device 1, additional learning data can be easily collected because the user only has to input the subjective concentration level or input a simple task using the touch panel function of the smartphone. Since the user only performs such input, the burden is small. In addition, according to the concentration estimation apparatus 1, by configuring the smartphone to be always carried by the user, it is possible to increase the opportunity to collect the user's subjective concentration and reaction time, and collect a lot of additional learning data. can do.

図1を参照して、第2の実施の形態に係る集中度推定装置2について説明する。この集中度推定装置2は、第1の実施の形態に係る集中度推定装置1と比較すると、追加学習データの個数が増えるほど追加学習データを重視して学習を行う点が異なる。したがって、集中度推定装置2は、第1の実施の形態に係る集中度推定装置1の学習部14に代えて、学習部24を備えている。第2の実施の形態では、学習部24が特許請求の範囲に記載する学習手段に相当する。第2の実施の形態では、この学習部24についてのみ説明する。   With reference to FIG. 1, the concentration degree estimation apparatus 2 according to the second embodiment will be described. Compared with the concentration degree estimation device 1 according to the first embodiment, the concentration degree estimation device 2 is different in that learning is performed with an emphasis on additional learning data as the number of additional learning data increases. Therefore, the concentration degree estimation device 2 includes a learning unit 24 instead of the learning unit 14 of the concentration degree estimation device 1 according to the first embodiment. In the second embodiment, the learning unit 24 corresponds to learning means described in the claims. In the second embodiment, only the learning unit 24 will be described.

第1の実施の形態に係る集中度推定装置1では、基本学習データと追加学習データとを同様に取り扱って学習を行った。しかし、この学習は使用者個人に適合させるための学習であるが、基本学習データは使用者から得たデータでない。そこで、集中度推定装置2では、追加学習データの個数が多くなるほど、基本学習データの学習に及ぼす影響を小さくすることによって追加学習データを重視して学習を行う。   In the concentration estimation apparatus 1 according to the first embodiment, learning is performed by handling the basic learning data and the additional learning data in the same manner. However, this learning is learning for adapting to the individual user, but the basic learning data is not data obtained from the user. Therefore, in the concentration level estimation device 2, the learning is performed with emphasis on the additional learning data by reducing the influence on the learning of the basic learning data as the number of the additional learning data increases.

学習部24での具体的な処理について説明する。学習部24は、第1の実施の形態に係る学習部14での学習に、追加学習データの個数の増加に応じた重みを加えて学習を行う。具体的には、学習部24では、式(6)で示す重みパラメータaを導入する。この重みパラメータaは、追加学習データで学習する場合の重みを1に固定し、基本学習データで学習する場合の重みを追加学習データの個数uの割合が増加するほど小さくする。学習部24では、この重みパラメータaを用いて、式(7)により、クラスj毎に重み付き標本平均ベクトルをそれぞれ算出する。さらに、学習部24では、各クラスの重み付き標本平均ベクトル及び重みパラメータaを用いて、式(8)により、クラスj毎に重み付き標本分散共分散Sをそれぞれ算出する。

Figure 2014230717
Specific processing in the learning unit 24 will be described. The learning unit 24 performs learning by adding a weight according to an increase in the number of additional learning data to the learning in the learning unit 14 according to the first embodiment. Specifically, the learning unit 24 introduces a weight parameter a i represented by Expression (6). The weight parameter a i is fixed to 1 when the learning is performed with the additional learning data, and is decreased as the ratio of the number u of the additional learning data is increased. The learning unit 24 uses the weight parameter a i to calculate a weighted sample average vector for each class j using Equation (7). Further, the learning unit 24 calculates the weighted sample variance covariance S j for each class j using Equation (8) using the weighted sample average vector and the weight parameter a i of each class.
Figure 2014230717

この集中度推定装置2によれば、追加学習データの個数が増えるほど追加学習データを重視して学習を行うことにより、追加学習データの学習に及ぼす影響が大きくなり(基本学習データの学習に及ぼす影響が小さくなり)、心拍特徴量と集中度(脳波のθ波)との関係を使用者個人により適合させることができ、使用者の集中度をより高精度に推定できる。   According to this concentration level estimation device 2, the influence on the learning of the additional learning data becomes larger by performing the learning with an emphasis on the additional learning data as the number of the additional learning data increases (the influence on the learning of the basic learning data). The relationship between the heartbeat feature amount and the degree of concentration (the brain wave θ wave) can be adapted to the individual user, and the degree of concentration of the user can be estimated with higher accuracy.

図1を参照して、第3の実施の形態に係る集中度推定装置3について説明する。この集中度推定装置3は、第1の実施の形態に係る集中度推定装置1又は第2の実施の形態に係る集中度推定装置2と比較すると、使用者の入力による主観集中度等の収集方法を改善した点が異なる。したがって、集中度推定装置3は、第1、2の実施の形態に係る集中度推定装置1、2の収集部12に代えて、収集部32を備えている。第3の実施の形態では、収集部32が特許請求の範囲に記載する第2情報収集手段に相当する。第3の実施の形態では、この収集部32についてのみ説明する。   With reference to FIG. 1, a concentration estimation apparatus 3 according to a third embodiment will be described. Compared with the concentration level estimation device 1 according to the first embodiment or the concentration level estimation device 2 according to the second embodiment, the concentration level estimation device 3 collects subjective concentration levels and the like based on user input. The difference is that the method has been improved. Therefore, the concentration degree estimation device 3 includes a collection unit 32 instead of the collection unit 12 of the concentration degree estimation devices 1 and 2 according to the first and second embodiments. In the third embodiment, the collection unit 32 corresponds to a second information collection unit described in the claims. In the third embodiment, only the collecting unit 32 will be described.

第1、2の実施の形態に係る集中度推定装置1、2では、デスクワーク等の作業を実施した後に、その作業の実施中の主観集中度を使用者に入力させている。しかし、使用者によっては入力を失念してしまい、主観集中度を収集できないと、追加学習データを十分に得られない。そこで、集中度推定装置3では、使用者の行動認識を行い、行動認識の結果に応じて使用者に対して主観集中度の入力を促す。例えば、デスクワーク中に歩行が認識された場合、デスクワークが中断又は終了したことを示していると考えられる。そこで、デスクワーク終了後に主観集中度が入力されていない状態で歩行した場合、歩行終了後の静止状態において使用者に歩行開始前のデスクワーク中の主観集中度の入力を促す。歩行しているか否かの判断には、スマートフォンに搭載される加速度センサを利用する。また、使用者に対する入力の促しには、スマートフォンのバイブレータ機能やアラーム機能を利用する。   In the concentration level estimation apparatuses 1 and 2 according to the first and second embodiments, after a task such as desk work is performed, the user is made to input the subjective concentration during the task. However, depending on the user, the input is forgotten, and additional learning data cannot be obtained sufficiently if the subjective concentration cannot be collected. Therefore, the concentration level estimation device 3 recognizes the user's behavior and prompts the user to input the subjective concentration level according to the result of the behavior recognition. For example, when walking is recognized during desk work, it is considered that the desk work is interrupted or terminated. Therefore, when the user walks in a state where the subjective concentration is not input after the desk work is finished, the user is prompted to input the subjective concentration in the desk work before the start of walking in the stationary state after the end of walking. An acceleration sensor mounted on a smartphone is used to determine whether or not walking. Moreover, the vibrator function and alarm function of a smart phone are utilized for prompting the user to input.

収集部32での具体的な処理について説明する。収集部32は、スマートフォンの加速度センサで検出した加速度のノルムが閾値以上か否かを判定し、閾値以上の場合には使用者が歩行しているかあるいは何らかの作業をしている状態と推定し、閾値未満の場合には使用者が着座している状態と推定する。使用者が着座している状態(静止状態)と推定した場合、収集部32では、その静止状態が一定時間以上続くと、バイブレータ機能で振動させたりあるいはアラーム機能でアラーム音を発生させるとともに、ディスプレイにVASによる主観集中度を入力させるための画面を表示させる。この表示する画面には、例えば、「歩行する前のデスクワーク中の集中度を入力して下さい」といく文章を挿入する。なお、加速度のノルムを判定する方法以外にも、加速度のノルムを周波数解析するなどの他の種々の方法で判定してもよい。また、加速度以外の情報を用いて歩行しているかを推定してもよい。   Specific processing in the collection unit 32 will be described. The collection unit 32 determines whether or not the norm of acceleration detected by the acceleration sensor of the smartphone is equal to or greater than a threshold value, and if it is equal to or greater than the threshold value, estimates that the user is walking or is doing some work. If it is less than the threshold, it is estimated that the user is seated. When it is estimated that the user is seated (stationary state), the collection unit 32 vibrates with a vibrator function or generates an alarm sound with an alarm function when the stationary state continues for a certain period of time. Displays a screen for inputting the subjective degree of concentration by VAS. For example, a sentence such as “Please input the degree of concentration during desk work before walking” is inserted into the screen to be displayed. In addition to the method for determining the norm of acceleration, it may be determined by various other methods such as frequency analysis of the norm of acceleration. Moreover, you may estimate whether it is walking using information other than acceleration.

歩行している区間は、運動による心拍の変動が大きくなる。したがって、この区間の心拍特徴量は、追加学習データとして用いることはできない。そこで、歩行後に入力される主観集中度に対応する心拍特徴量の計測区間は、図9に示すように、歩行する前の区間とする。   In the walking section, fluctuations in the heart rate due to exercise increase. Therefore, the heartbeat feature amount in this section cannot be used as additional learning data. Therefore, the heart rate feature amount measurement section corresponding to the subjective concentration inputted after walking is a section before walking as shown in FIG.

なお、静止状態と推定した場合に、心拍に急激な変動があったときに主観集中度の入力を促してもよい。また、心拍等の生理情報を取得し、取得した生理情報が大きく変動した時刻を記録しておき、その生理情報が定常状態に戻った後にその大きく変動したときの時刻とその変動した事実を示し、その時刻のときの主観集中度の入力を促してもよい。また、任意のイベントが終了した後に主観集中度の入力を促してもよい。また、作業が持続していると考えられる場合(例えば、使用者の集中度が高い状態が継続した場合)、安静と推定されるまで主観集中度の入力を待ってもよい。また、主観集中度を1度だけ入力させるのではなく、上記した各入力を促すタイミングを基点として所定時間間隔(例えば、10分間隔)で主観集中度の入力を複数回促してもよい。また、主観集中度の例を示しているが、反応時間についても同様に適用可能できる。   In addition, when it is estimated that the subject is in a stationary state, input of the subjective concentration may be prompted when there is a sudden fluctuation in the heartbeat. Also, it acquires physiological information such as heartbeats, records the time when the acquired physiological information fluctuated greatly, shows the time when the physiological information fluctuated greatly after returning to the steady state, and the fact that it changed. The input of the subjective concentration at that time may be prompted. Further, the input of the subjective concentration degree may be prompted after an arbitrary event ends. In addition, when it is considered that the work is continued (for example, when the state of high concentration of the user continues), input of the subjective concentration may be waited until it is estimated that the user is resting. Also, instead of inputting the subjective concentration degree only once, the input of the subjective concentration degree may be prompted a plurality of times at a predetermined time interval (for example, every 10 minutes) based on the timing of prompting each input described above. Moreover, although the example of a subjective concentration degree is shown, it can apply similarly about reaction time.

この集中度推定装置3によれば、使用者の行動や生理状態等を認識することにより、主観集中度等の入力を適切なタイミングで促すことができ、より多くの追加学習データを収集することができる。その結果、使用者個人により適合させることができ、使用者の集中度をより高精度に推定できる。   According to the concentration estimation device 3, by recognizing the user's behavior, physiological state, etc., it is possible to prompt input of subjective concentration, etc. at an appropriate timing, and to collect more additional learning data Can do. As a result, the user can be adapted more individually, and the user's concentration can be estimated with higher accuracy.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態ではスマートフォンを利用して集中度推定装置を構成したが、スマートフォン以外の携帯端末に集中度推定装置を構成してもよいし、タブレット型パソコンやノートパソコン等の携帯型のパソコンに集中度推定装置を構成してもよいし、車両に搭載のカーナビゲーションシステムに集中度推定装置を構成してもよいし、デスクトップ型のパソコンに集中度推定装置を構成してもよいし、あるいは、検出した心拍データや収集した主観集中度等をセンタのサーバやクラウドコンピュータ等に送信して、これらの遠隔のコンピュータにおいて集中度推定装置を構成してもよい。カーナビゲーションシステムに集中度推定装置を構成した場合、車両情報から車両の停車中を判断し、停車時間が一定時間続いたときにナビゲーション画面で主観集中度等の入力を促すことができる。このように構成することにより、車両運転中にスマートフォン等を操作できない状況でも運転終了後に追加学習データを収集することができ、収集率を向上できる。   For example, in the present embodiment, the concentration estimation device is configured using a smartphone, but the concentration estimation device may be configured in a mobile terminal other than a smartphone, or a portable type such as a tablet computer or a laptop computer. The concentration estimation device may be configured on a personal computer, the concentration estimation device may be configured on a car navigation system mounted on a vehicle, or the concentration estimation device may be configured on a desktop personal computer. Alternatively, the detected heart rate data and the collected subjective concentration level may be transmitted to a center server, a cloud computer, or the like, and the concentration level estimation device may be configured in these remote computers. When the concentration estimation device is configured in the car navigation system, it is possible to determine whether the vehicle is stopped from the vehicle information, and to prompt the user to input the subjective concentration on the navigation screen when the stop time continues for a certain time. By comprising in this way, additional learning data can be collected after a driving | operation completion even in the situation where a smart phone etc. cannot be operated during a vehicle driving | operation, and a collection rate can be improved.

また、本実施の形態では集中度と相関のある第1の情報として心拍を適用したが、第1の情報としては集中度と相関があれば他の情報でもよく、例えば、呼吸、皮膚電位活動等の他の生理情報でもよいし、体の揺れや目の動き等の体の動きの情報でもよいし、車両の運転者の場合には車間距離、ステアリング操作のふらつき、ヨーレートの変化等の運転情報でもよい。   In the present embodiment, the heartbeat is applied as the first information correlated with the degree of concentration. However, the first information may be other information as long as there is a correlation with the degree of concentration. Other physiological information such as body movement information such as body shake and eye movement may be used, and in the case of a vehicle driver, driving such as inter-vehicle distance, steering fluctuation, yaw rate change, etc. It may be information.

また、本実施の形態では使用者によって入力される集中度と相関のある第2の情報としてスマートフォンのタッチパネルを利用した主観集中度や反応時間を適用したが、第2の情報としては集中度と相関のある他の情報でもよく、例えば、計算課題の回答時間や正答率、アクションゲームの反応時間や得点がある。また、入力方法についても、音声等の他の入力でもよい。   In this embodiment, the subjective concentration and reaction time using the touch panel of the smartphone are applied as the second information correlated with the concentration input by the user. However, as the second information, the concentration and Other correlated information may be used, for example, the answer time and correct answer rate of a calculation task, and the reaction time and score of an action game. Also, the input method may be other input such as voice.

また、本実施の形態では集中度として集中と安静の2クラスで推定する構成としたが、集中度を3クラス以上で推定してもよい。   In the present embodiment, the concentration level is estimated with two classes of concentration and rest, but the concentration level may be estimated with three or more classes.

1,2,3…集中度推定装置、10…心拍センサ、11…記憶部、12,32…収集部、13…変換部、14,24…学習部、15…集中度推定部、16…表示部。   DESCRIPTION OF SYMBOLS 1, 2, 3 ... Concentration degree estimation apparatus, 10 ... Heart rate sensor, 11 ... Memory | storage part, 12, 32 ... Collection part, 13 ... Conversion part, 14, 24 ... Learning part, 15 ... Concentration degree estimation part, 16 ... Display Department.

Claims (2)

対象者の集中度を推定する集中度推定装置であって、
対象者から集中度と相関のある第1の情報を検出する第1情報検出手段と、
前記第1情報検出手段で検出した第1の情報から集中度を推定する集中度推定手段と、
対象者の入力による集中度と相関のある第2の情報を収集する第2情報収集手段と、
前記第2情報収集手段で収集した第2の情報を集中度に変換する変換手段と、
前記第2情報収集手段で収集した第2の情報に対応する前記第1情報検出手段で検出した第1の情報と、前記変換手段で変換した集中度を学習データとして学習する学習手段と、
を備え、
前記集中度推定手段は、前記学習手段での学習結果を用いて前記第1の情報から集中度を推定することを特徴とする集中度推定装置。
A concentration estimation device for estimating the concentration of a target person,
First information detecting means for detecting first information correlated with the degree of concentration from the target person;
A concentration degree estimating means for estimating the concentration degree from the first information detected by the first information detecting means;
Second information collecting means for collecting second information correlated with the degree of concentration by the input of the target person;
Conversion means for converting the second information collected by the second information collection means into a degree of concentration;
Learning means for learning, as learning data, the first information detected by the first information detecting means corresponding to the second information collected by the second information collecting means, and the degree of concentration converted by the converting means;
With
The concentration degree estimation device, wherein the concentration degree estimation means estimates the concentration degree from the first information using a learning result in the learning means.
前記変換手段は、前記第2の情報から変換される集中度についてのばらつきを算出し、
前記学習手段は、前記変換手段で算出した集中度のばらつきを加味して学習することを特徴とする請求項1に記載の集中度推定装置。
The conversion means calculates a variation in the degree of concentration converted from the second information,
The concentration learning apparatus according to claim 1, wherein the learning unit learns in consideration of variation in the concentration calculated by the conversion unit.
JP2013114236A 2013-05-30 2013-05-30 Concentration estimation device Active JP6191242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013114236A JP6191242B2 (en) 2013-05-30 2013-05-30 Concentration estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013114236A JP6191242B2 (en) 2013-05-30 2013-05-30 Concentration estimation device

Publications (2)

Publication Number Publication Date
JP2014230717A true JP2014230717A (en) 2014-12-11
JP6191242B2 JP6191242B2 (en) 2017-09-06

Family

ID=52124486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013114236A Active JP6191242B2 (en) 2013-05-30 2013-05-30 Concentration estimation device

Country Status (1)

Country Link
JP (1) JP6191242B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104497A1 (en) * 2014-12-25 2016-06-30 東芝情報システム株式会社 Drowsiness-estimation-rule update device and drowsiness-estimation-rule update program
WO2016104496A1 (en) * 2014-12-25 2016-06-30 東芝情報システム株式会社 Drowsiness estimation device and drowsiness estimation program
WO2016104498A1 (en) * 2014-12-25 2016-06-30 東芝情報システム株式会社 Drowsiness estimation device and drowsiness estimation program
WO2016195029A1 (en) * 2015-06-02 2016-12-08 国立研究開発法人理化学研究所 Reconstructing device, reconstructing method, program, and information recording medium
JP2017021450A (en) * 2015-07-07 2017-01-26 サイバートラスト株式会社 Biological information management system, biological information management method, and biological information management program
WO2017099257A1 (en) * 2015-12-12 2017-06-15 デルタ工業株式会社 Biological state estimation device, biological state estimation method, computer program, and recording medium
WO2017141141A1 (en) * 2016-02-19 2017-08-24 株式会社半導体エネルギー研究所 Measurement system, evaluation system, measurement method, and evaluation method
KR20180064578A (en) * 2016-11-30 2018-06-15 동국대학교 산학협력단 Education system for development infant intelligence and method of operating the same
WO2018179292A1 (en) * 2017-03-30 2018-10-04 日本電気株式会社 Information processing device, method, and program
JP2019509076A (en) * 2015-12-18 2019-04-04 マイクロソフト テクノロジー ライセンシング,エルエルシー Start of drowsiness detection
JP2019154868A (en) * 2018-03-14 2019-09-19 オムロン株式会社 Estimation system, estimation device, and estimation method
WO2019176992A1 (en) * 2018-03-14 2019-09-19 オムロン株式会社 Estimation system, learning device, learning method, estimation device and estimation method
KR20200038146A (en) * 2018-10-02 2020-04-10 상명대학교산학협력단 The Recognition Method and Apparatus for Focus level using ECG
JP2020170382A (en) * 2019-04-04 2020-10-15 株式会社Nttドコモ Estimation processing device and estimation model construction device
JP2020201755A (en) * 2019-06-11 2020-12-17 パナソニックIpマネジメント株式会社 Concentration degree measurement device, concentration degree measurement method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09135826A (en) * 1995-11-15 1997-05-27 Omron Corp Judgement method for concentration degree, eye fatigue judgement method and control method for difficulty
JP2007079647A (en) * 2005-09-09 2007-03-29 Fuji Xerox Co Ltd Information processing system, information processing method, and program
JP2010057710A (en) * 2008-09-04 2010-03-18 Toyota Central R&D Labs Inc Concentration computing system and program
JP2012146208A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and program for controlling the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09135826A (en) * 1995-11-15 1997-05-27 Omron Corp Judgement method for concentration degree, eye fatigue judgement method and control method for difficulty
JP2007079647A (en) * 2005-09-09 2007-03-29 Fuji Xerox Co Ltd Information processing system, information processing method, and program
JP2010057710A (en) * 2008-09-04 2010-03-18 Toyota Central R&D Labs Inc Concentration computing system and program
JP2012146208A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and program for controlling the same

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104497A1 (en) * 2014-12-25 2016-06-30 東芝情報システム株式会社 Drowsiness-estimation-rule update device and drowsiness-estimation-rule update program
WO2016104496A1 (en) * 2014-12-25 2016-06-30 東芝情報システム株式会社 Drowsiness estimation device and drowsiness estimation program
WO2016104498A1 (en) * 2014-12-25 2016-06-30 東芝情報システム株式会社 Drowsiness estimation device and drowsiness estimation program
JP2016120062A (en) * 2014-12-25 2016-07-07 東芝情報システム株式会社 Drowsiness estimation rule update device and drowsiness estimation rule update program
JP2016120063A (en) * 2014-12-25 2016-07-07 東芝情報システム株式会社 Drowsiness estimation device and drowsiness estimation program
JP2016120061A (en) * 2014-12-25 2016-07-07 東芝情報システム株式会社 Drowsiness estimation device and drowsiness estimation program
WO2016195029A1 (en) * 2015-06-02 2016-12-08 国立研究開発法人理化学研究所 Reconstructing device, reconstructing method, program, and information recording medium
JPWO2016195029A1 (en) * 2015-06-02 2018-03-29 国立研究開発法人理化学研究所 Restoration apparatus, restoration method, program, and information recording medium
US11058341B2 (en) 2015-06-02 2021-07-13 Riken Reconstructing device, reconstructing method, program, and information recording medium
JP2017021450A (en) * 2015-07-07 2017-01-26 サイバートラスト株式会社 Biological information management system, biological information management method, and biological information management program
WO2017099257A1 (en) * 2015-12-12 2017-06-15 デルタ工業株式会社 Biological state estimation device, biological state estimation method, computer program, and recording medium
JPWO2017099257A1 (en) * 2015-12-12 2018-10-04 デルタ工業株式会社 Biological state estimation device, biological state estimation method, computer program, and recording medium
US10420513B2 (en) 2015-12-12 2019-09-24 Delta Kogyo Co., Ltd. Biological state estimation device, biological state estimation method, computer program, and recording medium
JP7152950B2 (en) 2015-12-18 2022-10-13 マイクロソフト テクノロジー ライセンシング,エルエルシー Drowsiness onset detection
JP2019509076A (en) * 2015-12-18 2019-04-04 マイクロソフト テクノロジー ライセンシング,エルエルシー Start of drowsiness detection
JPWO2017141141A1 (en) * 2016-02-19 2019-02-14 株式会社半導体エネルギー研究所 Measurement system, evaluation system, measurement method, and evaluation method
WO2017141141A1 (en) * 2016-02-19 2017-08-24 株式会社半導体エネルギー研究所 Measurement system, evaluation system, measurement method, and evaluation method
KR102068658B1 (en) * 2016-11-30 2020-01-22 동국대학교 산학협력단 Education system for development infant intelligence and method of operating the same
KR20180064578A (en) * 2016-11-30 2018-06-15 동국대학교 산학협력단 Education system for development infant intelligence and method of operating the same
JPWO2018179292A1 (en) * 2017-03-30 2020-05-14 日本電気株式会社 Information processing apparatus, method and program
WO2018179292A1 (en) * 2017-03-30 2018-10-04 日本電気株式会社 Information processing device, method, and program
JP2019154868A (en) * 2018-03-14 2019-09-19 オムロン株式会社 Estimation system, estimation device, and estimation method
JP2019159941A (en) * 2018-03-14 2019-09-19 オムロン株式会社 Estimation system, learning device, learning method, estimation device, and estimation method
WO2019176992A1 (en) * 2018-03-14 2019-09-19 オムロン株式会社 Estimation system, learning device, learning method, estimation device and estimation method
KR20200038146A (en) * 2018-10-02 2020-04-10 상명대학교산학협력단 The Recognition Method and Apparatus for Focus level using ECG
KR102214460B1 (en) 2018-10-02 2021-02-09 상명대학교산학협력단 The Recognition Method and Apparatus for Focus level using ECG
JP2020170382A (en) * 2019-04-04 2020-10-15 株式会社Nttドコモ Estimation processing device and estimation model construction device
JP7297236B2 (en) 2019-04-04 2023-06-26 株式会社Nttドコモ Estimation processing device and estimation model construction device
JP2020201755A (en) * 2019-06-11 2020-12-17 パナソニックIpマネジメント株式会社 Concentration degree measurement device, concentration degree measurement method, and program
JP7369946B2 (en) 2019-06-11 2023-10-27 パナソニックIpマネジメント株式会社 Concentration measurement device, concentration measurement method, and program

Also Published As

Publication number Publication date
JP6191242B2 (en) 2017-09-06

Similar Documents

Publication Publication Date Title
JP6191242B2 (en) Concentration estimation device
US20230230702A1 (en) Method and system for monitoring intoxication
CN105615901B (en) A kind of method and system of monitoring mood
US10475351B2 (en) Systems, computer medium and methods for management training systems
US9551608B2 (en) Wearable device and method for controlling the same
Appel et al. Predicting cognitive load in an emergency simulation based on behavioral and physiological measures
US20180008191A1 (en) Pain management wearable device
KR102436726B1 (en) Method and apparatus of evaluating physiological aging level
US9769166B1 (en) Wearable sensor based system for person identification
CN109480800B (en) Apparatus and method for estimating biological information and blood pressure monitoring device
KR20200040564A (en) Apparatus and method for estimating blood pressure, and apparatus for supporting blood pressure estimation
US10877444B1 (en) System and method for biofeedback including relevance assessment
CN111149104B (en) Apparatus, method and computer readable storage medium for biometric identification
US20220031239A1 (en) System and method for collecting, analyzing and sharing biorhythm data among users
CN113271851A (en) System and method for improving interaction between users by monitoring emotional state and augmented target state of users
JP2018195164A (en) Analysis device, analysis program, and analysis method
EP3501385A1 (en) System and method for determining a subject's stress condition
KR20190047644A (en) Method and wearable device for providing feedback on exercise
Ekiz et al. Long short-term memory network based unobtrusive workload monitoring with consumer grade smartwatches
CN111511277B (en) Information processing apparatus, information processing method, and information processing program
CN111475606A (en) Words encouraging device, words encouraging method and computer readable medium
KR20210146474A (en) Method, apparatus, computer program and computer readable recording medium for performing emergency call processing based on patient status
Chotipant et al. Differentiative feature-based fall detection system
KR20200041680A (en) Apparatus and method for estimating blood pressure
JP7197959B1 (en) Information processing system, information processing method, information processing device, measuring device, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170724

R151 Written notification of patent or utility model registration

Ref document number: 6191242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151