JP6879388B2 - Alertness estimation device, alertness estimation method, and program - Google Patents
Alertness estimation device, alertness estimation method, and program Download PDFInfo
- Publication number
- JP6879388B2 JP6879388B2 JP2019567823A JP2019567823A JP6879388B2 JP 6879388 B2 JP6879388 B2 JP 6879388B2 JP 2019567823 A JP2019567823 A JP 2019567823A JP 2019567823 A JP2019567823 A JP 2019567823A JP 6879388 B2 JP6879388 B2 JP 6879388B2
- Authority
- JP
- Japan
- Prior art keywords
- series data
- time
- arousal level
- user
- frame rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000036626 alertness Effects 0.000 title claims description 65
- 238000000034 method Methods 0.000 title claims description 47
- 230000037007 arousal Effects 0.000 claims description 115
- 238000012545 processing Methods 0.000 claims description 36
- 238000013075 data extraction Methods 0.000 claims description 31
- 238000013527 convolutional neural network Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 13
- 230000017531 blood circulation Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 238000011176 pooling Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 206010062519 Poor quality sleep Diseases 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000035882 stress Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Hospice & Palliative Care (AREA)
- Pathology (AREA)
- Developmental Disabilities (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- Child & Adolescent Psychology (AREA)
- Biophysics (AREA)
- Educational Technology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、人の覚醒状態を表す覚醒度を推定するための、覚醒度推定装置、及び覚醒度推定方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention, for estimating the wakefulness representing the arousal state of a person, awakening level estimation apparatus, and relates to awakening level estimation method further relates to a program for realizing these.
近年、少子高齢化により生産年齢人口が減少し、労働力不足が進行している。そして、このような状況下において、今まで人が行っていた仕事の一部を、ロボット又はAI(artificial intelligence)で置き換える試みが増加している。但し、人が行う仕事のうち、知的労働が必要となる仕事については、ロボット又はAIでの置き換えは困難である。このため、今後、人においては、知的労働の生産性を維持、向上することが必須となる。 In recent years, the working-age population has decreased due to the declining birthrate and aging population, and the labor shortage is progressing. Under such circumstances, attempts to replace some of the work that humans have done so far with robots or AI (artificial intelligence) are increasing. However, among the jobs performed by humans, it is difficult to replace them with robots or AI for jobs that require intellectual labor. For this reason, it will be essential for humans to maintain and improve the productivity of intellectual labor in the future.
ところで、人は、機械と異なり、眠気を感じたり(低覚醒の状態)、ストレスを感じたり(過覚醒の状態)する。つまり、人の知的労働の生産性は、心身の覚醒状態に応じて、変化する。従って、人の知的労働の生産性の向上を図るためには、覚醒状態が丁度良い状態となるようにすることが重要である。 By the way, unlike machines, humans may feel drowsy (low arousal state) or stress (hyperawakening state). In other words, the productivity of human intellectual labor changes according to the state of mental and physical arousal. Therefore, in order to improve the productivity of human intellectual labor, it is important to make the wakefulness just right.
そして、知的労働時における人の覚醒状態を丁度良い状態とするための手法としては、最新の人の覚醒状態を検出し、検出した覚醒状態に応じて、オフィス内の温度、湿度、照度といった環境を制御することが挙げられる。とりわけ、この手法においては、人の覚醒状態を精度良く検出することが重要となる。 Then, as a method for improving the wakefulness of a person during intellectual work, the latest wakefulness of a person is detected, and the temperature, humidity, illuminance, etc. in the office are adjusted according to the detected wakefulness. Controlling the environment can be mentioned. In particular, in this method, it is important to accurately detect the awake state of a person.
例えば、特許文献1は、目の開度から人の覚醒度を推定する装置を開示している。特許文献1に開示された装置は、設定されたフレームレートで送られてくるカメラ画像からドライバーの目の開眼時間を取得し、取得した開眼時間から、そのばらつきを求め、求めたばらつきから、ドライバーの覚醒度を推定する。
For example,
また、非特許文献1は、顔画像から人の覚醒度(ストレス)を推定する装置を開示している。非特許文献1に開示された装置は、設定されたフレームレートで送られてくるカメラ画像から、人の顔の低周波HRV(Heart Rate Variability)成分と呼吸速度を算出し、算出した数値を統計モデルに入力して、人の覚醒度を推定する。
In addition, Non-Patent
ところで、特許文献1に開示された装置、及び非特許文献1に開示された装置では、いずれにおいても、覚醒度の推定精度を保つために、カメラ画像のフレームレートを高く設定し、処理する必要がある。このため、装置に大きな処理負担がかかるという問題がある。
By the way, in both the device disclosed in
本発明の目的の一例は、上記問題を解消し、処理負担を低減しつつ、人の覚醒度を精度良く推定し得る、覚醒度推定装置、覚醒度推定方法、及びプログラムを提供することにある。 An example of an object of the present invention is to provide an arousal level estimation device, an arousal level estimation method, and a program capable of accurately estimating a person's arousal level while solving the above problems and reducing the processing load. ..
上記目的を達成するため、本発明の一側面における覚醒度推定装置は、ユーザの覚醒度を推定するための装置であって、
設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、画像データ取得部と、
設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、時系列データ抽出部と、
抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、データ処理部と、
畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、覚醒度推定部と、
を備えていることを特徴とする。
ことを特徴とする。In order to achieve the above object, the arousal level estimation device in one aspect of the present invention is a device for estimating the arousal level of the user.
An image data acquisition unit that acquires image data including the user's face image at a set frame rate, and
A time-series data extraction unit that extracts time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and a time-series data extraction unit.
A data processing unit that interpolates the time-series data so that the number of samples of the extracted time-series data becomes a set value.
An arousal level estimation unit that estimates the arousal level of the user by inputting the interpolated time series data into a learning model constructed using a convolutional neural network.
It is characterized by having.
It is characterized by that.
また、上記目的を達成するため、本発明の一側面における覚醒度推定方法は、ユーザの覚醒度を推定するための方法であって、
(a)設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、ステップと、
(b)設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、ステップと、
(c)抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、ステップと、
(d)畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、ステップと、
を有することを特徴とする。Further, in order to achieve the above object, the arousal level estimation method in one aspect of the present invention is a method for estimating the arousal level of the user.
(A) A step of acquiring image data including the user's face image at a set frame rate, and
(B) A step of extracting time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and
(C) A step of interpolating the time-series data so that the number of samples of the extracted time-series data becomes a set value.
(D) A step of inputting the interpolated time series data into a learning model constructed by using a convolutional neural network to estimate the arousal degree of the user.
It is characterized by having.
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによってユーザの覚醒度を推定するためのプログラムであって、
前記コンピュータに、
(a)設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、ステップと、
(b)設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、ステップと、
(c)抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、ステップと、
(d)畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、ステップと、
を実行させる、プログラム。
Furthermore, in order to achieve the above object, a program according to an aspect of the present invention is a program for estimating the arousal level of the user by a computer,
On the computer
(A) A step of acquiring image data including the user's face image at a set frame rate, and
(B) A step of extracting time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and
(C) A step of interpolating the time-series data so that the number of samples of the extracted time-series data becomes a set value.
(D) A step of inputting the interpolated time series data into a learning model constructed by using a convolutional neural network to estimate the arousal degree of the user.
Ru is the execution, program.
以上のように、本発明によれば、処理負担を低減しつつ、人の覚醒度を精度良く推定することができる。 As described above, according to the present invention, it is possible to accurately estimate the arousal level of a person while reducing the processing load.
(実施の形態1)
以下、本発明の実施の形態1における、覚醒度推定装置、覚醒度推定方法、及びプログラムについて、図1〜図4を参照しながら説明する。(Embodiment 1)
Hereinafter, the arousal level estimation device, the arousal level estimation method, and the program according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 4.
[装置構成]
最初に、本実施の形態1における覚醒度推定装置の構成について図1を用いて説明する。図1は、本発明の実施の形態1における覚醒度推定装置の構成を示すブロック図である。[Device configuration]
First, the configuration of the alertness estimation device according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of an alertness estimation device according to the first embodiment of the present invention.
図1に示す、本実施の形態における覚醒度推定装置10は、ユーザの覚醒度を推定するための装置である。図1に示すように、覚醒度推定装置10は、画像データ取得部11と、時系列データ抽出部12と、データ処理部13と、覚醒度推定部14とを備えている。
The arousal
このうち、画像データ取得部11は、設定されたフレームレートで、ユーザの顔画像を含む画像データを取得する。また、時系列データ抽出部12は、設定されたフレームレートで取得された画像データから、ユーザの生体情報を示す時系列データを抽出する。
Of these, the image
データ処理部13は、抽出された時系列データのサンプリング数が設定値となるように、時系列データを補間する。覚醒度推定部14は、畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の時系列データを入力して、ユーザの覚醒度を推定する。
The
以上のように、本実施の形態1では、画像データから抽出された時系列データのサンプリング数を補間することができるので、画像データのフレームレートを予め低く抑えることができる。このため、本実施の形態1によれば、装置における処理負担を低減しつつ、人の覚醒度を精度良く推定することができる。 As described above, in the first embodiment, since the sampling number of the time series data extracted from the image data can be interpolated, the frame rate of the image data can be suppressed low in advance. Therefore, according to the first embodiment, it is possible to accurately estimate the arousal level of a person while reducing the processing load on the apparatus.
続いて、本実施の形態1における覚醒度推定装置10の構成について、より具体的に説明する。まず、図1に示すように、本実施の形態1では、覚醒度推定装置10は、外部の撮像装置20に接続されている。
Subsequently, the configuration of the
撮像装置20は、デジタルカメラであり、設定されたフレームレートで画像データを出力する。また、撮像装置20は、ユーザの顔画像を撮影できるように配置されている。画像データ取得部11は、撮像装置20から出力される画像データを取得する。
The
また、本実施の形態1では、時系列データが示す生体情報としては、ユーザにおける、眼の開閉度合を示す情報、視線の方向を示す情報、顔の向きを示す情報、脈波を示す情報、血流を示す情報、口の開閉度合を示す情報等が挙げられる。時系列データ抽出部12は、本実施の形態1では、フレーム毎に、画像データから上述の情報を抽出し、時系列データを生成する。
Further, in the first embodiment, the biological information indicated by the time series data includes information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, information indicating the direction of the face, and information indicating the pulse wave in the user. Information indicating blood flow, information indicating the degree of opening and closing of the mouth, and the like can be mentioned. In the first embodiment, the time-series
具体的には、時系列データ抽出部12は、例えば、画像データから、ユーザの両眼を検出し、検出した両眼の大きさから開閉度合を求め、眼の開閉度合を示す情報の時系列データを生成する。また、時系列データ抽出部12は、画像データから、ユーザの両眼の中心位置を検出し、検出した各中心位置から視線の方向を算出し、算出した視線の方向を示す情報の時系列データを生成する。
Specifically, the time-series
更に、時系列データ抽出部12は、画像データから、ユーザの顔の中心線及び輪郭を検出し、検出した中心線及び輪郭の位置関係から、ユーザの顔の向きを算出し、算出した顔の向きを示す情報の時系列データを生成する。また、時系列データ抽出部12は、画像データから、ユーザの口を検出し、検出した口の大きさから開閉度合を求め、口の開閉度合を示す情報の時系列データを生成する。
Further, the time-series
また、時系列データ抽出部12は、血液中のヘモグロビンが光の緑色成分を吸収する性質を用いて、ユーザの脈波又は血流を算出する(例えば、下記の参考文献を参照)。具体的には、時系列データ抽出部12は、画像データから、ユーザの肌の領域を特定し、特定した領域におけるR、G、B各チャンネルの輝度値を算出する。そして、時系列データ抽出部12は、血流が増えると緑色の光が吸収され、Gの輝度値が減少することを利用して、ユーザの脈波又は血流を算出し、脈波又は血流を示す情報の時系列データを生成する。
In addition, the time-series
参考文献:梅松旭美、辻川剛範著、「ICA-Rに基づく顔映像からの高精度心拍推定法」、NECデータサイエンス研究所、一般社団法人電子情報通信学会、信学技法IEICE Technical Report 2017 References: Asami Umematsu, Takenori Tsujikawa, "High-precision heart rate estimation method from facial images based on ICA-R", NEC Data Science Laboratory, Institute of Electronics, Information and Communication Engineers, IEICE Technical Report 2017
また、データ処理部13は、本実施の形態1では、図2に示すように、時系列データに対してアップサンプリングを行うことによって、時系列データを補間する。図2は、本発明の実施の形態1において行われる時系列データの補間の一例を示す図である。図2の例では、本来求められる時系列データのフレームレートはRであり、実際の時系列データのフレームレートは(R/2)である。また、図中の「○」は時系列データを示している。
Further, in the first embodiment, the
図2に示すように、データ処理部13は、サンプリング数が設定値となるように、即ち、フレームレートが(R/2)からRとなるように、連続している2つの時系列データの間に新たな時系列データを追加する。
As shown in FIG. 2, the
また、新たな時系列データの追加は、例えば、線形補間、スプライン補間によって行われる。更に、例えば、フレームレートがR/2のデータと、フレームレートがRのデータとを学習データとして用いて、ニューラルネットワークを構築し、このニューラルネットワークによって補間が行われる態様であっても良い。その後、図2に示すように、アップサンプリングされた時系列データは、覚醒度推定部14によって、畳み込みニューラルネットワークに入力される。
Further, new time series data is added by, for example, linear interpolation or spline interpolation. Further, for example, a neural network may be constructed by using data having a frame rate of R / 2 and data having a frame rate of R as learning data, and interpolation may be performed by this neural network. Then, as shown in FIG. 2, the upsampled time series data is input to the convolutional neural network by the
加えて、データ処理部13は、各種信号処理、例えば、ノイズ除去処理、欠損データの補間処理、外れ値の除去処理等を行うこともできる。このような処理により、後の覚醒度推定部14による覚醒度の推定精度の向上が期待できる。
In addition, the
また、本実施の形態1では、時系列データが示す生体情報が、2つ以上の情報である場合は、学習モデルは生体情報毎に畳み込みを行うための層を有している。ここで、図3を用いて、本実施の形態1における覚醒度推定部14による推定処理について具体的に説明する。
Further, in the first embodiment, when the biological information indicated by the time series data is two or more pieces of information, the learning model has a layer for convolving each biological information. Here, the estimation process by the
図3は、本発明の実施の形態1で用いられる畳み込みニューラルネットワークの一例を示す図である。図3の例では、時系列データは、眼の開閉度合を示す情報、視線の方向を示す情報、及び顔の向きを示す情報といった3つの情報を示しており、情報毎に、畳み込みが行われる。また、時系列データは、時系列毎に0〜1、又は−1〜+1等の値に正規化されているとする。 FIG. 3 is a diagram showing an example of a convolutional neural network used in the first embodiment of the present invention. In the example of FIG. 3, the time-series data shows three pieces of information such as information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, and information indicating the direction of the face, and convolution is performed for each information. .. Further, it is assumed that the time series data is normalized to a value such as 0 to 1 or -1 to +1 for each time series.
図3に示すように、眼の開閉度合を示す時系列データのサイズを(DEC,WT)とする。DECは、眼の開閉度合を示す時系列データの数である。また、例えば、右眼と左眼それぞれの開閉に関する時系列データを入力する場合、DEC=2である。WTは、覚醒度推定のための時間窓幅である。例えば、10sのデータを利用する場合、フレームレートRを用いて、WT=10Rである。As shown in FIG. 3, the size of the time-series data showing the opening and closing degree of eyes and (D EC, W T). DEC is the number of time-series data indicating the degree of opening and closing of the eye. Further, for example, to enter the time-series data for each of the opening and closing right and left eyes, a D EC = 2. W T is the time window width for the awakening level estimation. For example, when using the 10s of data, by using the frame rate R, a W T = 10R.
まず、覚醒度推定部14は、サイズ(DEC,WT)の時系列データを畳み込み層に入力し、サイズが(DEC,WT)より小さい窓毎に、重みフィルタを畳み込み、バイアスを加えて、活性化関数を通して出力を得る。次に、覚醒度推定部14は、窓の位置をシフトさせ、そして、異なる重みフィルタとバイアスとを用いて、同様の操作を実行し、サイズ(DEC_C1,WEC_C1)の出力を得る。なお、活性化関数としては、ReLU(Rectified Linear Unit)等が挙げられる。First, the awakening
次に、覚醒度推定部14は、プーリング層で、サイズ(DEC_C1,WEC_C1)の入力データに対して、サイズが(DEC_C1,WEC_C1)より小さい窓毎に、プーリング層においてプーリング処理を行う。例えば、よく用いられるmaxプーリングの場合、窓内の値の最大値が残るように処理が行われる。次に、覚醒度推定部14は、窓の位置をシフトさせ、同様のプーリング処理を行うことで、サイズ(DEC_P1,WEC_P1)の出力を得る。Next, the awakening
続いて、覚醒度推定部14は、次の畳み込み層でも同様に、サイズ(DEC_P1,WEC_P1)の入力データに対して、サイズが(DEC_P1,WEC_P1)より小さい窓毎に、フィルタの畳み込み、バイアスの加算、活性化関数への入力を行う。そして、覚醒度推定部14は、この場合も、窓の位置をシフトさせて、同様の処理を行うことで、サイズ(DEC_C2,WEC_C2)の出力を得る。Subsequently, the arousal
更に、覚醒度推定部14は、次のプーリング層でも同様に、サイズ(DEC_C2,WEC_C2)の入力データに対して、サイズが(DEC_C2,WEC_C2)より小さい窓毎に、プーリング処理を行う。次に、覚醒度推定部14は、窓の位置をシフトさせて、同様のプーリング処理を行うことで、例えばサイズ(DEC_P2,1)の出力を得る。Furthermore, the awakening
また、本実施の形態1では、覚醒度推定部14は、視線の方向を示す時系列データ、顔の向きを示す時系列データ、それぞれに対しても同様の処理を行い、例えば、サイズ(DEG_P2,1)の出力と、サイズ(DHP_P2,1)の出力とを得る。Further, in the first embodiment, the
次に、覚醒度推定部14は、「連結&平坦化」処理として(図3参照)、時系列データそれぞれ毎の出力を連結し、平坦化する。これにより、覚醒度推定部14は、サイズ(1,DEC_P2+DEG_P2+DHP_P2)の出力を得る。Next, the
その後、覚醒度推定部14は、全結合層において、サイズ(1,DEC_P2+DEG_P2+DHP_P2)の入力データ全てに対して、重みフィルタを畳み込み、バイアスを加えて、活性化関数を通し、出力として覚醒度推定値を得る。After that, the
また、本実施の形態1では、学習モデルは、畳み込みニューラルネットワークを用いているが、その畳み込み層での重みフィルタ及びバイアスは、覚醒度の正解ラベルが付与されたサンプルデータを用いて、事前にディープラーニングを行うことによって学習される。また、学習は、覚醒度の正解ラベルと覚醒度の推定値との差分が少なくなるように、誤差逆伝搬法等を用いることで行うことができる。 Further, in the first embodiment, the learning model uses a convolutional neural network, but the weight filter and the bias in the convolutional layer use the sample data to which the correct answer label of the arousal degree is given in advance. Learned by doing deep learning. Further, the learning can be performed by using an error back propagation method or the like so that the difference between the correct label of the arousal degree and the estimated value of the arousal degree becomes small.
更に、学習においては、一定の確率で重みとバイアスとをゼロにして学習するDropoutを用いることで、過学習を防ぐことができる。また、本実施の形態1では、学習モデルは、フレームレートが異なる複数の時系列データ(例えば、フレームレートが、R、R/2、R/3、R/6、R/10の時系列データ)に対して、サンプル数が設定値なるように補間を行って得られたデータを、学習データとして、畳み込みニューラルネットワークに入力することによって構築されていても良い。この場合、より精密なモデル化が可能となる。 Furthermore, in learning, overfitting can be prevented by using Dropout, which learns with a certain probability that the weight and bias are set to zero. Further, in the first embodiment, the learning model is a plurality of time series data having different frame rates (for example, time series data having frame rates of R, R / 2, R / 3, R / 6, and R / 10). ), The data obtained by interpolating so that the number of samples becomes a set value may be constructed by inputting it into a convolutional neural network as training data. In this case, more precise modeling becomes possible.
更に、本実施の形態1で用いられる学習モデルにおいて、畳み込みニューラルネットワークの構成は、特に限定されるものではない。学習モデルは、例えば、二つ目のプーリング層が取り除かれ、その代わりに、連結&平坦化の後段に全結合層がもう一層追加された構成であっても良い。学習モデルには、種々の変形が加えられていても良い。 Further, in the learning model used in the first embodiment, the configuration of the convolutional neural network is not particularly limited. The learning model may have, for example, a configuration in which the second pooling layer is removed and instead a further fully connected layer is added after the connection & flattening. Various modifications may be added to the learning model.
[装置動作]
次に、本実施の形態1における覚醒度推定装置10の動作について図4を用いて説明する。図4は、本発明の実施の形態1における覚醒度推定装置10の動作を示すフロー図である。以下の説明においては、適宜図1〜図3を参酌する。また、本実施の形態1では、覚醒度推定装置10を動作させることによって、覚醒度推定方法が実施される。よって、本実施の形態1における覚醒度推定方法の説明は、以下の覚醒度推定装置10の動作説明に代える。[Device operation]
Next, the operation of the
図4に示すように、画像データ取得部11は、撮像装置20から画像データが出力されてくると、出力されてきた画像データを取得し、取得した画像データを保持する(ステップS1)。
As shown in FIG. 4, when the image data is output from the
次に、画像データ取得部11は、保持している画像データの枚数が所定値に到達しているかどうかを判定する(ステップS2)。ステップS2の判定の結果、画像データの枚数が所定値に達していない場合は、画像データ取得部11は、再度ステップS1を実行する。一方、ステップS2の判定の結果、画像データの枚数が所定値に達している場合は、画像データ取得部11は、保持している画像データを時系列データ抽出部12に渡す。
Next, the image
次に、時系列データ抽出部12は、画像データを受け取ると、ステップS1で取得された画像データから、ユーザの生体情報を示す時系列データを抽出する(ステップS3)。また、画像データに複数のユーザが含まれている場合は、ステップS3において、時系列データ抽出部12は、ユーザ毎に、時系列データを抽出することもできる。
Next, when the time-series
次に、データ処理部13は、ステップS3で抽出された時系列データのサンプリング数が設定値となるように、時系列データを補間する(ステップS4)。
Next, the
次に、覚醒度推定部14は、畳み込みニューラルネットワークを用いて構築された学習モデルに、ステップS4によって補間された後の時系列データを入力して、ユーザの覚醒度を推定する(ステップS5)。
Next, the arousal
具体的には、図3に示すように、時系列データが、眼の開閉度合を示す情報、視線の方向を示す情報、及び顔の向きを示す情報を示す場合は、覚醒度推定部14は、情報毎に、畳み込みを行って、覚醒度を推定する。また、ステップS5の実行後は、再度ステップS1〜S5が実行され、常時、ユーザの覚醒度の推定が行われる。
Specifically, as shown in FIG. 3, when the time-series data shows information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, and information indicating the direction of the face, the
また、覚醒度推定装置10は、推定した覚醒度を、空調装置の制御システム、車両の運行システム等に入力する。これにより、各システムは、ユーザの覚醒度に基づいて、最適化制御を行うことができる。
Further, the arousal
[実施の形態1における効果]
以上のように、本実施の形態1では、画像データではなく、画像から抽出した時系列データにおいてサンプリング数を補間するので、画像データのフレームレートを予め低く抑えることができる。このため、負担が大きい画像データからの時系列データ抽出部12の処理を軽減でき、結果、装置全体における処理負担を低減しつつ、人の覚醒度を精度良く推定することができる。また、本実施の形態1では、複数のフレームレートの入力時系列データに対して補間したデータを用いて畳み込みニューラルネットワークをモデル化することで、よりいっそう覚醒度の推定精度を向上させることもできる。また、本実施の形態1では、時系列データとして、複数の生体情報を用いることができるので、よりいっそう覚醒度の精度を向上させることもできる。[Effect in Embodiment 1]
As described above, in the first embodiment, since the sampling number is interpolated in the time series data extracted from the image instead of the image data, the frame rate of the image data can be suppressed low in advance. Therefore, the processing of the time-series
[プログラム]
本実施の形態1におけるプログラムは、コンピュータに、図4に示すステップS1〜S5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における覚醒度推定装置10と覚醒度推定方法とを実現することができる。この場合、コンピュータのプロセッサは、画像データ取得部11、時系列データ抽出部12、データ処理部13、及び覚醒度推定部14として機能し、処理を行なう。[program]
The program according to the first embodiment may be any program that causes a computer to execute steps S1 to S5 shown in FIG. By installing this program on a computer and executing it, the arousal
また、本実施の形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、画像データ取得部11、時系列データ抽出部12、データ処理部13、及び覚醒度推定部14のいずれかとして機能しても良い。
Further, the program in the first embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any one of the image
(実施の形態2)
次に、本発明の実施の形態2における覚醒度推定装置について、図5及び図6を参照しながら説明する。(Embodiment 2)
Next, the alertness estimation device according to the second embodiment of the present invention will be described with reference to FIGS. 5 and 6.
[装置構成]
最初に、本実施の形態2における覚醒度推定装置の構成について図5を用いて説明する。図5は、本発明の実施の形態2における覚醒度推定装置の構成を示すブロック図である。[Device configuration]
First, the configuration of the alertness estimation device according to the second embodiment will be described with reference to FIG. FIG. 5 is a block diagram showing the configuration of the alertness estimation device according to the second embodiment of the present invention.
図5に示すように、本実施の形態2における覚醒度推定装置30は、図1に示した実施の形態1における覚醒度推定装置10と同様の構成に加えて、フレームレート調整部31を備えている。以下、実施の形態1との相違点を中心に説明する。
As shown in FIG. 5, the
フレームレート調整部31は、覚醒度推定部14によって推定された覚醒度に応じて、フレームレートを調整する。また、フレームレート調整部31は、フレームレートの調整後、画像データを出力する撮像装置20に対して、調整後のフレームレートを指示する。また、フレームレート調整部31は、撮像装置20ではなく、画像データ取得部11、時系列データ抽出部12に対して、調整後のフレームレートを指示してもよい。また、フレームレート調整部31は、抽出された時系列データが示す生体情報に応じて、フレームレートを調整することもできる。
The frame
具体的には、フレームレート調整部31は、覚醒度が一定している場合は、フレームレートを低く設定し、覚醒度推定装置30における処理負担を低下させる。一方、フレームレート調整部31は、覚醒度が大きく変化している場合(変化の範囲が所定の範囲を超えている場合)は、フレームレートを高く設定し、覚醒度の推定精度を向上させる。
Specifically, when the arousal level is constant, the frame
[装置動作]
次に、本実施の形態2における覚醒度推定装置30の動作について図6を用いて説明する。図6は、本発明の実施の形態2における覚醒度推定装置30の動作を示すフロー図である。以下の説明においては、適宜図5を参酌する。また、本実施の形態2では、覚醒度推定装置30を動作させることによって、覚醒度推定方法が実施される。よって、本実施の形態2における覚醒度推定方法の説明は、以下の覚醒度推定装置30の動作説明に代える。[Device operation]
Next, the operation of the
図6に示すように、画像データ取得部11は、撮像装置20から画像データが出力されてくると、出力されてきた画像データを取得し、取得した画像データを保持する(ステップS11)。
As shown in FIG. 6, when the image data is output from the
次に、画像データ取得部11は、保持している画像データの枚数が所定値に到達しているかどうかを判定する(ステップS12)。ステップS12の判定の結果、画像データの枚数が所定値に達していない場合は、画像データ取得部11は、再度ステップS11を実行する。一方、ステップSs2の判定の結果、画像データの枚数が所定値に達している場合は、画像データ取得部11は、保持している画像データを時系列データ抽出部12に渡す。
Next, the image
次に、時系列データ抽出部12は、画像データを受け取ると、ステップS11で取得された画像データから、ユーザの生体情報を示す時系列データを抽出する(ステップS13)。また、画像データに複数のユーザが含まれている場合は、ステップS13において、時系列データ抽出部12は、ユーザ毎に、時系列データを抽出することもできる。
Next, when the time-series
次に、データ処理部13は、ステップS13で抽出された時系列データのサンプリング数が設定値となるように、時系列データを補間する(ステップS14)。
Next, the
次に、覚醒度推定部14は、畳み込みニューラルネットワークを用いて構築された学習モデルに、ステップS14によって補間された後の時系列データを入力して、ユーザの覚醒度を推定する(ステップS15)。
Next, the arousal
以上のステップS11〜S15の実行により、ユーザの覚醒度が推定される。ステップS11〜S15は、図4に示したステップS1〜S5と同様のステップである。 By executing the above steps S11 to S15, the user's arousal level is estimated. Steps S11 to S15 are the same steps as steps S1 to S5 shown in FIG.
次に、ステップS15の実行後、フレームレート調整部31は、ステップS15によって推定された覚醒度に応じて、フレームレートを調整する(ステップS16)。続いて、フレームレート調整部31は、撮像装置20に対して、ステップS16で調整したフレームレートを指示する(ステップS17)。
Next, after the execution of step S15, the frame
ステップS17の実行後、撮像装置20は、指示されたフレームレートで、画像データを出力する。また、ステップS17の実行後は、再度ステップS11〜S17が実行されるが、その際、指示されたフレームレートで、時系列データが生成されて、新たに覚醒度が推定されることになる。また、本実施の形態2においても、再度ステップS11〜S15が実行されることで、常時、ユーザの覚醒度の推定が行われる。
After the execution of step S17, the
また、本実施の形態2においても、覚醒度推定装置30は、推定した覚醒度を、空調装置の制御システム、車両の運行システム等に入力する。これにより、各システムは、ユーザの覚醒度に基づいて、最適化制御を行うことができる。
Further, also in the second embodiment, the arousal
[実施の形態2における効果]
以上のように、本実施の形態2では、画像データのフレームレートを調整することができる。本実施の形態2によれば、求められる覚醒度の精度に応じて、適切なフレームレートを設定することができる。また、本実施の形態2においても、実施の形態1と同様の効果を得ることができる。[Effect in Embodiment 2]
As described above, in the second embodiment, the frame rate of the image data can be adjusted. According to the second embodiment, an appropriate frame rate can be set according to the required accuracy of the arousal degree. Further, also in the second embodiment, the same effect as that of the first embodiment can be obtained.
[プログラム]
本実施の形態2におけるプログラムは、コンピュータに、図6に示すステップS11〜S17を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における覚醒度推定装置30と覚醒度推定方法とを実現することができる。この場合、コンピュータのプロセッサは、画像データ取得部11、時系列データ抽出部12、データ処理部13、覚醒度推定部14、及びフレームレート調整部31として機能し、処理を行なう。[program]
The program according to the second embodiment may be any program that causes the computer to execute steps S11 to S17 shown in FIG. By installing this program on a computer and executing it, the arousal
また、本実施の形態2におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、画像データ取得部11、時系列データ抽出部12、データ処理部13、覚醒度推定部14、及びフレームレート調整部31のいずれかとして機能しても良い。
Further, the program in the second embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the image
(物理構成)
ここで、本発明の実施の形態1及び2におけるプログラムを実行することによって、覚醒度推定装置を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態1及び2における覚醒度推定装置を実現するコンピュータの一例を示すブロック図である。(Physical configuration)
Here, a computer that realizes an alertness estimation device by executing the programs according to the first and second embodiments of the present invention will be described with reference to FIG. 7. FIG. 7 is a block diagram showing an example of a computer that realizes the alertness estimation device according to the first and second embodiments of the present invention.
図7に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-ProgrammableGate Array)を備えていても良い。
As shown in FIG. 7, the
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader /
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact DiskRead Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施の形態における覚醒度推定装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、覚醒度推定装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The arousal level estimation device in the present embodiment can also be realized by using the hardware corresponding to each part instead of the computer in which the program is installed. Further, the alertness estimation device may be partially realized by a program and the rest may be realized by hardware.
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記18)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 18), but the present invention is not limited to the following description.
(付記1)
ユーザの覚醒度を推定するための装置であって、
設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、画像データ取得部と、
設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、時系列データ抽出部と、
抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、データ処理部と、
畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、覚醒度推定部と、
を備えていることを特徴とする覚醒度推定装置。(Appendix 1)
A device for estimating the user's alertness,
An image data acquisition unit that acquires image data including the user's face image at a set frame rate, and
A time-series data extraction unit that extracts time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and a time-series data extraction unit.
A data processing unit that interpolates the time-series data so that the number of samples of the extracted time-series data becomes a set value.
An arousal level estimation unit that estimates the arousal level of the user by inputting the interpolated time series data into a learning model constructed using a convolutional neural network.
An arousal level estimation device characterized by being equipped with.
(付記2)
付記1に記載の覚醒度推定装置であって、
前記学習モデルが、フレームレートが異なる複数の時系列データに対して、サンプリング数が設定値になるように補間を行って得られたデータを、学習データとして、畳み込みニューラルネットワークに入力することによって構築されている、
ことを特徴とする覚醒度推定装置。(Appendix 2)
The arousal level estimation device according to
The training model is constructed by inputting data obtained by interpolating a plurality of time series data having different frame rates so that the number of samples becomes a set value into a convolutional neural network as training data. Has been
An arousal level estimation device characterized by this.
(付記3)
付記1または2に記載の覚醒度推定装置であって、
前記時系列データが示す生体情報が、前記ユーザにおける、眼の開閉度合を示す情報、視線の方向を示す情報、顔の向きを示す情報、脈波を示す情報、血流を示す情報、口の開閉度合を示す情報のうち、少なくとも1つである、
ことを特徴とする覚醒度推定装置。(Appendix 3)
The arousal level estimation device according to
The biological information indicated by the time-series data includes information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, information indicating the direction of the face, information indicating pulse waves, information indicating blood flow, and information of the mouth of the user. At least one of the information indicating the degree of opening / closing,
An arousal level estimation device characterized by this.
(付記4)
付記3に記載の覚醒度推定装置であって、
前記時系列データが示す生体情報が、2つ以上の情報である場合に、前記学習モデルが、前記生体情報毎に、畳み込みを行うための層を有している、
ことを特徴とする覚醒度推定装置。(Appendix 4)
The arousal level estimation device described in Appendix 3,
When the biometric information indicated by the time series data is two or more pieces of information, the learning model has a layer for convolution for each of the biometric information.
An arousal level estimation device characterized by this.
(付記5)
付記1〜4のいずれかに記載の覚醒度推定装置であって、
推定された前記覚醒度に応じて、前記フレームレートを調整する、フレームレート調整部を更に備えている、
ことを特徴とする覚醒度推定装置。(Appendix 5)
The arousal level estimation device according to any one of
It further includes a frame rate adjusting unit that adjusts the frame rate according to the estimated alertness.
An arousal level estimation device characterized by this.
(付記6)
付記5に記載の覚醒度推定装置であって、
前記フレームレート調整部が、更に、抽出された前記時系列データが示す生体情報に応じて、前記フレームレートを調整する、
ことを特徴とする覚醒度推定装置。(Appendix 6)
The arousal level estimation device according to
The frame rate adjusting unit further adjusts the frame rate according to the biometric information indicated by the extracted time series data.
An arousal level estimation device characterized by this.
(付記7)
ユーザの覚醒度を推定するための方法であって、
(a)設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、ステップと、
(b)設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、ステップと、
(c)抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、ステップと、
(d)畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、ステップと、
を有することを特徴とする覚醒度推定方法。(Appendix 7)
A method for estimating user alertness,
(A) A step of acquiring image data including the user's face image at a set frame rate, and
(B) A step of extracting time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and
(C) A step of interpolating the time-series data so that the number of samples of the extracted time-series data becomes a set value.
(D) A step of inputting the interpolated time series data into a learning model constructed by using a convolutional neural network to estimate the arousal degree of the user.
A method for estimating arousal level, which comprises.
(付記8)
付記7に記載の覚醒度推定方法であって、
前記学習モデルが、フレームレートが異なる複数の時系列データに対して、サンプリング数が設定値になるように補間を行って得られたデータを、学習データとして、畳み込みニューラルネットワークに入力することによって構築されている、
ことを特徴とする覚醒度推定方法。(Appendix 8)
The arousal level estimation method described in Appendix 7
The training model is constructed by inputting data obtained by interpolating a plurality of time series data having different frame rates so that the number of samples becomes a set value into a convolutional neural network as training data. Has been
An alertness estimation method characterized by this.
(付記9)
付記7または8に記載の覚醒度推定方法であって、
前記時系列データが示す生体情報が、前記ユーザにおける、眼の開閉度合を示す情報、視線の方向を示す情報、顔の向きを示す情報、脈波を示す情報、血流を示す情報、口の開閉度合を示す情報のうち、少なくとも1つである、
ことを特徴とする覚醒度推定方法。(Appendix 9)
The arousal level estimation method described in Appendix 7 or 8, wherein the arousal level is estimated.
The biological information indicated by the time-series data includes information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, information indicating the direction of the face, information indicating pulse waves, information indicating blood flow, and information of the mouth of the user. At least one of the information indicating the degree of opening / closing,
An alertness estimation method characterized by this.
(付記10)
付記9に記載の覚醒度推定方法であって、
前記時系列データが示す生体情報が、2つ以上の情報である場合に、前記学習モデルが、前記生体情報毎に、畳み込みを行うための層を有している、
ことを特徴とする覚醒度推定方法。(Appendix 10)
The arousal level estimation method described in Appendix 9,
When the biometric information indicated by the time series data is two or more pieces of information, the learning model has a layer for convolution for each of the biometric information.
An alertness estimation method characterized by this.
(付記11)
付記7〜10のいずれかに記載の覚醒度推定方法であって、
(e)推定された前記覚醒度に応じて、前記フレームレートを調整する、ステップを更に有している、
ことを特徴とする覚醒度推定方法。(Appendix 11)
The arousal level estimation method according to any one of Appendix 7 to 10.
(E) Further having a step of adjusting the frame rate according to the estimated alertness.
An alertness estimation method characterized by this.
(付記12)
付記11に記載の覚醒度推定方法であって、
前記(e)のステップにおいて、更に、抽出された前記時系列データが示す生体情報に応じて、前記フレームレートを調整する、
ことを特徴とする覚醒度推定方法。(Appendix 12)
The arousal level estimation method described in
In the step (e), the frame rate is further adjusted according to the biometric information indicated by the extracted time series data.
An alertness estimation method characterized by this.
(付記13)
コンピュータによってユーザの覚醒度を推定するためのプログラムであって、
前記コンピュータに、
(a)設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、ステップと、
(b)設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、ステップと、
(c)抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、ステップと、
(d)畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、ステップと、
を実行させる、プログラム。
(Appendix 13)
A program for estimating the arousal level of the user by a computer,
On the computer
(A) A step of acquiring image data including the user's face image at a set frame rate, and
(B) A step of extracting time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and
(C) A step of interpolating the time-series data so that the number of samples of the extracted time-series data becomes a set value.
(D) A step of inputting the interpolated time series data into a learning model constructed by using a convolutional neural network to estimate the arousal degree of the user.
Ru is the execution, program.
(付記14)
付記13に記載のプログラムであって、
前記学習モデルが、フレームレートが異なる複数の時系列データに対して、サンプリング数が設定値になるように補間を行って得られたデータを、学習データとして、畳み込みニューラルネットワークに入力することによって構築されている、
ことを特徴とするプログラム。
(Appendix 14)
The program described in
The training model is constructed by inputting data obtained by interpolating a plurality of time series data having different frame rates so that the number of samples becomes a set value into a convolutional neural network as training data. Has been
A program characterized by that.
(付記15)
付記13または14に記載のプログラムであって、
前記時系列データが示す生体情報が、前記ユーザにおける、眼の開閉度合を示す情報、視線の方向を示す情報、顔の向きを示す情報、脈波を示す情報、血流を示す情報、口の開閉度合を示す情報のうち、少なくとも1つである、
ことを特徴とするプログラム。
(Appendix 15)
The program described in
The biological information indicated by the time-series data is information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, information indicating the direction of the face, information indicating the pulse wave, information indicating the blood flow, and information of the mouth of the user. At least one of the information indicating the degree of opening / closing,
A program characterized by that.
(付記16)
付記15に記載のプログラムであって、
前記時系列データが示す生体情報が、2つ以上の情報である場合に、前記学習モデルが、前記生体情報毎に、畳み込みを行うための層を有している、
ことを特徴とするプログラム。
(Appendix 16)
The program described in Appendix 15
When the biometric information indicated by the time series data is two or more pieces of information, the learning model has a layer for convolution for each of the biometric information.
A program characterized by that.
(付記17)
付記13〜16のいずれかに記載のプログラムであって、
前記コンピュータに、
(e)推定された前記覚醒度に応じて、前記フレームレートを調整する、ステップを更に実行させる、
ことを特徴とするプログラム。
(Appendix 17)
The program described in any of
Before Symbol computer,
(E) in response to the estimated the awakening degree, to adjust the frame rate, Ru further to execute the steps,
A program characterized by that.
(付記18)
付記17に記載のプログラムであって、
前記(e)のステップにおいて、更に、抽出された前記時系列データが示す生体情報に応じて、前記フレームレートを調整する、
ことを特徴とするプログラム。
(Appendix 18)
The program described in Appendix 17,
In the step (e), the frame rate is further adjusted according to the biometric information indicated by the extracted time series data.
A program characterized by that.
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the structure and details of the present invention.
以上のように、本発明によれば、処理負担を低減しつつ、人の覚醒度を精度良く推定することができる。本発明は、人の覚醒度の推定が求められる種々のシステム、例えば、空調システム、自動車等の乗り物の運行システム等に有用である。 As described above, according to the present invention, it is possible to accurately estimate the arousal level of a person while reducing the processing load. The present invention is useful for various systems that require estimation of human alertness, such as air conditioning systems, vehicle operation systems such as automobiles, and the like.
10 覚醒度推定装置(実施の形態1)
11 画像データ取得部
12 時系列データ抽出部
13 データ処理部
14 覚醒度推定部
20 撮像装置
30 覚醒度推定装置(実施の形態2)
31 フレームレート調整部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
10 Alertness estimation device (Embodiment 1)
11 Image
31 Frame
112
Claims (18)
設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、画像データ取得部と、
設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、時系列データ抽出部と、
抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、データ処理部と、
畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、覚醒度推定部と、
を備えていることを特徴とする覚醒度推定装置。 A device for estimating the user's alertness,
An image data acquisition unit that acquires image data including the user's face image at a set frame rate, and
A time-series data extraction unit that extracts time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and a time-series data extraction unit.
A data processing unit that interpolates the time-series data so that the number of samples of the extracted time-series data becomes a set value.
An arousal level estimation unit that estimates the arousal level of the user by inputting the interpolated time series data into a learning model constructed using a convolutional neural network.
An arousal level estimation device characterized by being equipped with.
前記学習モデルが、フレームレートが異なる複数の時系列データに対して、サンプリング数が設定値になるように補間を行って得られたデータを、学習データとして、畳み込みニューラルネットワークに入力することによって構築されている、
ことを特徴とする覚醒度推定装置。 The arousal level estimation device according to claim 1.
The training model is constructed by inputting data obtained by interpolating a plurality of time series data having different frame rates so that the number of samples becomes a set value into a convolutional neural network as training data. Has been
An arousal level estimation device characterized by this.
前記時系列データが示す生体情報が、前記ユーザにおける、眼の開閉度合を示す情報、視線の方向を示す情報、顔の向きを示す情報、脈波を示す情報、血流を示す情報、口の開閉度合を示す情報のうち、少なくとも1つである、
ことを特徴とする覚醒度推定装置。 The alertness estimation device according to claim 1 or 2.
The biological information indicated by the time-series data includes information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, information indicating the direction of the face, information indicating pulse waves, information indicating blood flow, and information of the mouth of the user. At least one of the information indicating the degree of opening / closing,
An arousal level estimation device characterized by this.
前記時系列データが示す生体情報が、2つ以上の情報である場合に、前記学習モデルが、前記生体情報毎に、畳み込みを行うための層を有している、
ことを特徴とする覚醒度推定装置。 The alertness estimation device according to claim 3.
When the biometric information indicated by the time series data is two or more pieces of information, the learning model has a layer for convolution for each of the biometric information.
An arousal level estimation device characterized by this.
推定された前記覚醒度に応じて、前記フレームレートを調整する、フレームレート調整部を更に備えている、
ことを特徴とする覚醒度推定装置。 The alertness estimation device according to any one of claims 1 to 4.
It further includes a frame rate adjusting unit that adjusts the frame rate according to the estimated alertness.
An arousal level estimation device characterized by this.
前記フレームレート調整部が、更に、抽出された前記時系列データが示す生体情報に応じて、前記フレームレートを調整する、
ことを特徴とする覚醒度推定装置。 The alertness estimation device according to claim 5.
The frame rate adjusting unit further adjusts the frame rate according to the biometric information indicated by the extracted time series data.
An arousal level estimation device characterized by this.
(a)設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、ステップと、
(b)設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、ステップと、
(c)抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、ステップと、
(d)畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、ステップと、
を有することを特徴とする覚醒度推定方法。 A method for estimating user alertness,
(A) A step of acquiring image data including the user's face image at a set frame rate, and
(B) A step of extracting time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and
(C) A step of interpolating the time-series data so that the number of samples of the extracted time-series data becomes a set value.
(D) A step of inputting the interpolated time series data into a learning model constructed by using a convolutional neural network to estimate the arousal degree of the user.
A method for estimating arousal level, which comprises.
前記学習モデルが、フレームレートが異なる複数の時系列データに対して、サンプリング数が設定値になるように補間を行って得られたデータを、学習データとして、畳み込みニューラルネットワークに入力することによって構築されている、
ことを特徴とする覚醒度推定方法。 The arousal level estimation method according to claim 7.
The training model is constructed by inputting data obtained by interpolating a plurality of time series data having different frame rates so that the number of samples becomes a set value into a convolutional neural network as training data. Has been
An alertness estimation method characterized by this.
前記時系列データが示す生体情報が、前記ユーザにおける、眼の開閉度合を示す情報、視線の方向を示す情報、顔の向きを示す情報、脈波を示す情報、血流を示す情報、口の開閉度合を示す情報のうち、少なくとも1つである、
ことを特徴とする覚醒度推定方法。 The arousal level estimation method according to claim 7 or 8.
The biological information indicated by the time-series data includes information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, information indicating the direction of the face, information indicating pulse waves, information indicating blood flow, and information of the mouth of the user. At least one of the information indicating the degree of opening / closing,
An alertness estimation method characterized by this.
前記時系列データが示す生体情報が、2つ以上の情報である場合に、前記学習モデルが、前記生体情報毎に、畳み込みを行うための層を有している、
ことを特徴とする覚醒度推定方法。 The arousal level estimation method according to claim 9.
When the biometric information indicated by the time series data is two or more pieces of information, the learning model has a layer for convolution for each of the biometric information.
An alertness estimation method characterized by this.
(e)推定された前記覚醒度に応じて、前記フレームレートを調整する、ステップを更に有している、
ことを特徴とする覚醒度推定方法。 The arousal level estimation method according to any one of claims 7 to 10.
(E) Further having a step of adjusting the frame rate according to the estimated alertness.
An alertness estimation method characterized by this.
前記(e)のステップにおいて、更に、抽出された前記時系列データが示す生体情報に応じて、前記フレームレートを調整する、
ことを特徴とする覚醒度推定方法。 The arousal level estimation method according to claim 11.
In the step (e), the frame rate is further adjusted according to the biometric information indicated by the extracted time series data.
An alertness estimation method characterized by this.
前記コンピュータに、
(a)設定されたフレームレートで、前記ユーザの顔画像を含む画像データを取得する、ステップと、
(b)設定された前記フレームレートで取得された前記画像データから、前記ユーザの生体情報を示す時系列データを抽出する、ステップと、
(c)抽出された前記時系列データのサンプリング数が設定値となるように、前記時系列データを補間する、ステップと、
(d)畳み込みニューラルネットワークを用いて構築された学習モデルに、補間後の前記時系列データを入力して、前記ユーザの覚醒度を推定する、ステップと、
を実行させる、プログラム。 A program for estimating the arousal level of the user by a computer,
On the computer
(A) A step of acquiring image data including the user's face image at a set frame rate, and
(B) A step of extracting time-series data indicating the biometric information of the user from the image data acquired at the set frame rate, and
(C) A step of interpolating the time-series data so that the number of samples of the extracted time-series data becomes a set value.
(D) A step of inputting the interpolated time series data into a learning model constructed by using a convolutional neural network to estimate the arousal degree of the user.
Ru is the execution, program.
前記学習モデルが、フレームレートが異なる複数の時系列データに対して、サンプリング数が設定値になるように補間を行って得られたデータを、学習データとして、畳み込みニューラルネットワークに入力することによって構築されている、
ことを特徴とするプログラム。 The program according to claim 13.
The training model is constructed by inputting data obtained by interpolating a plurality of time series data having different frame rates so that the number of samples becomes a set value into a convolutional neural network as training data. Has been
A program characterized by that.
前記時系列データが示す生体情報が、前記ユーザにおける、眼の開閉度合を示す情報、視線の方向を示す情報、顔の向きを示す情報、脈波を示す情報、血流を示す情報、口の開閉度合を示す情報のうち、少なくとも1つである、
ことを特徴とするプログラム。 The program according to claim 13 or 14.
The biological information indicated by the time-series data includes information indicating the degree of opening and closing of the eyes, information indicating the direction of the line of sight, information indicating the direction of the face, information indicating pulse waves, information indicating blood flow, and information of the mouth of the user. At least one of the information indicating the degree of opening / closing,
A program characterized by that.
前記時系列データが示す生体情報が、2つ以上の情報である場合に、前記学習モデルが、前記生体情報毎に、畳み込みを行うための層を有している、
ことを特徴とするプログラム。 The program according to claim 15.
When the biometric information indicated by the time series data is two or more pieces of information, the learning model has a layer for convolution for each of the biometric information.
A program characterized by that.
前記コンピュータに、
(e)推定された前記覚醒度に応じて、前記フレームレートを調整する、ステップを更に実行させる、
ことを特徴とするプログラム。 The program according to any one of claims 13 to 16.
On the computer
(E) in response to the estimated the awakening degree, to adjust the frame rate, Ru further to execute the steps,
A program characterized by that.
前記(e)のステップにおいて、更に、抽出された前記時系列データが示す生体情報に応じて、前記フレームレートを調整する、
ことを特徴とするプログラム。 The program according to claim 17.
In the step (e), the frame rate is further adjusted according to the biometric information indicated by the extracted time series data.
A program characterized by that.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/002804 WO2019146123A1 (en) | 2018-01-29 | 2018-01-29 | Alertness estimation device, alertness estimation method, and computer readable recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019146123A1 JPWO2019146123A1 (en) | 2021-01-14 |
JP6879388B2 true JP6879388B2 (en) | 2021-06-02 |
Family
ID=67395274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019567823A Active JP6879388B2 (en) | 2018-01-29 | 2018-01-29 | Alertness estimation device, alertness estimation method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6879388B2 (en) |
WO (1) | WO2019146123A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7279812B2 (en) * | 2019-11-06 | 2023-05-23 | 日本電気株式会社 | STRESS ESTIMATION DEVICE, OPERATION METHOD OF STRESS ESTIMATION DEVICE, AND PROGRAM |
WO2023135632A1 (en) * | 2022-01-11 | 2023-07-20 | 日本電気株式会社 | Stress estimation device, stress estimation method, and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4863937B2 (en) * | 2007-06-25 | 2012-01-25 | 株式会社ソニー・コンピュータエンタテインメント | Encoding processing apparatus and encoding processing method |
WO2017208529A1 (en) * | 2016-06-02 | 2017-12-07 | オムロン株式会社 | Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium |
WO2018035531A1 (en) * | 2016-08-19 | 2018-02-22 | Massachusetts Intitute Of Technology | Systems and methods for providing visual allocation management |
JP6952299B2 (en) * | 2017-03-28 | 2021-10-20 | 国立大学法人大阪大学 | Sleep depth judgment system, sleep depth judgment device and sleep depth judgment method |
-
2018
- 2018-01-29 JP JP2019567823A patent/JP6879388B2/en active Active
- 2018-01-29 WO PCT/JP2018/002804 patent/WO2019146123A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019146123A1 (en) | 2019-08-01 |
JPWO2019146123A1 (en) | 2021-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10890968B2 (en) | Electronic device with foveated display and gaze prediction | |
JP7014129B2 (en) | Estimator generator, monitoring device, estimator generator method and estimator generator | |
US9501049B2 (en) | Dynamic environment adaptation | |
CN111598038B (en) | Facial feature point detection method, device, equipment and storage medium | |
CN104951084A (en) | Eye-tracking method and device | |
JP7520123B2 (en) | Systems and methods for automated anomaly detection in mixed human-robot manufacturing processes | |
JP6879388B2 (en) | Alertness estimation device, alertness estimation method, and program | |
JP7260674B2 (en) | C/D ratio determination method based on neural network, computer equipment and storage medium | |
US20210304001A1 (en) | Multi-head neural network model to simultaneously predict multiple physiological signals from facial RGB video | |
KR20200036085A (en) | Artificial intelligence device | |
CN112634246B (en) | Oral cavity image recognition method and related equipment | |
CN116916504B (en) | Intelligent control method, device and equipment for dimming panel and storage medium | |
KR20200080419A (en) | Hand gesture recognition method using artificial neural network and device thereof | |
US20220330848A1 (en) | Method, Computer Program, and Device for Determining Vehicle Occupant Respiration | |
CN113255648B (en) | Sliding window frame selection method and terminal based on image recognition | |
JP2014159916A (en) | Environment control apparatus, method, and program | |
JPWO2020157989A1 (en) | Alertness estimation device, alertness estimation method, and program | |
JP7314939B2 (en) | Image recognition program, image recognition device, learning program, and learning device | |
JP6996455B2 (en) | Detector generator, monitoring device, detector generator and detector generator | |
US20220301346A1 (en) | Learning apparatus, learning system, and nonverbal information learning method | |
CN114688699A (en) | Air conditioner control method and device, air conditioner and storage medium | |
CN114916926A (en) | Respiration rate detection method, device, equipment, system and storage medium | |
CN113719975A (en) | Human body thermal comfort real-time sensing and indoor environment intelligent regulation and control method and system | |
JP2013120954A (en) | Sleeping face recognition device | |
JP7035912B2 (en) | Detector generator, monitoring device, detector generator method and detector generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200715 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6879388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |