JP2007236488A - Vigilance degree estimating device, system, and method - Google Patents

Vigilance degree estimating device, system, and method Download PDF

Info

Publication number
JP2007236488A
JP2007236488A JP2006060222A JP2006060222A JP2007236488A JP 2007236488 A JP2007236488 A JP 2007236488A JP 2006060222 A JP2006060222 A JP 2006060222A JP 2006060222 A JP2006060222 A JP 2006060222A JP 2007236488 A JP2007236488 A JP 2007236488A
Authority
JP
Japan
Prior art keywords
subject
level
action
arousal level
wakefulness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006060222A
Other languages
Japanese (ja)
Other versions
JP5292671B2 (en
Inventor
Yoshiyuki Hatakeyama
善幸 畠山
Pujitha Gunaratne
グナラトネ プジタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006060222A priority Critical patent/JP5292671B2/en
Publication of JP2007236488A publication Critical patent/JP2007236488A/en
Application granted granted Critical
Publication of JP5292671B2 publication Critical patent/JP5292671B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To increase the estimation precision when the estimation of the vigilance degree of a subject is performed by using movements of a plurality of kinds. <P>SOLUTION: This vigilance degree estimating device is equipped with means 120, 130 and 132 for acquiring the movement information of the subject through a means 110 which detects a plurality of kinds of movements of the subject, and a means 152 for keeping information regarding the priority in the various kinds of movements. The vigilance degree estimating device is also equipped with a means 150 for processing the movement information of the subject from the information regarding the priority, and a vigilance degree estimating means 160 for estimating the vigilance degree of the subject from the processing result of the movement information based on the information regarding the priority. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、被験者の覚醒度を高精度に推定する覚醒度推定装置及びシステム並びに方法に関する。   The present invention relates to a wakefulness estimation apparatus, system, and method for estimating a wakefulness of a subject with high accuracy.

従来から、人間の眼球部を照明する近赤外光源と、人間の眼球部を撮像する撮像手段と、該撮像手段により撮像された画像から眼球部の瞳孔領域を抽出する抽出手段と、該抽出手段により抽出された瞳孔領域の形状変化から瞬きの時間および頻度が所定値以上の時に人間の覚醒状態が低下していると判断する判断手段とを有することを特徴とする覚醒状態検知装置が知られている(例えば、特許文献1参照)。
特開平6−270711公報
Conventionally, a near-infrared light source that illuminates the human eyeball, an imaging unit that images the human eyeball, an extraction unit that extracts a pupil region of the eyeball from an image captured by the imaging unit, and the extraction A wakefulness detection device characterized by comprising: a judging means for judging that the wakefulness state of a human is lowered when the blinking time and frequency are equal to or greater than a predetermined value from the shape change of the pupil region extracted by the means (For example, refer to Patent Document 1).
JP-A-6-270711

ところで、眠気と相関性のある人の動きは様々あるが、動きの種類に応じて、その動きが現れやすい覚醒度が異なる場合が多い。例えば、あくびなどは低い覚醒度で現れやすいが、しかめ顔などは比較的に高い覚醒度で現れることもある。また、同じ種類の動きでも異なる複数の覚醒度で現れることもある。更には、覚醒度が異なると、同じ動きでもその発生頻度が異なる場合が多い。また、2種類以上の動きが時間的に近接して発生した場合には、それらのアクションの組み合わせと覚醒度との間にはなんらかの因果関係がある場合が多い。従って、複数種類の動きを用いて覚醒度の推定を行う構成の場合には、それらの各種動き又はそれらの組み合わせ若しくは発生頻度を適切に評価できないと、被験者の覚醒度の推定精度を高めることができない。   By the way, there are various human movements correlated with sleepiness, but in many cases, the degree of arousal at which the movement is likely to appear varies depending on the type of movement. For example, yawns are likely to appear with a low arousal level, but frowning faces may appear with a relatively high level of arousal level. In addition, even the same type of movement may appear with different arousal levels. Furthermore, when the degree of arousal is different, the frequency of occurrence is often different even in the same movement. In addition, when two or more types of movements occur close in time, there is often a causal relationship between the combination of these actions and the arousal level. Therefore, in the case of a configuration in which the arousal level is estimated using a plurality of types of movements, the estimation accuracy of the awakening level of the subject can be improved if the various movements, the combination thereof, or the occurrence frequency cannot be appropriately evaluated. Can not.

そこで、本発明は、複数種類の動きを用いて被験者の覚醒度の推定を行う覚醒度推定装置及びシステム並びに方法において、推定精度を高めることを課題とする。   Therefore, an object of the present invention is to increase estimation accuracy in an arousal level estimation apparatus, system, and method that estimate arousal level of a subject using a plurality of types of movements.

上記目的を達成するため、第1の発明に係る覚醒度推定装置は、被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する手段と、
各種動きの優先度に関する情報を保持する手段と、
前記優先度に関する情報に基づいて被験者の動き情報を処理する手段と、
前記優先度に関する情報に基づく動き情報の処理結果に基づいて、被験者の覚醒度を推定する覚醒度推定手段とを備えることを特徴とする。
In order to achieve the above object, the arousal level estimation device according to the first invention includes means for acquiring subject movement information via means for detecting a plurality of types of movements of the subject,
Means for holding information about the priority of various movements;
Means for processing subject movement information based on information about the priorities;
And awakening degree estimating means for estimating the awakening degree of the subject based on the processing result of the motion information based on the information related to the priority.

第2の発明は、第1の発明に係る覚醒度推定装置において、
前記各種動きの優先度に関する情報は、各種動きの発生時点とそのときの覚醒度との対応関係の学習結果に基づいて生成されることを特徴とする。これにより、各覚醒度(2段階以上)における各種動きの発生状況の学習結果に適合した覚醒度推定処理を行うことができるので、覚醒度の推定精度を高めることが可能となる。
A second aspect of the present invention is the awakening level estimation device according to the first aspect,
The information related to the priority of each type of motion is generated based on a learning result of a correspondence relationship between the time of occurrence of various types of motion and the arousal level at that time. As a result, it is possible to perform an arousal level estimation process that matches the learning result of the occurrence status of various movements at each arousal level (two or more stages), so that the estimation accuracy of the arousal level can be increased.

第3の発明に係る覚醒度推定装置は、被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する手段と、
2種類の動きの組み合わせに対応付けて、覚醒度に関する情報を保持する手段と、
所定時間内に連続して2種類の動きが発生したことを表す動き情報が取得された場合、該動きの組み合わせに対応する覚醒度に関する情報に基づいて、被験者の覚醒度を推定する覚醒度推定手段とを備えることを特徴とする。これにより、2種類のアクションの組み合わせを適切に評価して、覚醒度の推定精度を高めることが可能となる。
The awakening level estimation device according to a third aspect of the present invention is a means for acquiring subject movement information via means for detecting a plurality of types of movements of the subject;
Means for holding information about arousal level in association with a combination of two types of movements;
When motion information indicating that two types of movements have occurred continuously within a predetermined time is acquired, the arousal level estimation is performed to estimate the arousal level of the subject based on information about the arousal level corresponding to the combination of the motions. Means. As a result, it is possible to appropriately evaluate the combination of the two types of actions and increase the estimation accuracy of the arousal level.

第4の発明は、第3の発明に係る覚醒度推定装置において、前記覚醒度に関する情報は、2種類の動きの各組み合わせの発生時点とそのときの覚醒度との対応関係の学習結果に基づいて生成されることを特徴とする。これにより、各覚醒度(2段階以上)における各種動きの組み合わせの発生状況の学習結果に適合した覚醒度推定処理を行うことができるので、覚醒度の推定精度を高めることが可能となる。   According to a fourth aspect of the present invention, in the wakefulness level estimation device according to the third aspect of the invention, the information about the wakefulness level is based on a learning result of a correspondence relationship between the occurrence time of each combination of two types of movements and the wakefulness level at that time. It is characterized by being generated. As a result, it is possible to perform an arousal level estimation process adapted to the learning result of the occurrence state of various motion combinations at each arousal level (two or more stages), and thus it is possible to improve the estimation accuracy of the arousal level.

第5の発明に係る覚醒度推定装置は、被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する手段と、
動き情報に基づいて各種の動きの発生頻度を算出する手段と、
各覚醒度における各種の動きの発生頻度の学習結果を保持する手段と、
算出された動きの発生頻度と、前記学習結果との対応関係に基づいて、被験者の覚醒度を推定する覚醒度推定手段とを備えることを特徴とする。これにより、動きの発生頻度を適切に評価して、覚醒度の推定精度を高めることが可能となる。
The arousal level estimation apparatus according to a fifth aspect of the present invention is a means for acquiring subject movement information via means for detecting a plurality of types of movements of the subject;
Means for calculating the frequency of occurrence of various movements based on movement information;
Means for holding a learning result of the frequency of occurrence of various movements at each arousal level;
And awakening degree estimating means for estimating the awakening degree of the subject on the basis of the correspondence between the calculated occurrence frequency of the movement and the learning result. As a result, it is possible to appropriately evaluate the frequency of occurrence of motion and increase the estimation accuracy of the arousal level.

第6の発明に係る覚醒度推定システムは、第1、3及び5の発明に係る3つの覚醒度推定装置のうち、少なくとも2つの覚醒度推定装置を備えることを特徴とする。この場合、何れかの結果を優先して、最終的な推定結果を出力してもよいし、或いは、全ての結果を総合的に評価して、最終的な推定結果を出力してもよい。   A wakefulness level estimation system according to a sixth aspect is characterized by comprising at least two wakefulness level estimation devices among the three wakefulness level estimation devices according to the first, third, and fifth aspects of the invention. In this case, any result may be prioritized and the final estimation result may be output, or all the results may be comprehensively evaluated and the final estimation result may be output.

第7の発明に係る覚醒度推定方法は、被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する段階と、
各種動きの発生時点とそのときの覚醒度との対応関係を学習する学習段階と、
被験者の動き情報に基づいてある動きが検出された場合に、前記学習段階での学習結果に基づいて、検出された動きに対応する覚醒度を抽出し、該抽出した覚醒度を、被験者の覚醒度の推定結果として出力する段階とを備えることを特徴とする。これにより、動きの種類と覚醒度との因果関係を適切に評価して、覚醒度の推定精度を高めることが可能となる。
The awakening level estimation method according to a seventh aspect of the present invention includes a step of acquiring subject movement information via means for detecting a plurality of types of movements of the subject,
A learning stage for learning the correspondence between the occurrence of various movements and the arousal level at that time,
When a movement is detected based on the movement information of the subject, the awakening level corresponding to the detected movement is extracted based on the learning result in the learning stage, and the extracted awakening level is used as the awakening level of the subject. And outputting a degree estimation result. As a result, it is possible to appropriately evaluate the causal relationship between the type of motion and the arousal level, and to increase the estimation accuracy of the arousal level.

第8の発明に係る覚醒度推定方法は、被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する段階と、
2種類の動きの各組み合わせの発生時点とそのときの覚醒度との対応関係を学習する学習段階と、
被験者の動き情報に基づいてある2種類の動きが時間的に近接して検出された場合に、前記学習段階での学習結果に基づいて、検出された動きの組み合わせに対応する覚醒度を抽出し、該抽出した覚醒度を、被験者の覚醒度の推定結果として出力する段階とを備えることを特徴とする。これにより、2種類のアクションの組み合わせと覚醒度との因果関係を適切に評価して、覚醒度の推定精度を高めることが可能となる。
The arousal level estimation method according to an eighth aspect of the present invention includes a step of acquiring subject movement information via means for detecting a plurality of types of movements of the subject,
A learning stage for learning the correspondence between the occurrence time of each combination of two types of movement and the arousal level at that time,
When two types of movements based on the movement information of the subject are detected close in time, the arousal level corresponding to the detected combination of movements is extracted based on the learning result in the learning stage. And outputting the extracted arousal level as an estimation result of the awakening level of the subject. As a result, it is possible to appropriately evaluate the causal relationship between the combination of two types of actions and the arousal level, and to increase the estimation accuracy of the arousal level.

第9の発明に係る覚醒度推定方法は、被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する段階と、
動き情報に基づいて各種の動きの発生頻度を算出する段階と、
各種の動きの発生頻度とそのときの覚醒度との対応関係を学習する学習段階と、
被験者の動き情報に基づいてある動きが検出された場合に、前記学習段階での学習結果に基づいて、算出された動きの発生頻度に対応する覚醒度を抽出し、該抽出した覚醒度を、被験者の覚醒度の推定結果として出力する段階とを備えることを特徴とする。これにより、動きの発生頻度と覚醒度との因果関係を適切に評価して、覚醒度の推定精度を高めることが可能となる。
The awakening level estimation method according to a ninth aspect of the present invention includes a step of acquiring subject movement information via means for detecting a plurality of types of movements of the subject,
Calculating the frequency of various movements based on the movement information;
A learning stage for learning the correspondence between the occurrence frequency of various movements and the arousal level at that time,
When a certain motion is detected based on the subject's motion information, based on the learning result in the learning stage, the awakening level corresponding to the calculated frequency of the motion is extracted, and the extracted awakening level is And a step of outputting as an estimation result of the awakening level of the subject. As a result, it is possible to appropriately evaluate the causal relationship between the frequency of occurrence of motion and the arousal level, and to increase the estimation accuracy of the arousal level.

本発明によれば、複数種類の動きを用いて被験者の覚醒度の推定を行う覚醒度推定装置及びシステム並びに方法において、推定精度を高めることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to raise estimation precision in the arousal level estimation apparatus, system, and method which estimate a test subject's arousal level using multiple types of motion.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。以下では、覚醒度推定システムが車両に搭載され、被験者が車両の運転者である場合について説明する。但し、本発明は、車両以外のアプリケーションにおいても適用可能である。   The best mode for carrying out the present invention will be described below with reference to the drawings. Below, the case where a wakefulness estimation system is mounted in a vehicle and a test subject is a driver of a vehicle is demonstrated. However, the present invention can also be applied to applications other than vehicles.

図1は、本発明による覚醒度推定システムの一実施例のシステム構成図である。本実施例の覚醒度推定システム100は、画像取得手段110と、アクション追跡モジュール120と、アクショントリガ生成モジュール130と、アクションデータベース132と、アクション頻度算出モジュール140と、アクション優先付けモジュール150と、優先度データベース152と、アクションヒストリーデータベース154と、覚醒度推定モジュール160と、を備える。覚醒度推定システム100には、警告手段170が接続される。   FIG. 1 is a system configuration diagram of an embodiment of a wakefulness estimation system according to the present invention. The arousal level estimation system 100 according to the present embodiment includes an image acquisition unit 110, an action tracking module 120, an action trigger generation module 130, an action database 132, an action frequency calculation module 140, an action prioritization module 150, a priority. A degree database 152, an action history database 154, and a wakefulness estimation module 160. A warning means 170 is connected to the arousal level estimation system 100.

図2は、本実施例による覚醒度推定システムにより実現される主要処理の流れを示す図である。本実施例による覚醒度推定システムにより実現される主要処理は、
ステップ10:画像取得手段110による画像取得処理と、
ステップ20:アクション追跡モジュール120によるアクション追跡処理と、
ステップ30:アクショントリガ生成モジュール130によるアクショントリガ生成処理と、
ステップ40:アクション頻度算出モジュール140によるアクション頻度算出処理と、
ステップ50:アクション優先付けモジュール150によるアクション優先付け処理と、
ステップ60:覚醒度推定モジュールによる覚醒度推定処理と、
ステップ70:警告手段170による警告処理とを含む。
FIG. 2 is a diagram showing a flow of main processing realized by the arousal level estimation system according to the present embodiment. The main processing realized by the arousal level estimation system according to this embodiment is as follows:
Step 10: Image acquisition processing by the image acquisition means 110;
Step 20: Action tracking processing by the action tracking module 120;
Step 30: Action trigger generation processing by the action trigger generation module 130;
Step 40: Action frequency calculation processing by the action frequency calculation module 140;
Step 50: Action prioritization processing by the action prioritization module 150;
Step 60: Arousal level estimation processing by the arousal level estimation module;
Step 70: The warning processing by the warning means 170 is included.

以下、各処理について順に詳説する。   Hereinafter, each process will be described in detail.

[画像取得処理]
画像取得処理10では、画像取得手段110による画像取得が実現される。画像取得手段110は、例えばカラー又は赤外線感応CCD(charge-coupled device)センサアレイを備えるカメラである。画像取得手段110は、例えば運転者の前面(例えば顔部を前方から)を捕捉可能なように、車両の適切な箇所に設けられる。例えば、画像取得手段110は、車両のインストルメントパネルのダッシュボードやステアリングコラムに設置される。画像取得手段110は、リアルタイムに運転者の画像を取得し、典型的には30fps(frame per second)のストリーム形式で、アクション追跡モジュール120に供給するものであってよい。
[Image acquisition processing]
In the image acquisition process 10, image acquisition by the image acquisition unit 110 is realized. The image acquisition unit 110 is, for example, a camera including a color or infrared sensitive CCD (charge-coupled device) sensor array. The image acquisition unit 110 is provided at an appropriate location of the vehicle so that the front surface of the driver (for example, the face portion from the front) can be captured, for example. For example, the image acquisition unit 110 is installed on a dashboard or a steering column of an instrument panel of a vehicle. The image acquisition unit 110 may acquire an image of the driver in real time and supply the image to the action tracking module 120, typically in a stream format of 30 fps (frame per second).

[アクション追跡処理]
アクション追跡モジュール120は、画像取得手段110により取得された各画像に基づいて、所定のアクションの発生の有無を判断する。
[Action tracking process]
The action tracking module 120 determines whether or not a predetermined action has occurred based on each image acquired by the image acquisition unit 110.

図3は、アクション追跡モジュール120により実現されるアクション追跡処理(図2のステップ20)の詳細を示すフローチャートである。   FIG. 3 is a flowchart showing details of the action tracking process (step 20 in FIG. 2) realized by the action tracking module 120.

ステップ200では、画像取得手段110により取得された各画像から、顔の代表的なポイント(特徴点)が抽出される。この特徴抽出方法は、適切な任意の方法であってよく、例えばActive Appearance Model(AAM)をベースにした技術が用いられてよい。次いで、適切なエッジ検出アルゴリズム(例えばSobelのエッジ検出アルゴリズム)を適用して、顔と顔の特徴の境界が決定される。   In step 200, representative points (feature points) of the face are extracted from each image acquired by the image acquisition unit 110. This feature extraction method may be any appropriate method, and for example, a technique based on Active Appearance Model (AAM) may be used. An appropriate edge detection algorithm (eg, Sobel's edge detection algorithm) is then applied to determine the boundary between the facial features.

ステップ202では、上述の如く抽出されるエッジ及び特徴点を用いて、図4に示すように、顔のパーツが分離され、顔のパーツの形状が抽出される。尚、図4は、顔の一部のみを代表して示しており、顔の眉と目の部分がパーツとして抽出された画像を示している。   In step 202, using the edges and feature points extracted as described above, the facial parts are separated as shown in FIG. 4, and the shape of the facial parts is extracted. FIG. 4 shows only a part of the face as a representative, and shows an image in which the eyebrows and eyes are extracted as parts.

ステップ204では、頭部の向きの変化及びパーツの形状変形が推定される。この推定処理により、3種類の変化パラメータP,E,Mが導出される。   In step 204, a change in head orientation and part shape deformation are estimated. By this estimation process, three types of change parameters P, E, and M are derived.

変化パラメータPは、頭部の向きの変化態様を表すことができる姿勢変化パラメータpからなり、P={p}、i=1,…αで表される。尚、αは、姿勢変化パラメータの数である。即ち、変化パラメータPは、α個の姿勢変化パラメータの集合からなる。姿勢変化パラメータは、例えば正規の姿勢であるときの顔の正面方向を1軸とする3軸まわりの回転角度で表されてよい。 The change parameter P includes a posture change parameter p i that can represent a change mode of the orientation of the head, and is represented by P = {p i }, i = 1,. Α is the number of posture change parameters. That is, the change parameter P is composed of a set of α posture change parameters. The posture change parameter may be represented by, for example, a rotation angle about three axes with the front direction of the face in a normal posture as one axis.

変化パラメータEは、目の領域の形状変形態様を表すことができる目変化パラメータeからなり、E={e}、j=1,…βで表される。尚、βは、目変化パラメータの数である。即ち、変化パラメータEは、β個の目変化パラメータの集合からなる。目変化パラメータは、例えば目全体の大きさないし面積、幅、高さ等を表すパラメータであってよい。 Change parameter E consists eyes change parameter e j that can represent the shape variations of the eye region, E = {e j}, j = 1, represented by ... beta. Β is the number of eye change parameters. That is, the change parameter E is composed of a set of β eye change parameters. The eye change parameter may be, for example, a parameter indicating the size, area, width, height, etc. of the entire eye.

変化パラメータMは、口の領域の形状変形態様を表すことができる口変化パラメータmからなり、M={m}、k=1,…γで表される。尚、γは、口変化パラメータの数である。即ち、変化パラメータMは、γ個の口変化パラメータの集合からなる。口変化パラメータは、例えば口全体の大きさないし面積、幅、高さ等を表すパラメータであってよい。 The change parameter M includes a mouth change parameter m k that can represent the shape deformation mode of the mouth region, and is represented by M = {m k }, k = 1,. Note that γ is the number of mouth change parameters. That is, the change parameter M is composed of a set of γ mouth change parameters. The mouth change parameter may be a parameter that represents, for example, the size, area, width, height, etc. of the entire mouth.

図5は、各t秒間隔(典型的には、t=1秒)におけるパラメータp、e、mの変化態様の一例を示す。このように、変化パラメータを複数のパーツないし向きで分けることにより、多様なアクションを多面的に検出することが可能となる。 FIG. 5 shows an example of how the parameters p i , e j , and m k change at each t second interval (typically, t = 1 second). In this way, by dividing the change parameter by a plurality of parts or orientations, various actions can be detected in a multifaceted manner.

[アクショントリガ生成処理]
アクショントリガ生成モジュール130は、不特定多数の被験者に対する試験結果に基づいて予め構築されたアクションデータベース132を用いる。アクションデータベース132には、各アクションに対する顔部の向き及び変形に関する変化パラメータが格納されている。本例では、眠気の早期段階で観測される所定の異なるアクションA(l=1,…)を、検出対象として用いる。検出対象のアクションは、例えば、ため息、あくび、目のみひらき、しかめ顔をするときの口の動き等である。
[Action trigger generation processing]
The action trigger generation module 130 uses an action database 132 constructed in advance based on test results for a large number of unspecified subjects. The action database 132 stores change parameters related to face orientation and deformation for each action. In this example, predetermined different actions A l (l = 1,...) Observed at an early stage of sleepiness are used as detection targets. The action to be detected is, for example, sigh, yawn, open eyes, mouth movements when making a frown.

アクショントリガ生成モジュール130は、現在の姿勢、目、口の部類の変化パラメータと、アクションデータベース132内の値とをマッチングすることによって、検出対象のアクションの発生の有無を判断する。マッチングが所定の許容閾値内で見出された場合には、該当するアクションが発生したと判断して、アクショントリガデータパケットがアクション情報と共に生成される。簡易的な例として、例えば、あるt秒間に図6(A)に示すようなパラメータmの変化態様が得られた場合、当該変化態様が、図6(B)に示すようなアクションデータベース132内のアクションAに係る同変化態様や、図6(C)に示すようなアクションデータベース132内のアクションAに係る同変化態様に対してマッチングされる。この場合、例えば、アクションAに係る変化態様との所定の許容閾値内でのマッチングが実現され、アクションAが発生したと判断されることになる。 The action trigger generation module 130 determines whether or not an action to be detected has occurred by matching the change parameters of the current posture, eye, and mouth category with values in the action database 132. If a match is found within a predetermined tolerance threshold, it is determined that the corresponding action has occurred and an action trigger data packet is generated along with the action information. As a simple example, for example, when a change mode of the parameter m k as shown in FIG. 6A is obtained in a certain t seconds, the change mode is shown in the action database 132 as shown in FIG. 6B. To the same change mode related to the action A i in FIG. 6C and the same change mode related to the action A j in the action database 132 as shown in FIG. In this case, for example, matching within a predetermined tolerance threshold of the variant according to the action A i is achieved, so that the action A i is judged to have occurred.

アクショントリガ生成モジュール130は、上述の如くアクションの発生を検出すると、アクショントリガデータパケットを生成する。アクショントリガデータパケットは、適切な時間間隔(本例では、毎秒)で生成される。   When the action trigger generation module 130 detects the occurrence of an action as described above, the action trigger generation module 130 generates an action trigger data packet. Action trigger data packets are generated at appropriate time intervals (in this example, every second).

図7は、アクショントリガデータパケットのデータ構造の一例を示す図である。パケットIDフィールドにおいては、発生したと判断されたアクションを特定するアクションIDコードが書き込まれる。また、アクションの開始時刻、継続時間、アクションの大きさが書き込まれる。アクションの大きさは、各パラメータp、e、mの大きさの平均値で表されてよい。アクション発生が終了すると、継続/終了ビットがOFF(ゼロ)に設定される。尚、例えば、あるアクションが1秒だけ継続した場合には、1つのアクショントリガデータパケットが生成されることになる。 FIG. 7 is a diagram illustrating an example of the data structure of the action trigger data packet. In the packet ID field, an action ID code that identifies an action determined to have occurred is written. Also, the action start time, duration, and action size are written. The magnitude of the action may be represented by an average value of the magnitudes of the parameters p i , e j and m k . When the action generation ends, the continuation / end bit is set to OFF (zero). For example, when an action continues for 1 second, one action trigger data packet is generated.

[アクション頻度算出処理]
アクション頻度算出モジュール140は、アクショントリガデータパケットを用いて、各アクションの発生の頻度を算出する。アクション頻度算出モジュール140は、先ず、T秒(好ましくは180秒)の区間のアクショントリガデータパケットをバッファーに入れ、アクションが発生したか否かをチェックする。例えば、アクションAの発生を示すN個のデータパケットが、バッファーに蓄積された場合、当該アクションAの発生頻度は、N/Tで表される。算出された各アクションの発生頻度は、記録され、バッファーはT毎にリフレッシュされる。頻度が全く算出されない場合は、当該T秒間にアクションが全くなかったことを意味する。
[Action frequency calculation process]
The action frequency calculation module 140 calculates the frequency of occurrence of each action using the action trigger data packet. The action frequency calculation module 140 first puts an action trigger data packet in a section of T seconds (preferably 180 seconds) in a buffer and checks whether or not an action has occurred. For example, when N data packets indicating the occurrence of the action A i are accumulated in the buffer, the occurrence frequency of the action A i is represented by N / T. The calculated occurrence frequency of each action is recorded, and the buffer is refreshed every T. When the frequency is not calculated at all, it means that there is no action during the T seconds.

[アクション優先付け処理]
図8は、覚醒度と被験者の状態との対応関係の一例を表す表図である。本例では、図8に示すように、覚醒度は、6段階L1〜L6で表される。即ち、覚醒度L1は、もっとも眠気が強い状態であり、覚醒度L6は、もっとも眠気が弱い状態である。詳細については、図8に示されている。尚、本発明は、特に6段階に分けることに限定されること無く、他の態様で覚醒度を類型化してもよい。
Action prioritization process
FIG. 8 is a table showing an example of a correspondence relationship between the arousal level and the state of the subject. In this example, as shown in FIG. 8, the arousal level is represented by six levels L1 to L6. That is, the arousal level L1 is the state in which sleepiness is strongest, and the awakening level L6 is in the state in which sleepiness is weakest. Details are shown in FIG. In addition, this invention is not limited to dividing into 6 steps in particular, You may classify awakening degree in another aspect.

図9は、各アクションA(l=1,…,17)に対して付与される優先度εの対応関係を示すマップ(ルックアップテーブル)である。図9に示す例では、優先度は、覚醒度L6の末期(符号AFにて図示)、覚醒度L5の初期(符号BFにて図示)及び末期、覚醒度L4の初期及び末期、覚醒度L3の初期及び末期、覚醒度L2の初期及び末期、覚醒度L1の初期、といったように、同一覚醒度内における変化過程(推移)を考慮して決定される。 FIG. 9 is a map (look-up table) showing the correspondence relationship between the priorities ε assigned to the actions A l (l = 1,..., 17). In the example shown in FIG. 9, the priorities are the end stage of the arousal level L6 (illustrated by reference numeral AF), the initial stage of the arousal level L5 (shown by reference numeral BF) and the end stage, the initial stage and the end stage of the arousal level L4, and the arousal level L3. Are determined in consideration of the change process (transition) within the same arousal level, such as the initial and final stages of the first, the initial and final stages of the arousal level L2, and the initial level of the arousal level L1.

図10は、優先度εと覚醒度L1〜L6との関係を表す表図である。図10に示す例では、各覚醒度の初期及び末期は、それぞれ5分割されている。優先度εは、係数β、αの値を用いて、ε=β×αで表され、各覚醒度内の等間隔に分割された時間間隔に対して付与される。係数β、αについては、図11,図12及び図13を参照して説明する。   FIG. 10 is a table showing the relationship between the priority ε and the awakening levels L1 to L6. In the example shown in FIG. 10, the initial stage and the final stage of each arousal level are each divided into five. The priority ε is expressed by ε = β × α using the values of the coefficients β and α, and is given to the time intervals divided into equal intervals within each arousal level. The coefficients β and α will be described with reference to FIGS.

図11は、覚醒度の変化過程を時系列で示す概念図である。図11には、覚醒度の変化態様を示す曲線(覚醒度変化曲線)が時間軸上に示されており、当該覚醒度変化曲線よりも上側の領域が、眠気の強い領域IZを表し、下側の領域が、眠気の弱い領域RZを表す。   FIG. 11 is a conceptual diagram showing the change process of the arousal level in time series. In FIG. 11, a curve (wakefulness change curve) indicating a change state of the arousal level is shown on the time axis, and the region above the awakening level change curve represents the region IZ where sleepiness is strong, The region on the side represents the region RZ where drowsiness is weak.

係数βは、図11に示すような覚醒度の時系列に基づいて、覚醒度毎に決定される。例えば、覚醒度L5の末期AFに係る係数β及び覚醒度L4の初期BFに係る係数βは、図11に示すように、覚醒度L4からL5に属する覚醒度変化曲線部の時間軸上の区間における、当該曲線部により仕切られた上側の領域IZL5と下側の領域RZL5との面積比で表される。即ち、β=IZL5/RZL5で表される。 The coefficient β is determined for each arousal level based on the time series of the arousal level as shown in FIG. For example, the coefficient β 5 related to the final AF of the arousal level L5 and the coefficient β 5 related to the initial BF of the arousal level L4 are on the time axis of the arousal level change curve part belonging to the arousal levels L4 to L5 as shown in FIG. This is represented by the area ratio between the upper region IZ L5 and the lower region RZ L5 partitioned by the curved portion in the section. That is, β 5 = IZ L5 / RZ L5 .

図12は、不特定多数の試験データに基づいて統計的に導出された係数βと覚醒度変化曲線を示す。図12において、係数βは、覚醒度L6の末期AFに係る係数βを示し、係数βは、覚醒度L5の末期AFに係る係数β及び覚醒度L4の初期BFに係る係数βを示し、係数βは、覚醒度L4の末期AFに係る係数β及び覚醒度L3の初期BFに係る係数βを示し、係数βは、覚醒度L3の末期AFに係る係数β及び覚醒度L2の初期BFに係る係数βを示し、係数βは、覚醒度L2の末期AFに係る係数β及び覚醒度L1の初期BFに係る係数βを示す。尚、この係数β、β等の各値は、図10で示した表図において、各覚醒度内の各時間間隔における係数βの各値として用いられている。 FIG. 12 shows a coefficient β statistically derived based on a large number of unspecified test data and a wakefulness change curve. In FIG. 12, the coefficient β 6 indicates the coefficient β related to the terminal AF of the wakefulness L6, the coefficient β 5 indicates the coefficient β related to the terminal AF of the wakefulness L5 and the coefficient β related to the initial BF of the wakefulness L4. , Coefficient β 4 indicates the coefficient β related to the end AF of the arousal level L4 and the coefficient β related to the initial BF of the arousal level L3, and the coefficient β 3 indicates the coefficient β and the arousal level L2 related to the final AF of the arousal level L3. shows the coefficients according to the initial BF beta, factor beta 2 shows a coefficient beta of the initial BF coefficient beta and alertness L1 according to the end AF of alertness L2. Each value of the coefficients β 6 , β 5, etc. is used as each value of the coefficient β at each time interval within each arousal level in the table shown in FIG.

図13は、各覚醒度内の各時間間隔における係数αの配列態様を示す図である。尚、図12に示したように、実際には各覚醒度に留まる時間は、一定でない。このため、係数αは、各覚醒度内の時間を例えば100秒により正規化して付与される。また、係数αは、図13に示すように、各覚醒度内の時間を等間隔に10分割された時間間隔(時間位置)に対して付与される。その際、係数αは、例えば覚醒度L5の初期と末期の境界付近の時間間隔のような、同一の覚醒度内における初期と末期の境界付近の時間位置では、最も大きくなり(本例では、2や1.9)、境界付近を中心として、隣接する他の覚醒度に向かうにつれて小さくなるように、設定されている。尚、係数αは、係数βと共に、図10に示したように、正規化後の各時間間隔に対する優先度εを求めるために用いられる。従って、各覚醒度内の各時間位置に対して求められる優先度εは、互いに相違した値となる。   FIG. 13 is a diagram showing an arrangement mode of the coefficients α in each time interval within each arousal level. In addition, as shown in FIG. 12, the time which stays at each arousal level is not constant actually. For this reason, the coefficient α is given by normalizing the time within each arousal level by, for example, 100 seconds. Further, as shown in FIG. 13, the coefficient α is given to a time interval (time position) obtained by dividing the time within each arousal level into 10 equal intervals. At that time, the coefficient α becomes the largest at the time position near the boundary between the initial stage and the final stage within the same degree of wakefulness, for example, the time interval near the boundary between the early stage and the final stage of the wakefulness L5 (in this example, 2 and 1.9), with the vicinity of the boundary as the center, the distance is set so as to decrease toward the other adjacent arousal level. The coefficient α is used together with the coefficient β to obtain the priority ε for each time interval after normalization, as shown in FIG. Therefore, the priority ε required for each time position within each arousal level is a different value.

アクション優先付けモジュール150は、被験者の覚醒度を把握した状態で行った試験(官能評価試験)により、アクションの発生状況とそのときの覚醒度L1〜L6との対応関係を学習し、優先度データベース152を構築する。具体的には、官能評価試験により得られる覚醒度変化曲線に基づいて、上述の各係数β1〜6及び各係数αを算出して、図10に示したような優先度εと覚醒度L1〜L6との対応関係を構築する。また、官能評価試験において検出された各アクションの種類や発生時期(発生したときの覚醒度)に基づいて、図9に示したような各アクションAと優先度εとの対応関係を構築する。例えばアクションA16が、図11及び図13に示すように、覚醒度L5の初期の時間位置(40<t<50)で生じた場合、上述の算出方法によりα=2.0、β=0.11であることから、ε=2.2となる。このようにして、官能評価試験の試験結果に基づいて、図9に示したマップが生成(学習)される。尚、図9に示したマップにおいては、説明に必要な値だけが一例として示されており、*は、ある値を示し、空欄は、該当するアクションが官能評価試験において検出されなかったことを意味する。 The action prioritization module 150 learns the correspondence between the action occurrence state and the alertness levels L1 to L6 at that time by a test (sensory evaluation test) performed in a state where the alertness level of the subject is grasped, and the priority database 152 is constructed. Specifically, based on the arousal level change curve obtained by the sensory evaluation test, the above-described coefficients β 1 to 6 and each coefficient α are calculated, and the priority ε and the arousal level L1 as shown in FIG. Build a correspondence with ~ L6. In addition, based on the type and timing of each action detected in the sensory evaluation test (awakening level when it occurs), a correspondence relationship between each action Al and priority ε as shown in FIG. 9 is constructed. . For example, when the action A 16 occurs at the initial time position (40 <t <50) of the arousal level L5 as shown in FIGS. 11 and 13, α = 2.0 and β = 0 by the above calculation method. Since .11, ε = 2.2. In this way, the map shown in FIG. 9 is generated (learned) based on the test result of the sensory evaluation test. In the map shown in FIG. 9, only values necessary for explanation are shown as an example, * indicates a certain value, and a blank indicates that the corresponding action was not detected in the sensory evaluation test. means.

優先度データベース152は、不特定多数の被験者に対する学習結果に基づいて予め構築された汎用データベースと、特定の被験者に対する学習結果に基づいて予め構築された個人用データベースとを備えてもよい。この場合、被験者が特定されるまでは、汎用データベースに基づいて優先付けが行われる。被験者が特定された後は、個人用データベースに基づいて優先付けが行われてよく、また、個人用データベースの更新が行われてよい。また、被験者に対する個人用データベースが依然として構築されていない場合には、実稼動時の学習により当該被験者に対する個人用データベースが構築・更新されてよい。   The priority database 152 may include a general-purpose database that is built in advance based on learning results for an unspecified number of subjects and a personal database that is built in advance based on learning results for specific subjects. In this case, prioritization is performed based on the general-purpose database until the subject is specified. After the subject is identified, prioritization may be performed based on the personal database, and the personal database may be updated. In addition, when the personal database for the subject has not yet been constructed, the personal database for the subject may be constructed and updated by learning during actual operation.

図14は、同一の被験者に対して異なる日(day1,day2)に試験した場合の覚醒度変化曲線を示す。図14に示すように、その日の体調等に起因して、覚醒度変化曲線が異なる場合がある。個人用データベースを構築する際には、この点を考慮して、覚醒度変化曲線の特性を幾つかのグループに分類して、グループ毎に、係数β(及び、最終的には、優先度εの値、及び、各アクションAに対する優先度εの対応関係)を学習してもよい。 FIG. 14 shows a wakefulness change curve when the same subject is tested on different days (day1, day2). As shown in FIG. 14, the awakening degree change curve may be different due to the physical condition of the day. When constructing a personal database, considering this point, the characteristics of the wakefulness change curve are classified into several groups, and each group has a coefficient β (and finally a priority ε values, and you may learn the correspondence relation) of the priority ε for each action a l.

ところで、実際には、各アクションが単独で発生する場合もあれば、複数の異なるアクションが時間的に近接して連続的に発生する場合もある。   By the way, in practice, each action may occur alone, or a plurality of different actions may occur successively in time proximity.

そこで、本実施例によるアクション優先付けモジュール150は、2種類以上のアクションの発生時間の近接度合いを評価する。具体的には、アクション優先付けモジュール150は、2つのアクションが時間的に近接して発生した場合には、それらのアクションの時間的な連続性を表す指標値τ(以下、「近接度τ」という)を算出する。   Therefore, the action prioritization module 150 according to the present embodiment evaluates the proximity of the occurrence times of two or more types of actions. Specifically, when two actions occur close in time, the action prioritization module 150 indicates an index value τ (hereinafter referred to as “proximity τ”) indicating the temporal continuity of these actions. Calculated).

図15には、一例として、アクションA01が持続時間Δt1で発生し、その後、時間Iをおいて、アクションA03が持続時間Δt2で発生した状況を示す。アクション優先付けモジュール150は、アクションA01の終了時点からアクションA03の開始時点までの時間Iに応じて、アクションA03に関する近接度τを決定する。 FIG. 15 shows, as an example, a situation in which action A 01 occurs at duration Δt1, and then action A 03 occurs at duration Δt2 after time I. Action prioritization module 150, according to the time I from the end of the action A 01 and the commencement of the action A 03, to determine the proximity τ about actions A 03.

図16は、時間Iと近接度τとの対応関係を示す図である。近接度τは、図16に示すように、時間Iが小さくなるほど大きな値となる。このような時間Iと近接度τとの対応関係を示すマップデータは、アクション優先付けモジュール150がアクセス可能なメモリに記憶される。   FIG. 16 is a diagram illustrating a correspondence relationship between the time I and the proximity τ. As shown in FIG. 16, the proximity τ increases as the time I decreases. Such map data indicating the correspondence between the time I and the proximity τ is stored in a memory accessible by the action prioritization module 150.

図17は、2つのアクションの種類及びその前後関係との対応関係を示す表図である。図17では、アクションA01〜A06の6つのアクションの各組み合わせに対して、それぞれに対応した覚醒度L1〜L6(BF,AFの相違を含む)が示されている。尚、BF及びAFの相違に加えて、図10で示したように、各覚醒度内を更に細分割して、各時間位置(即ち40<t<50等)の相違を考慮してもよい。また、図17では、近接度τが併せてマップ化されている。 FIG. 17 is a table showing the correspondence between two types of actions and their context. In FIG. 17, wakefulness levels L1 to L6 (including differences between BF and AF) corresponding to each combination of the six actions A 01 to A 06 are shown. In addition to the difference between BF and AF, as shown in FIG. 10, the inside of each arousal level may be further subdivided to take into account the difference in each time position (ie, 40 <t <50). . In FIG. 17, the proximity τ is also mapped.

アクション優先付けモジュール150は、同様に、官能評価試験による学習により、時間的に近接して発生する2種類以上のアクションとそのときの覚醒度L1〜L6との対応関係を学習する。この際、アクション優先付けモジュール150は、連続して発生する2つのアクションの発生順序を考慮して学習を行う。これは、2つのアクションの発生順序とそのときの覚醒度との間に何らかの因果関係があることが多いからである。例えば図15に示したように、アクションA01が終了してから例えば5〜10秒以内にアクションA03が発生し、そのときの覚醒度が覚醒度L5の末期AFである場合、当該アクションの組み合わせに対して、覚醒度L5の末期AFが対応付けられる(近接度τ=90も付与される)。このようにして、官能評価試験の試験結果に基づいて、図17に示したマップが生成(学習)される。尚、図17に示したマップにおいては、説明に必要な値だけが一例として示されており、*は、ある値を示し、空欄は、該当するアクションの組み合わせが官能評価試験において検出されなかったことを意味する。 Similarly, the action prioritization module 150 learns the correspondence between two or more types of actions that occur in close proximity in time and the arousal levels L1 to L6 at that time by learning through a sensory evaluation test. At this time, the action prioritization module 150 performs learning in consideration of the occurrence order of two actions that occur successively. This is because there is often a causal relationship between the order of occurrence of the two actions and the arousal level at that time. For example, as shown in FIG. 15, when the action A 03 occurs within 5 to 10 seconds after the completion of the action A 01 and the awakening level at that time is the terminal AF of the awakening level L5, The combination is associated with the final AF of the arousal level L5 (proximity τ = 90 is also given). In this way, the map shown in FIG. 17 is generated (learned) based on the test result of the sensory evaluation test. In the map shown in FIG. 17, only values necessary for explanation are shown as an example, * indicates a certain value, and a blank indicates that the combination of the corresponding actions was not detected in the sensory evaluation test. Means that.

また、アクション優先付けモジュール150は、同様に、官能評価試験による学習により、アクションヒストリーデータベース154を構築する。アクションヒストリーデータベース154には、官能評価試験において検出された各種類のアクションに対して、それぞれの種類毎に、アクション頻度と、そのときの覚醒度L1〜L6との対応関係を学習する。アクションヒストリーデータベース154は、被験者毎に、分類して構築されてもよい。これは、アクション頻度と、そのときの覚醒度L1〜L6との対応関係には、個人差があるからである(図18参照)。   Similarly, the action prioritization module 150 constructs the action history database 154 by learning through a sensory evaluation test. In the action history database 154, for each type of action detected in the sensory evaluation test, the correspondence between the action frequency and the awakening level L1 to L6 at that time is learned for each type. The action history database 154 may be classified and constructed for each subject. This is because there is an individual difference in the correspondence between the action frequency and the awakening levels L1 to L6 at that time (see FIG. 18).

図18は、一例として、アクションA01に関するアクション頻度と覚醒度L1〜L6との対応関係を示すグラフである。図18には、3人の被験者(被験者1,2,3)に対して、それぞれの被験者毎に、上記対応関係を表すプロット点がプロットされている。また、これらのデータの平均値に基づいて、平均的な上記対応関係を表すプロット点がプロットされている。尚、図18に示す例では、各覚醒度における初期及び末期の相違やそれよりも細かい時間位置の相違を考慮していないが、これらを考慮することも可能である。例えば、アクション頻度と各覚醒度における初期及び末期との対応関係を学習することも可能である。尚、図18に示す閾値Thについては覚醒度推定処理に関連して後述する。 FIG. 18 is a graph showing, as an example, a correspondence relationship between the action frequency related to the action A 01 and the arousal levels L1 to L6. In FIG. 18, plot points representing the correspondence relationship are plotted for each subject with respect to three subjects (subjects 1, 2, and 3). In addition, plot points representing the average correspondence are plotted based on the average value of these data. In the example shown in FIG. 18, the difference between the initial stage and the final stage in each awakening level and the difference in time position finer than that are not taken into consideration, but these can be taken into consideration. For example, it is possible to learn the correspondence between the action frequency and the initial stage and the final stage of each arousal level. The threshold value Th shown in FIG. 18 will be described later in connection with the arousal level estimation process.

図19は、アクション優先付けモジュール150により実現されるアクション優先付け処理(図2のステップ50)の詳細を示すフローチャートである。アクション優先付けモジュール150には、上述の如く、何らかのアクションが検出される毎に、アクショントリガデータパケットが供給される。   FIG. 19 is a flowchart showing details of the action prioritization process (step 50 in FIG. 2) realized by the action prioritization module 150. As described above, the action prioritization module 150 is supplied with an action trigger data packet each time an action is detected.

ステップ500では、アクション優先付けモジュール150は、アクショントリガ生成モジュール130から供給されるアクショントリガデータパケットを復号・解読して、現時点で発生しているアクション(検出されたアクション)の種類や開始時刻等を特定する。このようにして特定されたアクションの種類や開始時刻等は、アクションヒストリーデータベース154に格納される。このようにして、アクションヒストリーデータベース154には、発生したアクションの履歴情報が蓄積されていく。   In step 500, the action prioritization module 150 decodes and decodes the action trigger data packet supplied from the action trigger generation module 130, and the type of action (detected action) occurring at the present time, the start time, etc. Is identified. The action type and start time specified in this way are stored in the action history database 154. In this way, history information of actions that have occurred is accumulated in the action history database 154.

ステップ510では、アクション優先付けモジュール150は、アクションヒストリーデータベース154を用いて、今回検出されたアクションよりも前の直近に検出されたその他のアクションを探索し、図16に示したマップに基づいて、これらの2つのアクション間の時間Iに応じて、近接度τを導出する。尚、今回検出されたアクションよりも前に検出されたその他のアクションが全く存在しない場合や、存在してもその他のアクションが例えば50秒以上前に検出されているような場合には、近接度τがゼロとされてよい。   In step 510, the action prioritization module 150 uses the action history database 154 to search for other actions detected immediately before the action detected this time, and based on the map shown in FIG. Depending on the time I between these two actions, the proximity τ is derived. It should be noted that if there is no other action detected before the action detected this time, or if another action is detected even if it exists, for example, 50 seconds or more before, the proximity degree τ may be zero.

ステップ520では、アクション優先付けモジュール150は、後述の如く覚醒度推定モジュール160から供給される覚醒度の推定結果に基づいて、現在推定されている被験者の覚醒度を把握する。   In step 520, the action prioritization module 150 grasps the currently estimated wakefulness of the subject based on the wakefulness estimation result supplied from the wakefulness estimation module 160 as will be described later.

ステップ530では、アクション優先付けモジュール150は、学習済みの優先度データベース152を用いて、今回検出されたアクションに対応する優先度εを導出する。即ち、アクション優先付けモジュール150は、図9に示したマップを参照して、今回検出されたアクションの優先度εを決定する。この際、今回検出されたアクションに対して付与される優先度εは、現在推定される被験者の覚醒度を考慮して決定される。これは、図9に示したように、様々な覚醒度において出現しうるアクションが存在するからである。このため、アクション優先付けモジュール150は、覚醒度が短時間で大幅に変化しないことを前提として、現在推定される被験者の覚醒度に最も近い覚醒度における優先度を採用する。例えばアクションA01に対しては、複数の優先度ε(0.17,0.20、・・・・)が存在するが、覚醒度L5の初期BFにおける40<t<50の時間位置が、現在の被験者の覚醒度として推定されている場合には、当該時間位置に近い覚醒度における優先度“0.20”が選択される。尚、各候補の時間位置が、現在推定される被験者の覚醒度に係る時間位置に対して同等に近い場合には、他の条件に基づいて、何れか一方が選択されてよいし、或いは、何れかの選択が不能であるとして、現在推定される被験者の覚醒度に係る時間位置に対する優先度(本例の場合、0.22)が維持されてよい。また、初回のアクションの検出時には、覚醒度L6が、現在推定される被験者の覚醒度(初期値)とされてよい。即ち、初期的には被験者の覚醒度が高い状態であると仮定してよい。 In step 530, the action prioritization module 150 uses the learned priority database 152 to derive the priority ε corresponding to the action detected this time. That is, the action prioritization module 150 determines the priority ε of the action detected this time with reference to the map shown in FIG. At this time, the priority ε assigned to the action detected this time is determined in consideration of the currently estimated degree of awakening of the subject. This is because there are actions that can appear at various arousal levels as shown in FIG. For this reason, the action prioritization module 150 adopts the priority at the alertness level closest to the currently estimated subject alertness level on the assumption that the alertness level does not change significantly in a short time. For example, there is a plurality of priorities ε (0.17, 0.20,...) For the action A 01 , but the time position of 40 <t <50 in the initial BF of the arousal level L5 is When it is estimated as the current awakening level of the subject, the priority “0.20” in the awakening level close to the time position is selected. When the time position of each candidate is close to the time position related to the currently estimated degree of arousal of the subject, either one may be selected based on other conditions, or The priority (0.22 in this example) with respect to the time position related to the arousal level of the subject that is currently estimated may be maintained assuming that any of the selections is impossible. Moreover, at the time of detecting an action for the first time, the arousal level L6 may be the currently estimated awakening level (initial value) of the subject. That is, it may be initially assumed that the degree of arousal of the subject is high.

ステップ540では、アクション優先付けモジュール150は、上記のステップ510及びステップ530で導出された近接度τ及び優先度εを、覚醒度推定モジュール160に対して出力する。   In step 540, the action prioritization module 150 outputs the proximity τ and the priority ε derived in steps 510 and 530 described above to the arousal level estimation module 160.

[覚醒度推定処理]
図20は、覚醒度推定モジュール160により実現されるアクション追跡処理(図2のステップ60)の詳細を示すフローチャートである。尚、覚醒度推定モジュール160には、上述の如く、何らかのアクションが検出される毎に、そのアクションに対してアクション優先付けモジュール150により付与される優先度ε及び近接度τ、並びに、アクション頻度算出モジュール140により算出されるそのアクションの発生頻度(即ち、現時点から過去T秒内における当該アクションの発生頻度)が、随時供給される。以下のステップ600からステップ612までの処理は、新たなアクションが検出される毎に実行される。
[Arousal level estimation processing]
FIG. 20 is a flowchart showing details of the action tracking process (step 60 in FIG. 2) realized by the arousal level estimation module 160. The awakening level estimation module 160 calculates the priority ε and the proximity τ given to the action by the action prioritizing module 150 every time an action is detected, and the action frequency as described above. The occurrence frequency of the action calculated by the module 140 (that is, the occurrence frequency of the action within the past T seconds from the present time) is supplied as needed. The following processing from step 600 to step 612 is executed every time a new action is detected.

ステップ600では、覚醒度推定モジュール160は、近接度τが所定値(本例では50)以上であるか否かを判断する。即ち、今回検出されたアクションの開始時刻よりも所定時間前(本例30秒前)の区間に、他のアクションが発生していたか否かが判断される。近接度τが50未満である場合には、ステップ602に進み、近接度τが50以上の場合には、ステップ604に進む。   In step 600, the arousal level estimation module 160 determines whether or not the proximity τ is greater than or equal to a predetermined value (50 in this example). That is, it is determined whether or not another action has occurred in a section that is a predetermined time (30 seconds before this example) before the start time of the action detected this time. When the proximity τ is less than 50, the process proceeds to step 602, and when the proximity τ is 50 or more, the process proceeds to step 604.

ステップ602では、覚醒度推定モジュール160は、図10に示したマップを参照して、アクション優先付けモジュール150からの優先度εに基づいて、被験者の覚醒度を推定する。例えば、今回検出されたアクションに対して付与された優先度εが0.17である場合には、覚醒度推定モジュール160は、図10に示したマップを参照して、被験者の覚醒度を、“覚醒度L6の末期AFにおける20<t<30の時間位置”と推定する。   In step 602, the arousal level estimation module 160 refers to the map shown in FIG. 10 and estimates the awakening level of the subject based on the priority ε from the action prioritization module 150. For example, when the priority ε assigned to the action detected this time is 0.17, the arousal level estimation module 160 refers to the map shown in FIG. It is estimated that “20 <t <30 time position in the final AF of the arousal level L6”.

ステップ604では、覚醒度推定モジュール160は、図17に示したマップを参照して、2つのアクションの組み合わせに対応する覚醒度を、被験者の覚醒度として推定する。例えば、今回検出されたアクションがアクションA01であり、それより30秒前内に検出されていたアクションがアクションA05であった場合、覚醒度推定モジュール160は、図17に示したマップを参照して、被験者の覚醒度を、“覚醒度L3の初期BF”と推定する。尚、上述の如く、図17に示したマップに関して、時間位置まで学習されている場合には、覚醒度L3の初期BFにおける該当する時間位置が推定結果とされる。 In step 604, the arousal level estimation module 160 refers to the map shown in FIG. 17 and estimates the arousal level corresponding to the combination of the two actions as the awakening level of the subject. For example, when the action detected this time is action A 01 and the action detected within 30 seconds before that is action A 05 , the arousal level estimation module 160 refers to the map shown in FIG. Then, the awakening level of the subject is estimated as “the initial BF of the awakening level L3”. Note that, as described above, when the map shown in FIG. 17 has been learned up to the time position, the corresponding time position in the initial BF of the arousal level L3 is taken as the estimation result.

ステップ606では、覚醒度推定モジュール160は、上述の如く推定した覚醒度が、前回推定した覚醒度に対して変化したか否かを判断する。この場合、覚醒度の変化は、覚醒度内における時間位置の変化ではなく、覚醒度L6、L5、...、L1間での変化であるとする。但し、これに代えて、覚醒度L6の末期AFから覚醒度L5の末期AFを越える変化や、覚醒度L5の末期AFの覚醒度L4の末期AFを越える変化等といったように、隣接する覚醒度の末期間での変化であってよい。推定した覚醒度が、前回推定した覚醒度に対して変化した場合には、ステップ608に進み、それ以外の場合には、ステップ610に進む。   In step 606, the wakefulness estimation module 160 determines whether or not the wakefulness estimated as described above has changed with respect to the previously estimated wakefulness. In this case, the change in wakefulness is not a change in time position within the wakefulness, but the wakefulness L6, L5,. . . , And the change between L1. However, instead of this, the adjacent arousal level, such as a change from the final AF of the arousal level L6 to the final AF of the awakening level L5, a change beyond the final AF level of the awakening level L4 of the final AF of the arousal level L5, etc. It may be a change in the last period. If the estimated wakefulness level has changed with respect to the previously estimated wakefulness level, the process proceeds to step 608; otherwise, the process proceeds to step 610.

ステップ608では、覚醒度推定モジュール160は、覚醒度が変化するまでの期間中における(即ち、変化前の覚醒度の状態における)、各種アクションの発生頻度を、アクション頻度算出モジュール140から供給される算出結果の履歴に基づいて、算出する。覚醒度推定モジュール160は、各種アクションの発生頻度を、変化前の覚醒度に対応付けて、アクションヒストリーデータベース154に記録する。これにより、実稼動時におけるアクションヒストリーデータベース154の学習が実現される。   In step 608, the arousal level estimation module 160 is supplied from the action frequency calculation module 140 with the occurrence frequency of various actions during the period until the arousal level changes (that is, in the state of the awakening level before the change). Calculation is performed based on the history of calculation results. The arousal level estimation module 160 records the occurrence frequency of various actions in the action history database 154 in association with the awakening level before the change. Thereby, learning of the action history database 154 during actual operation is realized.

ステップ610では、覚醒度推定モジュール160は、今回検出されたアクションの発生頻度が、所定の閾値を越えたか否かを判断する。所定の閾値は、現在推定されている覚醒度に応じて決定されてよい。例えば、現在覚醒度L6が推定されている状況下では、アクションA01の発生頻度に対して、図18に示すような閾値Thが適用されてよい。この場合、今回検出されたアクションがアクションA01であり、その発生頻度が閾値Thを越えた場合には、覚醒度推定モジュール160は、覚醒度がL6からL5に低下したと推定する。また、図18に示す特性より明らかなように、アクションA01の発生頻度が覚醒度L4で突出して大きいことに着目して、アクションA01の発生頻度が閾値Thを遥かに大きく越えた場合(例えば、図18の覚醒度L4に対応する発生頻度(学習値)付近に達した場合)には、覚醒度推定モジュール160は、覚醒度がL6からL4に低下したと推定してもよい。また、被験者毎分類して学習した学習結果に基づいて、被験者毎に異なる閾値を設定してもよい。尚、上述の如く、図18に示した特性マップに関して、初期BFや末期AFの区分まで学習されている場合には、各区分に応じた閾値が用意されてよい。 In step 610, the arousal level estimation module 160 determines whether or not the occurrence frequency of the action detected this time has exceeded a predetermined threshold value. The predetermined threshold may be determined according to the currently estimated arousal level. For example, in a situation where currently alertness L6 is estimated, relative to the frequency of occurrence of the action A 01, the threshold Th may be applied as shown in FIG. 18. In this case, when the action detected this time is action A 01 and the occurrence frequency exceeds the threshold Th, the arousal level estimation module 160 estimates that the arousal level has decreased from L6 to L5. Moreover, as is clear from the characteristics shown in FIG. 18, when the frequency of occurrence of the action A 01 is focused on larger projects in alertness L4, the frequency of occurrence of the action A 01 exceeds much larger threshold value Th ( For example, the wakefulness level estimation module 160 may estimate that the wakefulness level has decreased from L6 to L4 (when the occurrence frequency (learned value) vicinity corresponding to the wakefulness level L4 in FIG. 18 is reached). Moreover, you may set a different threshold value for every test subject based on the learning result classified and learned for every test subject. As described above, when the characteristics map shown in FIG. 18 is learned up to the initial BF and final AF, thresholds corresponding to the respective sections may be prepared.

ステップ612では、覚醒度推定モジュール160は、上述の如く推定した覚醒度を、警告手段170に対して、被験者の覚醒度の推定結果として出力する。   In step 612, the arousal level estimation module 160 outputs the arousal level estimated as described above to the warning unit 170 as the estimation result of the awakening level of the subject.

ところで、本実施例のように複数種類のアクションを用いて覚醒度の推定を行う構成の場合には、木目細かい段階で覚醒度を推定できるので、検出が困難な、弱い眠気に襲われている状態を検出することができる。即ち、被験者が強い眠気に襲われる状態に陥る前に、覚醒度の低下の初期段階を検出することができる。しかしながら、その反面として、それらの各アクション又はそれらアクションの各組み合わせを適切に評価できないと、被験者の覚醒度の推定精度を高めることできない。これは、上述の如く、同一のアクションであっても異なる覚醒度で出現する場合が多く、また、アクションの各組み合わせと覚醒度との間にはなんらかの因果関係がある場合が多く、更には、覚醒度が異なると、発生するアクションの頻度が異なる場合が多いからである。   By the way, in the case of the configuration in which the arousal level is estimated using a plurality of types of actions as in the present embodiment, the arousal level can be estimated at a fine level, so it is attacked by weak sleepiness that is difficult to detect. The state can be detected. That is, it is possible to detect the initial stage of a decrease in the arousal level before the subject falls into a state of being attacked by strong sleepiness. However, on the other hand, if each of these actions or each combination of these actions cannot be evaluated appropriately, the accuracy of estimation of the arousal level of the subject cannot be increased. As mentioned above, this often appears with different arousal levels even for the same action, and there are often some causal relationships between each combination of actions and the arousal level. This is because there are many cases in which the frequency of actions that occur differs depending on the degree of arousal.

これに対して、学習済みの優先度データベース152を用いて、各種アクションと覚醒度との対応関係の学習結果に基づいて、検出される各種アクションに対応する優先度ε及びそれに基づく覚醒度を決定するので、各アクションを適切に評価できる。また、学習済みの優先度データベース152を用いて、アクションの各組み合わせと覚醒度との対応関係の学習結果に基づいて、複数種類のアクションが時間的に近接して発生した場合の被験者の覚醒度を推定するので、アクションの各組み合わせを適切に評価することができる。更に、アクションの頻度と覚醒度との対応関係の学習結果に基づいて、検出された各種アクションの発生頻度を適切に評価することができる。この結果、本実施例によれば、覚醒度を精度良く推定することが可能となる。   On the other hand, by using the learned priority database 152, the priority ε corresponding to each detected action and the arousal level based on it are determined based on the learning result of the correspondence relationship between the various actions and the awakening level. Therefore, each action can be evaluated appropriately. In addition, based on the learning result of the correspondence relationship between each combination of actions and the arousal level using the learned priority database 152, the arousal level of the subject when multiple types of actions occur in close proximity in time Therefore, each combination of actions can be evaluated appropriately. Furthermore, it is possible to appropriately evaluate the occurrence frequency of various detected actions based on the learning result of the correspondence relationship between the action frequency and the arousal level. As a result, according to the present embodiment, it is possible to accurately estimate the arousal level.

ここで、実際の稼動時(≠学習時)に覚醒度推定モジュール160及びアクション優先付けモジュール150により実行される覚醒度推定処理の具体例について説明する。   Here, a specific example of the arousal level estimation process executed by the arousal level estimation module 160 and the action prioritization module 150 during actual operation (≠ learning) will be described.

ここでは、図9及び図10に示したマップを用いることとし、図21に示すように、アクションA06,アクションA14,アクションA02,アクションA09,アクションA04及びアクションA16が単発的に順に検出されることとする。尚、これらのアクションに対する近接度τは、50未満であるとし、各アクションの発生頻度が閾値を越えないことする。 Here, the maps shown in FIGS. 9 and 10 are used, and as shown in FIG. 21, action A 06 , action A 14 , action A 02 , action A 09 , action A 04, and action A 16 are single-shot. Are detected in order. It is assumed that the proximity τ to these actions is less than 50, and the frequency of occurrence of each action does not exceed the threshold value.

初回のアクションとしてアクションA06が検出されると、現在の覚醒度L6であると仮定されるので、図9に示したマップに従って、アクション優先付けモジュール150により、優先度ε=0.17が付与される。この結果、図10に示したマップに従って、覚醒度推定モジュール160により、“覚醒度L6の末期AFにおける20<t<30の時間位置”が、推定結果として出力される。 When action A 06 is detected as the first action, it is assumed that the current awakening level is L6, so that priority ε = 0.17 is given by the action prioritizing module 150 according to the map shown in FIG. Is done. As a result, according to the map shown in FIG. 10, the wakefulness estimation module 160 outputs “20 <t <30 time position in the final AF of the wakefulness L6” as the estimation result.

次いで、アクションA14が検出されると、現在の覚醒度が“覚醒度L6の末期AFにおける20<t<30の時間位置”であると推定されていることから、図9に示したマップに従って、アクション優先付けモジュール150により、優先度ε=0.14が付与される。この結果、図10に示したマップに従って、覚醒度推定モジュール160により、“覚醒度L6の末期AFにおける30<t<40の時間位置”が、推定結果として出力される。 Next, when the action A 14 is detected, it is estimated that the current wakefulness is “20 <t <30 time position in the final AF of the wakefulness L6”, and therefore, according to the map shown in FIG. The action prioritization module 150 gives the priority ε = 0.14. As a result, according to the map shown in FIG. 10, the wakefulness estimation module 160 outputs “30 <t <40 time position in the final AF of the wakefulness L6” as the estimation result.

次いで、アクションA02が検出されると、現在の覚醒度が“覚醒度L6の末期AFにおける30<t<40の時間位置”であると推定されていることから、図9に示したマップに従って、アクション優先付けモジュール150により、優先度ε=0.13が付与される。この結果、図10に示したマップに従って、覚醒度推定モジュール160により、“覚醒度L5の初期BFにおけるt<10の時間位置”が、推定結果として出力される。 Next, when the action A 02 is detected, it is estimated that the current wakefulness is “30 <t <40 time position in the final AF of the wakefulness L6”, and therefore, according to the map shown in FIG. The priority ε = 0.13 is given by the action prioritizing module 150. As a result, according to the map shown in FIG. 10, the arousal level estimation module 160 outputs “a time position of t <10 in the initial BF of the arousal level L5” as an estimation result.

次いで、アクションA09が検出されると、現在の覚醒度が“覚醒度L5の初期BFにおけるt<10の時間位置”であると推定されていることから、図9に示したマップに従って、アクション優先付けモジュール150により、優先度ε=0.65が付与される。この結果、図10に示したマップに従って、覚醒度推定モジュール160により、“覚醒度L5の末期AFにおける20<t<30の時間位置”が、推定結果として出力される。 Next, when the action A 09 is detected, it is estimated that the current arousal level is “time position of t <10 in the initial BF of the arousal level L 5”, so that the action is performed according to the map shown in FIG. The prioritization module 150 gives priority ε = 0.65. As a result, according to the map shown in FIG. 10, the wakefulness level estimation module 160 outputs “20 <t <30 time position in the final AF of the wakefulness level L5” as an estimation result.

次いで、アクションA04が検出されると、現在の覚醒度が“覚醒度L5の末期AFにおける20<t<30の時間位置”であると推定されていることから、図9に示したマップに従って、アクション優先付けモジュール150により、優先度ε=0.69が付与される。この結果、図10に示したマップに従って、覚醒度推定モジュール160により、“覚醒度L4の初期BFにおける20<t<30の時間位置”が、推定結果として出力される。 Next, when the action A 04 is detected, it is estimated that the current wakefulness is “20 <t <30 time position in the final AF of the wakefulness L5”, and therefore, according to the map shown in FIG. The priority ε = 0.69 is given by the action prioritization module 150. As a result, according to the map shown in FIG. 10, the wakefulness estimation module 160 outputs “20 <t <30 time position in the initial BF of the wakefulness L4” as the estimation result.

次いで、アクションA16が検出されると、現在の覚醒度が“覚醒度L4の初期BFにおける20<t<30の時間位置”であると推定されていることから、図9に示したマップに従って、アクション優先付けモジュール150により、優先度ε=1.1が付与される。この結果、図10に示したマップに従って、覚醒度推定モジュール160により、“覚醒度L4の末期AFにおける40<t<50の時間位置”が、推定結果として出力される。 Next, when the action A 16 is detected, it is estimated that the current wakefulness is “20 <t <30 time position in the initial BF of the wakefulness L4”, and therefore, according to the map shown in FIG. The action prioritization module 150 gives the priority ε = 1.1. As a result, according to the map shown in FIG. 10, the wakefulness estimation module 160 outputs “40 <t <50 time position in the final AF of the wakefulness L4” as the estimation result.

このように、各アクションが単発的に少ない頻度で発生した場合でも、本実施例による覚醒度推定処理により、被験者の覚醒度の変動過程を木目細やかに推定することができる。   As described above, even when each action occurs with a small frequency, the fluctuation process of the arousal level of the subject can be finely estimated by the arousal level estimation process according to the present embodiment.

[警告処理]
警告手段170は、覚醒度推定モジュール160による覚醒度の推定結果に基づいて、例えば覚醒度の低下が推定された場合には、被験者に対して音声や映像により出力する。尚、警報の出力態様は多種多様でありえ、被験者がドライバである場合、シートに埋設した振動体により振動を発生したり、シート(座席)に設けた空気穴から空気を吹き出したり、覚醒を促進させるための匂いを発生したり、ステアリングハンドルの温度を変化させたり、メーター内に警告サインを出力したりしてもよい。また、警告手段170は、覚醒度に応じて木目細やかに警報の出力態様を変化させてもよい。
[Warning]
The warning means 170 outputs a voice or video to the subject when, for example, a decrease in the arousal level is estimated based on the estimation result of the arousal level by the arousal level estimation module 160. The alarm output mode can be various, and when the subject is a driver, vibration is generated by a vibrating body embedded in the seat, air is blown out from an air hole provided in the seat (seat), and arousal is promoted An odor may be generated, the temperature of the steering wheel may be changed, or a warning sign may be output in the meter. Moreover, the warning means 170 may change the output mode of a warning finely according to the arousal level.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

以上のとおり本発明は、車両におけるドライバの覚醒度を推定するアプリケーションを始めとして、被験者の覚醒度を推定することが有用なあらゆるアプリケーションにおいて利用することができる。   As described above, the present invention can be used in any application in which it is useful to estimate a subject's arousal level, including an application that estimates a driver's arousal level in a vehicle.

本発明による覚醒度推定システムの一実施例のシステム構成図である。It is a system configuration | structure figure of one Example of the arousal level estimation system by this invention. 本実施例による覚醒度推定システムにより実現される主要処理の流れを示す図である。It is a figure which shows the flow of the main processes implement | achieved by the arousal level estimation system by a present Example. アクション追跡モジュール120により実現されるアクション追跡処理(図2のステップ20)の詳細を示すフローチャートである。3 is a flowchart showing details of an action tracking process (step 20 in FIG. 2) realized by an action tracking module 120. 顔の眉と目の部分がパーツとして抽出された画像を示す図である。It is a figure which shows the image from which the eyebrows and eye part of the face were extracted as parts. 各t秒間隔(典型的には、t=1秒)におけるパラメータp、e、mの変化態様の一例を示す。An example of how the parameters p i , e j , and m k change at each t-second interval (typically, t = 1 second) is shown. アクション発生判断手法の一例を示す図である。It is a figure which shows an example of an action generation | occurrence | production determination method. アクショントリガデータパケットのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of an action trigger data packet. 覚醒度と被験者の状態との対応関係の一例を表す表図である。It is a table | surface figure showing an example of the correspondence of arousal level and a test subject's state. 各アクションA(l=1,…,17)に対して付与される優先度εを示すマップの一例を示す図である。It is a figure which shows an example of the map which shows the priority (epsilon) provided with respect to each action Al (l = 1, ..., 17). 優先度εと覚醒度L1〜L6との関係を表すマップの一例を示す図である。It is a figure which shows an example of the map showing the relationship between priority (epsilon) and arousal levels L1-L6. 覚醒度の変化過程を時系列で示す概念図である。It is a conceptual diagram which shows the change process of an arousal level in time series. 不特定多数の試験データに基づいて統計的に導出された覚醒度変化曲線及び素に基づく各係数βを示す図である。It is a figure which shows each coefficient (beta) based on the arousal level change curve statistically derived | led-out based on the unspecified many test data. 各覚醒度内の各時間間隔における係数αの配列態様を示す図である。It is a figure which shows the arrangement | sequence aspect of the coefficient (alpha) in each time interval within each arousal level. 同一の被験者に対して異なる日に試験した場合の覚醒度変化曲線を示す図である。It is a figure which shows the arousal level change curve at the time of testing on the same test subject on a different day. アクションAの発生直後に他のアクションAが発生した状況を示す図である。Other actions A j immediately after the occurrence of the action A i is a diagram showing a situation that occurred. 時間Iと近接度τとの対応関係を示すマップの一例を示す図である。It is a figure which shows an example of the map which shows the correspondence of time I and proximity degree (tau). 2つのアクションの種類及びその前後関係との対応関係を示すマップの一例を示す図である。It is a figure which shows an example of the map which shows the correspondence with the kind of two actions, and its context. アクションA01に関するアクション頻度と覚醒度L1〜L6との対応関係を示すグラフである。Action frequencies for Action A 01 and is a graph showing a relationship between a degree of awakening L1 to L6. アクション優先付けモジュール150により実現されるアクション優先付け処理(図2のステップ50)の詳細を示すフローチャートである。3 is a flowchart showing details of an action prioritization process (step 50 in FIG. 2) realized by an action prioritization module 150. 覚醒度推定モジュール160により実現されるアクション追跡処理(図2のステップ60)の詳細を示すフローチャートである。5 is a flowchart showing details of an action tracking process (step 60 in FIG. 2) realized by the arousal level estimation module 160. 覚醒度推定処理の具体例の説明図である。It is explanatory drawing of the specific example of an arousal level estimation process.

符号の説明Explanation of symbols

100 覚醒度推定システム
110 画像取得手段
120 アクション追跡モジュール
130 アクショントリガ生成モジュール
132 アクションデータベース
140 アクション頻度算出モジュール
150 アクション優先付けモジュール
152 優先度データベース
154 アクションヒストリーデータベース
160 覚醒度推定モジュール
170 警告手段
DESCRIPTION OF SYMBOLS 100 Arousal degree estimation system 110 Image acquisition means 120 Action tracking module 130 Action trigger generation module 132 Action database 140 Action frequency calculation module 150 Action prioritization module 152 Priority database 154 Action history database 160 Awakening degree estimation module 170 Warning means

Claims (9)

被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する手段と、
各種動きの優先度に関する情報を保持する手段と、
前記優先度に関する情報に基づいて被験者の動き情報を処理する手段と、
前記優先度に関する情報に基づく動き情報の処理結果に基づいて、被験者の覚醒度を推定する覚醒度推定手段とを備えることを特徴とする、覚醒度推定装置。
Means for acquiring subject movement information via means for detecting a plurality of types of movements of the subject;
Means for holding information about the priority of various movements;
Means for processing subject movement information based on information about the priorities;
A wakefulness level estimation device comprising: wakefulness level estimation means for estimating a wakefulness level of a subject based on a processing result of motion information based on information relating to the priority level.
前記各種動きの優先度に関する情報は、各種動きの発生時点とそのときの覚醒度との対応関係の学習結果に基づいて生成される、請求項1に記載の覚醒度推定装置。   The arousal level estimation apparatus according to claim 1, wherein the information related to the priority of each type of motion is generated based on a learning result of a correspondence relationship between the occurrence time point of various types of motion and the awakening level at that time. 被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する手段と、
2種類の動きの組み合わせに対応付けて、覚醒度に関する情報を保持する手段と、
所定時間内に連続して2種類の動きが発生したことを表す動き情報が取得された場合、該動きの組み合わせに対応する覚醒度に関する情報に基づいて、被験者の覚醒度を推定する覚醒度推定手段とを備えることを特徴とする、覚醒度推定装置。
Means for acquiring subject movement information via means for detecting a plurality of types of movements of the subject;
Means for holding information about arousal level in association with a combination of two types of movements;
When motion information indicating that two types of movements have occurred continuously within a predetermined time is acquired, the arousal level estimation is performed to estimate the arousal level of the subject based on information about the arousal level corresponding to the combination of the motions. And a waking degree estimation device.
前記覚醒度に関する情報は、2種類の動きの各組み合わせの発生時点とそのときの覚醒度との対応関係の学習結果に基づいて生成される、請求項3に記載の覚醒度推定装置。   The wakefulness level estimation device according to claim 3, wherein the information about the wakefulness level is generated based on a learning result of a correspondence relationship between the occurrence time of each combination of two types of movements and the wakefulness level at that time. 被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する手段と、
動き情報に基づいて各種の動きの発生頻度を算出する手段と、
各覚醒度における各種の動きの発生頻度の学習結果を保持する手段と、
算出された動きの発生頻度と、前記学習結果との対応関係に基づいて、被験者の覚醒度を推定する覚醒度推定手段とを備えることを特徴とする、覚醒度推定装置。
Means for acquiring subject movement information via means for detecting a plurality of types of movements of the subject;
Means for calculating the frequency of occurrence of various movements based on movement information;
Means for holding a learning result of the frequency of occurrence of various movements at each arousal level;
A wakefulness estimation device, comprising: wakefulness estimation means for estimating the wakefulness of a subject based on a correspondence relationship between the calculated frequency of movement and the learning result.
請求項1、3及び5に記載の3つの覚醒度推定装置のうち、少なくとも2つの覚醒度推定装置を備える覚醒度推定システム。   A wakefulness level estimation system comprising at least two wakefulness level estimation devices among the three wakefulness level estimation devices according to claim 1, 3 and 5. 被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する段階と、
各種動きの発生時点とそのときの覚醒度との対応関係を学習する学習段階と、
被験者の動き情報に基づいてある動きが検出された場合に、前記学習段階での学習結果に基づいて、検出された動きに対応する覚醒度を抽出し、該抽出した覚醒度を、被験者の覚醒度の推定結果として出力する段階とを備えることを特徴とする、覚醒度推定方法。
Obtaining movement information of the subject through means for detecting a plurality of types of movement of the subject;
A learning stage for learning the correspondence between the occurrence of various movements and the arousal level at that time,
When a movement is detected based on the movement information of the subject, the awakening level corresponding to the detected movement is extracted based on the learning result in the learning stage, and the extracted awakening level is used as the awakening level of the subject. And a step of outputting as a degree estimation result.
被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する段階と、
2種類の動きの各組み合わせの発生時点とそのときの覚醒度との対応関係を学習する学習段階と、
被験者の動き情報に基づいてある2種類の動きが時間的に近接して検出された場合に、前記学習段階での学習結果に基づいて、検出された動きの組み合わせに対応する覚醒度を抽出し、該抽出した覚醒度を、被験者の覚醒度の推定結果として出力する段階とを備えることを特徴とする、覚醒度推定方法。
Obtaining movement information of the subject through means for detecting a plurality of types of movement of the subject;
A learning stage for learning the correspondence between the occurrence time of each combination of two types of movement and the arousal level at that time,
When two types of movements based on the movement information of the subject are detected close in time, the arousal level corresponding to the detected combination of movements is extracted based on the learning result in the learning stage. And outputting the extracted arousal level as an estimation result of the awakening level of the subject.
被験者の複数種類の動きを検出する手段を介して、被験者の動き情報を取得する段階と、
動き情報に基づいて各種の動きの発生頻度を算出する段階と、
各種の動きの発生頻度とそのときの覚醒度との対応関係を学習する学習段階と、
被験者の動き情報に基づいてある動きが検出された場合に、前記学習段階での学習結果に基づいて、算出された動きの発生頻度に対応する覚醒度を抽出し、該抽出した覚醒度を、被験者の覚醒度の推定結果として出力する段階とを備えることを特徴とする、覚醒度推定方法。
Obtaining movement information of the subject through means for detecting a plurality of types of movement of the subject;
Calculating the frequency of various movements based on the movement information;
A learning stage for learning the correspondence between the occurrence frequency of various movements and the arousal level at that time,
When a certain motion is detected based on the subject's motion information, based on the learning result in the learning stage, the awakening level corresponding to the calculated frequency of the motion is extracted, and the extracted awakening level is And a step of outputting as a result of estimating the degree of arousal of the subject.
JP2006060222A 2006-03-06 2006-03-06 Awakening degree estimation apparatus, system and method Expired - Fee Related JP5292671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006060222A JP5292671B2 (en) 2006-03-06 2006-03-06 Awakening degree estimation apparatus, system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006060222A JP5292671B2 (en) 2006-03-06 2006-03-06 Awakening degree estimation apparatus, system and method

Publications (2)

Publication Number Publication Date
JP2007236488A true JP2007236488A (en) 2007-09-20
JP5292671B2 JP5292671B2 (en) 2013-09-18

Family

ID=38582637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006060222A Expired - Fee Related JP5292671B2 (en) 2006-03-06 2006-03-06 Awakening degree estimation apparatus, system and method

Country Status (1)

Country Link
JP (1) JP5292671B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094439A (en) * 2008-10-20 2010-04-30 Toyota Motor Corp Apparatus and method for estimating psychological state
JP2011141821A (en) * 2010-01-08 2011-07-21 Denso Corp Arousal supporting device
WO2012063308A1 (en) * 2010-11-08 2012-05-18 トヨタ自動車株式会社 Sleep state estimation device
EP3056375A1 (en) 2015-02-12 2016-08-17 Toyota Jidosha Kabushiki Kaisha Sleepiness detecting device
EP3081156A1 (en) 2015-04-18 2016-10-19 Toyota Jidosha Kabushiki Kaisha Sleepiness detecting device
WO2018109863A1 (en) * 2016-12-14 2018-06-21 三菱電機株式会社 State estimation device
WO2020184049A1 (en) * 2019-03-13 2020-09-17 ソニー株式会社 Imaging device and expression detection method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261830A (en) * 1985-09-10 1987-03-18 Nippon Denso Co Ltd Vehicle driver monitoring device
JPH08257017A (en) * 1995-03-24 1996-10-08 Toshiba Corp Condition monitoring device and its method
JPH09267660A (en) * 1996-04-01 1997-10-14 Mitsubishi Motors Corp Vigilance information output device for vehicle
JP2000315287A (en) * 1999-04-30 2000-11-14 Seishiro Yoshihara Doze warning system
JP2003022500A (en) * 2001-07-09 2003-01-24 Mitsubishi Motors Corp Driver's awakening-degree detecting device
JP2004341954A (en) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd Arousal level determination device
JP2005525142A (en) * 2001-12-12 2005-08-25 ドイッチェ テレコム アーゲー Method and apparatus for identifying a driver's dozing state of a moving object
WO2005114576A1 (en) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha Operation content judgment device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261830A (en) * 1985-09-10 1987-03-18 Nippon Denso Co Ltd Vehicle driver monitoring device
JPH08257017A (en) * 1995-03-24 1996-10-08 Toshiba Corp Condition monitoring device and its method
JPH09267660A (en) * 1996-04-01 1997-10-14 Mitsubishi Motors Corp Vigilance information output device for vehicle
JP2000315287A (en) * 1999-04-30 2000-11-14 Seishiro Yoshihara Doze warning system
JP2003022500A (en) * 2001-07-09 2003-01-24 Mitsubishi Motors Corp Driver's awakening-degree detecting device
JP2005525142A (en) * 2001-12-12 2005-08-25 ドイッチェ テレコム アーゲー Method and apparatus for identifying a driver's dozing state of a moving object
JP2004341954A (en) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd Arousal level determination device
WO2005114576A1 (en) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha Operation content judgment device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094439A (en) * 2008-10-20 2010-04-30 Toyota Motor Corp Apparatus and method for estimating psychological state
JP2011141821A (en) * 2010-01-08 2011-07-21 Denso Corp Arousal supporting device
WO2012063308A1 (en) * 2010-11-08 2012-05-18 トヨタ自動車株式会社 Sleep state estimation device
JP5454703B2 (en) * 2010-11-08 2014-03-26 トヨタ自動車株式会社 Sleep state estimation device
EP3056375A1 (en) 2015-02-12 2016-08-17 Toyota Jidosha Kabushiki Kaisha Sleepiness detecting device
US10398356B2 (en) 2015-02-12 2019-09-03 Toyota Jidosha Kabushiki Kaisha Sleepiness detecting device
US9592835B2 (en) 2015-04-18 2017-03-14 Toyota Jidosha Kabushiki Kaisha Sleepiness detecting device
EP3081156A1 (en) 2015-04-18 2016-10-19 Toyota Jidosha Kabushiki Kaisha Sleepiness detecting device
WO2018109863A1 (en) * 2016-12-14 2018-06-21 三菱電機株式会社 State estimation device
JP6509459B2 (en) * 2016-12-14 2019-05-08 三菱電機株式会社 State estimation device
JPWO2018109863A1 (en) * 2016-12-14 2019-06-24 三菱電機株式会社 State estimation device
CN110049724A (en) * 2016-12-14 2019-07-23 三菱电机株式会社 Condition estimating device
WO2020184049A1 (en) * 2019-03-13 2020-09-17 ソニー株式会社 Imaging device and expression detection method
CN113544582A (en) * 2019-03-13 2021-10-22 索尼集团公司 Imaging device and method for detecting expression
CN113544582B (en) * 2019-03-13 2023-09-26 索尼集团公司 Imaging device and method for detecting expression

Also Published As

Publication number Publication date
JP5292671B2 (en) 2013-09-18

Similar Documents

Publication Publication Date Title
JP5292671B2 (en) Awakening degree estimation apparatus, system and method
JP5447657B2 (en) Biological condition determination device
JP5326521B2 (en) Arousal state determination device and arousal state determination method
JP5045492B2 (en) Awakening level estimation device
US9592835B2 (en) Sleepiness detecting device
JP5782726B2 (en) Arousal reduction detection device
JP5177011B2 (en) Eye opening degree identification device
CN112434611B (en) Early fatigue detection method and system based on eye movement subtle features
CN105788176A (en) Fatigue driving monitoring and prompting method and system
JP2008099884A (en) Condition estimating apparatus
CN111616718B (en) Method and system for detecting fatigue state of driver based on attitude characteristics
Nakamura et al. Detection of driver's drowsy facial expression
JP5333284B2 (en) Biological condition determination device
JP6043933B2 (en) Sleepiness level estimation device, sleepiness level estimation method, and sleepiness level estimation processing program
Nakamura et al. Driver drowsiness estimation from facial expression features computer vision feature investigation using a CG model
CN111105594A (en) Vehicle and recognition method and device for fatigue driving of driver
Yazdi et al. Driver drowsiness detection by Yawn identification based on depth information and active contour model
JP2009146377A (en) Driver state estimation device and program
CN113536967B (en) Driver state identification method and device based on head movement posture and eye opening and closing degree of driver, and electronic equipment
EP3056375B1 (en) Sleepiness detecting device
US11161470B2 (en) Occupant observation device
US20220284718A1 (en) Driving analysis device and driving analysis method
US10945651B2 (en) Arousal level determination device
JP2018130342A (en) Wakefulness estimation device, wakefulness estimation method and wakefulness estimation system
Abdullah et al. Driver fatigue detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

R151 Written notification of patent or utility model registration

Ref document number: 5292671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees