JPH08225028A - Awakening condition detecting device for driver - Google Patents
Awakening condition detecting device for driverInfo
- Publication number
- JPH08225028A JPH08225028A JP3120895A JP3120895A JPH08225028A JP H08225028 A JPH08225028 A JP H08225028A JP 3120895 A JP3120895 A JP 3120895A JP 3120895 A JP3120895 A JP 3120895A JP H08225028 A JPH08225028 A JP H08225028A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- vehicle
- time
- eyelid
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- Developmental Disabilities (AREA)
- Biophysics (AREA)
- Child & Adolescent Psychology (AREA)
- Biomedical Technology (AREA)
- Educational Technology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Emergency Alarm Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、運転者の覚醒度検出装
置に係り、特に、まばたきパラメータと車両の横偏位量
とから、居眠り運転状態を検出することができる運転者
の覚醒度を検出する運転者の覚醒度検出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a driver's arousal level, and more particularly, to a driver's arousal level capable of detecting a dozing driving state from a blink parameter and a vehicle lateral displacement amount. The present invention relates to a driver awakening level detection device.
【0002】[0002]
【従来の技術】従来より、まばたきパラメータ(閉眼時
間、閉眼頻度、閉眼間隔等)が平常時の値からどの程度
変化したかを判断して、覚醒度を推定し、居眠り状態を
検出する技術が提案されている。しかしながら、平常時
の値に対するまばたきパラメータの変化の大きさは、被
験者の個人差が大きいため、正確に居眠り状態を検出す
ることができない、という問題がある。この個人差を補
正する方法として、まばたきパラメータの変化の大きさ
を判定するしきい値を可変にする方法が提案されている
が、初期値をどの程度の値に設定すべきかの基準がな
く、個人差を補正する方法としては不十分である。2. Description of the Related Art Conventionally, there has been a technique for estimating the arousal level by detecting how much blink parameters (eye closing time, eye closing frequency, eye closing interval, etc.) have changed from their normal values, and detecting a dozing state. Proposed. However, there is a problem in that it is not possible to accurately detect the dozing state because the difference in blink parameter with respect to the normal value varies greatly among subjects. As a method of correcting this individual difference, a method of varying the threshold value for determining the magnitude of the change in the blink parameter has been proposed, but there is no standard for how much the initial value should be set, It is insufficient as a method for correcting individual differences.
【0003】また、平常時のまばたきパラメータの平均
値と分散値とから統計的な仮定に基づいて、(平均値)
+(分散値)〜(平均値)+2×(分散値)の値をしき
い値として決定する方法(特開昭60−592号公報)
が提案されているが、統計的な仮定に基づいて決定した
しきい値を個人の覚醒度の低下と見なせる根拠はなにも
ない。Further, based on statistical assumptions from the average value and the variance value of blink parameters in normal times, (average value)
A method of determining a value of + (dispersion value) to (average value) + 2 × (dispersion value) as a threshold value (Japanese Patent Laid-Open No. 60-592).
However, there is no reason to regard the threshold value determined based on statistical assumptions as a decrease in the alertness of an individual.
【0004】また、作業成績に基づいて個人の特徴を推
測して、個人差に対応した覚醒レベルを演算する方法
(特開平5−92039号公報)が提案されている。こ
の方法においては、映像、音、振動等の刺激に対してボ
タンを押す等の作業を行わせ、この作業に対する反応時
間と生理量(脳波、心拍、まばたき頻度)との相関関係
(回帰直線)を事前に求める。そして、生理量と反応時
間との相関関係に基づいて、検出された生理量に対する
反応時間を求め、求めた反応時間の大小から覚醒度を推
定し、覚醒度推定値から覚醒低下を判断している。この
ため、個人の特徴に応じた覚醒度の推定ができるが、事
前に刺激に対する反応時間と生理量との相関関係という
個人の特徴を学習しておく必要があり、また刺激に対す
る反応時間という実際の運転状態とは異なる作業によっ
て得られた個人の特徴を用いているので、実際の運転状
態には則さない、という問題があり、自動車運転者の居
眠り検出には適していない。Further, there has been proposed a method (Japanese Patent Laid-Open No. 5-92039) in which the characteristics of an individual are estimated based on the work performance and the awakening level corresponding to the individual difference is calculated. In this method, a task such as pressing a button is performed for a stimulus such as video, sound, or vibration, and the correlation (regression line) between the reaction time for this task and the physiological amount (electroencephalogram, heartbeat, blink frequency) Ask in advance. Then, based on the correlation between the physiological amount and the reaction time, the reaction time for the detected physiological amount is obtained, the arousal level is estimated from the magnitude of the obtained reaction time, and a decrease in the arousal level is determined from the estimated arousal level. There is. Therefore, it is possible to estimate the arousal level according to the individual characteristics, but it is necessary to learn in advance the individual characteristics such as the correlation between the reaction time to the stimulus and the physiological amount, and the actual reaction time to the stimulus. Since the characteristics of an individual obtained by a work different from the driving state are used, there is a problem that it does not follow the actual driving state, and it is not suitable for detecting the drowsiness of a car driver.
【0005】[0005]
【発明が解決しようとする課題】本発明は上記問題点を
解消するために成されたもので、事前に個人の特徴を学
習させることなく、また、自動車の運転作業を行うだけ
で居眠り運転等を適切に検出できる運転者の覚醒度検出
装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and does not require learning the characteristics of an individual in advance and that he / she can doze while driving while driving. It is an object of the present invention to provide a driver's arousal level detection device capable of appropriately detecting the vehicle.
【0006】[0006]
【課題を解決するための手段】上記目的を達成するため
に請求項1の発明は、運転者のまぶたの動きからまばた
きパラメータを抽出する抽出手段と、目標走行軌跡から
の車両の横偏位量を検出する横偏位量検出手段と、まば
たきパラメータと横偏位量とに基づいてまばたきパラメ
ータと車両の横偏位量との相関関係を演算する演算手段
と、演算された相関関係に基づいて運転者の覚醒度を検
出する覚醒度検出手段と、を含んで構成したものであ
る。In order to achieve the above object, the invention of claim 1 is to extract the blinking parameter from the movement of the eyelid of the driver, and the lateral deviation amount of the vehicle from the target travel locus. Lateral displacement amount detecting means for detecting, a calculation means for calculating the correlation between the blink parameter and the lateral displacement amount of the vehicle based on the blink parameter and the lateral displacement amount, and based on the calculated correlation And a wakefulness detecting means for detecting the wakefulness of the driver.
【0007】また、請求項2の発明は、運転者のまぶた
の動きからまばたきパラメータを抽出する抽出手段と、
目標走行軌跡からの車両の横偏位量を検出する横偏位量
検出手段と、まばたきパラメータと車両の横偏位量とに
基づいてまばたきパラメータと車両の横偏位量との関係
を表す回帰式を演算する回帰式演算手段と、前記回帰式
が有意か否かを検定する有意性検定手段と、有意と検定
された回帰式に基づいて運転者の覚醒度を検出する覚醒
度検出手段と、を含んで構成したものである。The invention according to claim 2 further comprises extraction means for extracting blink parameters from the movement of the eyelids of the driver.
Lateral deviation amount detecting means for detecting the lateral deviation amount of the vehicle from the target travel locus, and regression representing the relationship between the blink parameter and the lateral deviation amount of the vehicle based on the blink parameter and the lateral deviation amount of the vehicle. Regression formula calculation means for calculating a formula, significance test means for testing whether the regression formula is significant, and awakening degree detection means for detecting the awakening degree of the driver based on the regression formula tested as significant It is configured to include ,.
【0008】[0008]
【作用】本発明者等の実験によると、運転者のまぶたの
動きから抽出されるまばたきパラメータと目標走行軌跡
からの車両の横偏位量との間には、高い相関関係がある
ことが確認されている。まばたきパラメータとしては、
閉眼時間、まぶたの開度、まぶたの動きの振幅、まばた
きの頻度、まばたきの発生間隔時間、またはこれらの平
均値を採用することができる。According to the experiments conducted by the present inventors, it has been confirmed that there is a high correlation between the blink parameter extracted from the movement of the eyelid of the driver and the lateral deviation amount of the vehicle from the target traveling locus. Has been done. As blink parameters,
The eye closing time, the eyelid opening degree, the eyelid movement amplitude, the blinking frequency, the blinking interval time, or an average value thereof can be used.
【0009】従って、本発明では、まばたきパラメータ
と横偏位量とに基づいてまばたきパラメータと車両の横
偏位量との相関関係を演算し、演算した相関関係に基づ
いて運転者の覚醒度を検出している。この覚醒度は、演
算された相関関係から得られ、かつ予め定められた横偏
位量の基準値に対するまばたきパラメータの値と、現在
のまばたきパラメータの値とを比較することによって検
出することができる。Therefore, in the present invention, the correlation between the blink parameter and the lateral displacement amount of the vehicle is calculated based on the blink parameter and the lateral displacement amount, and the driver's awakening degree is calculated based on the calculated correlation. It is detecting. This awakening degree is obtained from the calculated correlation and can be detected by comparing the value of the blink parameter with respect to the predetermined reference value of the lateral displacement amount and the current value of the blink parameter. .
【0010】また、まばたきパラメータと車両の横偏位
量とに基づいてまばたきパラメータと車両の横偏位量と
の関係を表す回帰式を演算し、演算した回帰式が有意か
否かを検定し、有意と検定された回帰式に基づいて運転
者の覚醒度を検出することもできる。この場合において
も、回帰式から得られ、かつ予め定められた横偏位量の
基準値に対するまばたきパラメータの値と、現在のまば
たきパラメータの値とを比較することによって覚醒度を
検出することができる。Further, a regression equation representing the relationship between the blink parameter and the lateral displacement amount of the vehicle is calculated based on the blink parameter and the lateral displacement amount of the vehicle, and whether the calculated regression formula is significant or not is tested. It is also possible to detect the awakening degree of the driver based on the regression equation that is tested as significant. Even in this case, it is possible to detect the arousal level by comparing the value of the blink parameter with respect to the predetermined reference value of the lateral displacement amount obtained from the regression equation and the current value of the blink parameter. .
【0011】なお、相関関係として回帰直線(一次回帰
式)を求めた場合には、回帰直線から得られ、かつ予め
定められた横偏位量の基準値に対するまばたきパラメー
タの値と、現在のまばたきパラメータの値とを比較する
ことによって覚醒度を検出することができる。また、回
帰直線の傾きの大きさから覚醒度を検出することもでき
る。When a regression line (first-order regression equation) is obtained as the correlation, the value of the blink parameter with respect to the predetermined reference value of the lateral deviation obtained from the regression line and the current blinking. The arousal level can be detected by comparing with the value of the parameter. Further, the arousal level can be detected from the magnitude of the slope of the regression line.
【0012】また、上記まばたきパラメータ検出手段
は、目を含む領域の濃淡画像を入力し、該領域において
まばたき方向の基準線上の画素の濃淡変化を表す1次元
画像を抽出すると共に、前記1次元画像に基づいて前記
基準線上の画素毎の濃淡変化の大きさを表す1次元エッ
ジ画像を算出するエッジ画像算出手段と、前記1次元エ
ッジ画像における濃淡変化の極値に基づいて上まぶたと
眼球との境界を示す第1の境界点及び下まぶたと眼球と
の境界を示す第2の境界点を検出するまぶた検出手段
と、検出した第1の境界点と第2の境界点とに基づいて
まばたきパラメータを演算するパラメータ演算手段と、
を含んで構成することができる。Further, the blink parameter detecting means inputs a grayscale image of a region including eyes, extracts a one-dimensional image showing a grayscale change of pixels on a reference line in the blinking direction in the region, and at the same time, the one-dimensional image. Edge image calculation means for calculating a one-dimensional edge image representing the magnitude of the grayscale change for each pixel on the reference line, and an upper eyelid and an eyeball based on the extreme value of the grayscale change in the one-dimensional edge image. Eyelid detection means for detecting a first boundary point indicating a boundary and a second boundary point indicating a boundary between the lower eyelid and the eyeball, and a blink parameter based on the detected first boundary point and second boundary point. Parameter calculation means for calculating
Can be included.
【0013】上記の構成において、エッジ画像算出手段
は、目を含む領域の濃淡画像を入力し、この領域におい
てまばたき方向の基準線上の画素の濃淡変化を表す1次
元画像を抽出する。カラー画像ではなく、濃淡画像を用
いているため、十分な光量の白色光源を必要とすること
なく、広い環境下において利用することができる。In the above arrangement, the edge image calculation means inputs the grayscale image of the area including the eyes and extracts the one-dimensional image representing the grayscale change of the pixels on the reference line in the blinking direction in this area. Since a grayscale image is used instead of a color image, it can be used in a wide environment without requiring a white light source with a sufficient amount of light.
【0014】また、エッジ画像算出手段は、1次元画像
に基づいて基準線上の濃淡変化の大きさを画素毎に算出
して画素毎の濃淡変化の大きさを表す1次元エッジ画像
を算出し、まぶた検出手段は1次元エッジ画像における
濃淡変化の極値に基づいて上まぶたと眼球との境界を示
す第1の境界点及び下まぶたと眼球との境界を示す第2
の境界点を検出する。1次元エッジ画像を2値化するこ
となく濃淡変化の極値を用いて処理しているため、照明
条件や対象となる人の顔の造り等の個人差の影響を受け
難くなる。Further, the edge image calculating means calculates the magnitude of the grayscale change on the reference line for each pixel based on the one-dimensional image to calculate a one-dimensional edge image representing the magnitude of the grayscale change for each pixel, The eyelid detection means is a first boundary point indicating the boundary between the upper eyelid and the eyeball and a second boundary indicating the boundary between the lower eyelid and the eyeball based on the extreme value of the grayscale change in the one-dimensional edge image.
Detect the boundary points of. Since the one-dimensional edge image is processed using the extreme value of the grayscale change without being binarized, it is less likely to be affected by individual differences such as lighting conditions and the facial structure of the target person.
【0015】そして、パラメータ演算手段は、抽出した
第1の境界点と第2の境界点とに基づいてまばたきパラ
メータを演算する。このとき、抽出した第1の境界点と
第2の境界点との間の距離をまぶたの開度として検出し
たり、まぶたの開度が最小になっている時間を閉眼時間
として検出したり、まぶたの開度が最小になっている期
間の間隔をまばたきの発生間隔として検出することがで
きる。The parameter calculation means calculates the blink parameter based on the extracted first boundary point and second extracted boundary point. At this time, the distance between the extracted first boundary point and the second boundary point is detected as the eyelid opening, or the time when the eyelid opening is minimized is detected as the eye-closing time, The interval during which the eyelid opening is minimized can be detected as the blink occurrence interval.
【0016】[0016]
【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。本実施例は、まばたきパラメータとしての
平均閉眼時間と車両の横偏位量の平均値(平均横偏位
量)との相関関係を用いて覚醒度を判定するようにした
ものである。Embodiments of the present invention will be described below in detail with reference to the drawings. In the present embodiment, the arousal level is determined using the correlation between the average eye-closing time as a blink parameter and the average value of the lateral displacement amounts of the vehicle (average lateral displacement amount).
【0017】図7は、実験で得られた被験者の単位計測
時間T毎のまばたきの平均閉眼時間cnと車両の平均横
偏位量dnとの時間推移をグラフに示したものの一例で
ある。眼が閉じられている時間を示す平均閉眼時間cn
の増加は覚醒度の低下を意味し、車両が蛇行した走行状
態を示す平均横偏位量dnの増大は安全に走行できてい
ないことを意味する。FIG. 7 is an example of a graph showing the time transition of the average eye-closing time cn of blinking and the average lateral displacement amount dn of the vehicle for each unit measurement time T of the subject obtained in the experiment. Average eye closure time cn indicating the time the eyes are closed
Means that the awakening degree is lowered, and that an increase in the average lateral displacement amount dn indicating a meandering traveling state of the vehicle means that the vehicle cannot travel safely.
【0018】また、図8はこの実験結果の平均閉眼時間
cnと平均横偏位量dnとの相関図を示し、図8中の直
線は、平均閉眼時間cnと平均横偏位量dnとの2変量
の一次回帰直線を示す。図8から理解されるように、こ
の2変量には、高い相関関係がある。本発明者等の実験
によると、5人の被験者における2変量の相関係数は
0.72〜0.95であった。このことから一方の値か
ら他方の値を予測できることが分かる。つまり平均横偏
位量dnという安全に走行できるかどうかを示す車両の
状態量を用いて、まばたきという運転者の生理量が示す
覚醒度合いを評価することが可能である。FIG. 8 shows a correlation diagram between the average eye closing time cn and the average lateral deviation amount dn of this experimental result. The straight line in FIG. 8 shows the average eye closing time cn and the average lateral deviation amount dn. A bivariate linear regression line is shown. As can be seen from FIG. 8, there is a high correlation between these two variables. According to an experiment by the present inventors, the bivariate correlation coefficient among the five subjects was 0.72 to 0.95. From this, it can be seen that one value can predict the other value. That is, it is possible to evaluate the awakening degree indicated by blinking driver's physiological amount, which is an average lateral deviation amount dn, which is a vehicle state amount indicating whether or not the vehicle can travel safely.
【0019】図1に本実施例の基本的な構成を示す。本
実施例は、まぶたの閉眼状態を検出して閉眼情報を出力
するまばたき検出部10、まばたき検出部10から出力
されたまぶたの閉眼情報からまばたきパラメータである
閉眼時間を抽出するまばたきパラメータ抽出部20、自
動車の現在位置が目標走行軌跡に対して、どの程度ずれ
ているかを示す横偏位量Yを検出する車両状態検出部3
0、自動車の運転作業中に得られたデータから個人の特
徴を時々刻々と把握するCPU等で構成された覚醒度検
出部40から構成されている。FIG. 1 shows the basic configuration of this embodiment. In this embodiment, a blink detection unit 10 that detects a closed state of the eyelids and outputs closed eye information, and a blink parameter extraction unit 20 that extracts a closed-eye time that is a blink parameter from the closed eye information of the eyelids output from the blink detection unit 10. , A vehicle state detection unit 3 that detects a lateral displacement amount Y indicating how much the current position of the automobile deviates from the target travel locus.
0. The awakening degree detection unit 40 is composed of a CPU or the like that keeps track of individual characteristics from the data obtained during the driving work of the automobile.
【0020】次に各部の構成を詳細に説明する。まばた
き検出部10は、画像処理により運転者のまぶたの閉眼
状態を検出するもので、図2に示すように、運転者11
の顔画像を撮影するように車室内に設置されたTVカメ
ラ12、TVカメラ12からの映像信号をディジタル信
号に変換するA/D変換器13、A/D変換器13で変
換された画像データを格納するフレームメモリ14、及
び画像データの演算処理によりまぶたが開いているか閉
じているかを判断し、まぶたが閉じていることを示すま
ぶたの閉眼情報を出力するCPU15から構成されてい
る。Next, the configuration of each part will be described in detail. The blink detection unit 10 detects the eyelid closed state of the driver by image processing, and as shown in FIG.
Image data converted by the A / D converter 13 and the A / D converter 13 for converting the video signal from the TV camera 12 installed in the vehicle interior to capture the face image of the And a CPU 15 that outputs eye-closure information indicating that the eyelids are closed by determining whether the eyelids are open or closed by calculating the image data.
【0021】まばたきパラメータ抽出部20は、まばた
き検出部10から出力されたまぶたの閉眼情報からまば
たきの閉眼時間の平均値である平均閉眼時間cnを単位
計測時間T毎に算出するもので、図3に示すように、ま
ばたき検出部10で得られたまぶたの閉眼情報から、ま
ぶたが閉じ始める時刻から連続してまぶたが閉じて再度
開くまでの時間(まぶたの閉眼時間)を計算する閉眼時
間計算手段21、単位計測時間Tを計時する計時手段2
2、単位計測時間T毎のまぶたの閉眼時間の平均値(平
均閉眼時間)を計算するCPU等で構成された平均閉眼
時間計算手段23から構成されている。The blink parameter extraction unit 20 calculates the average eye closing time cn, which is the average value of the eye closing time of the blinks, for each unit measurement time T from the eye closing information of the eyelids output from the blink detecting unit 10. As shown in, the eyelid closing time calculation means for calculating the time (eyelid closing time) from the time when the eyelids start to close until the eyelids close and reopen from the eyelid closing information obtained by the blink detection unit 10. 21, time measuring means 2 for measuring the unit measurement time T
2. It is composed of an average eye-closure time calculation means 23 composed of a CPU or the like for calculating an average value of eye-eye closure time (average eye-closure time) for each unit measurement time T.
【0022】ところで、一般的に、運転開始(データ取
得開始)時には、運転者の覚醒度は高く、運転者は覚醒
度が低い状態では運転を開始しない。そして、運転の継
続に伴い、覚醒度が高い状態(a)から、覚醒度が低下
傾向にある状態(b)を経て、覚醒度が低下し運転に危
険な状態(c)へと移行する。この(a)〜(b)〜
(c)の状態推移の状況(経過時間や覚醒度の低下度合
い等)は、運転者毎に、あるいは同一運転者であっても
運転者の体調その他の条件により異なる。By the way, generally, at the start of driving (start of data acquisition), the driver's awakening degree is high, and the driver does not start the driving in a low awakening degree. Then, as the driving is continued, the state (a) having a high arousal level shifts to the state (c) in which the awakening level is lowered and the driving level is dangerous, through the state (b) in which the arousal level tends to decrease. This (a)-(b)-
The state of state transition (c) (elapsed time, degree of decrease in arousal level, etc.) differs for each driver, or even for the same driver, depending on the physical condition of the driver and other conditions.
【0023】さらに、本発明者等の実験によれば、覚醒
度の高い状態から運転不能への移行は、所定時間の間、
例えば、数分〜10分以上の間に起っており、覚醒度の
高い状態から急激に運転不能の状態に陥ってはいない。
従って、本実施例では、上記のように、この所定時間よ
り短い時間を単位計測時間T(例えば、1分間)とし計
測している。Further, according to the experiments by the present inventors, the transition from the high awakening state to the inoperable state is
For example, it occurs within a few minutes to 10 minutes or more, and does not suddenly fall into the inoperable state from the high awakening state.
Therefore, in the present embodiment, as described above, the time shorter than the predetermined time is measured as the unit measurement time T (for example, 1 minute).
【0024】車両状態検出部30は、運転者のハンドル
操舵情報と車速情報とに基づいて走行すべき車両位置で
ある目標走行軌跡と実際の現在位置との差である横偏位
量Yを検出し、さらに単位計測時間T毎の横偏位量Yの
平均値である平均横偏位量dnを検出するものでる。こ
の横偏位量Yは、例えば、特開平5−85221号公報
に記載されているように、ドライバのハンドル操舵量と
車速に関連した物理量である車速情報(車速、車の加速
度等)とに基づいて検出することができる。この車両状
態検出部30は、図4に示すように、ハンドルの操舵量
を検出する操舵量検出手段31、自動車の速度(車速)
を検出する車速検出手段32、操舵量検出手段31で検
出された操舵量と車速検出手段32で検出された車速と
に基づいて、後述するように車両が走行すべき目標走行
軌跡からの車両現在位置の横偏位を演算する横偏位量演
算手段33、単位計測時間T毎の横偏位量Yの平均値を
計算する平均横偏位量計算手段34、単位計測時間Tを
計時する計時手段35から構成されている。The vehicle state detecting section 30 detects a lateral deviation amount Y which is a difference between a target traveling locus which is a vehicle position to travel and an actual present position based on the steering wheel steering information of the driver and the vehicle speed information. Further, the average lateral displacement amount dn, which is the average value of the lateral displacement amounts Y for each unit measurement time T, is detected. The lateral displacement amount Y is, for example, disclosed in Japanese Patent Laid-Open No. 5-85221, in the steering amount of the driver and the vehicle speed information (vehicle speed, vehicle acceleration, etc.) which is a physical quantity related to the vehicle speed. It can be detected based on. As shown in FIG. 4, the vehicle state detecting unit 30 includes a steering amount detecting means 31 for detecting the steering amount of a steering wheel, a vehicle speed (vehicle speed).
Based on the steering amount detected by the vehicle speed detecting unit 32 and the steering amount detecting unit 31 and the vehicle speed detected by the vehicle speed detecting unit 32, the vehicle current from a target travel locus on which the vehicle should travel is described later. Lateral deviation amount calculation means 33 for calculating the lateral deviation of the position, average lateral deviation amount calculation means 34 for calculating the average value of the lateral deviation amount Y for each unit measurement time T, and timing for measuring the unit measurement time T. It comprises means 35.
【0025】なお、まばたきパラメータ抽出部20にお
ける計時手段22が計時する単位計測時間Tと、車両状
態検出部30における計時手段35が計時する単位計測
時間Tとは、互いに同一時間間隔(例えば、1分間)
で、かつ、同時刻に開始、終了するよう設定されている
ことが、後述する統計的処理を行う上で望ましい。した
がって、計時手段22と計時手段35とは1つで兼用す
ることができる。The unit measurement time T measured by the time measurement means 22 in the blink parameter extraction section 20 and the unit measurement time T measured by the time measurement means 35 in the vehicle state detection section 30 are the same time intervals (for example, 1 Minutes)
In addition, it is desirable to perform the statistical processing to be described later by setting the start and end at the same time. Therefore, the timekeeping means 22 and the timekeeping means 35 can be combined into one.
【0026】以下本実施例の作用を説明する。まばたき
検出部10においては、まず、運転者11の顔画像をT
Vカメラ12で撮影する。この際に、TVカメラ12の
みで撮影してもよいが、周囲の外乱光の影響を低減させ
るために、運転者に影響しないように可視光線以外の光
を照射する、例えば、図示しない赤外ストロボからなる
照明部を、TVカメラ12の撮影と同期して発光させる
ことにより、運転者の顔部を照明すると効果的である。
この照明部としては、赤外ストロボの他に、赤外線を発
光する赤外LEDでもよい。また、照明部から連続光を
発光させれば、TVカメラ12との同期は不要となり、
構成が簡単になる。The operation of this embodiment will be described below. In the blink detection unit 10, first, the face image of the driver 11 is displayed as T
Take a picture with the V camera 12. At this time, the image may be taken only by the TV camera 12, but in order to reduce the influence of ambient light in the surroundings, light other than visible light is emitted so as not to affect the driver, for example, infrared light (not shown). It is effective to illuminate the driver's face by causing the illumination unit including a strobe to emit light in synchronization with the shooting by the TV camera 12.
As the illumination unit, an infrared LED that emits infrared light may be used instead of the infrared strobe. Moreover, if continuous light is emitted from the illumination unit, synchronization with the TV camera 12 is not necessary,
Simpler configuration.
【0027】また、TVカメラ12を、例えば、1/1
000秒程度で高速シャッター動作させるのに同期し
て、赤外LEDをパルス発光させれば、屋外等の外乱光
の多い環境下でも安定した画像を得ることができる。Further, the TV camera 12 is, for example, 1/1
If the infrared LED is pulsed in synchronism with the high-speed shutter operation in about 000 seconds, a stable image can be obtained even in an environment with a lot of ambient light such as outdoors.
【0028】このようにして撮影された顔画像は、ビデ
オ信号としてA/D変換器13に取り込まれ、A/D変
換して、2次元ディジタル画像がフレームメモリ14に
格納される。図12の(1)にフレームメモリ14に格
納された顔の2次元ディジタル画像を示す。The face image thus photographed is taken into the A / D converter 13 as a video signal, A / D converted, and the two-dimensional digital image is stored in the frame memory 14. FIG. 12A shows a two-dimensional digital image of the face stored in the frame memory 14.
【0029】次に、CPU15による画像処理を図5を
参照して説明する。ステップ102では、フレームメモ
リ14に格納されているディジタル画像を取り込み、ス
テップ104において例えば、テンプレートマッチング
法による画像処理により顔画像の中から目が存在する小
領域を検索し、ステップ106で目を含む小領域を目画
像として抽出する。図6(a)に目画像の例を示す。Next, image processing by the CPU 15 will be described with reference to FIG. In step 102, the digital image stored in the frame memory 14 is fetched, and in step 104, for example, a small area in which eyes are present is searched from the face image by image processing by the template matching method, and in step 106, the eyes are included. A small area is extracted as an eye image. FIG. 6A shows an example of the eye image.
【0030】図6(a)に示すような原画像としての目
画像が得られると、中心線L上の原画像の輝度変化は図
6(b)のようになる。ステップ108では、この図6
(b)のような1次元原画像を抽出して入力し、エッジ
処理を行い、ステップ110で図6(c)に示すよう
に、基準線上の画素毎の濃淡変化の大きさを表す1次元
エッジ画像を算出する。When the eye image as the original image as shown in FIG. 6A is obtained, the luminance change of the original image on the center line L becomes as shown in FIG. 6B. In step 108, this FIG.
A one-dimensional original image as shown in (b) is extracted and input, edge processing is performed, and in step 110, as shown in FIG. 6 (c), a one-dimensional representing the magnitude of the grayscale change for each pixel on the reference line. Calculate the edge image.
【0031】エッジ処理を行うオペレータとしては、例
えば、次表の(1)に示すような単純な差分を求めるオ
ペレータでよい。また、(2)に示すような平滑化の機
能を持つオペレータであれば、ノイズの影響を低減でき
る。An operator for performing edge processing may be, for example, an operator for obtaining a simple difference as shown in (1) of the following table. In addition, an operator having a smoothing function as shown in (2) can reduce the influence of noise.
【0032】 なお、エッジ処理を行うオペレータとして、ソーベルオ
ペレータ、ペレウィットオペレータ、またはロバーツオ
ペレータを用いてもよい。[0032] A Sobel operator, a Pelewitt operator, or a Roberts operator may be used as an operator that performs edge processing.
【0033】ここで、まぶたの開度を図6(a)の中心
線L上で、上まぶたと眼球との境界点Aと、下まぶたと
眼球との境界点Bとの距離hとして定義すれば、開度を
測定するためには、境界点A、Bを各々検出すればよい
ことになる。一般に、眼球部分は皮膚部分であるまぶた
に比べて、反射率が小さくかつ暗く撮影されるので、先
の境界点Aでは、上から下に向かって明から暗へ、後の
境界点Bでは、上から下に向かって逆に暗から明に輝度
が急変する。このような輝度急変点では、エッジ画像の
値は極値点を持つことになるので、図6(c)のような
1次元のエッジ画像上で極値を持つ点を検出すれば、ま
ぶたの開度の測定が可能となる。Here, the opening of the eyelid is defined as the distance h between the boundary point A between the upper eyelid and the eyeball and the boundary point B between the lower eyelid and the eyeball on the center line L of FIG. 6A. For example, in order to measure the opening degree, it is sufficient to detect the boundary points A and B, respectively. In general, the eyeball portion is photographed with a smaller reflectance and darker than the eyelid that is the skin portion. Therefore, at the preceding boundary point A, from the top to the bottom, light to dark, and at the subsequent boundary point B, The brightness changes suddenly from dark to bright from top to bottom. At such a sudden brightness change point, the value of the edge image has an extreme value point. Therefore, if a point having an extreme value is detected on the one-dimensional edge image as shown in FIG. It is possible to measure the opening.
【0034】しかしながら、このような輝度急変点はま
ぶたと眼球との境界のみでなく、瞳孔と虹彩との境界
や、目のまわりのしわや影によっても生ずる。従って、
本実施例では目のまわりのしわや影によって誤検出しな
いように、次に述べる方法により、エッジ画像上で極値
を持つ点を選択しまぶたの開度の測定を行っている。However, such a sudden brightness change point occurs not only on the boundary between the eyelid and the eyeball, but also on the boundary between the pupil and the iris, and the wrinkles and shadows around the eyes. Therefore,
In the present embodiment, the opening of the eyelid is selected by selecting the point having the extreme value on the edge image by the method described below so as to prevent erroneous detection due to wrinkles and shadows around the eyes.
【0035】まず、ステップ112では、図6(c)の
1次元エッジ画像上で、エッジ値が正方向の極大値を持
つ点Pi(i=0,1)と、エッジ値が負方向の極小値(絶対値
は大)を持つ点Mi(i=0,1)とを算出する。以後、極大値
と極小値の両者をあわせて、エッジ極値点と呼ぶ。First, at step 112, on the one-dimensional edge image of FIG. 6C, a point Pi (i = 0,1) having an edge value having a positive maximum value and a minimum edge value having a negative value. A point Mi (i = 0,1) having a value (absolute value is large) is calculated. Hereinafter, both the maximum value and the minimum value are collectively referred to as an edge extreme point.
【0036】また、ステップ114では、検索の初期位
置として、これらのエッジ極値点Pi 、Mi のうち図6
(b)の中点線L上の1次元画像のうち、最も暗い点C
に隣接し、最も内側のエッジ極値点の組合せを点Piと
点Miとから一つずつ選択する。図5の場合には、点P
0と点M0との組合せが検索の初期位置となるエッジ極
値点に相当する。Further, in step 114, as the initial position of the search, one of these edge extreme points Pi and Mi shown in FIG.
(B) The darkest point C in the one-dimensional image on the middle dotted line L
, And the innermost edge extreme point combination is selected one by one from the point Pi and the point Mi. In the case of FIG. 5, point P
The combination of 0 and the point M0 corresponds to the edge extreme point which is the initial position of the search.
【0037】次に、ステップ116では、ステップ11
2で検索されたエッジ極値点と検索の初期位置となるエ
ッジ極値点に基づいて、最初の検索区間を決定する。す
なわち、各々の検索の初期位置からより外側のエッジ極
値点を検索するように、正の極値点は上方へ、負の極値
点は下方へ検索するように検索区間を決定する。図6で
は、点P1と点M1とが次のエッジ極値点であるので、
点P0と点P1との間が次の上方への検索区間になり、
点M0と点M1との間が次の下方への検索区間となる。
このように定められた検索区間内で、エッジ値の符号が
反転しているか否かをステップ118で判定し、反転し
ていない場合はステップ120で新たなエッジ極値点が
存在するか否か、すなわち新たな検索区間が見つかった
か否かを判定する。そして、新たな検索区間が見つから
なくなるか、あるいは、検索区間内でエッジ値の符号が
反転するまで、上方と下方へそれぞれ検索を繰り返す
(ステップ116、118、120)。図6では、点P
0と点P1との間でエッジ値は常に正であり、また、点
M0と点M1との間でエッジ値は常に負であるので、点
P1と点M1とを新たな出発点とし、検索を繰り返すこ
とになる。上記の検索結果を基に、同様に上方と下方へ
それぞれ検索区間を決定することになるが、図6(c)
では、P1より上方に、また、M1より下方には、新た
なエッジ極値点が存在しない。そこで、検索終了と判断
し、ステップ122で点P1と点M1をまぶたと眼球と
の境界点A、Bとする。Next, in step 116, step 11
The first search section is determined based on the edge extreme value point searched in 2 and the edge extreme value point that is the initial position of the search. That is, the search section is determined such that the positive extreme point is searched upward and the negative extreme point is searched downward so as to search the outer edge extreme point from the initial position of each search. In FIG. 6, since the points P1 and M1 are the next edge extreme points,
The area between points P0 and P1 is the next upward search section,
The area between points M0 and M1 is the next downward search section.
In the search section thus determined, it is determined in step 118 whether the sign of the edge value is inverted, and if it is not inverted, it is determined in step 120 whether a new edge extreme point exists. That is, it is determined whether or not a new search section is found. Then, the search is repeated upward and downward, respectively, until no new search section is found or the sign of the edge value is reversed in the search section (steps 116, 118, 120). In FIG. 6, the point P
Since the edge value is always positive between 0 and the point P1 and the edge value is always negative between the points M0 and M1, the points P1 and M1 are set as new starting points, and the search is performed. Will be repeated. Similarly, based on the above search results, the search sections are determined to be upward and downward, respectively, as shown in FIG.
Then, there is no new edge extreme point above P1 and below M1. Therefore, it is determined that the search has ended, and in step 122, the points P1 and M1 are defined as the boundary points A and B between the eyelids and the eyeballs.
【0038】そして、ステップ124では、境界点A、
B間の距離を計数してまぶたの開度を演算し、まぶたの
開度が最小になったか否かを判断することによって、ま
ぶたが閉じているか開いているかを判定する。そして、
まぶたが閉じていることを示す閉眼情報を出力する。Then, in step 124, the boundary point A,
It is determined whether the eyelids are closed or open by counting the distance between B to calculate the eyelid opening and determining whether the eyelid opening is minimized. And
Outputs eye-closure information indicating that the eyelids are closed.
【0039】このような処理により、本実施例では、個
人の顔の造り等の個人差にかかわらず、まぶたと眼球と
の境界点の抽出が可能になり、正確なまぶたの閉眼状態
の判定が可能になる。With this processing, in this embodiment, it is possible to extract the boundary point between the eyelid and the eyeball regardless of individual differences such as the facial structure of the individual, and to accurately determine the eyelid closed state. It will be possible.
【0040】なお、次の方法によってまぶたが閉じてい
るか否かを判断するようにしてもよい。The following method may be used to determine whether the eyelids are closed.
【0041】まず、フレームメモリに記憶されている顔
画像を取り込み、図12(1)に示すように顔画像を2
値化し、顔の2値画像から、顔の左右対称性、頭髪、眉
毛、まぶたの位置関係等に基づいてまぶたの存在領域を
抽出する。次に、顔画像からこのまぶたの領域に対応す
る領域からまぶた画像のエッジ(輪郭)を示す濃淡画像
(図12(3))を求める。次に、まぶたの輪郭線が最
適に検出できる濃度のしきい値を決定し、このしきい値
と濃淡画像の濃度とを比較してまぶたの輪郭線の2値画
像(図12(4))を得る。そして、得られたまぶたの
輪郭2値画像から上まぶたと下まぶたの距離を計測し、
この距離が最小になったか否かを判断してまぶたが開い
ているか閉じているか判定する。First, the face image stored in the frame memory is fetched, and the face image is divided into two as shown in FIG.
The binarization is performed, and the region where the eyelids are present is extracted from the binary image of the face based on the left-right symmetry of the face, the positional relationship between the hair, the eyebrows, and the eyelids. Next, a grayscale image (FIG. 12C) showing the edge (outline) of the eyelid image is obtained from the area corresponding to this eyelid area from the face image. Next, a threshold value for the density at which the contour of the eyelid can be detected optimally is determined, and this threshold value is compared with the density of the grayscale image to obtain a binary image of the contour of the eyelid (FIG. 12 (4)). To get Then, the distance between the upper and lower eyelids is measured from the obtained eyelid contour binary image,
It is determined whether or not this distance is minimized to determine whether the eyelids are open or closed.
【0042】まばたきパラメータ抽出部20において
は、まぶたの開閉情報に基づいて、連続してまぶたが閉
じている時間を閉眼時間計算手段21で算出し、まばた
きの閉眼時間とする。また、計時手段22によって計測
される計測開始時刻からの単位計測時間T毎に発生した
各まばたきの閉眼時間の平均値を平均閉眼時間計算手段
23で計算し、これを平均閉眼時間cnとする。ここで
nは変数の添え字であり、計測開始からの単位計測時間
T毎の通し番号を表す。すなわち、計測開始時刻からの
経過時間をtとすると n=t/T ・・・(1) である。In the blinking parameter extraction section 20, the eyelid closing time calculating means 21 calculates the time during which the eyelids are continuously closed, based on the eyelid opening / closing information, and uses this as the eyelid closing time. Further, the average value of the eye-closing time of each blink that occurs at each unit measurement time T from the measurement start time measured by the time-measuring means 22 is calculated by the average eye-closing time calculating means 23, and this is set as the average eye-closing time cn. Here, n is a subscript of a variable and represents a serial number for each unit measurement time T from the start of measurement. That is, when the elapsed time from the measurement start time is t, n = t / T (1).
【0043】車両状態検出部30の操舵量検出手段31
においては、運転者のハンドル操舵量を検出し、検出し
た操舵量からカーブ等における車線内の走行を維持する
ために必要な操舵量を除いた修正操舵量δcを抽出し、
修正操舵量δc情報を出力する。Steering amount detecting means 31 of the vehicle state detecting section 30.
In the above, the steering amount of the driver's steering wheel is detected, and the corrected steering amount δc is extracted from the detected steering amount by subtracting the steering amount necessary for maintaining traveling in a lane on a curve or the like,
The corrected steering amount δc information is output.
【0044】修正操舵量の抽出は、図13に示すよう
に、道路形状にかかわらず、短時間(例えば、10秒)
の間に走行する道路区間を直線路と仮定し、この直線路
を道路区間の始点と終点とを結ぶ直線で近似し、この直
線における操舵量を基準(0レベル、図13中点線で示
す)とする。これによって決められた操舵量の基準と検
出された操舵量との差を修正操舵量δcとする。As shown in FIG. 13, the extraction of the corrected steering amount is performed for a short time (for example, 10 seconds) regardless of the road shape.
It is assumed that the road section traveling between is a straight road, and this straight road is approximated by a straight line connecting the start point and the end point of the road section, and the steering amount on this straight line is the reference (0 level, shown by the dotted line in FIG. 13). And The difference between the reference of the steering amount determined by this and the detected steering amount is defined as the corrected steering amount δc.
【0045】車両状態検出部30の車速検出手段32で
は車速Uを検出する。横偏位量演算手段33では、次の
(2)式で示すように、修正操舵量δcと車速Uの関数
で表される横加速度ゲインGyとの積の2階積分を演算
することによって横偏位量Yを求める。The vehicle speed detecting means 32 of the vehicle state detecting section 30 detects the vehicle speed U. The lateral displacement amount calculating means 33 calculates the second-order integral of the product of the corrected steering amount δc and the lateral acceleration gain Gy represented by the function of the vehicle speed U, as shown in the following equation (2). The deviation amount Y is calculated.
【0046】 Y =(δc・Gy)/S2 ・・・(2) ただし、Sはラプラス演算子である。Y = (δc · Gy) / S 2 (2) where S is a Laplace operator.
【0047】計算された横偏位量Yは、平均横偏位量演
算手段34に入力され、まばたきパラメータ抽出部20
における単位計測時間Tと同期して単位計測時間T毎
に、横偏位量Yの平均値である平均横偏位量dnが演算
される。The calculated lateral displacement amount Y is input to the average lateral displacement amount calculating means 34, and the blinking parameter extracting section 20.
The average lateral displacement amount dn, which is the average value of the lateral displacement amounts Y, is calculated for each unit measurement time T in synchronization with the unit measurement time T in FIG.
【0048】以上述べたように単位計測時間T毎に、運
転者のまばたきの平均閉眼時間cnと車両の目標走行軌
跡からの平均横偏位量dnとが計測される。As described above, the average eye-closure time cn of the driver's blink and the average lateral deviation amount dn from the target running trajectory of the vehicle are measured for each unit measurement time T.
【0049】次に覚醒度検出部40のCPUによる検出
処理ルーチンを図9を参照して説明する。まず、ステッ
プS401において計測開始からの経過時間tを0に、
カウンタnを1に、平均閉眼時間cnの平均値を求める
ために用いる変数sumを0に設定する、すなわち、各
種変数等を初期値に設定する。Next, the detection processing routine by the CPU of the awakening degree detection unit 40 will be described with reference to FIG. First, in step S401, the elapsed time t from the start of measurement is set to 0,
The counter n is set to 1, and the variable sum used for obtaining the average value of the average eye closing time cn is set to 0, that is, various variables are set to initial values.
【0050】ステップS402では、まばたきパラメー
タ抽出部20の出力である平均閉眼時間cnと車両状態
検出部30の出力である平均横偏位量dnとを読み込
む。In step S402, the average eye-closure time cn, which is the output of the blinking parameter extraction unit 20, and the average lateral deviation amount dn, which is the output of the vehicle state detection unit 30, are read.
【0051】運転開始時には乗り込む動作、エンジンを
かける動作、車両を発進させる動作等を伴うため、運転
者の覚醒度は高い。このため、ステップS403では、
計測開始時間からの経過時間tが運転者の覚醒度が高い
と判断される所定時間td(例えば、3分)以内かどう
かを判定する。At the start of driving, the driver's awakening degree is high because the operation involves boarding, starting the engine, starting the vehicle, and the like. Therefore, in step S403,
It is determined whether the elapsed time t from the measurement start time is within a predetermined time td (for example, 3 minutes) in which it is determined that the awakening degree of the driver is high.
【0052】ステップS403において、経過時間tが
所定時間td以内の場合は、ステップS404で、平均
閉眼時間cnを変数sumに加える。If the elapsed time t is within the predetermined time td in step S403, the average eye closing time cn is added to the variable sum in step S404.
【0053】次のステップS405で経過時間tが所定
時間tdに等しいかどうかを判断し、t=tdの場合、
すなわち計測開始時間から運転者の覚醒度が高いと判断
される所定時間td経過した場合には、ステップS40
6において所定時間td内の平均閉眼時間cnの平均値
を求め、この平均値を現在計測されている運転者の覚醒
時の平均閉眼時間の平常値coとする。In the next step S405, it is determined whether the elapsed time t is equal to the predetermined time td. If t = td,
That is, when the predetermined time td at which the driver's arousal level is determined to be high has elapsed from the measurement start time, step S40
In 6, the average value of the average eye-closing time cn within the predetermined time td is obtained, and this average value is set as the normal value co of the average eye-closing time during awakening of the driver currently measured.
【0054】ステップS403において、経過時間tが
所定時間tdを越えている場合は、覚醒度が低下する可
能性があるので、ステップS407において計測開始時
間から時間t経過した時点までにおける、単位計測時間
T毎の平均閉眼時間cnを平常値coで除算し、この比
cn/coを平均閉眼時間比crnとする。これによっ
て、平均閉眼時間cnの平常値coに対する変化の大き
さを評価することができる。In step S403, if the elapsed time t exceeds the predetermined time td, the arousal level may decrease. Therefore, in step S407, the unit measurement time from the measurement start time until the time t has elapsed. The average eye closing time cn for each T is divided by the normal value co, and this ratio cn / co is set as the average eye closing time ratio crn. This makes it possible to evaluate the magnitude of change in the average eye closing time cn with respect to the normal value co.
【0055】ステップS408では、経過時間tまでに
得られた単位計測時間T毎の平均閉眼時間比crnと平
均横偏位量dnとを用いて、回帰直線を計算する。以
下、図10(a)〜(c)を用い、上述した運転の継続
と覚醒度との関係に基づき説明する。なお、上述の状態
(a)〜(c)は、それぞれ図10(a)〜(c)に対
応している。In step S408, a regression line is calculated using the average eye-closing time ratio crn and the average lateral displacement amount dn for each unit measurement time T obtained by the elapsed time t. Hereinafter, with reference to FIGS. 10A to 10C, description will be given based on the relationship between the continuation of driving and the awakening degree described above. The states (a) to (c) described above correspond to FIGS. 10 (a) to 10 (c), respectively.
【0056】図10(a)に示すように、この時点で覚
醒度に変化がなく、平均閉眼時間比crn及び平均横偏
位量dnがそれぞれの平常値に対して変化していない状
態では、散布図上で左下にデータが集中することにな
る。そのため、平均閉眼時間比crnと平均横偏位量d
nとの間に明確な関係は得られない。また、後に述べる
回帰直線の統計的検定結果も有意にはならない(統計的
に無意味になる)。As shown in FIG. 10 (a), in the state in which the awakening level does not change at this point, and the average eye closure time ratio crn and the average lateral deviation amount dn do not change with respect to their normal values, Data will be concentrated in the lower left of the scatter plot. Therefore, the average eye closing time ratio crn and the average lateral deviation amount d
No clear relationship is obtained with n. Also, the statistical test result of the regression line described later does not become significant (it becomes statistically meaningless).
【0057】一方、覚醒度が低下傾向にあれば、平均閉
眼時間比crn及び平均横偏位量dnが増加するように
変化し、図10(b)に示すように、平均閉眼時間比c
rnと平均横偏位量dnとは散布図上で右上がりの直線
関係を示す。すなわち、図10(a)の状態から図10
(b)の状態に移る過程では、回帰直線の傾きが時間の
経過に伴って増加するが、覚醒度が低下傾向にある状態
でのデータが増えるにつれ傾きはほぼ一定となる。そし
て、さらに運転を続け、覚醒度が低下し運転に危険な状
態になるにつれ、図10(c)に示すように、この散布
図上での点はさらに左下から右上に推移することにな
る。このとき、回帰直線の傾きは、図10(b)の状態
からほとんど変化がない。すなわち、図10(b)に示
す覚醒度が低下傾向にある状態において、運転開始時か
らその時点までのデータを用いて得られる有意な回帰直
線は、さらにそのまま運転を続けて覚醒度が低下し、運
転に危険な状態になるまでのデータを用いて得られる図
10(c)の(有意な)回帰直線とほぼ同じである。し
たがって、そのような危険な状態に陥るまでのデータを
用いることなく、すなわち、運転に危険な状態に至る以
前に、覚醒度が高い状態から低下傾向にある状態までの
データのみを用いて、個人毎の特徴を正しく反映した回
帰直線を得ることができる。また、上記状態(a)から
(b)、(c)へ推移する状況が、運転者毎にあるいは
同一運転者であっても運転者の体調その他の条件が異な
る場合でも、正しく回帰直線を得ることができる。On the other hand, when the arousal level tends to decrease, the average eye closing time ratio crn and the average lateral deviation amount dn change so as to increase, and as shown in FIG.
The rn and the average lateral displacement amount dn show a linear relationship rising to the right on the scatter diagram. That is, from the state of FIG.
In the process of shifting to the state of (b), the slope of the regression line increases with the passage of time, but the slope becomes almost constant as the data increases in the state where the arousal level tends to decrease. Then, as the driving is further continued and the arousal level decreases and the driving becomes dangerous, as shown in FIG. 10C, the point on the scatter diagram further shifts from the lower left to the upper right. At this time, the slope of the regression line hardly changes from the state of FIG. That is, in the state where the arousal level shown in FIG. 10 (b) tends to decrease, a significant regression line obtained by using the data from the start of driving to the time point is that the awakening level decreases as the driving continues. , Which is almost the same as the (significant) regression line of FIG. 10 (c) obtained by using the data until the driving becomes dangerous. Therefore, without using data until falling into such a dangerous state, that is, before reaching a dangerous state for driving, using only data from a state of high arousal state to a state of decreasing It is possible to obtain a regression line that correctly reflects each feature. In addition, the regression line is correctly obtained even when the above-mentioned states (a) to (b) and (c) change for each driver or even if the same driver has different physical conditions and other conditions. be able to.
【0058】ステップS409では、以下で説明するよ
うに、得られた回帰直線が統計的に有意か否かの検定を
行う。回帰直線が有意であれば、覚醒度が低下傾向にあ
る状態(b)になったとして、覚醒度の推定を行うこと
ができる。In step S409, as will be described below, a test is made as to whether or not the obtained regression line is statistically significant. If the regression line is significant, it is possible to estimate the arousal level, assuming that the state (b) is in a tendency that the arousal level tends to decrease.
【0059】すなわち、2変量(xk,yk)(ただ
し、k=1,2,・・・n)の組で表せる次の(3)式
で示される回帰直線において、次のような零仮説の検定
を行う。That is, in the regression line represented by the following equation (3) which can be represented by a set of bivariates (xk, yk) (where k = 1, 2, ... N), the following zero hypothesis Perform a test.
【0060】帰無仮説H0: β1=0 対立仮説H1: β1≠0 y=α1+β1x ・・・(3) ここで、直線の傾きβ1が0のときは、全てのxについ
てy=α1であるので、yとxには直線関係がないこと
を意味する。Null hypothesis H0: β1 = 0 Alternative hypothesis H1: β1 ≠ 0 y = α1 + β1x (3) Here, when the slope β1 of the straight line is 0, y = α1 for all x. , Y and x have no linear relationship.
【0061】帰無仮説H0のもとでは、β1=0である
からβ1の予測値をβh1で表すと、次の(4)式で示
されるtoが、自由度n−2のt分布に従うことにな
る。Under the null hypothesis H0, β1 = 0. Therefore, when the predicted value of β1 is represented by βh1, the to expressed by the following equation (4) follows the t distribution with n-2 degrees of freedom. become.
【0062】 to=βh1/(√(Ve/Sxx)) ・・・(4) ただし、Ve、Sxx等は次のように表される。To = βh1 / (√ (Ve / Sxx)) (4) However, Ve, Sxx, etc. are expressed as follows.
【0063】 Ve=Se/(n−2) ・・・(5) Se=Syy−Sxy2/Sxx ・・・(6)Ve = Se / (n−2) (5) Se = Syy−Sxy 2 / Sxx (6)
【0064】[0064]
【数1】 [Equation 1]
【0065】従って、次の(12)式の条件を満たすと
き、有意水準αで仮説H0を棄却する。Therefore, when the condition of the following expression (12) is satisfied, the hypothesis H0 is rejected at the significance level α.
【0066】 |to|≧t(n−2,α) ・・・(12) すなわち、有意水準αを、例えば5%としたとき、t分
布表の値がt(n−2,0.05)であるとすると、 to≧(n−2,0.05) ・・・(13) が成立するということは、回帰直線の傾きβ1が0であ
るという仮説が成立しない。従って、回帰直線は有意で
ある、すなわち統計的に意味のあることが確認できる。| To | ≧ t (n−2, α) (12) That is, when the significance level α is, for example, 5%, the value of the t distribution table is t (n−2,0.05). ), It holds that to ≧ (n−2,0.05) (13) does not hold the hypothesis that the slope β1 of the regression line is 0. Therefore, it can be confirmed that the regression line is significant, that is, statistically meaningful.
【0067】なお、統計的検定は上記に述べた方法と数
学的に同値な次の方法によってもよい。The statistical test may be performed by the following method which is mathematically equivalent to the method described above.
【0068】仮説H0のもとでは、次の式で示される分
散比Foが、自由度(1,n−2)のF分布に従う。Under the hypothesis H0, the dispersion ratio Fo expressed by the following equation follows the F distribution with the degree of freedom (1, n-2).
【0069】 Fo=VR/Ve ・・・(14) ただし、VR,Veは次の式で表される。Fo = VR / Ve (14) However, VR and Ve are represented by the following equations.
【0070】 VR=SR ・・・(15) Ve=Se/(n−2) ・・・(16) SR=Sxy2 /Sxx ・・・(17) Se=Syy−SR ・・・(18) なお、Sxx,Syy,Sxyは上記の式(7)〜
(9)と同様である。VR = SR (15) Ve = Se / (n−2) (16) SR = Sxy 2 / Sxx (17) Se = Syy-SR (18) Note that Sxx, Syy, and Sxy are expressed by the above equations (7) to
It is similar to (9).
【0071】従って、次の(19)式を満たすとき、有
意水準αで仮説H0を棄却する。 Fo≧F(1,n−2,α) ・・・(19) 検定の結果、計算した回帰直線が有意であればステップ
S410に進み、有意でなければステップS411に進
む。ステップS411では、得られた回帰直線は用い
ず、事前に得ている平均的な値の傾き及び切片を持つ回
帰直線を用いる。Therefore, when the following expression (19) is satisfied, the hypothesis H0 is rejected at the significance level α. Fo ≧ F (1, n−2, α) (19) If the calculated regression line is significant as a result of the test, the process proceeds to step S410, and if not significant, the process proceeds to step S411. In step S411, the obtained regression line is not used, but the regression line having the slope and intercept of the average value obtained in advance is used.
【0072】ステップS410において、図11に示す
ように、得られた回帰直線から危険な走行状態を意味す
る予め定められた平均横偏位量の基準値D(例えば1
m)に対する平均閉眼時間比Rを求め、平均閉眼時間比
Rを運転に危険な平均閉眼時間比として、計測開始から
の経過時間t、すなわち現在時刻における平均閉眼時間
比crnの危険な平均閉眼時間比Rに対する比率crn
/Rを求め、この比率crn/Rを覚醒レベルとする。
この比率crn/Rが1以上のときは覚醒レベルは危険
なレベルである。In step S410, as shown in FIG. 11, a reference value D (for example, 1) of a predetermined average lateral deviation amount, which means a dangerous traveling state, is obtained from the obtained regression line.
m), the average eye-closing time ratio R is calculated, and the average eye-closing time ratio R is used as an average eye-closing time ratio dangerous for driving. Ratio crn to ratio R
/ R is obtained, and this ratio crn / R is set as the awakening level.
When this ratio crn / R is 1 or more, the awakening level is a dangerous level.
【0073】なお、上記では危険な走行状態を意味する
平均横偏位量の基準値Dとして隣接車線にはみ出すこと
に相当する量である1mに設定したが、走行環境に応じ
て、この値を変更することも可能である。In the above description, the reference value D of the average lateral deviation amount, which means a dangerous traveling state, is set to 1 m, which is an amount corresponding to the protrusion to the adjacent lane, but this value is set according to the traveling environment. It is also possible to change.
【0074】ステップS411では、事前に蓄えられて
いる複数の運転者の特徴から得た平均的な値の傾き、及
び平均的な切片を持つ回帰直線を用いて、ステップS4
10と同様の処理を行う。In step S411, a regression line having an average intercept obtained from the characteristics of a plurality of drivers stored in advance and an average intercept is used, and step S4 is used.
The same process as 10 is performed.
【0075】ステップS412では、覚醒レベルを出力
する。ただし、t≦tdのときは、平常値を計測中であ
るので、覚醒レベルは出力しない。t>tdのときステ
ップS410またはステップS411で推定された覚醒
レベルの値を運転者の覚醒状態として、数値表示や、ラ
ンプの点滅速度等によって運転者に報知する。また、出
力された覚醒レベルを、音、振動、香り等によって運転
者を刺激する運転者の覚醒維持装置の入力として用いる
ことも可能である。In step S412, the awakening level is output. However, when t ≦ td, since the normal value is being measured, the awakening level is not output. When t> td, the value of the awakening level estimated in step S410 or step S411 is set as the awakening state of the driver, and the driver is notified by a numerical display, a blinking speed of a lamp, or the like. It is also possible to use the output awakening level as an input of the driver's awakening maintenance device that stimulates the driver with sound, vibration, scent, or the like.
【0076】ステップS413では、カウンタnを1増
加し、次の単位測定時間における覚醒度推定処理に移行
する。In step S413, the counter n is incremented by 1, and the process proceeds to the awakening level estimation process in the next unit measurement time.
【0077】なお、ステップS408において、回帰直
線を求める際、計測時間から一定時間以上経ても、計測
された平均閉眼時間cnが平常値coに対して変化する
ことがなく、覚醒度の低下が見られない場合は、単位計
測時間T毎に得られる平均閉眼時間cnと平均横偏位量
dnとを間引きして、回帰直線を求める演算に使用しな
いようにすることも可能である。この方法によって、さ
らに時間を経て、覚醒度に変化が現れた際に、回帰直線
を的確に求めることができる。In step S408, when the regression line is obtained, the measured average eye-closure time cn does not change from the normal value co even after a lapse of a certain time or more from the measurement time, and the awakening degree is decreased. If not, it is possible to thin out the average eye closing time cn and the average lateral deviation amount dn obtained for each unit measurement time T so that they are not used in the calculation for obtaining the regression line. By this method, the regression line can be accurately obtained when a change in the arousal level appears over time.
【0078】上記実施例で説明した画像処理によるまば
たき検出は運転者に装着しなくても良いため、運転者に
負担をかけないという点で望ましいが、運転者のまぶた
に電極を貼着して眼電位を測定し、眼電位波形から、ま
ぶたの開閉を検出する方法を用いることもできる。Since blink detection by the image processing described in the above embodiment does not have to be worn by the driver, it is desirable in that it does not burden the driver. However, the electrodes are attached to the eyelids of the driver. A method of measuring the electro-oculogram and detecting the opening and closing of the eyelids from the electro-oculogram waveform can also be used.
【0079】上記実施例では、まばたきパラメータ抽出
部において、まばたきパラメータとして閉眼時間を用い
た例を説明したが、本発明はこれに限定されることはな
く、まぶたが動いたときの振幅、まばたきの発生間隔時
間等を用いて覚醒度を推定することも可能である。In the above-described embodiment, an example in which the eye-closing time is used as the blink parameter in the blink parameter extraction unit has been described, but the present invention is not limited to this, and the amplitude when the eyelid moves and the blinking time. It is also possible to estimate the arousal level using the occurrence interval time and the like.
【0080】また,上記実施例の車両状態検出部におい
て、車両の状態量である横偏位量Yは、車速とハンドル
操舵量とに基づいて求めたが、車両に横加速度センサを
取付け、その出力値を2階積分しても求めてもよい。Further, in the vehicle state detecting section of the above-mentioned embodiment, the lateral displacement amount Y which is the state amount of the vehicle is obtained on the basis of the vehicle speed and the steering amount of the steering wheel. The output value may be obtained by second-order integration.
【0081】[0081]
【発明の効果】以上説明したように、請求項1、2の発
明によれば、計測開始時から個人の特徴を把握している
ので、事前に個人の特徴を学習させることなく、また、
その状況における個人差に応じた状態を自動車の運転作
業からそのまま得られたデータに基づいて得ているの
で、適切な覚醒度を検出することができる、という効果
がえられる。As described above, according to the inventions of claims 1 and 2, since the characteristics of the individual are grasped from the start of the measurement, without learning the characteristics of the individual in advance,
Since the state corresponding to the individual difference in that situation is obtained based on the data obtained as it is from the driving work of the automobile, it is possible to obtain an effect that an appropriate arousal level can be detected.
【図1】本実施例の基本的な構成を示すブロック図であ
る。FIG. 1 is a block diagram showing a basic configuration of this embodiment.
【図2】図1のまばたき検出部の詳細を示すブロック図
である。FIG. 2 is a block diagram showing details of a blink detection section in FIG.
【図3】図1のまばたきパラメータ抽出部の詳細を示す
ブロック図である。FIG. 3 is a block diagram showing details of a blink parameter extraction unit in FIG.
【図4】図1の車両状態抽出部の詳細を示すブロック図
である。FIG. 4 is a block diagram showing details of a vehicle state extraction unit in FIG.
【図5】まばたき検出部の処理ルーチンを示す流図であ
る。FIG. 5 is a flowchart showing a processing routine of a blink detection section.
【図6】(a)は目画像の原画像、(b)は原画像から
得られる1次元原画像、(c)は1次元原画像から得ら
れる1次元エッジ画像を各々示す線図である。6A is a diagram showing an original image of an eye image, FIG. 6B is a diagram showing a one-dimensional original image obtained from the original image, and FIG. 6C is a diagram showing a one-dimensional edge image obtained from the one-dimensional original image. .
【図7】平均閉眼時間と平均横偏位量との時間推移を示
す線図である。FIG. 7 is a diagram showing a time transition of an average eye closing time and an average lateral displacement amount.
【図8】平均閉眼時間と平均横偏位量との相関および一
次回帰直線を示す線図である。FIG. 8 is a diagram showing a correlation between an average eye closing time and an average lateral displacement amount and a linear regression line.
【図9】覚醒度検出部の処理ルーチンを示す流図であ
る。FIG. 9 is a flowchart showing a processing routine of an awakening degree detection unit.
【図10】(a)は運転開始から数分経過後(覚醒度が
高い状態)の平均閉眼時間の平常値に対する比と平均横
偏位量との相関を示す線図、(b)は覚醒度が低下傾向
にある状態の平均閉眼時間の平常値に対する比と平均横
偏位量との相関を示す線図、(c)は覚醒度が低下した
状態の平均閉眼時間の平常値に対する比と平均横偏位量
との相関を示す線図である。FIG. 10 (a) is a diagram showing the correlation between the ratio of the average eye closing time to the normal value and the average lateral deviation amount after a few minutes have passed since the start of driving (state of high arousal), and FIG. 10 (b) is awakening. Diagram showing the correlation between the ratio of the average eye closure time to the normal value and the average lateral deviation in a state where the degree of declining tends to decrease, and (c) is the ratio of the average eye closure time to the normal value when the arousal level is decreased. It is a diagram showing a correlation with the average lateral displacement amount.
【図11】平均閉眼時間と平均横偏位との相関から得ら
れた一次回帰直線を示す線図である。FIG. 11 is a diagram showing a linear regression line obtained from the correlation between the average eye closure time and the average lateral deviation.
【図12】(1)はフレームメモリに格納された顔画
像、(2)は顔の2値画像、(3)は目の輪郭の濃淡画
像、(4)は目の輪郭の2値画像を各々示す図である。12A is a face image stored in a frame memory; FIG. 12B is a binary image of a face; FIG. 12C is a gray image of an eye contour; It is a figure which each shows.
【図13】修正操舵量の抽出方法を説明するための線図
である。FIG. 13 is a diagram for explaining a method of extracting a corrected steering amount.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 石原 利員 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 中野 倫明 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 山本 新 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshihito Ishihara Aichi-gun Aichi-gun Nagakute-machi large character Nagatogi 1 41 of Yokomichi Toyota Central Research Institute Co., Ltd. 1 at 41 Central Road, Toyota Central Research Institute (72) Inventor Shin Yamamoto, Nagakute Town, Aichi District, Aichi Prefecture 1 at 41 Central Road, Toyota Central Research Center
Claims (2)
ータを抽出する抽出手段と、 目標走行軌跡からの車両の横偏位量を検出する横偏位量
検出手段と、 まばたきパラメータと横偏位量とに基づいてまばたきパ
ラメータと車両の横偏位量との相関関係を演算する演算
手段と、 演算された相関関係に基づいて運転者の覚醒度を検出す
る覚醒度検出手段と、 を含む運転者の覚醒度検出装置。1. Extraction means for extracting a blinking parameter from the movement of a driver's eyelid, lateral deviation amount detecting means for detecting a lateral deviation amount of a vehicle from a target travel locus, and blink parameter and lateral deviation amount. A driver that calculates the correlation between the blinking parameter and the lateral deviation amount of the vehicle based on the following, and an awakening degree detection unit that detects the driver's awakening degree based on the calculated correlation. Wakefulness detection device.
ータを抽出する抽出手段と、 目標走行軌跡からの車両の横偏位量を検出する横偏位量
検出手段と、 まばたきパラメータと車両の横偏位量とに基づいてまば
たきパラメータと車両の横偏位量との関係を表す回帰式
を演算する回帰式演算手段と、 前記回帰式が有意か否かを検定する有意性検定手段と、 有意と検定された回帰式に基づいて運転者の覚醒度を検
出する覚醒度検出手段と、 を含む運転者の覚醒度検出装置。2. An extracting means for extracting a blinking parameter from a driver's eyelid movement, a lateral deviation amount detecting means for detecting a lateral deviation amount of the vehicle from a target traveling locus, and a blinking parameter and a lateral deviation of the vehicle. Regression formula computing means for computing a regression formula representing the relationship between the blinking parameter and the lateral deviation amount of the vehicle based on the unit quantity, and a significance test means for testing whether or not the regression formula is significant, and A wakefulness detection device for the driver, comprising: a wakefulness detection means for detecting the wakefulness of the driver based on the tested regression equation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07031208A JP3127760B2 (en) | 1995-02-20 | 1995-02-20 | Driver arousal level detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07031208A JP3127760B2 (en) | 1995-02-20 | 1995-02-20 | Driver arousal level detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08225028A true JPH08225028A (en) | 1996-09-03 |
JP3127760B2 JP3127760B2 (en) | 2001-01-29 |
Family
ID=12325019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP07031208A Expired - Fee Related JP3127760B2 (en) | 1995-02-20 | 1995-02-20 | Driver arousal level detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3127760B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10111994A (en) * | 1996-10-09 | 1998-04-28 | Nissan Diesel Motor Co Ltd | Driving-asleep prevention system |
JP2002316580A (en) * | 2001-04-24 | 2002-10-29 | Murakami Corp | Mirror device with built-in camera |
JP2004089272A (en) * | 2002-08-29 | 2004-03-25 | Denso Corp | Method and device for biological state estimation, and program |
JP2005013626A (en) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | Awakefullness detector |
JP2005296349A (en) * | 2004-04-12 | 2005-10-27 | Nissan Motor Co Ltd | Upper eyelid detector |
JP2008165348A (en) * | 2006-12-27 | 2008-07-17 | Toyota Motor Corp | Unit and method for doze detection |
JP2008171065A (en) * | 2007-01-09 | 2008-07-24 | Denso Corp | Sleepiness detection device |
KR100905167B1 (en) * | 2001-11-08 | 2009-06-29 | 슬립 다이애그노틱스 피티와이 엘티디 | Alertness monitor |
JP2009240519A (en) * | 2008-03-31 | 2009-10-22 | Aisin Seiki Co Ltd | Eyelid opening level determination device and program |
JP2010273954A (en) * | 2009-05-29 | 2010-12-09 | Hamamatsu Photonics Kk | Blinking measuring apparatus and blinking measuring method |
JP4805358B2 (en) * | 2007-01-19 | 2011-11-02 | 旭化成株式会社 | Awake state determination model generation device, awake state determination device, and warning device |
JP2018184092A (en) * | 2017-04-26 | 2018-11-22 | 富士通株式会社 | Waveform estimation device, waveform estimation method, and waveform estimation program |
CN110366388A (en) * | 2017-02-22 | 2019-10-22 | 睛姿控股公司 | Information processing method, information processing unit and program |
US11407422B2 (en) | 2017-02-28 | 2022-08-09 | Panasonic Intellectual Property Management Co., Ltd. | Operation appropriateness determination system, method for determining operation appropriateness, and non-transitory computer readable medium storing program for determining operation appropriateness |
-
1995
- 1995-02-20 JP JP07031208A patent/JP3127760B2/en not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10111994A (en) * | 1996-10-09 | 1998-04-28 | Nissan Diesel Motor Co Ltd | Driving-asleep prevention system |
JP2002316580A (en) * | 2001-04-24 | 2002-10-29 | Murakami Corp | Mirror device with built-in camera |
WO2002090148A1 (en) * | 2001-04-24 | 2002-11-14 | Murakami Corporation | Camera-built-in mirror device |
KR100905167B1 (en) * | 2001-11-08 | 2009-06-29 | 슬립 다이애그노틱스 피티와이 엘티디 | Alertness monitor |
JP2004089272A (en) * | 2002-08-29 | 2004-03-25 | Denso Corp | Method and device for biological state estimation, and program |
JP2005013626A (en) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | Awakefullness detector |
JP2005296349A (en) * | 2004-04-12 | 2005-10-27 | Nissan Motor Co Ltd | Upper eyelid detector |
JP2008165348A (en) * | 2006-12-27 | 2008-07-17 | Toyota Motor Corp | Unit and method for doze detection |
JP4655035B2 (en) * | 2006-12-27 | 2011-03-23 | トヨタ自動車株式会社 | Dozing detection device, dozing detection method |
JP2008171065A (en) * | 2007-01-09 | 2008-07-24 | Denso Corp | Sleepiness detection device |
JP4805358B2 (en) * | 2007-01-19 | 2011-11-02 | 旭化成株式会社 | Awake state determination model generation device, awake state determination device, and warning device |
JP2009240519A (en) * | 2008-03-31 | 2009-10-22 | Aisin Seiki Co Ltd | Eyelid opening level determination device and program |
JP2010273954A (en) * | 2009-05-29 | 2010-12-09 | Hamamatsu Photonics Kk | Blinking measuring apparatus and blinking measuring method |
CN110366388A (en) * | 2017-02-22 | 2019-10-22 | 睛姿控股公司 | Information processing method, information processing unit and program |
US11407422B2 (en) | 2017-02-28 | 2022-08-09 | Panasonic Intellectual Property Management Co., Ltd. | Operation appropriateness determination system, method for determining operation appropriateness, and non-transitory computer readable medium storing program for determining operation appropriateness |
JP2018184092A (en) * | 2017-04-26 | 2018-11-22 | 富士通株式会社 | Waveform estimation device, waveform estimation method, and waveform estimation program |
Also Published As
Publication number | Publication date |
---|---|
JP3127760B2 (en) | 2001-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107427233B (en) | Pulse wave detection device and pulse wave detection program | |
CN107427242B (en) | Pulse wave detection device and pulse wave detection program | |
US8400313B2 (en) | Vehicle driver sleep state classification generating device based on Hidden Markov Model, sleep state classification device and warning device | |
Bergasa et al. | Real-time system for monitoring driver vigilance | |
JP3127760B2 (en) | Driver arousal level detection device | |
JP6387892B2 (en) | Sleepiness detection device | |
JP4864541B2 (en) | Blink data classification device, wakefulness determination device, and wakefulness determination device | |
JPH07249197A (en) | Detecting device for state of person | |
JP4677963B2 (en) | Dozing detection device, dozing detection method | |
Ghosh et al. | Real time eye detection and tracking method for driver assistance system | |
Liu et al. | Driver fatigue detection through pupil detection and yawing analysis | |
CN114648354A (en) | Advertisement evaluation method and system based on eye movement tracking and emotional state | |
JP2007229218A (en) | Apparatus, system, and method for vigilance estimation | |
Tang et al. | Real-time image-based driver fatigue detection and monitoring system for monitoring driver vigilance | |
JP3116638B2 (en) | Awake state detection device | |
JP6455761B2 (en) | Pulse wave detection device and pulse wave detection program | |
Hasan et al. | State-of-the-art analysis of modern drowsiness detection algorithms based on computer vision | |
Khan et al. | Efficient Car Alarming System for Fatigue Detectionduring Driving | |
CN111163687B (en) | Pulse wave detection device, vehicle device, and storage medium | |
Kajiwara | Driver-condition detection using a thermal imaging camera and neural networks | |
Sharma et al. | Development of a drowsiness warning system based on the fuzzy logic | |
Riztiane et al. | Driver drowsiness detection using visual information on android device | |
JP6344254B2 (en) | Sleepiness detection device | |
CN109620221B (en) | Fatigue reminding method and device based on intelligent glasses, intelligent glasses and medium | |
CN109657550A (en) | A kind of fatigue strength detection method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |