JP6399311B2 - Dozing detection device - Google Patents

Dozing detection device Download PDF

Info

Publication number
JP6399311B2
JP6399311B2 JP2015094709A JP2015094709A JP6399311B2 JP 6399311 B2 JP6399311 B2 JP 6399311B2 JP 2015094709 A JP2015094709 A JP 2015094709A JP 2015094709 A JP2015094709 A JP 2015094709A JP 6399311 B2 JP6399311 B2 JP 6399311B2
Authority
JP
Japan
Prior art keywords
time
series data
dozing
frame
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015094709A
Other languages
Japanese (ja)
Other versions
JP2016209231A (en
Inventor
久保田 整
整 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Co Ltd
Original Assignee
Suzuki Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Co Ltd filed Critical Suzuki Motor Co Ltd
Priority to JP2015094709A priority Critical patent/JP6399311B2/en
Priority to CN201610290794.9A priority patent/CN106108922B/en
Priority to DE102016108475.1A priority patent/DE102016108475A1/en
Publication of JP2016209231A publication Critical patent/JP2016209231A/en
Application granted granted Critical
Publication of JP6399311B2 publication Critical patent/JP6399311B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Dentistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Anesthesiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Mechanical Engineering (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)

Description

本発明は、居眠り検知装置、特に車両運転中における運転者の居眠りを検知し、居眠り運転を未然に防止するための装置に関する。   The present invention relates to a snoozing detection apparatus, and more particularly to an apparatus for detecting a driver's snoozing while driving a vehicle and preventing the snoozing operation.

居眠り運転の検知装置としては、運転者の顔をカメラで撮影し、画像から居眠り状態を判定する装置や、運転者の脈拍の変化から居眠り状態を判定する装置など、種々の居眠り運転検知装置が提案されている。   As a snooze driving detection device, there are various snoozing driving detection devices, such as a device that captures a driver's face with a camera and determines a snoozing state from an image or a device that determines a snoozing state from a change in a driver's pulse Proposed.

例えば、特許文献1には、運転者の開眼度の度数分布より極値を抽出し、極値の時間変化を検出することで運転者の状態変化を推定することが開示されている。この技術では、開眼時の極値と閉眼時の極値を抽出し、閉眼状態の極値が高くなる傾向にある場合に運転者が眠気を催していると判定するようにしている。   For example, Patent Document 1 discloses that an extreme value is extracted from a frequency distribution of the driver's eye opening degree, and a change in the state of the driver is estimated by detecting a temporal change in the extreme value. In this technique, an extreme value at the time of opening the eye and an extreme value at the time of closing the eye are extracted, and it is determined that the driver is drowsy when the extreme value in the closed eye state tends to be high.

しかし、上記技術では、例えば、瞬きを連続的に繰り返す場合のような、閉眼状態と開眼状態が短時間のうちに繰り返される場合にも、閉眼状態の極値が高くなっていると誤判定してしまう問題がある。また、外乱光によって一時的に検出が途切れる場合もあり、連続的に計測が継続されるとは限らない。   However, the above technique erroneously determines that the extreme value of the closed eye state is high even when the closed eye state and the open eye state are repeated in a short time, for example, when blinking is repeated continuously. There is a problem. In addition, detection may be temporarily interrupted by disturbance light, and measurement is not always continued.

さらに、一定の計測時間における頻度分布から閉眼状態を判定しているため、計測時間の経過後でなければ閉眼状態を検出できない問題もある。すなわち、計測時間内のどの時点で閉眼状態に移行したか特定できず、実際に閉眼状態に移行した時刻と閉眼状態を検出した時刻に時間差が生じ、遅れが発生する虞がある。   Furthermore, since the closed eye state is determined from the frequency distribution in a fixed measurement time, there is a problem that the closed eye state cannot be detected unless the measurement time has elapsed. That is, it is not possible to specify at which point in the measurement time the eye-closed state is shifted, and there is a possibility that a time difference occurs between the time when the eye-closed state is actually moved and the time when the eye-closed state is detected, resulting in a delay.

一方、特許文献2では、瞬きや外乱光の影響をノイズとして排除するために閾値を用いているが、閉眼状態を判定する際に閾値を用いると、閾値の定義に起因した誤差は避けられない。そもそも、目の大きさには個人差があり、表情や姿勢を始め、様々な要因に影響されるので、閾値を設定すること自体が難しい。   On the other hand, in Patent Document 2, a threshold is used to eliminate the influence of blinking or disturbance light as noise. However, if a threshold is used when determining the closed eye state, an error due to the definition of the threshold is inevitable. . In the first place, there are individual differences in the size of the eyes, and since it is influenced by various factors such as facial expressions and postures, it is difficult to set the threshold itself.

時開2008−99884号公報Tokukai 2008-99884 特開2010−184067号公報JP 2010-184067 A

本発明は、上記のような実状に鑑みてなされたものであって、その目的は、居眠り検知装置において、瞬きや外乱光などの影響を排除し、検出精度および応答性を向上させることにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to eliminate the influence of blinking, disturbance light, and the like, and improve detection accuracy and responsiveness in the dozing detection device. .

上記課題を解決するため、本発明に係る居眠り検知装置は、
対象者の両眼画像から瞼開度を検出する手段と、
前記瞼開度を所定フレームレートで時系列データとして記録する手段と、
前記時系列データの最新フレームを含む連続した所定数の検知対象フレームを先行グループと後続グループに区分する境界フレームであって、前記先行グループの時系列データと前記後続グループの時系列データとの分離度が最大となるような境界フレームを閉眼開始時刻として抽出する居眠り判定手段と、を備えた。
In order to solve the above problems, a dozing detection device according to the present invention is
Means for detecting eyelid opening from the binocular image of the subject;
Means for recording the heel opening as time-series data at a predetermined frame rate;
A boundary frame that divides a predetermined number of consecutive detection target frames including the latest frame of the time series data into a preceding group and a succeeding group, and separating the time series data of the preceding group and the time series data of the succeeding group And a doze determination unit that extracts a boundary frame having the maximum degree as the eye-closing start time.

上記構成によれば、居眠り検知装置の通常の実施において、検知開始直後に居眠りが始まることはないので、開始直後は、瞼開度が検知対象フレーム全体で開眼レベルにあり、先行グループと後続グループの分離度はごく小さい値をとり続けるが、居眠りの傾向が表れると、後続グループに瞼開度の低いレベルが出現し分離度が上昇する。したがって、連続した時系列データから直接的に前後の変化点を検出でき、検出精度および応答性を向上する上で有利である。   According to the above configuration, in normal implementation of the dozing detection device, since dozing does not start immediately after the start of detection, immediately after the start, the eyelid opening is at the open eye level in the entire detection target frame, and the preceding group and the subsequent group The segregation degree continues to take a very small value, but if a tendency to fall asleep appears, a low level of heel opening appears in the succeeding group, and the segregation degree increases. Therefore, the change points before and after can be directly detected from continuous time-series data, which is advantageous in improving detection accuracy and responsiveness.

しかも、瞬きのような短時間の変化や外乱光によるデータの欠落では分離度は殆ど変化しないことに加えて、眼の大きさや開き具合などの個人差や、姿勢変化、顔の傾け動作などで画像に取得される大きさの違いが生じても、それらは先行グループのデータとして時系列で記録される時点で予め考慮されるので、それらを排除するための処理手順や前処理が不要であり、処理や装置を簡素化できるとともに、誤検出を防止する上で有利である。   In addition to short-term changes such as blinking or lack of data due to ambient light, the degree of separation hardly changes, and individual differences such as eye size and opening, posture changes, face tilting movements, etc. Even if there is a difference in the size acquired in the images, they are considered in advance when they are recorded in time series as the data of the preceding group, so there is no need for a processing procedure or pre-processing to eliminate them. In addition to simplifying the processing and the apparatus, it is advantageous in preventing erroneous detection.

本発明の好適な態様では、前記居眠り判定手段は、前記所定数の検知対象フレームの全フレームについて、各フレームが境界フレームであるものとして、前記先行グループの時系列データと前記後続グループの時系列データとの間の分離度として分散を求め、前記分散が最大となる境界フレームを閉眼開始時刻として抽出するように構成されている。この態様によれば、先行グレープと後続グループの分離度の判定に、各グループにフレーム数の重み付けがなされるので、瞬きなどの一時的かつ散発的な変動による影響を排除して安定的な居眠り検知を行う上で有利である。   In a preferred aspect of the present invention, the doze determination unit assumes that, for all the frames of the predetermined number of detection target frames, each frame is a boundary frame, and the time series data of the preceding group and the time series of the subsequent group Variance is obtained as a degree of separation from data, and a boundary frame that maximizes the variance is extracted as a closed eye start time. According to this aspect, the number of frames is weighted for each group in determining the degree of separation between the preceding grape and the succeeding group, so that the influence of temporary and sporadic fluctuations such as blinking is eliminated and stable doze is achieved. This is advantageous for detection.

本発明に係る居眠り検知装置は、
対象者の両眼画像から瞼開度を検出するステップと、
前記瞼開度を所定フレームレートで時系列データとして記録するステップと、
前記時系列データの記録手段から、最新フレームを含む連続した所定数の検知対象フレームの時系列データを読み込むステップと、
前記所定数の検知対象フレームの全フレームについて、各フレームが境界フレームであるものとして、前記の検知対象フレームの時系列データを先行グループと後続グループに区分し、前記先行グループの時系列データと前記後続グループの時系列データとの間の分離度を算出するステップと、
前記各先行グループと後続グループの時系列データの分離度が最大となる境界フレームを閉眼開始時刻として抽出するステップと、
を実行可能な演算処理装置(コンピュータ)を備えることによっても実施可能である。
The dozing detection device according to the present invention is
Detecting eyelid opening from the binocular image of the subject;
Recording the heel opening as time-series data at a predetermined frame rate;
Reading time-series data of a predetermined number of consecutive detection target frames including the latest frame from the time-series data recording means;
For all frames of the predetermined number of detection target frames, assuming that each frame is a boundary frame, the time series data of the detection target frame is divided into a preceding group and a subsequent group, and the time series data of the preceding group and the Calculating a degree of separation between time-series data of subsequent groups;
Extracting a boundary frame having a maximum degree of separation between the time-series data of each preceding group and the succeeding group as a closed eye start time;
The present invention can also be implemented by providing an arithmetic processing device (computer) that can execute the above.

また、本発明のさらに好適な態様では、前記所定数の検知対象フレームのフレーム数N、前記先行グループの時系列データの平均値μ1、前記後続グループの時系列データの平均値μ2、前記境界フレームkにおける分離度ηkは、次式
ηk=(μ1−μ2)
(但し、μ2>μ1ならば、ηk=0)
から算出されるように構成されている。この態様によれば、検出精度を維持しつつ計算および処理を簡素化できる利点がある。
In a further preferred aspect of the present invention, the number N of the predetermined number of detection target frames, the average value μ1 of the time series data of the preceding group, the average value μ2 of the time series data of the subsequent group, the boundary frame The degree of separation ηk at k is given by: ηk = (μ1−μ2) 2
(However, if μ2> μ1, ηk = 0)
It is comprised so that it may calculate from. According to this aspect, there is an advantage that calculation and processing can be simplified while maintaining detection accuracy.

本発明の好適な態様では、前記居眠り判定手段は、前記閉眼開始時刻を検出後、所定時間閉眼状態が経過した後に居眠り判定するように構成されている。この態様によれば、所定時間を、居眠り検出装置の使用目的に応じて許容され得る時間に設定することで、当該使用目的に影響を与えないレベルの閉眼動作を排除することができる。   In a preferred aspect of the present invention, the dozing determination unit is configured to determine dozing after the eye-closed state has elapsed for a predetermined time after detecting the eye-closing start time. According to this aspect, by setting the predetermined time to a time that can be allowed according to the purpose of use of the dozing detection device, it is possible to eliminate the eye-closing operation at a level that does not affect the purpose of use.

本発明に係る居眠り検知装置は、車両の居眠り運転防止システムとして実施するのに好適である。例えば、前記対象者が車両の運転者であり、前記居眠り判定手段による居眠り判定時に、前記運転者への警報または前記車両への制御信号が出力されるように構成されている。   The dozing detection device according to the present invention is suitable to be implemented as a vehicle dozing driving prevention system. For example, the target person is a driver of a vehicle, and an alarm to the driver or a control signal to the vehicle is output when the doze determination unit performs the doze determination.

本発明に係る居眠り検知装置の実施形態を示すブロック図である。It is a block diagram which shows embodiment of the dozing detection apparatus which concerns on this invention. 本発明に係る居眠り検知装置が実施される車両を示す概略図である。It is the schematic which shows the vehicle by which the dozing detection apparatus which concerns on this invention is implemented. 瞼開度の検出を示す概略図である。It is the schematic which shows the detection of the eaves opening degree. 本発明に係る居眠り検知装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the dozing detection apparatus which concerns on this invention. 瞼開度の経時的変化を示すグラフである。It is a graph which shows a time-dependent change of the eaves opening degree. 本発明に係る居眠り検知装置における閉眼開始時刻の検出プロセスを示すフローチャートである。It is a flowchart which shows the detection process of the eye closure start time in the dozing detection apparatus which concerns on this invention. クラス分離度と閉眼開始時刻の検出を示すグラフである。It is a graph which shows the detection of a class separation degree and eye closure start time. 姿勢が変化した場合における瞼開度の経時的変化を示すグラフである。It is a graph which shows a time-dependent change of the eyelid opening degree when a posture changes. 時系列(a)〜(d)における瞼開度の経時的変化を示すグラフ(左側)および分離度の経時的変化を示すグラフ(右側)である。It is the graph (left side) which shows the time-dependent change of the eyelid opening in time series (a)-(d), and the graph (right side) which shows the time-dependent change of a separation degree.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
図2は、本発明に係る居眠り検知装置1を居眠り運転防止システムとして実施した車両4の概略を示しており、図において、居眠り運転防止システムは、居眠り検知装置1、車両情報検出手段20、カメラ21、および、警報装置22等から構成されており、カメラ21に撮影される画像から、運転者30の瞼開度を経時的に検出し、運転者30が居眠り状態に移行しつつあると判断された場合に、警報装置22を通じて運転者30に覚醒を促す等の防止策を実行するものである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 2 shows an outline of a vehicle 4 in which the dozing detection device 1 according to the present invention is implemented as a dozing operation prevention system. In the figure, the dozing operation prevention system includes a dozing detection device 1, vehicle information detection means 20, and a camera. 21 and the alarm device 22, etc., and from the image taken by the camera 21, the driver's 30 eyelid opening is detected over time, and it is determined that the driver 30 is shifting to the dozing state. In such a case, a preventive measure such as urging the driver 30 to wake up through the alarm device 22 is executed.

車両情報検出手段20は、車両各部のセンサ出力を有線または無線信号として取得するものであり、例えば、車速、ハンドル操舵角、アクセル開度、ブレーキスイッチ、ウィンカースイッチの操作状態などの車両情報を無線信号として取得する車載ネットワーク(CAN)が好適に用いられる。   The vehicle information detection means 20 acquires the sensor output of each part of the vehicle as a wired or wireless signal, and wirelessly transmits vehicle information such as the vehicle speed, steering wheel steering angle, accelerator opening, brake switch, blinker switch operation state, etc. A vehicle-mounted network (CAN) acquired as a signal is preferably used.

カメラ21は、運転者30の少なくとも両眼部分を撮影できるように、運転者30の顔に向けて、インストルメントパネルやコラムカバーに設置され、CCDやCMOSなどの固体撮像素子を用いたデジタルカメラが好適に用いられる。   The camera 21 is installed on an instrument panel or a column cover facing the driver 30 so that at least both eyes of the driver 30 can be photographed, and is a digital camera using a solid-state image sensor such as a CCD or CMOS. Are preferably used.

居眠り検知装置1は、図1に示すように、車両情報記録部10、画像記録部11、瞼開度検出部12、時系列データ記録部13、クラス分離度算出部14、閉眼開始時刻検出部15、閉眼終了時刻検出部16、居眠り状態判定部17、信号出力部18から主に構成されている。   As shown in FIG. 1, the dozing detection device 1 includes a vehicle information recording unit 10, an image recording unit 11, a eyelid opening degree detection unit 12, a time series data recording unit 13, a class separation degree calculation unit 14, and an eye closure start time detection unit. 15, a closed eye end time detection unit 16, a dozing state determination unit 17, and a signal output unit 18.

これらは、好適には、それぞれの機能を実行するように動作可能なプログラムおよびデータを格納するROM、演算処理を行うCPU、前記プログラムが読み出され前記CPUの作業領域および演算結果の一時記憶領域となるRAM、入力側外部機器(20,21)が接続される入力インターフェース、出力側外部機器(22)が接続される出力インターフェースなどからなるコンピュータで構成される。   These are preferably a ROM for storing a program and data operable to execute each function, a CPU for performing arithmetic processing, a work area of the CPU from which the program is read, and a temporary storage area for arithmetic results And a computer comprising an input interface to which input side external devices (20, 21) are connected, an output interface to which output side external devices (22) are connected, and the like.

以下、居眠り検知装置1の各部の動作について、図1のブロック図および図4のフローチャートを参照しながら詳細に説明する。   Hereinafter, the operation of each unit of the dozing detection device 1 will be described in detail with reference to the block diagram of FIG. 1 and the flowchart of FIG. 4.

車両情報記録部10は、車両情報検出手段20を通じて取得される車両情報を記録し、例えば、車速がゼロの場合は停車中と見做し、ハンドル操舵角、アクセル開度、ブレーキスイッチ、ウィンカースイッチ等の操作が検出されている場合は、運転者30は覚醒中と見做して居眠り検知装置1を不作用とする(S101)。また、車速に応じて後述の居眠り状態判定における継続時間を変更することもできる。   The vehicle information recording unit 10 records the vehicle information acquired through the vehicle information detection means 20, for example, when the vehicle speed is zero, the vehicle information recording unit 10 considers that the vehicle is stopped, the steering wheel steering angle, the accelerator opening, the brake switch, the winker switch When an operation such as this is detected, the driver 30 assumes that he is awake and makes the dozing detection device 1 inactive (S101). Moreover, the duration in the dozing state determination described later can be changed according to the vehicle speed.

画像記録部11は、カメラ21を通じて取得される画像を所定のフレームレートで時系列データとして記録する(S102)。後述する居眠り判定に必要なフレーム数のデータが一時的に保持され順次更新される方式でも良いし、所定の記憶容量まで記憶された後に順次上書きされる方式でも良い。   The image recording unit 11 records an image acquired through the camera 21 as time-series data at a predetermined frame rate (S102). A method of temporarily holding and sequentially updating data of the number of frames necessary for doze determination, which will be described later, or a method of sequentially overwriting after storing up to a predetermined storage capacity may be used.

瞼開度検出部12は、記録された画像を処理して瞼開度を求める画像処理を行う(S103)。瞼開度を求める画像処理手順は、画像処理および画像認識に係る公知の技術を利用できる。例えば、図3に示されるような両眼2L,2Rの画像を二値化すると、瞼のラインと瞳部分は黒色画素となる。そこで、得られた二値画像において、両眼2L,2Rを上下に横切る各画素列における黒色画素数の最大値は、左右の瞳の中央の上下方向幅に対応し、瞼開度O,Oとなる。 The eyelid opening degree detection unit 12 performs image processing for processing the recorded image to obtain the eyelid opening degree (S103). The image processing procedure for obtaining the eyelid opening can use a known technique related to image processing and image recognition. For example, when the images of both eyes 2L and 2R as shown in FIG. 3 are binarized, the eyelid line and the pupil portion become black pixels. Therefore, in the binary image obtained, the maximum value of the number of black pixels in each pixel row across both eyes 2L, the 2R vertically corresponds to the vertical center of the width of the left and right pupils, eyelid opening O L, the O R.

なお、記録開始直後(運転開始直後)は、図中3´で示されるような覚醒状態にあると見做せるので、この場合の瞼開度(OLMAX,ORMAX)に対する割合を瞼開度O,O(%)としても良いが、本発明では、後述のように、開眼状態と閉眼状態の分離度を検出するため、瞼開度の絶対値やそれを基準とした瞼開度自体を求める必要はなく、黒色画素数の最大値をそのまま瞼開度O,Oとして用いることができる。また、左右の瞼開度O,Oの平均値を採用しても良いし、何れか一方が開眼状態にあればよいという観点から、左右のうち大きい方の値を採用することもできる。逆に、左右のうち小さい方の値を採用しても良い。 It should be noted that immediately after the start of recording (immediately after the start of operation), it can be considered that the state is awakened as indicated by 3 'in the figure, so the ratio of the opening degree ( OLMAX , ORMAX ) in this case is set as the opening degree O L, O R (%) also good as, in the present invention, as described below, for detecting the degree of separation of open-eye state and the closed-eye state, eyelid opening was absolute value and relative to that of eyelid opening it is not necessary to seek itself, it can be used the maximum number of black pixels as eyelid opening O L, as O R. Further, left and right eyelid opening O L, may be adopted an average value of O R, from the viewpoint of either one may be in the open-eye state, it may be employed the larger of the left and right . Conversely, the smaller value of the left and right may be adopted.

時系列データ記録部13は、瞼開度検出部12で求めた瞼開度O,Oを所定のフレームレートで時系列データとして記録する(S104)。フレームレートは、特に限定されるものではないが、瞬き動作の特性を考慮して10〜30フレーム/秒が好適である。フレームレートが高過ぎると、装置への負荷が増大し、必要な処理速度を確保するのに必要な装置コストが増大することになる。 Time series data recording unit 13 records eyelid opening O L obtained in eyelid opening detector 12, the O R as time series data at a predetermined frame rate (S104). The frame rate is not particularly limited, but is preferably 10 to 30 frames / second in consideration of the characteristics of blinking operation. If the frame rate is too high, the load on the device increases, and the device cost required to ensure the required processing speed increases.

また、時系列データ記録部13では、居眠り状態を判定するために必要な最小限のフレーム数だけデータが保持され、それより過去のデータは順次消去され、現在フレームのデータが新たに追加される。それにより、過去一定時間分の時系列データを絶えず更新しながら保持するよう動作する。   Further, the time-series data recording unit 13 holds data for the minimum number of frames necessary for determining the drowsiness state, the past data is sequentially deleted, and the data of the current frame is newly added. . As a result, the time series data for the past fixed time is operated so as to be constantly updated.

図5は、瞼開度の時系列データの一例を示すグラフであり、現在時刻を基準に−10〜−3秒付近では、瞼開度が90%前後の開眼状態であり、瞬きによる瞬間的な瞼開度の低下や外乱光などによる一時的なデータの欠落が見られる。このような開眼状態から、−3秒以降では、閉眼状態に大きく変化している。   FIG. 5 is a graph showing an example of time-series data of eyelid opening, and the eyelid opening is about 90% in the vicinity of −10 to −3 seconds with reference to the current time. There is a temporary loss of data due to a drastic drop in dredging and ambient light. From such an open eye state, it has changed greatly to a closed eye state after -3 seconds.

後に詳述するが、車速などを考慮して、閉眼状態が2秒以上継続する場合を分離度から検知するためには、その少なくとも2倍の4秒分の時系列データが保持されることが好ましい。本実施形態では、確実な検出が行えるように、5秒分の時系列データが保持される場合を想定し、30フレーム/秒のフレームレートにおいてN=150フレームの時系列データが保持される。   As will be described later in detail, in order to detect from the degree of separation when the closed-eye state continues for 2 seconds or more in consideration of the vehicle speed or the like, at least twice that time series data for 4 seconds may be held. preferable. In the present embodiment, assuming that time series data for 5 seconds is held so that reliable detection can be performed, time series data of N = 150 frames is held at a frame rate of 30 frames / second.

クラス分離度算出部14は、上記のように取得されたNフレーム分の時系列データを、図7に示すように、先行グループC1と後続グループC2に区分し、先行グループC1の時系列データと後続グループC2の時系列データの分離度を算出し、この分離度が最大となる境界値を求める(S105)。基本的に、運転開始時には、運転者30は覚醒していると見做せるので、検知開始当初は、先行グループC1には瞼開度が高い開眼状態クラスの時系列データが記録されており、居眠りが検知される場合には、後続グループに瞼開度が低い閉眼状態クラスの時系列データが出現することになる。   The class separation degree calculation unit 14 divides the time series data for N frames acquired as described above into a preceding group C1 and a succeeding group C2, as shown in FIG. The degree of separation of the time series data of the subsequent group C2 is calculated, and a boundary value at which this degree of separation is maximized is obtained (S105). Basically, at the start of driving, it can be considered that the driver 30 is awake. Therefore, at the beginning of detection, time series data of an eye-opening state class with a high eyelid opening degree is recorded in the preceding group C1, When dozing is detected, time-series data of a closed eye state class with a low eyelid opening degree appears in the subsequent group.

2つのクラス間の分離度は、クラス間分散σ と全分散σ の比ηとして次式により求めることができる。
η=σ /σ =ωω(μ1−μ2)/(ω十ωσ
ここで、μ1,μ2は各クラスの平均値、ω,ωは各クラスのデータ数である。
The degree of separation between the two classes can be obtained by the following equation as the ratio η between the interclass variance σ B 2 and the total variance σ T 2 .
η = σ B 2 / σ T 2 = ω 1 ω 2 (μ1-μ2) 2 / (ω 1 ten ω 2 ) 2 σ T 2
Here, μ1 and μ2 are average values of each class, and ω 1 and ω 2 are the number of data of each class.

この分離度ηが最大となるようなクラス間の境界値を求めることにより、開眼状態クラスから閉眼状態クラスへの変化点を特定することができる。このとき、全分散σ は個々のデータに対して一定値であるため、クラス間分散σ における各クラスの平均値μ1,μ2の差の二乗が最大となる境界値を求めればよい。 By obtaining a boundary value between classes that maximizes the degree of separation η, it is possible to specify the change point from the open eye state class to the closed eye state class. At this time, since the total variance σ T 2 is a constant value with respect to individual data, a boundary value that maximizes the square of the difference between the average values μ 1 and μ 2 of each class in the inter-class variance σ B 2 may be obtained. .

具体的に、クラス分離度算出部14は、検出対象とするNフレームを先行グループC1と後続グループC2に区分する境界フレームkが0〜Nの各フレームである場合について、先行グループC1の時系列データと後続グループC2の時系列データの分離度ηを算出し、分離度ηが最大となる境界フレームkを閉眼開始時刻とする。   Specifically, the class separation degree calculation unit 14 determines the time series of the preceding group C1 when the boundary frame k that divides the N frames to be detected into the preceding group C1 and the succeeding group C2 is each frame of 0 to N. The degree of separation η between the data and the time-series data of the subsequent group C2 is calculated, and the boundary frame k that maximizes the degree of separation η is set as the eye closure start time.

閉眼開始時刻検出部15は、クラス分離度算出部14によって求められた閉眼開始時刻(開始フレーム)からの時間経過を計測する(S106)。居眠り状態判定部17では、分離度ηの最大値が、車速に応じて設定される所定時間(所定フレーム)以上に亘って継続的に検出された場合に、居眠りが発生したものと判定する(S109)。   The closed eye start time detection unit 15 measures the passage of time from the closed eye start time (start frame) obtained by the class separation degree calculation unit 14 (S106). The dozing state determination unit 17 determines that dozing has occurred when the maximum value of the separation degree η is continuously detected over a predetermined time (predetermined frame) set in accordance with the vehicle speed ( S109).

なお、閉眼開始時刻検出部15が閉眼開始時刻(開始フレーム)を検出した後に、閉眼状態クラスから開眼状態クラスへの変化点が、閉眼終了時刻検出部16によって検出された場合には(S107)、その間の所要時間を算出し(S108)、居眠りが発生したものと判定する(S109)。   In the case where the closing point from the closed eye state class to the open eye state class is detected by the closed eye end time detecting unit 16 after the closed eye start time detecting unit 15 detects the closed eye start time (start frame) (S107). Then, the required time is calculated (S108), and it is determined that a drowsiness has occurred (S109).

信号出力部18では、居眠り状態判定部17で居眠り状態が判定された場合、車両情報記録部10に取得されている現在の車両情報を参照し(S110)、車両が走行中であって、ハンドル、アクセル、ブレーキ、ウィンカー等の操作が行われていない場合には、警報装置22に制御信号を出力し(S111)、運転者に覚醒を促すための警報を発する。同時に、車両の表示部に警告表示を行っても良いし、車両を自動停車させる等の処理を実行しても良い。一方、車両情報から運転中であると判断される場合には、制御信号は出力しない。   In the signal output unit 18, when the dozing state is determined by the dozing state determination unit 17, the current vehicle information acquired in the vehicle information recording unit 10 is referred to (S110). When the accelerator, the brake, the blinker, etc. are not operated, a control signal is output to the alarm device 22 (S111), and an alarm for prompting the driver to wake up is issued. At the same time, a warning may be displayed on the display unit of the vehicle, or a process such as automatically stopping the vehicle may be executed. On the other hand, when it is determined from the vehicle information that the vehicle is driving, no control signal is output.

次に、時系列データから閉眼開始時刻を検出するプロセスの具体例について、図6のフローチャートおよび図7のグラフを参照しながら説明する。   Next, a specific example of the process of detecting the eye closure start time from the time series data will be described with reference to the flowchart of FIG. 6 and the graph of FIG.

先ず、時系列データ記録部13に記録されている一定フレーム数(0〜N)の瞼開度データを読み出す(S201)。ここで、居眠り状態を2秒以上とし、その居眠り状態を検出するために、30フレーム/秒のフレームレートにおいて5秒に相当するフレーム数(N=150)のデータが読み出される。なお、図示例では、現在のフレーム番号を0とし、過去に遡るに従ってフレーム番号が大きくなるようにしているが、時刻とフレーム番号の対応が取れれば、最も古いフレーム番号を0としてもよい。   First, the eyelid opening degree data of a certain number of frames (0 to N) recorded in the time series data recording unit 13 is read (S201). Here, the dozing state is set to 2 seconds or more, and in order to detect the dozing state, data of the number of frames (N = 150) corresponding to 5 seconds is read at a frame rate of 30 frames / second. In the illustrated example, the current frame number is set to 0, and the frame number is increased as going back in the past. However, the oldest frame number may be set to 0 as long as the correspondence between the time and the frame number is obtained.

次に、先行グループC1(開眼状態クラス)と後続グループC2(閉眼状態クラス)との境界フレームに対応する計算用フラグkを初期化する(S202)。   Next, a calculation flag k corresponding to a boundary frame between the preceding group C1 (open eye state class) and the subsequent group C2 (closed eye state class) is initialized (S202).

次いで、後続グループC2(0〜k)の範囲の瞼閉度データの平均値μ2を計算し(S203)、先行グループC1(k十1〜N)の範囲の瞼開度データの平均値μ1を計算する(S204)。   Next, the average value μ2 of the eyelid closure degree data in the range of the subsequent group C2 (0 to k) is calculated (S203), and the average value μ1 of the eyelid opening degree data in the range of the preceding group C1 (k + 11 to N) is calculated. Calculate (S204).

境界フレームに対応する計算フラグkにおける分離度ηkを次式により計算し、記録する(S205)。
ηk=(μ1−μ2)
但し、μ2>μ1ならば、ηk=0
The degree of separation ηk in the calculation flag k corresponding to the boundary frame is calculated by the following equation and recorded (S205).
ηk = (μ1−μ2) 2
However, if μ2> μ1, ηk = 0

境界フレームに対応する計算フラグkの値をカウントアップする(S206)。   The value of the calculation flag k corresponding to the boundary frame is counted up (S206).

境界フレームに対応する計算フラグkの値がNに達したか判定し(S207)、計算フラグkの値がNに達していない場合は、ステップ(S203)に戻り、ステップ(S206)までのループ処理を繰り返す。   It is determined whether the value of the calculation flag k corresponding to the boundary frame has reached N (S207). If the value of the calculation flag k has not reached N, the process returns to step (S203), and the loop up to step (S206) Repeat the process.

境界フレームに対応する計算フラグkの値がNに達した場合は、ループ処理を終了し、ループ処理で求めた分離度η1〜ηN−1の中から、分離度が最大となる境界フレームkmaxを決定する(S208)。   When the value of the calculation flag k corresponding to the boundary frame reaches N, the loop process is terminated, and the boundary frame kmax having the maximum degree of separation is selected from the degrees of separation η1 to ηN−1 obtained by the loop process. Determine (S208).

境界フレームkmaxを閉眼開始時刻として出力する(S209)。   The boundary frame kmax is output as the eye closure start time (S209).

(顔向きが上下に変化した場合への対応)
次に、図8は、顔向きが上下に変化した場合における瞼開度の経時的変化を示している。運転者30の顔向きが上向きまたは下向きになった場合、図3の画像は見かけ上、眼が細くなったように映るので、瞼開度検出部12に検出される瞼開度O,Oは、初期状態における瞼開度(OLMAX,ORMAX)に比べて全体的に低い値となる。
(Responding to changes in face orientation)
Next, FIG. 8 shows the change over time of the eyelid opening when the face orientation changes up and down. When the face orientation of the driver 30 is turned upward or downward, the apparent image of FIG. 3, since the reflected as eye narrowed, eyelid opening O L which is detected eyelid opening detector 12, O R is generally lower than the heel opening ( OLMAX , ORMAX ) in the initial state.

しかし、本発明に係る居眠り検知装置1では、瞼開度O,O自体を閾値判定することなく、先行グループC1と後続グループC2の分離度を求めることによって、直接的に閉眼開始時刻(境界フレームk)を検出できるため、顔向きが上下に変化した場合は勿論、運転者が交代した場合に個人差が生じても、パラメータ調整やキャリブレーション等を必要としない。 However, the doze detecting device 1 according to the invention, the eyelid opening O L, O R itself without determining threshold, by obtaining a predecessor group C1 separation of the subsequent group C2, directly closed eyes start time ( Since the boundary frame k) can be detected, parameter adjustment and calibration are not required even if individual differences occur when the driver changes, as well as when the face orientation changes up and down.

(閉眼開始時刻の検出、居眠り判定例)
図9の(a)〜(d)の左側4段のグラフは、それぞれ1秒(30フレーム)ずつの時間差で推移する瞼開度の経時的変化を示しており、以下、閉眼開始時刻の検出および居眠り判定結果例について図面を参照しながら説明する。
(Detection of eye closure start time, doze determination example)
The graphs on the left side of FIGS. 9A to 9D show the temporal changes in eyelid opening that change with a time difference of 1 second (30 frames), respectively. An example of a doze determination result will be described with reference to the drawings.

先ず、図9(a)では、瞬きによる瞬間的な閉眼状態や外乱光によるデータ欠落を経過しながらも、それらは分離度には有意な影響を与えるには至らず、開眼状態が継続しているが、時刻Aにおいて瞼開度が下がり、分離度が最大となる。この時、時刻Aが閉眼開始時刻とされるものの、後続の図から明らかなように、その後に時刻Aが最大分難度でなくなった時点で、閉眼開始時刻から除外されることになる。   First, in FIG. 9 (a), although the eye-closed state due to blinking and data loss due to ambient light have passed, they do not significantly affect the degree of separation and the eye-open state continues. However, at time A, the heel opening decreases and the degree of separation becomes maximum. At this time, although the time A is set as the eye closing start time, as is apparent from the subsequent drawings, the time A is excluded from the eye closing start time when the time A is no longer at the maximum difficulty level thereafter.

一方、図9(b)では、時刻Bにおいて分難度が最大となり、閉眼開始時刻とされ、後続の図9(c)および(d)においても、時刻Bの最大分難度が継続しており、(d)では所定時間(2秒)の閉眼状態の継続をもって居眠り状態であると判定される。   On the other hand, in FIG. 9B, the degree of difficulty is maximized at time B and is the eye closure start time, and in the subsequent FIGS. 9C and 9D, the maximum degree of difficulty at time B continues. In (d), it is determined that the patient is in a dozing state by continuing the closed eye state for a predetermined time (2 seconds).

なお、上記実施形態では、分離度ηが最大となるようなクラス間の境界値として、各クラスの平均値μ1,μ2の差の二乗が最大となる境界値を求めることにより、開眼状態クラスから閉眼状態クラスへの変化点を特定する場合について述べたが、各クラスの平均値μ1,μ2の差の絶対値が最大となる境界値を求めることにより、開眼状態クラスから閉眼状態クラスへの変化点を特定することもできる。但し、分離度ηの変化は小さくなる。   In the above embodiment, as a boundary value between classes that maximizes the degree of separation η, a boundary value that maximizes the square of the difference between the average values μ1 and μ2 of each class is obtained. Although the case where the change point to the closed eye state class is specified is described, the change from the open eye state class to the closed eye state class is obtained by obtaining a boundary value that maximizes the difference between the average values μ1 and μ2 of each class. A point can also be specified. However, the change in the degree of separation η is small.

一方、分離度を、クラス間分散σ と全分散σ の比ηとして求める場合には、各クラスのデータ数ω,ωが反映されるため、開眼状態クラスから閉眼状態クラスへの変化点に達した後、分離度が、図9(b)に示されるように急激に上昇することはないが、瞬きなどの一時的な変動に対する安定性は高いと言える。 On the other hand, when the degree of separation is obtained as the ratio η between the inter-class variance σ B 2 and the total variance σ T 2 , the number of data ω 1 and ω 2 of each class is reflected. After reaching the point of change, the degree of separation does not increase rapidly as shown in FIG. 9B, but it can be said that the stability against temporary fluctuations such as blinking is high.

以上、本発明の実施形態について述べたが、本発明は上記実施形態に限定されるものではなく、本発明の技術的思想に基づいてさらに各種の変形および変更が可能である。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, Based on the technical idea of this invention, various deformation | transformation and a change are further possible.

例えば、上記実施形態では、車両の居眠り運転防止システムに実施する場合について述べたが、本発明に係る居眠り検知装置は、モニターを注視することが求められるオペレーター業務など、車両以外における居眠り検知にも実施できる。   For example, in the above embodiment, the case where the present invention is applied to a vehicle doze driving prevention system has been described. Can be implemented.

1 居眠り検知装置
2L,2R 両眼
3 上瞼
4 車両
10 車両情報記録部
11 画像記録部
12 瞼開度検出部
13 時系列データ記録部
14 クラス分離度算出部
15 閉眼開始時刻検出部
16 閉眼終了時刻検出部
17 居眠り状態判定部
18 警報表示制御信号出力部
20 車両情報検出手段
21 カメラ
22 警報装置
30 運転者
N 検知対象フレーム数
,O 瞼開度
η,ηk 分離度
μ1,μ2 平均値
DESCRIPTION OF SYMBOLS 1 Dozing detection apparatus 2L, 2R Both eyes 3 Upper eyelid 4 Vehicle 10 Vehicle information recording part 11 Image recording part 12 Eyelid opening degree detection part 13 Time series data recording part 14 Class separation degree calculation part 15 Eye closure start time detection part 16 Eye closing end time detecting unit 17 dozing state determining unit 18 warning display control signal output unit 20 the vehicle information detection means 21 camera 22 alarm device 30 driver N detection target frame number O L, O R eyelid opening η, ηk separability .mu.1, .mu.2 average value

Claims (6)

対象者の両眼画像から瞼開度を検出する手段と、
前記瞼開度を所定フレームレートで時系列データとして記録する手段と、
前記時系列データの最新フレームを含む連続した所定数の検知対象フレームを先行グループと後続グループに区分する境界フレームであって、前記先行グループの時系列データと前記後続グループの時系列データとの分離度が最大となるような境界フレームを閉眼開始時刻として抽出する居眠り判定手段と、
を備えた居眠り検知装置。
Means for detecting eyelid opening from the binocular image of the subject;
Means for recording the heel opening as time-series data at a predetermined frame rate;
A boundary frame that divides a predetermined number of consecutive detection target frames including the latest frame of the time series data into a preceding group and a succeeding group, and separating the time series data of the preceding group and the time series data of the succeeding group A dozing determination unit that extracts a boundary frame that has a maximum degree as a closed eye start time;
A dozing detection device with
前記居眠り判定手段は、前記所定数の検知対象フレームの全フレームについて、各フレームが境界フレームであるものとして、前記先行グループの時系列データと前記後続グループの時系列データとの間の分離度として分散を求め、前記分散が最大となる境界フレームを閉眼開始時刻として抽出するように構成されていることを特徴とする請求項1記載の居眠り検知装置。   The dozing determination unit assumes that each frame is a boundary frame for all frames of the predetermined number of detection target frames, and the degree of separation between the time-series data of the preceding group and the time-series data of the subsequent group The dozing detection apparatus according to claim 1, wherein the device is configured to obtain a variance and to extract a boundary frame that maximizes the variance as a closing eye start time. 対象者の両眼画像から瞼開度を検出するステップと、
前記瞼開度を所定フレームレートで時系列データとして記録するステップと、
前記時系列データの記録手段から、最新フレームを含む連続した所定数の検知対象フレームの時系列データを読み込むステップと、
前記所定数の検知対象フレームの全フレームについて、各フレームが境界フレームであるものとして、前記の検知対象フレームの時系列データを先行グループと後続グループに区分し、前記先行グループの時系列データと前記後続グループの時系列データとの間の分離度を算出するステップと、
前記各先行グループと後続グループの時系列データの分離度が最大となる境界フレームを閉眼開始時刻として抽出するステップと、
を実行可能な演算処理装置を備えた居眠り検知装置。
Detecting eyelid opening from the binocular image of the subject;
Recording the heel opening as time-series data at a predetermined frame rate;
Reading time-series data of a predetermined number of consecutive detection target frames including the latest frame from the time-series data recording means;
For all frames of the predetermined number of detection target frames, assuming that each frame is a boundary frame, the time series data of the detection target frame is divided into a preceding group and a subsequent group, and the time series data of the preceding group and the Calculating a degree of separation between time-series data of subsequent groups;
Extracting a boundary frame having a maximum degree of separation between the time-series data of each preceding group and the succeeding group as a closed eye start time;
Dozing detection device provided with an arithmetic processing device capable of executing the above.
前記所定数の検知対象フレームのフレーム数N、前記先行グループの時系列データの平均値μ1、前記後続グループの時系列データの平均値μ2、前記境界フレームkにおける分離度ηkは、次式
ηk=(μ1−μ2)
但し、μ2>μ1ならば、ηk=0
から算出されるように構成されていることを特徴とする請求項1または3記載の居眠り検知装置。
The number N of the predetermined number of detection target frames, the average value μ1 of the time-series data of the preceding group, the average value μ2 of the time-series data of the subsequent group, and the degree of separation ηk in the boundary frame k are expressed by the following equation ηk = (Μ1-μ2) 2
However, if μ2> μ1, ηk = 0
The dozing detection device according to claim 1, wherein the device is configured to calculate from the following.
前記居眠り判定手段は、前記閉眼開始時刻を検出後、所定時間閉眼状態が経過した後に居眠り判定するように構成されていることを特徴とする請求項1〜4の何れか一項記載の居眠り検知装置。   The dozing detection unit according to any one of claims 1 to 4, wherein the dozing determination unit is configured to determine dozing after the eye-closing start time is detected and the eye-closed state has elapsed for a predetermined time. apparatus. 前記対象者が車両の運転者であり、前記居眠り判定手段による居眠り判定時に、前記運転者への警報または前記車両への制御信号が出力されるように構成されていることを特徴とする請求項1〜5の何れか一項記載の居眠り検知装置。   The object person is a driver of a vehicle, and is configured to output an alarm to the driver or a control signal to the vehicle at the time of dozing determination by the dozing determination unit. The dozing detection device according to any one of 1 to 5.
JP2015094709A 2015-05-07 2015-05-07 Dozing detection device Active JP6399311B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015094709A JP6399311B2 (en) 2015-05-07 2015-05-07 Dozing detection device
CN201610290794.9A CN106108922B (en) 2015-05-07 2016-05-05 Drowsiness detection device
DE102016108475.1A DE102016108475A1 (en) 2015-05-07 2016-05-09 Einschlaferfassungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015094709A JP6399311B2 (en) 2015-05-07 2015-05-07 Dozing detection device

Publications (2)

Publication Number Publication Date
JP2016209231A JP2016209231A (en) 2016-12-15
JP6399311B2 true JP6399311B2 (en) 2018-10-03

Family

ID=57179276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015094709A Active JP6399311B2 (en) 2015-05-07 2015-05-07 Dozing detection device

Country Status (3)

Country Link
JP (1) JP6399311B2 (en)
CN (1) CN106108922B (en)
DE (1) DE102016108475A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019068933A (en) * 2017-10-06 2019-05-09 カルソニックカンセイ株式会社 Estimation device and estimation method
JP7247499B2 (en) * 2018-09-20 2023-03-29 いすゞ自動車株式会社 Vehicle monitoring device
CN109671318B (en) * 2019-02-02 2020-09-08 广州宏途教育网络科技有限公司 Online teaching equipment, method and system based on image processing
JP6828932B1 (en) * 2019-04-04 2021-02-10 株式会社ユピテル Mounting members, suspended mounting stays and systems, etc.
CN113885225A (en) * 2020-07-03 2022-01-04 威海北洋电气集团股份有限公司北京分公司 Shading device and shading degree adjusting method
WO2023144951A1 (en) * 2022-01-27 2023-08-03 三菱電機株式会社 Occupant state detection device and occupant state detection method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209582A (en) * 2005-01-31 2006-08-10 Konica Minolta Holdings Inc Device and method for estimating degree of eye-opening
JP4677963B2 (en) * 2006-09-11 2011-04-27 トヨタ自動車株式会社 Dozing detection device, dozing detection method
JP4297155B2 (en) * 2006-10-13 2009-07-15 トヨタ自動車株式会社 In-vehicle warning device
JP2008099884A (en) 2006-10-19 2008-05-01 Toyota Motor Corp Condition estimating apparatus
US8570176B2 (en) * 2008-05-28 2013-10-29 7352867 Canada Inc. Method and device for the detection of microsleep events
JP5210773B2 (en) * 2008-09-16 2013-06-12 トヨタ自動車株式会社 Sleepiness determination apparatus and program
JP2010184067A (en) 2009-02-13 2010-08-26 Toyota Motor Corp Biological state prediction device
JP5270415B2 (en) * 2009-03-19 2013-08-21 トヨタ自動車株式会社 Sleepiness determination apparatus and program
CN101872171B (en) * 2009-04-24 2012-06-27 中国农业大学 Driver fatigue state recognition method and system based on information fusion
JP5444898B2 (en) * 2009-07-09 2014-03-19 アイシン精機株式会社 Status detection device, status detection method and program
CN101692980B (en) * 2009-10-30 2011-06-08 深圳市汉华安道科技有限责任公司 Method and device for detecting fatigue driving
CN102122357B (en) * 2011-03-17 2012-09-12 电子科技大学 Fatigue detection method based on human eye opening and closure state
US8952819B2 (en) * 2013-01-31 2015-02-10 Lytx, Inc. Direct observation event triggering of drowsiness
CN104013414B (en) * 2014-04-30 2015-12-30 深圳佑驾创新科技有限公司 A kind of Study in Driver Fatigue State Surveillance System based on intelligent movable mobile phone

Also Published As

Publication number Publication date
JP2016209231A (en) 2016-12-15
CN106108922B (en) 2019-04-05
DE102016108475A1 (en) 2016-11-10
CN106108922A (en) 2016-11-16

Similar Documents

Publication Publication Date Title
JP6399311B2 (en) Dozing detection device
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
JP5974915B2 (en) Arousal level detection device and arousal level detection method
CN107374652B (en) Quality monitoring method, device and system based on electronic product learning
JP5177011B2 (en) Eye opening degree identification device
US9592835B2 (en) Sleepiness detecting device
JP4677963B2 (en) Dozing detection device, dozing detection method
JP2008099884A (en) Condition estimating apparatus
JP4529394B2 (en) Driver's vehicle driving characteristic estimation device
US11734405B2 (en) Biometric data capturing and analysis
KR101839089B1 (en) Method for recognizing driver's drowsiness, and apparatus for recognizing drowsiness
JP2018508870A (en) Method and apparatus for detecting instantaneous sleep of a vehicle driver
JP6973928B2 (en) Eyelid open / close judgment device and drowsiness detection device
JP2008246013A (en) Sleepiness sensor
JP2015033457A (en) Driving state estimation device and driving state estimation method
JP2017194772A (en) Arousal determination apparatus
US11195108B2 (en) Abnormality detection device and abnormality detection method for a user
US20190180126A1 (en) State estimation apparatus, method, and non-transitory recording medium
JP3681657B2 (en) Arousal level estimation device and arousal level estimation method
JP2008250859A (en) Arousal determining device
KR20220048533A (en) Apparatus for detecting attention level of driver and method thereof
Mašanović et al. Driver monitoring using the in-vehicle camera
JP5050794B2 (en) Sleepiness detection device, sleepiness detection method
JPH07257220A (en) Vigilance evaluation device for vehicle
JP2020194227A (en) Face hiding determination device, face hiding determination method, face hiding determination program, and occupant monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180821

R151 Written notification of patent or utility model registration

Ref document number: 6399311

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151