JP5411653B2 - Sleepiness determination device - Google Patents

Sleepiness determination device Download PDF

Info

Publication number
JP5411653B2
JP5411653B2 JP2009239597A JP2009239597A JP5411653B2 JP 5411653 B2 JP5411653 B2 JP 5411653B2 JP 2009239597 A JP2009239597 A JP 2009239597A JP 2009239597 A JP2009239597 A JP 2009239597A JP 5411653 B2 JP5411653 B2 JP 5411653B2
Authority
JP
Japan
Prior art keywords
driver
fractal dimension
drowsiness
unit
cross data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009239597A
Other languages
Japanese (ja)
Other versions
JP2011086186A (en
Inventor
大輔 宮城
金二 塚原
匡弘 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagaoka University of Technology
Original Assignee
Nagaoka University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagaoka University of Technology filed Critical Nagaoka University of Technology
Priority to JP2009239597A priority Critical patent/JP5411653B2/en
Publication of JP2011086186A publication Critical patent/JP2011086186A/en
Application granted granted Critical
Publication of JP5411653B2 publication Critical patent/JP5411653B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、ドライバーの眠気を検出する眠気判定装置に関する。   The present invention relates to a drowsiness determination device that detects drowsiness of a driver.

近年、衝突(クラッシュ)の発生前から衝突発生後までを広く手当てする総合的な安全システムが種々提案され、実用化されてきている。例えば、ドライバーの状態を見守るドライバーモニタにより、ドライバーの顔の向きや眼の開閉状態を検知し、警告を発したり、ブレーキを作動させたりすることによって衝突の回避を図るシステムが提案されている。例えば、特開2008−65776号公報(特許文献1)には、眼の開閉を検出し、連続閉眼時間が第1判定時間以上の場合に、居眠りを検知する居眠り検知装置の技術が開示されている。この装置は、ドライバーの眼の開閉状態が短時間のみ変化した場合であっても居眠りの状態を的確に判断できるように、連続開眼時間と連続閉眼時間とを計測する。閉眼から開眼した場合には、閉眼からの連続開眼時間が第1判定時間以上となると、当該開眼前の連続閉眼時間がリセットされる。閉眼からの連続開眼時間が第1判定時間よりも短い時間で再度閉眼した場合には、開眼前の連続閉眼時間に続けて連続閉眼時間が計測される。これにより、ドライバーの一瞬の瞬きや光の影響などによって眼が開眼状態となっても、的確に居眠りが検知される。   In recent years, various comprehensive safety systems have been proposed and put into practical use for widely handling from before the occurrence of a collision (crash) to after the occurrence of a collision. For example, a system has been proposed in which a driver monitor that monitors the driver's condition detects the driver's face direction and eye open / closed state, and issues a warning or activates a brake to avoid a collision. For example, Japanese Patent Application Laid-Open No. 2008-65776 (Patent Document 1) discloses a technique of a dozing detection device that detects opening and closing of eyes and detects dozing when the continuous eye closing time is equal to or longer than the first determination time. Yes. This device measures the continuous eye opening time and the continuous eye closing time so that the dozing state can be accurately determined even when the open / closed state of the driver's eyes changes only for a short time. When the eyes are opened from the closed eye, when the continuous eye opening time from the eye closing becomes equal to or longer than the first determination time, the continuous eye closing time before the eye opening is reset. When the eyes are closed again within a time shorter than the first determination time after the eyes are closed, the continuous eyes closing time is measured after the eyes closed before the eyes are opened. As a result, even if the driver's eyes are in an open state due to a momentary blink of the driver or the influence of light, dozing is accurately detected.

特開2008−65776号公報(第4〜8段落等)JP 2008-65776 A (4th to 8th paragraphs, etc.)

特許文献1においては、眼球の大きさの割合の変化により眼の開き具合を判定し、開閉状態の時間の割合に応じて居眠りの判定を実施している。但し、眼球の大きさの割合や、開閉状態の時間の割合には個人差が大きい。また、ドライバーが眠気と対抗しているような場合には、精度が低下する可能性がある。別の技術として、ドライバーの視線を検出して覚醒度合いを判定する方法もあるが、正確な視線の検出にはドライバーが専用の眼鏡を着用する必要があり、画像処理を用いて簡便なシステムを構築することは困難である。   In Patent Document 1, the degree of eye opening is determined based on a change in the proportion of the size of the eyeball, and the determination of dozing is performed according to the proportion of time in the open / closed state. However, there are large individual differences in the proportion of eyeball size and the proportion of time in the open / closed state. Also, if the driver is fighting sleepiness, the accuracy may be reduced. Another technique is to detect the driver's line of sight and determine the degree of arousal, but for accurate line-of-sight detection, the driver must wear dedicated glasses, and a simple system using image processing is required. It is difficult to build.

従って、画像処理を用いた簡便なシステムにより、個人差を吸収し、精度良くドライバーの眠気を検出する技術が求められる。   Accordingly, there is a need for a technique that can absorb individual differences and accurately detect driver drowsiness with a simple system using image processing.

上記課題に鑑みて創案された本発明に係る眠気判定装置の特徴構成は、
所定間隔で撮影されたドライバーの顔を含む撮影画像を取得する画像取得部と、
前記撮影画像に基づいて前記ドライバーの瞼を検出する顔検出部と、
前記ドライバーの瞼の開閉状態の時系列の変化を示す瞬き情報を演算する瞬き情報演算部と、
前記瞬き情報から、前記瞬き情報の変化の特徴を表すフラクタル次元を演算するフラクタル次元演算部と、
複数の被験者の眠気の度合いに応じて取得され、統計的に設定された基準フラクタル次元と前記ドライバーのフラクタル次元とに基づいて、前記ドライバーの眠気の度合いを判定する眠気判定部と、を備える点にある。
The characteristic configuration of the drowsiness determination device according to the present invention created in view of the above problems is as follows.
An image acquisition unit for acquiring a captured image including a driver's face imaged at a predetermined interval;
A face detector that detects wrinkles of the driver based on the captured image;
A blink information calculation unit that calculates blink information indicating a time-series change in the opening / closing state of the driver's heel,
From the blink information, a fractal dimension calculation unit that calculates a fractal dimension that represents the characteristics of changes in the blink information;
A drowsiness determination unit that determines the degree of drowsiness of the driver based on a reference fractal dimension and a fractal dimension of the driver that are acquired according to the degree of drowsiness of a plurality of subjects and statistically set. It is in.

発明者らにより、複数の被験者に対して実施された実車走行試験に基づく実験解析によれば、眠気に対応してフラクタル次元が増減することが確認された。また、フラクタル次元の値は、被験者の個人差による影響が小さいことも確認された。従って、統計的に設定された基準フラクタル次元と、ドライバーのフラクタル次元とに基づいて、ドライバーの眠気の度合いが良好に判定される。上述したように、ドライバーの眼の開き具合や、開閉時間の割合は、個人差が大きいことも確認されている。従って、特許文献1などに記載された眠気判定装置においては、判定基準は、各ドライバーに応じて設定される必要がある。この判定基準は、ドライバーが運転を開始してから眠気判定装置において演算される。つまり、判定基準の演算が完了するまでは眠気を判定することはできず、判定基準を演算するために演算負荷も増大する。また、ドライバーごとに判定基準の精度がばらつく可能性もある。これに対し、本特徴構成によれば、統一された基準フラクタル次元に基づいて、精度の高い眠気判定が可能であり、演算負荷も小さい。つまり、画像処理を用いた簡便なシステムにより、個人差を吸収し、精度良くドライバーの眠気を検出する眠気判定装置が提供される。   The inventors have confirmed that the fractal dimension increases or decreases in response to sleepiness according to an experimental analysis based on an actual vehicle running test performed on a plurality of subjects. It was also confirmed that the fractal dimension value was less affected by individual differences among subjects. Therefore, the degree of drowsiness of the driver is satisfactorily determined based on the statistically set reference fractal dimension and the fractal dimension of the driver. As described above, it has also been confirmed that the degree of opening of the driver's eyes and the ratio of the opening and closing time vary greatly between individuals. Therefore, in the drowsiness determination device described in Patent Document 1 and the like, the determination criterion needs to be set according to each driver. This criterion is calculated in the drowsiness determination device after the driver starts driving. That is, drowsiness cannot be determined until the calculation of the criterion is completed, and the calculation load increases because the criterion is calculated. In addition, the accuracy of the judgment criteria may vary from driver to driver. On the other hand, according to this feature configuration, it is possible to perform sleepiness determination with high accuracy based on the unified reference fractal dimension, and the calculation load is small. In other words, a drowsiness determination device that absorbs individual differences and accurately detects driver drowsiness is provided by a simple system using image processing.

また、本発明に係る眠気判定装置の前記フラクタル次元演算部は、
時系列に変化する前記瞬き情報が、前記瞬き情報の変域内に設定された基準値と交差する時刻をインパルス状のクロスデータとして抽出するクロスデータ生成部と、
前記クロスデータを平滑化して、連続データである平滑クロスデータに変換するクロスデータ平滑部と、
前記平滑クロスデータのパワースペクトルを導出し、当該パワースペクトルから時間シフト量の関数で相関値を示す自己相関関数を演算する自己相関関数演算部と、
時間シフト量と相関値とを両対数で表した場合において、時間シフト量が少ない側の所定の範囲における前記自己相関関数の実数部の変化の直線成分の傾きに基づいて前記フラクタル次元を演算する自己相似次元演算部と、を備えると好適である。
Further, the fractal dimension calculation unit of the drowsiness determination device according to the present invention,
A cross data generation unit that extracts the time at which the blink information that changes in time series intersects a reference value set in a range of the blink information as impulse-like cross data;
A cross data smoothing unit that smoothes the cross data and converts it into smooth cross data that is continuous data;
An autocorrelation function computing unit for deriving a power spectrum of the smooth cross data and computing an autocorrelation function indicating a correlation value as a function of a time shift amount from the power spectrum;
When the time shift amount and the correlation value are expressed by logarithm, the fractal dimension is calculated based on the slope of the linear component of the change in the real part of the autocorrelation function in a predetermined range on the side where the time shift amount is small. It is preferable to include a self-similar dimension calculation unit.

クロスデータは、汎用的なコンパレート演算により生成可能であり、平滑クロスデータは、低域通過フィルタを用いて生成可能である。また、パワースペクトルは、高速フーリエ変換により演算可能であり、自己相関関数は逆高速フーリエ変換により演算可能である。高速フーリエ変換及び逆高速フーリエ変換、対数変換処理は、マイクロコンピュータのプログラムを含む演算サブセットや、DSP(digital signal processor)などの論理演算プロセッサの演算モジュールなどでも提供されており、実用性が高い。また、直線成分の傾きの演算は線形演算であるから、演算負荷も軽い。このように、フラクタル次元は、実用性の高い演算を経て算出されるので、簡便なシステムにより眠気判定装置が構成される。   The cross data can be generated by a general-purpose comparison operation, and the smooth cross data can be generated using a low-pass filter. The power spectrum can be calculated by fast Fourier transform, and the autocorrelation function can be calculated by inverse fast Fourier transform. Fast Fourier transform, inverse fast Fourier transform, and logarithmic transform processing are also provided in a computation subset including a microcomputer program, a computation module of a logical operation processor such as a DSP (digital signal processor), and the like, and has high practicality. In addition, since the calculation of the slope of the linear component is a linear calculation, the calculation load is light. Thus, since the fractal dimension is calculated through highly practical calculation, the drowsiness determination apparatus is configured by a simple system.

また、本発明に係る眠気判定装置は、前記基準フラクタル次元が複数設定され、前記眠気判定部は、各基準フラクタル次元に応じて前記ドライバーの眠気の度合いを判定すると好適である。   In the sleepiness determination apparatus according to the present invention, it is preferable that a plurality of the reference fractal dimensions are set, and the sleepiness determination unit determines the degree of sleepiness of the driver according to each reference fractal dimension.

上述したように、発明者らによる実験解析により、眠気に対応してフラクタル次元が増減することが確認されている。従って、眠気の強さに応じて基準フラクタル次元が複数段階設定されれば、眠気判定部は、ドライバーが眠気を生じているか否かにとどまらず、眠気の度合いを判定することができる。その結果、眠気の判定結果を受けて、注意や警報作動を実行させる場合に、適切な作動が選択される。   As described above, experimental analysis by the inventors has confirmed that the fractal dimension increases or decreases in response to sleepiness. Therefore, if the reference fractal dimension is set in a plurality of stages according to the strength of sleepiness, the sleepiness determination unit can determine the degree of sleepiness as well as whether or not the driver is sleepy. As a result, an appropriate operation is selected when a warning or alarm operation is executed in response to the sleepiness determination result.

ここで、前記基準フラクタル次元は、眠気が高いほど高い値に設定されると好適である。発明者らによる実験解析により、眠気が高いほど、フラクタル次元が増加することが確認されている。従って、基準フラクタル次元は、眠気が高いほど高い値に設定されると良好にドライバーの眠気の度合いが判定される。   Here, it is preferable that the reference fractal dimension is set to a higher value as drowsiness is higher. Experimental analysis by the inventors has confirmed that the higher the drowsiness, the greater the fractal dimension. Therefore, when the reference fractal dimension is set to a higher value as drowsiness is higher, the degree of drowsiness of the driver is determined better.

車両のシステム構成を模式的に示すブロック図Block diagram schematically showing the system configuration of the vehicle 眠気判定装置の構成を模式的に示すブロック図Block diagram schematically showing the configuration of the drowsiness determination device ドライバーとカメラとの関係を模式的に示す図Diagram showing the relationship between the driver and camera 顔検出方法の概念を示す説明図Explanatory drawing showing the concept of the face detection method 眼の開度を算出する概念を示す説明図Explanatory drawing which shows the concept which calculates the opening degree of eyes 瞬き情報の一例を示すグラフGraph showing an example of blink information 図6の瞬き情報に対応するクロスデータの一例を示すグラフThe graph which shows an example of the cross data corresponding to the blink information of FIG. 瞬き情報・クロスデータ・平滑クロスデータの関係を示すグラフGraph showing the relationship between blink information, cross data, and smooth cross data 平滑クロスデータ・自己相関関数の関係を示すグラフGraph showing the relationship between smooth cross data and autocorrelation function 両対数化された自己相関関数の傾き算出方法の一例を示す図The figure which shows an example of the calculation method of the logarithmized autocorrelation function slope 眠気検出の一連の処理を示すフローチャートFlow chart showing a series of processes for sleepiness detection

以下、本発明の眠気判定装置の実施形態を、車両に搭乗中の乗員の安全性を向上させる安全システムに適用する場合を例として説明する。図1は、このような安全システムが搭載された車両のシステム構成を模式的に示すブロック図である。安全システムには、衝突などが生じた際にその被害を軽減する衝突安全システム(パッシブセーフティシステム)と、事前に衝突などを予測して被害を軽減するという予防安全システム(アクティブセーフティシステム)と、両者が融合された総合的なシステムとがある。図1には、ミリ波レーダ51やカメラ52を用いて、他車両などの他の物体と自車両との間での衝突の可能性を判定する衝突判定システム50を含み、総合的な安全システムとして機能するシステム構成を例示している。衝突判定システム50は、衝突の可能性をドライバーに報知したり、緊急ブレーキの作動などの衝突回避動作を実行させたり、シート姿勢の変更やシートベルトのテンション強化などにより衝突時の衝撃を緩和する準備をさせたりする。   Hereinafter, the case where the embodiment of the drowsiness determination device of the present invention is applied to a safety system that improves the safety of an occupant on a vehicle will be described as an example. FIG. 1 is a block diagram schematically showing the system configuration of a vehicle equipped with such a safety system. Safety systems include a collision safety system (passive safety system) that reduces damage when a collision occurs, a preventive safety system (active safety system) that reduces damage by predicting a collision in advance, There is a comprehensive system that fuses both. 1 includes a collision determination system 50 that uses a millimeter wave radar 51 and a camera 52 to determine the possibility of a collision between another object such as another vehicle and the host vehicle, and includes a comprehensive safety system. The system configuration which functions as is illustrated. The collision determination system 50 informs the driver of the possibility of a collision, executes a collision avoidance operation such as the operation of an emergency brake, reduces the impact at the time of collision by changing the seat posture or strengthening the tension of the seat belt. To get ready.

眠気判定装置もまた、総合的な安全システムを構成する1つのシステムとして機能する。具体的な例としては、ドライバーモニタECU9によりドライバーの眠気を検出すると、第1段階としてブザー7やモニタ装置20のスピーカ20cを介して警報が発せられる。メータパネルのランプなどが点滅させられたりして視覚的に報知されてもよい。さらに、ドライバーの状態が改善しなければ、第2段階としてブレーキシステム40を介して警報ブレーキを作動させ、体感的な警告がなされる。その他、衝突判定システム50を介して、種々の報知を行うことも可能である。   The drowsiness determination device also functions as one system constituting an overall safety system. As a specific example, when driver drowsiness is detected by the driver monitor ECU 9, a warning is issued through the buzzer 7 and the speaker 20c of the monitor device 20 as a first stage. A lamp on the meter panel or the like may be blinked to visually notify the user. Further, if the driver's condition does not improve, the alarm brake is operated through the brake system 40 as a second step, and a sensible warning is given. In addition, various notifications can be performed via the collision determination system 50.

モニタ装置20は、ナビゲーションシステム30の表示装置である。モニタ装置20は、ナビゲーションシステム30のGUI(graphic user interface)として機能する表示部20aやタッチパネル20b、音声案内のためのスピーカ20cを備えている。ナビゲーションシステム30は、道順案内などを行ってドライバーの運転を支援するシステムである。不図示のGPS装置や、不図示のジャイロなどの自律航法装置などにより、現在位置を特定し、システムに記憶された地図と照らし合わせることでドライバーの運転を支援する。   The monitor device 20 is a display device of the navigation system 30. The monitor device 20 includes a display unit 20a that functions as a GUI (graphic user interface) of the navigation system 30, a touch panel 20b, and a speaker 20c for voice guidance. The navigation system 30 is a system that supports driving by performing route guidance and the like. The current position is specified by an unillustrated GPS device or an autonomous navigation device such as an unillustrated gyro, and the driving of the driver is supported by comparing it with a map stored in the system.

ブレーキシステム40は、ドライバーにより操作されるブレーキペダルの操作量をブレーキセンサ42により検出して、アクチュエータ41を介して車両に制動力を付加してブレーキ力を増強させるブレーキアシスト機能などを有した電動ブレーキシステムである。ブレーキのロックを抑制するABS(anti lock braking system)や、コーナリング時の車両の横滑りを抑制する横滑り防止装置(ESC : electronic stability control)、BBW(brake-by-wire)システムも含まれる。ブレーキシステム40は、安全システムとして機能することも可能である。例えば、ドライバーにより操作されるブレーキペダルの操作量に拘わらずブレーキの油圧を高めるブレーキアシストや、自動的にブレーキを掛ける緊急ブレーキや警告ブレーキとして機能させることもできる。   The brake system 40 detects the amount of operation of a brake pedal operated by a driver by a brake sensor 42, and has an electric motor having a brake assist function for increasing the braking force by applying a braking force to the vehicle via an actuator 41. Brake system. Also included is an anti-lock braking system (ABS) that suppresses brake locking, an electronic stability control (ESC) that suppresses vehicle side-slip during cornering, and a BBW (brake-by-wire) system. The brake system 40 can also function as a safety system. For example, it can function as a brake assist that increases the hydraulic pressure of the brake regardless of the operation amount of the brake pedal operated by the driver, or an emergency brake or a warning brake that automatically applies the brake.

図1及び図2に示すように、本発明の眠気判定装置10は、ドライバーモニタECU(electronic control unit)9として構成される。ECU9は車内ネットワークであるCAN(controller area network)60を介して、上述したナビゲーションシステム30やブレーキシステム40、衝突判定システム50の他、不図示の種々のシステムやセンサ類に接続されている。   As shown in FIGS. 1 and 2, the drowsiness determination device 10 of the present invention is configured as a driver monitor ECU (electronic control unit) 9. The ECU 9 is connected to various systems and sensors (not shown) in addition to the navigation system 30, the brake system 40, and the collision determination system 50 described above via a CAN (controller area network) 60 that is an in-vehicle network.

図1に示すように、眠気判定装置10を構成するドライバーモニタECU9は、CPU(central processing unit)2を中核として、プログラムメモリ3やワークメモリ4、画像処理モジュール5、音声処理モジュール6、その他不図示の周辺回路などを有して構成される。CPU2は、プログラムメモリ3に格納されたプログラムやパラメータを利用して各種演算処理を実行する。また、CPU2は、必要に応じてワークメモリ4に一時的にデータなどを格納して演算を実行する。ここでは、プログラムメモリ3やワークメモリ4が、CPU2とは別のメモリである例を示しているが、CPU2と同一のパッケージ内に集積されていてもよい。また、本例では、CPU2を中核としたが、DSP(digital signal processor)など、他の論理演算プロセッサや論理回路を中核としてECU9が構成されてもよい。DSPには、低域通過フィルタ(LPF)やフーリエ変換などの演算モジュールが搭載されている汎用品が多数提供されており、安価に高速演算が可能である。眠気判定装置10を構成する各機能部は、ハードウェアとソフトウェア(プログラム)との協働により実現される。   As shown in FIG. 1, the driver monitor ECU 9 constituting the drowsiness determination device 10 has a central processing unit (CPU) 2 as a core, a program memory 3, a work memory 4, an image processing module 5, an audio processing module 6, and other non-existence. The illustrated peripheral circuit is configured. The CPU 2 executes various arithmetic processes using programs and parameters stored in the program memory 3. Further, the CPU 2 temporarily stores data or the like in the work memory 4 as necessary to execute the calculation. Here, an example in which the program memory 3 and the work memory 4 are memories different from the CPU 2 is shown, but they may be integrated in the same package as the CPU 2. Further, in this example, the CPU 2 is the core, but the ECU 9 may be configured with another logic operation processor or logic circuit such as a DSP (digital signal processor) as the core. Many general-purpose products equipped with arithmetic modules such as a low-pass filter (LPF) and Fourier transform are provided for the DSP, and high-speed arithmetic can be performed at low cost. Each function part which comprises the drowsiness determination apparatus 10 is implement | achieved by cooperation with hardware and software (program).

図3に示すように、カメラ1は、ステアリングコラム91のカバー上に設置され、ステアリングホイール92の隙間を通して、ドライバー100の頭部を正面から撮影する。カメラ1は、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒10〜30フレームの2次元画像を時系列に撮影し、デジタル変換して動画データ(撮影画像)を出力するデジタルカメラである。各フレームの2次元画像は、画像処理モジュール5が有するフレームメモリに格納され、CPU2との協働によりフレームごとに画像処理を施されることが可能である。尚、カメラ1は、赤外線カメラを用いてもよく、この場合にはドライバー100の頭部(顔面)を投光する赤外線ランプや赤外線ストロボが備えられていてもよい。また、カメラ1は、ドライバー100の頭部を正面側から撮影可能に設置されていれば足り、ステアリングコラム91のカバー上ではなく、メータパネル93内や、ルームミラーなどに設置されていてもよい。   As shown in FIG. 3, the camera 1 is installed on the cover of the steering column 91 and photographs the head of the driver 100 from the front through the gap of the steering wheel 92. The camera 1 uses an image sensor such as a charge coupled device (CCD) or a CMOS image sensor (CIS) to shoot a two-dimensional image of 10 to 30 frames per second in time series, and digitally converts it into moving image data (captured image). ). A two-dimensional image of each frame is stored in a frame memory included in the image processing module 5, and image processing can be performed for each frame in cooperation with the CPU 2. The camera 1 may be an infrared camera, and in this case, an infrared lamp or infrared strobe that projects the head (face) of the driver 100 may be provided. Further, it is sufficient that the camera 1 is installed so that the head of the driver 100 can be photographed from the front side. The camera 1 may be installed in the meter panel 93 or in a rearview mirror, not on the cover of the steering column 91. .

眠気判定装置10の画像取得部11は、カメラ1により、1/10秒〜1/30秒の所定間隔で撮影されたドライバー100の顔を含むフレームデータ(撮影画像)を取得する機能部である。つまり、画像取得部11は、10Hz〜30Hzのサンプリングレートで撮影画像を取得する。顔検出部12は、フレームデータを用いてドライバー100の顔を検出する機能部である。顔検出部12は、輪郭検出部12aと、顔部品検出部12bと、中心演算部12cと、顔向き演算部12dとを有して構成されている。   The image acquisition unit 11 of the drowsiness determination device 10 is a functional unit that acquires frame data (captured image) including the face of the driver 100 captured by the camera 1 at a predetermined interval of 1/10 second to 1/30 second. . That is, the image acquisition unit 11 acquires a captured image at a sampling rate of 10 Hz to 30 Hz. The face detection unit 12 is a functional unit that detects the face of the driver 100 using frame data. The face detection unit 12 includes a contour detection unit 12a, a face part detection unit 12b, a center calculation unit 12c, and a face direction calculation unit 12d.

フレームデータには、ドライバー100の顔だけではなく、背景も含まれているため、輪郭検出部12aにより顔検出処理が実行される。具体的には、背景とのコントラストの差を利用し、公知のエッジ検出技法などを用いて輪郭が検出され、図4に示すように顔幅Eが検出される。時系列に取得される撮影画像の差分を利用してもよい。次に、顔部品検出部12bにより顔部品、具体的には眼、鼻、口、耳などの位置が検出される。この場合にも、公知のエッジ検出技法などを利用することができる。当然、エッジ検出に用いるフィルタやオペレータなどの特性はそれぞれの機能部に応じて設定される。   Since the frame data includes not only the face of the driver 100 but also the background, the face detection processing is executed by the contour detection unit 12a. Specifically, the contour is detected using a known edge detection technique using the difference in contrast with the background, and the face width E is detected as shown in FIG. You may utilize the difference of the picked-up image acquired in time series. Next, the face part detection unit 12b detects the position of the face part, specifically the eyes, nose, mouth, ears, and the like. Also in this case, a known edge detection technique or the like can be used. Naturally, characteristics such as a filter and an operator used for edge detection are set according to each functional unit.

顔部品が検出され、それぞれの顔部品の位置が検出されると、顔部品が概ね左右対称に配置されていることを利用して、中心演算部12cが顔の中心線Cを演算する。演算された中心線を基準として、輪郭検出部12aにより検出されている顔幅Eの左右比率及びこの左右比率に基づく顔向き度が、顔向き演算部12dにより演算される。脇見判定部19は、顔向き度に基づいてドライバー100が脇見をしたり、居眠りによりうつむいたりしたことを判定する。ドライバーモニタECU9は、この判定結果に基づいて、ブザー7を介して警報を発したり、音声処理モジュール6を介して警告メッセージを発したりする。   When the face parts are detected and the positions of the respective face parts are detected, the center calculation unit 12c calculates the center line C of the face using the fact that the face parts are arranged substantially symmetrically. Using the calculated center line as a reference, the left / right ratio of the face width E detected by the contour detection unit 12a and the face orientation degree based on the left / right ratio are calculated by the face direction calculation unit 12d. The aside look determination unit 19 determines that the driver 100 looks aside based on the degree of face orientation or is depressed due to falling asleep. Based on the determination result, the driver monitor ECU 9 issues a warning via the buzzer 7 or issues a warning message via the voice processing module 6.

続いて、眠気判定装置10による眠気判定処理について説明する。顔部品検出部12bにより眼が検出されると、眼の領域の画像を用いて、瞬き情報演算部13により開度が演算される。瞬き情報演算部13は、顔部品検出部12bにより検出された眼の位置に基づいて、図5に示すように眼が含まれる領域(眼領域)の画像を抽出する。公知のエッジ検出技法などにより、上瞼及び下瞼、眼球などが検出され、上瞼の下側と下瞼との距離(開眼距離)A及びBによって眼の開度が演算される。図5において、距離Aはドライバー100の最大の開眼距離(最大開眼距離)であり、距離Bは撮影画像に基づいて都度求められる開眼距離(現在距離)である。眼の開度Hは、最大開眼距離Aを分母、現在距離Bを分子として、「H=B/A」で求められる。尚、開度Hは、除算結果の有効桁数が分解能となる。発明者らの実験によれば、開と閉、つまり、開度H=1と開度H=0との2値データであっても、眠気の判別が可能であることが確認されている。   Next, sleepiness determination processing by the sleepiness determination device 10 will be described. When the eye is detected by the face part detection unit 12b, the opening degree is calculated by the blink information calculation unit 13 using the image of the eye region. The blink information calculation unit 13 extracts an image of a region including the eye (eye region) as shown in FIG. 5 based on the eye position detected by the face part detection unit 12b. Upper eyelids and lower eyelids, eyeballs and the like are detected by a known edge detection technique and the like, and the opening degree of the eye is calculated based on distances (opening distances) A and B between the lower side of the upper eyelids and the lower eyelids. In FIG. 5, the distance A is the maximum eye opening distance (maximum eye opening distance) of the driver 100, and the distance B is the eye opening distance (current distance) obtained each time based on the captured image. The opening degree H of the eye is obtained by “H = B / A”, where the maximum eye opening distance A is the denominator and the current distance B is the numerator. Note that the opening degree H is the resolution of the effective number of division results. According to the experiments by the inventors, it has been confirmed that drowsiness can be determined even with binary data of opening and closing, that is, opening degree H = 1 and opening degree H = 0.

最も眼を開いている状態、即ち上瞼と下瞼との現在距離Bが最大開眼距離Aの場合には、開度Hは「1」となる。眼を閉じている状態、即ち上瞼と下瞼とが接触し、現在距離Bが「0」の場合には、開度Hは「0」となる。ここで、最大開眼距離Aが、運転開始時に初期値にリセットされ、瞬き情報演算部13により検出された現在距離Bの内の最大値に更新されていくと、同一のドライバー100に応じた値に設定されて好適である。一般的に、運転を開始する際には、ドライバー100が覚醒状態にあることが多く、眼もしっかり開いていると考えられる。従って、運転開始時からほどなく、最大開眼距離Aは適切な値に設定される。但し、この方法に限定される必要はない。最大開眼距離Aが最大値に更新されず開度Hが「1」を超えることがあっても、最終的に「1」と「0」との間に規格化されるように構成されていてもよい。   When the eye is most open, that is, when the current distance B between the upper eyelid and the lower eyelid is the maximum eye opening distance A, the opening degree H is “1”. When the eyes are closed, that is, when the upper eyelid and the lower eyelid are in contact with each other and the current distance B is “0”, the opening degree H is “0”. Here, when the maximum eye opening distance A is reset to the initial value at the start of driving and updated to the maximum value of the current distance B detected by the blink information calculation unit 13, a value corresponding to the same driver 100 is obtained. Is preferable. Generally, when driving is started, the driver 100 is often in an awake state, and the eyes are also considered to be firmly open. Therefore, the maximum eye opening distance A is set to an appropriate value soon after the start of operation. However, it is not necessary to be limited to this method. Even if the maximum eye opening distance A is not updated to the maximum value and the opening degree H may exceed “1”, the distance is finally normalized between “1” and “0”. Also good.

瞬き情報演算部13は、時系列に取得される撮影画像(フレーム)ごとに開度Hを求める。例えば、カメラ1が毎秒10フレームの2次元画像を時系列に撮影し、画像取得部11が全てのフレームを取得する場合には、0.1秒ごとに開度Hが求められる。時系列の開度Hの変化は、折れ線、又は線形補間などによりアナログ的な変化に近似した曲線により連続的なデータに変換される。図6は、線形補間による近似曲線を示している。図6では、眼を閉じた状態から大きく開いて再び閉じた「瞬き」を誇張して示している。図6に示すように、時系列の開度Hの変化、即ちドライバー100の瞼の開閉状態の変化を示す情報が、瞬き情報Wである。つまり、瞬き情報演算部13は、ドライバー100の瞼の開閉状態の変化を示す瞬き情報を演算する。   The blink information calculation unit 13 obtains the opening degree H for each captured image (frame) acquired in time series. For example, when the camera 1 takes a two-dimensional image of 10 frames per second in time series and the image acquisition unit 11 acquires all frames, the opening degree H is obtained every 0.1 seconds. The time-series change in the opening degree H is converted into continuous data by a curved line or a curve approximated to an analog change by linear interpolation or the like. FIG. 6 shows an approximate curve by linear interpolation. FIG. 6 exaggerates the “blink” in which the eyes are greatly opened from the closed state and closed again. As shown in FIG. 6, the information indicating the time-series change in the opening degree H, that is, the change in the opening / closing state of the heel of the driver 100 is blink information W. That is, the blink information calculation unit 13 calculates blink information indicating a change in the opening / closing state of the driver's 100 eyelids.

フラクタル次元演算部14は、瞬き情報Wからフラクタル次元を演算する機能部である。フラクタル次元演算部14は、クロスデータ生成部14aと、クロスデータ平滑部14bと、自己相関関数演算部14cと、対数変換部14dと、自己相似次元演算部14eとの機能部を有して構成される。クロスデータ生成部14aは、瞬き情報Wの変域である[0,1]間に設定された所定の基準値THに瞬き情報Wが交差するポイント(時刻)を検出する機能部である。即ち、時間の経過に応じて変化する瞬き情報Wが基準値THと交差する時刻を特定し、インパルス状のクロスデータXを生成する。クロスデータXは、図7に示すように、交差時を「1」、非交差時を「0」とするインパルス状のフラグデータとして生成される。基準値THは、開度20%〜50%、瞬き情報Wの変域でいえば0.2〜0.5程度の値に設定されると好適である。   The fractal dimension calculation unit 14 is a functional unit that calculates a fractal dimension from the blink information W. The fractal dimension calculation unit 14 includes functional units of a cross data generation unit 14a, a cross data smoothing unit 14b, an autocorrelation function calculation unit 14c, a logarithmic conversion unit 14d, and a self-similar dimension calculation unit 14e. Is done. The cross data generation unit 14a is a functional unit that detects a point (time) at which the blink information W intersects a predetermined reference value TH set between [0, 1] that is a range of the blink information W. That is, the time at which the blink information W that changes with the passage of time intersects the reference value TH is specified, and the impulse-shaped cross data X is generated. As shown in FIG. 7, the cross data X is generated as impulse-like flag data with “1” at the time of intersection and “0” at the time of non-intersection. The reference value TH is preferably set to a value of about 0.2 to 0.5 in terms of the opening 20% to 50% and the blink information W range.

次に、クロスデータ平滑部14bは、クロスデータXに対して低域通過フィルタを規定回数掛けて擬似的なアナログデータである平滑クロスデータSを生成する。図8(a)〜(c)は、それぞれ、図6及び図7よりも長い時間における瞬き情報W、クロスデータX、平滑クロスデータSの一例を示している。後述するように、この平滑クロスデータSは、所定のスライド幅STずつずらされて、所定の解析単位時間ATごとに切り出される。例えば、解析単位時間ATが60秒程度の場合には、スライド幅STは7.5秒程度、解析単位時間ATが6〜10秒程度の場合には、スライド幅STは0.75〜1.2秒程度であると好適である。そして、当該切り出された解析単位時間ATにおいてフラクタル次元が1つ演算される。尚、発明者らの実験により、解析単位時間ATが13.6秒程度の短時間でもあっても、眠気の判別が可能であることが確認されている。   Next, the cross data smoothing unit 14b multiplies the cross data X by a low-pass filter a predetermined number of times to generate smooth cross data S that is pseudo analog data. FIGS. 8A to 8C show examples of blink information W, cross data X, and smooth cross data S in a longer time than those in FIGS. As will be described later, the smooth cross data S is shifted by a predetermined slide width ST and cut out every predetermined analysis unit time AT. For example, when the analysis unit time AT is about 60 seconds, the slide width ST is about 7.5 seconds, and when the analysis unit time AT is about 6 to 10 seconds, the slide width ST is 0.75 to 1. It is suitable for about 2 seconds. Then, one fractal dimension is calculated in the extracted analysis unit time AT. In addition, it has been confirmed by the inventors' experiments that sleepiness can be determined even when the analysis unit time AT is as short as about 13.6 seconds.

自己相関関数演算部14cは、切り出された解析単位時間ATにおける平滑クロスデータSに対して高速フーリエ変換(FFT)処理を施してFFTデータFDを生成する。次に、自己相関関数演算部14cは、FFTデータFDの共役複素数FDconをとり、この共役複素数FDconとFFTデータFDとを掛けてパワースペクトルPを導出する。さらに、自己相関関数演算部14cは、パワースペクトルPに逆高速フーリエ変換(逆FFT)処理を施して自己相関関数AFを導出する。図9(a)は、図8(c)と同じ平滑クロスデータSの一例であり、図9(b)は、この平滑クロスデータSから導出された自己相関関数AFの実数部を示している。自己相関とは、解析単位時間ATにおける平滑クロスデータSを時間的にシフトした場合に、シフト前とどれだけ良く整合するかを測る尺度である。自己相関(相関値)をこの時間シフトの大きさτの関数として表したものが自己相関関数AF(τ)である。   The autocorrelation function calculation unit 14c performs fast Fourier transform (FFT) processing on the smoothed cross data S in the extracted analysis unit time AT to generate FFT data FD. Next, the autocorrelation function calculation unit 14c takes the conjugate complex number FDcon of the FFT data FD and multiplies the conjugate complex number FDcon and the FFT data FD to derive the power spectrum P. Further, the autocorrelation function calculation unit 14c performs an inverse fast Fourier transform (inverse FFT) process on the power spectrum P to derive an autocorrelation function AF. FIG. 9A is an example of the same smooth cross data S as FIG. 8C, and FIG. 9B shows the real part of the autocorrelation function AF derived from the smooth cross data S. . The autocorrelation is a measure for measuring how well the smooth cross data S in the analysis unit time AT is matched with that before the shift when the data is shifted in time. The autocorrelation function AF (τ) represents the autocorrelation (correlation value) as a function of the time shift magnitude τ.

対数変換部14dは、図9(b)に示す自己相関関数AFの実数部を図9(c)に示すような両対数スケール上に展開する。そして、この両対数スケール上にプロットされた自己相関関数AFの実数部の時間シフト量τが少ない領域における自己相関関数AFの傾きaが求められる。好適には、時間シフト量τがゼロのτ0から所定の時間シフト量τ1までにおける自己相関関数AFの傾きaが求められるとよい。一例として、解析単位時間ATにおける時間軸方向の分解能が1000点程度ある場合には、最初の10点程度の自己相関関数AFの値を用いて傾きaが求められる。例えば、図10に示すようにτ0〜τ1までの10点間において形成される9つの直線の傾きa1〜a9が求められ、それらの平均値が自己相関関数AFの傾きaとして算出される。両対数プロットされたグラフの直線部分、1ディケード以上がフラクタル(自己相似)である。ここでは、最初の10点は常に直線であるとみなしている。尚、傾きaの算出に際しては、τ0〜τ1における自己相関関数AFを公知のハフ変換や、最小自乗法、RANSAC(random sample consensus)等によって直線近似し、近似された直線の傾きを演算してもよい。   The logarithmic conversion unit 14d expands the real part of the autocorrelation function AF shown in FIG. 9B on a logarithmic scale as shown in FIG. 9C. Then, the slope a of the autocorrelation function AF in a region where the time shift amount τ of the real part of the autocorrelation function AF plotted on the logarithmic scale is small is obtained. Preferably, the slope a of the autocorrelation function AF from τ0 where the time shift amount τ is zero to a predetermined time shift amount τ1 is obtained. As an example, when the resolution in the time axis direction in the analysis unit time AT is about 1000 points, the slope a is obtained using the autocorrelation function AF values of the first about 10 points. For example, as shown in FIG. 10, the slopes a1 to a9 of nine straight lines formed between 10 points τ0 to τ1 are obtained, and the average value thereof is calculated as the slope a of the autocorrelation function AF. The linear portion of the log-plotted graph, one or more decades, is a fractal (self-similarity). Here, the first 10 points are always regarded as straight lines. In calculating the slope a, the autocorrelation function AF at τ0 to τ1 is linearly approximated by a known Hough transform, least square method, RANSAC (random sample consensus), etc., and the slope of the approximated straight line is calculated. Also good.

自己相似次元演算部14eは、自己相関関数AFの傾きaを用いて、自己相似次元Dを演算する。この自己相似次元Dがフラクタル次元である。本実施形態においては、下記式に示すように、1から傾きaを減じて自己相似次元Dが演算される。
D = 1 − a
The self-similar dimension calculation unit 14e calculates the self-similar dimension D using the slope a of the autocorrelation function AF. This self-similar dimension D is a fractal dimension. In the present embodiment, as shown in the following equation, the self-similar dimension D is calculated by subtracting the slope a from 1.
D = 1-a

複数の被験者を対象とした発明者らによる実験結果によれば、フラクタル次元Dは、被験者の眠気が高いと上昇することが判った。また、フラクタル次元Dは、被験者間の個人差にはほとんど影響を受けることなく、眠気を表す指標となることも判った。従って、統計情報処理などにより個人差を吸収して、眠気の基準となる基準フラクタル次元Drefを設定することによって、ドライバー100の眠気を判定することが可能となる。基準フラクタル次元Drefは、プログラムメモリ3などに予め設定されている。眠気判定部15は、基準フラクタル次元Drefとドライバー100のフラクタル次元Dとに基づいて、ドライバー100の眠気の度合いを判定する。   According to the results of experiments by the inventors for a plurality of subjects, it was found that the fractal dimension D increases when the subject's sleepiness is high. It was also found that the fractal dimension D is an index representing sleepiness with little influence on individual differences among subjects. Therefore, it is possible to determine the drowsiness of the driver 100 by absorbing individual differences by statistical information processing or the like and setting the reference fractal dimension Dref as a reference for drowsiness. The reference fractal dimension Dref is preset in the program memory 3 or the like. The sleepiness determination unit 15 determines the degree of sleepiness of the driver 100 based on the reference fractal dimension Dref and the fractal dimension D of the driver 100.

基準フラクタル次元Drefは、被験者の表情に対する判定者の目視による判定基準(顔評定)に基づいて判定された眠気度合いと、その際の被験者のフラクタル次元Dとを統計処理して設定することができる。また、被験者に脳波のα波成分などの生体情報を取得するためのセンサを取り付け、センサの検出結果に基づいて判定された眠気度合いと、その際の被験者のフラクタル次元Dとを統計処理して設定することもできる。   The reference fractal dimension Dref can be set by statistically processing the degree of sleepiness determined based on the determination standard (face evaluation) by the determiner with respect to the facial expression of the subject, and the fractal dimension D of the subject at that time. . In addition, a sensor for acquiring biological information such as an α wave component of an electroencephalogram is attached to the subject, and the degree of sleepiness determined based on the detection result of the sensor and the fractal dimension D of the subject at that time are statistically processed. It can also be set.

このように、本実施形態の眠気判定装置10は、ドライバー100の表情や、声、運転行動、視線、生体情報など、瞬き以外の情報を用いることなくドライバー100の眠気を判定することが可能である。当然、視線や生体情報を検出するための検出装置をドライバー100が身につける必要もない。また、カオス解析で用いられるようなリアプノフ指数導出のような複雑な演算を要しないので、高速なリアルタイム処理が比較的安価な構成で実現可能である。また、フラクタル次元の導出に関しても、相関積分法などの複雑な演算を行う必要はない。汎用的なDSPやCPUにおいて、ハードウェアやソフトウェアによってモジュール化されたコンパレート演算、フィルタリング、フーリエ変換などを利用して導出可能である。また、上述したように、複数の被験者を対象としてデータ収集を行って事前に基準フラクタル次元Drefが設定されるので、学習機能も必要とはしない。   As described above, the drowsiness determination device 10 of the present embodiment can determine the drowsiness of the driver 100 without using information other than blink such as the driver's 100 expression, voice, driving behavior, line of sight, and biological information. is there. Naturally, it is not necessary for the driver 100 to wear a detection device for detecting the line of sight or biological information. Further, since complicated operations such as Lyapunov exponent derivation used in chaos analysis are not required, high-speed real-time processing can be realized with a relatively inexpensive configuration. Further, it is not necessary to perform a complicated operation such as a correlation integration method for deriving the fractal dimension. A general-purpose DSP or CPU can be derived using a comparison operation, filtering, Fourier transform, or the like modularized by hardware or software. Further, as described above, since the reference fractal dimension Dref is set in advance by collecting data for a plurality of subjects, a learning function is not required.

以下、ドライバー100が車両を運転中の、車両眠気判定装置10による眠気判定の手順について図11のフローチャートも利用して説明する。画像取得部11、顔検出部12、瞬き情報生成部13の処理については適宜省略し、フラクタル次元演算部14の処理を中心として説明する。   Hereinafter, the procedure of sleepiness determination by the vehicle sleepiness determination device 10 while the driver 100 is driving the vehicle will be described using the flowchart of FIG. The processes of the image acquisition unit 11, the face detection unit 12, and the blink information generation unit 13 will be omitted as appropriate, and the description will focus on the processing of the fractal dimension calculation unit 14.

上述したように、カメラ1により撮影され、画像取得部11が取得した撮影画像に基づいて顔検出部12において眼が検出され、開眼距離(最大開眼距離A及び現在距離B)が取得される(#1)。瞬き情報演算部13は、最大開眼距離A及び現在距離Bに基づいて、[0,1]区間に規格化された眼の開度H(=B/A)を演算する(#2)。瞬き情報演算部13は、時系列に取得される撮影画像(フレーム)ごとに開度Hを求める。時系列の開度Hの変化は、例えば線形補間により連続的なデータである瞬き情報Wに変換される(#3)。次に、クロスデータ生成部14aは、瞬き情報Wの変域である[0,1]間に設定された所定の基準値THに瞬き情報Wが交差するポイント(時刻)を検出し、クロスデータXを生成する(#4)。続いて、クロスデータ平滑部14bは、クロスデータXに対して低域通過フィルタを規定回数掛けて擬似的なアナログデータである平滑クロスデータSを生成する(#5)。ここまでの処理#1〜#5は、後続の処理と同期することなく、実施されてもよい。つまり、平滑クロスデータSが、ワークメモリ4などに蓄積されて平滑クロスデータSが充分にある場合には、処理#6以降が繰り返されてもよい。   As described above, the eye is detected by the face detection unit 12 based on the captured image captured by the camera 1 and acquired by the image acquisition unit 11, and the eye opening distance (the maximum eye opening distance A and the current distance B) is acquired ( # 1). Based on the maximum eye opening distance A and the current distance B, the blink information calculation unit 13 calculates the eye opening H (= B / A) normalized to the [0, 1] section (# 2). The blink information calculation unit 13 obtains the opening degree H for each captured image (frame) acquired in time series. The change in the time series opening degree H is converted into blink information W, which is continuous data, for example by linear interpolation (# 3). Next, the cross data generation unit 14a detects a point (time) at which the blink information W intersects a predetermined reference value TH set between [0, 1], which is the range of the blink information W, and detects the cross data. X is generated (# 4). Subsequently, the cross data smoothing unit 14b generates the smooth cross data S, which is pseudo analog data, by multiplying the cross data X by a predetermined number of low-pass filters (# 5). Processes # 1 to # 5 so far may be performed without synchronizing with subsequent processes. That is, when the smooth cross data S is accumulated in the work memory 4 and the smooth cross data S is sufficient, the process # 6 and subsequent steps may be repeated.

平滑クロスデータSが蓄積されると自己相関関数演算部14cは、所定の解析単位時間AT分の平滑クロスデータSを切り出す(#6)。そして、自己相関関数演算部14cは、切り出された解析単位時間ATにおける平滑クロスデータSに対して高速フーリエ変換(FFT)処理を施してFFTデータFDを生成する(#7)。次に、自己相関関数演算部14cは、FFTデータFDの共役複素数FDconをとり(#8)、この共役複素数FDconとFFTデータFDとを掛けてパワースペクトルPを導出する(#9)。さらに、自己相関関数演算部14cは、パワースペクトルPに逆高速フーリエ変換(逆FFT)処理を施して自己相関関数AFを導出する(#10)。   When the smooth cross data S is accumulated, the autocorrelation function calculator 14c cuts out the smooth cross data S for a predetermined analysis unit time AT (# 6). Then, the autocorrelation function calculation unit 14c performs fast Fourier transform (FFT) processing on the smoothed cross data S in the extracted analysis unit time AT to generate FFT data FD (# 7). Next, the autocorrelation function calculator 14c takes the conjugate complex number FDcon of the FFT data FD (# 8), and multiplies the conjugate complex number FDcon and the FFT data FD to derive the power spectrum P (# 9). Further, the autocorrelation function calculation unit 14c performs an inverse fast Fourier transform (inverse FFT) process on the power spectrum P to derive an autocorrelation function AF (# 10).

対数変換部14dは、自己相関関数AFの実数部を両対数スケール上にプロットする(#11)。対数変換部14d又は自己相似次元演算部14eは、両対数スケール上にプロットされた自己相関関数AFの実数部の時間シフト量τが少ない領域における自己相関関数AFの傾きaを求める(#12)。続いて、自己相似次元演算部14eは、自己相関関数AFの傾きaを用いて、フラクタル次元D(=1−a)を演算する(#13)。   The logarithmic conversion unit 14d plots the real part of the autocorrelation function AF on the logarithmic scale (# 11). The logarithmic conversion unit 14d or the autosimilar dimension calculation unit 14e obtains the slope a of the autocorrelation function AF in the region where the time shift amount τ of the real part of the autocorrelation function AF plotted on the logarithmic scale is small (# 12). . Subsequently, the self-similar dimension calculation unit 14e calculates the fractal dimension D (= 1-a) using the gradient a of the autocorrelation function AF (# 13).

眠気判定部15は、基準フラクタル次元Drefとドライバー100のフラクタル次元Dとに基づいて、ドライバー100の眠気の度合いを判定する(#14)。例えば、ドライバー100のフラクタル次元Dが、基準フラクタル次元Dref以上であるとき、ECU9は眠気検出信号を出力する(#15)。これにより、ブザー7が鳴動されたり、モニタ装置20のスピーカ20cより警告メッセージが発せられたりする。また、処理#14における判定は、図11に例示するような2者択一ではなく、複数段階の判定であってもよい。つまり、ドライバー100の眠気の程度を複数の基準フラクタル次元Drefによって判定し、眠気の程度に応じた注意や警告を実施させてもよい。   The sleepiness determination unit 15 determines the degree of sleepiness of the driver 100 based on the reference fractal dimension Dref and the fractal dimension D of the driver 100 (# 14). For example, when the fractal dimension D of the driver 100 is greater than or equal to the reference fractal dimension Dref, the ECU 9 outputs a drowsiness detection signal (# 15). As a result, the buzzer 7 is sounded or a warning message is issued from the speaker 20c of the monitor device 20. Further, the determination in the process # 14 may be a determination of a plurality of stages instead of the two alternatives exemplified in FIG. That is, the degree of sleepiness of the driver 100 may be determined by a plurality of reference fractal dimensions Dref, and a warning or warning corresponding to the degree of sleepiness may be performed.

次に、平滑クロスデータSが、所定のスライド幅ST分を含めて蓄積されているか否かが判定され(#16)、蓄積されている場合には、解析単位時間ATをスライド幅STだけシフトする(#17)。そして、新たな解析単位時間AT分の平滑クロスデータSを切り出して、フラクタル次元Dを求め、ドライバー100の眠気を判定する。平滑クロスデータSが、所定のスライド幅ST分を含めて蓄積されていない場合(#16:No分岐)には、処理#1〜#5を実行して平滑クロスデータSが生成される。   Next, it is determined whether or not the smooth cross data S is accumulated including a predetermined slide width ST (# 16). If accumulated, the analysis unit time AT is shifted by the slide width ST. (# 17). Then, the smooth cross data S for the new analysis unit time AT is cut out, the fractal dimension D is obtained, and the sleepiness of the driver 100 is determined. When the smooth cross data S is not accumulated including the predetermined slide width ST (# 16: No branch), the process # 1 to # 5 is executed to generate the smooth cross data S.

以上、説明したように、本発明によって、画像処理を用いた簡便なシステムにより、個人差を吸収し、精度良くドライバーの眠気を検出する技術が提供される。この技術は、衝突の発生前から衝突発生後までを広く手当てする総合的な車両の安全システムに適用することができる。   As described above, according to the present invention, there is provided a technique for detecting a driver's sleepiness with high accuracy by absorbing individual differences by a simple system using image processing. This technology can be applied to a comprehensive vehicle safety system that widely deals before and after a collision occurs.

10:眠気判定装置
11:画像取得部
13:瞬き情報演算部
14:フラクタル次元演算部
14a:クロスデータ生成部
14b:クロスデータ平滑部
14c:自己相関関数演算部
14e:自己相似次元演算部
15:眠気判定部
100:ドライバー
AF:自己相関関数
D:フラクタル次元
Dref:基準フラクタル次元
P:パワースペクトル
S:平滑クロスデータ
TH:瞬き情報の変域内に設定された基準値
W:瞬き情報
X:クロスデータ
a:自己相関関数の実数部の変化の直線成分の傾き
τ:時間シフト量
10: Sleepiness determination device 11: Image acquisition unit 13: Blink information calculation unit 14: Fractal dimension calculation unit 14a: Cross data generation unit 14b: Cross data smoothing unit 14c: Autocorrelation function calculation unit 14e: Self-similarity dimension calculation unit 15: Drowsiness determination unit 100: Driver AF: Autocorrelation function D: Fractal dimension Dref: Reference fractal dimension P: Power spectrum S: Smooth cross data TH: Reference value set in the range of blink information W: Blink information X: Cross data a: slope of linear component of change of real part of autocorrelation function τ: time shift amount

Claims (4)

所定間隔で撮影されたドライバーの顔を含む撮影画像を取得する画像取得部と、
前記撮影画像に基づいて前記ドライバーの瞼を検出する顔検出部と、
前記ドライバーの瞼の開閉状態の時系列の変化を示す瞬き情報を演算する瞬き情報演算部と、
前記瞬き情報から、前記瞬き情報の変化の特徴を表すフラクタル次元を演算するフラクタル次元演算部と、
複数の被験者の眠気の度合いに応じて取得され、統計的に設定された基準フラクタル次元と前記ドライバーのフラクタル次元とに基づいて、前記ドライバーの眠気の度合いを判定する眠気判定部と、
を備える眠気判定装置。
An image acquisition unit for acquiring a captured image including a driver's face imaged at a predetermined interval;
A face detector that detects wrinkles of the driver based on the captured image;
A blink information calculation unit that calculates blink information indicating a time-series change in the opening / closing state of the driver's heel,
From the blink information, a fractal dimension calculation unit that calculates a fractal dimension that represents the characteristics of changes in the blink information;
A drowsiness determination unit that determines the degree of drowsiness of the driver based on a reference fractal dimension and a fractal dimension of the driver acquired according to the degree of drowsiness of a plurality of subjects and statistically set;
A drowsiness determination device comprising:
前記フラクタル次元演算部は、
時系列に変化する前記瞬き情報が、前記瞬き情報の変域内に設定された基準値と交差する時刻をインパルス状のクロスデータとして抽出するクロスデータ生成部と、
前記クロスデータを平滑化して、連続データである平滑クロスデータに変換するクロスデータ平滑部と、
前記平滑クロスデータのパワースペクトルを導出し、当該パワースペクトルから時間シフト量の関数で相関値を示す自己相関関数を演算する自己相関関数演算部と、
時間シフト量と相関値とを両対数で表した場合において、時間シフト量が少ない側の所定の範囲における前記自己相関関数の実数部の変化の直線成分の傾きに基づいて前記フラクタル次元を演算する自己相似次元演算部と、を備える請求項1に記載の眠気判定装置。
The fractal dimension calculator is
A cross data generation unit that extracts the time at which the blink information that changes in time series intersects a reference value set in a range of the blink information as impulse-like cross data;
A cross data smoothing unit that smoothes the cross data and converts it into smooth cross data that is continuous data;
An autocorrelation function computing unit for deriving a power spectrum of the smooth cross data and computing an autocorrelation function indicating a correlation value as a function of a time shift amount from the power spectrum;
When the time shift amount and the correlation value are expressed by logarithm, the fractal dimension is calculated based on the slope of the linear component of the change in the real part of the autocorrelation function in a predetermined range on the side where the time shift amount is small. The drowsiness determination device according to claim 1, further comprising a self-similar dimension calculation unit.
前記基準フラクタル次元が複数設定され、前記眠気判定部は、各基準フラクタル次元に応じて前記ドライバーの眠気の度合いを判定する請求項1又は2に記載の眠気判定装置。   The drowsiness determination device according to claim 1, wherein a plurality of the reference fractal dimensions are set, and the drowsiness determination unit determines the degree of drowsiness of the driver according to each reference fractal dimension. 前記基準フラクタル次元は、眠気が高いほど高い値に設定される請求項3に記載の眠気判定装置。   The sleepiness determination apparatus according to claim 3, wherein the reference fractal dimension is set to a higher value as sleepiness is higher.
JP2009239597A 2009-10-16 2009-10-16 Sleepiness determination device Expired - Fee Related JP5411653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009239597A JP5411653B2 (en) 2009-10-16 2009-10-16 Sleepiness determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009239597A JP5411653B2 (en) 2009-10-16 2009-10-16 Sleepiness determination device

Publications (2)

Publication Number Publication Date
JP2011086186A JP2011086186A (en) 2011-04-28
JP5411653B2 true JP5411653B2 (en) 2014-02-12

Family

ID=44079069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009239597A Expired - Fee Related JP5411653B2 (en) 2009-10-16 2009-10-16 Sleepiness determination device

Country Status (1)

Country Link
JP (1) JP5411653B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015200697A1 (en) 2015-01-19 2016-07-21 Robert Bosch Gmbh Method and apparatus for detecting microsleep of a driver of a vehicle
FR3033303B1 (en) * 2015-03-03 2017-02-24 Renault Sas DEVICE AND METHOD FOR PREDICTING A LEVEL OF VIGILANCE IN A DRIVER OF A MOTOR VEHICLE.
DE102015211444A1 (en) * 2015-06-22 2016-12-22 Robert Bosch Gmbh A method and apparatus for distinguishing blink events and instrument views using an eye opening width

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3116638B2 (en) * 1993-03-17 2000-12-11 日産自動車株式会社 Awake state detection device
JPH07117595A (en) * 1993-10-21 1995-05-09 Fujikura Ltd Asleep driving prevention device
JPH0939603A (en) * 1995-07-31 1997-02-10 Toyota Motor Corp Dozing judgement device
JP3596158B2 (en) * 1996-05-21 2004-12-02 松下電器産業株式会社 Driver monitoring device and safety device using it
US20060247542A1 (en) * 2003-06-27 2006-11-02 Yasuyoshi Watanabe Fatigue degree estimating method, fatigue degree estimating device, and database
JP2007025871A (en) * 2005-07-13 2007-02-01 Cci:Kk Operator state evaluation device

Also Published As

Publication number Publication date
JP2011086186A (en) 2011-04-28

Similar Documents

Publication Publication Date Title
US10864918B2 (en) Vehicle and method for supporting driving safety thereof
JP6087088B2 (en) System and method for improving vehicle operator performance estimates
US7835834B2 (en) Method of mitigating driver distraction
Kang Various approaches for driver and driving behavior monitoring: A review
JP5942761B2 (en) Driving support device and driving support method
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
EP3361462A1 (en) Arousal level assessment system and arousal level assessment method
EP2380766B1 (en) Impaired Operation Detection Method and Impaired Operation Detection System
US9662977B2 (en) Driver state monitoring system
KR102239992B1 (en) Methods for warning of vehicle collision and Apparatuses thereof
JP6323510B2 (en) Driver condition detection apparatus and method
JP5411653B2 (en) Sleepiness determination device
US10268903B2 (en) Method and system for automatic calibration of an operator monitor
KR101500016B1 (en) Lane Departure Warning System
JP2013518341A (en) Vehicle object collision warning system and vehicle object collision warning method
JP7046748B2 (en) Driver status determination device and driver status determination method
US20200008732A1 (en) Arousal level determination device
JP6772775B2 (en) Driving support device and driving support method
JP6281238B2 (en) Recognition degree estimation device and recognition degree estimation method
JP7320188B2 (en) Driver Abnormal Posture Detector
KR102619557B1 (en) Apparatus for measuring bio-signal of driver and method thereof
JP2021105958A (en) Driver state estimation device and driver state estimation method
Durgaa Chandrakala et al. Proactive integrated detection of eye blinking & yawning to identify sleepy driver and alert based auto-braking system for speed control
JP2018160151A (en) Driving support apparatus
JP2021138310A (en) Driver condition estimation device and driver condition estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121016

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131108

R150 Certificate of patent or registration of utility model

Ref document number: 5411653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees