JP2013156707A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2013156707A
JP2013156707A JP2012014622A JP2012014622A JP2013156707A JP 2013156707 A JP2013156707 A JP 2013156707A JP 2012014622 A JP2012014622 A JP 2012014622A JP 2012014622 A JP2012014622 A JP 2012014622A JP 2013156707 A JP2013156707 A JP 2013156707A
Authority
JP
Japan
Prior art keywords
detection
driver
face
area
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012014622A
Other languages
Japanese (ja)
Inventor
Khiat Abdelaziz
アブデラジズ キアツト
Haruo Matsuo
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012014622A priority Critical patent/JP2013156707A/en
Priority to PCT/JP2013/051456 priority patent/WO2013111819A1/en
Publication of JP2013156707A publication Critical patent/JP2013156707A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/24Drug level, e.g. alcohol
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving support device that precisely determines awakening degree.SOLUTION: A driving support device includes: imaging means 11 for taking an image of a driver's face; and a control device 10 that detects movement of a mouth that is a feature point of the driver's face from a face image taken by the imaging means, detects feature behavior from a change of the movement, determines the awakening degree of the driver from the change of the feature behavior over time, detects an object having a predetermined positional relationship with a face image area, and stops detection of the feature behavior when the object is detected.

Description

本発明は、運転支援装置に関するものである。   The present invention relates to a driving support device.

撮像された運転者の顔画像から口の動きを検出し、この検出された口の形状変化から特徴動作を検出し、この検出された特徴動作の経時的な変化に基づいて運転者が軽度の眠気を感じ始める覚醒度低下の初期状態を判定するものが知られている(特許文献1)。   The movement of the mouth is detected from the imaged image of the driver's face, the feature motion is detected from the detected shape change of the mouth, and the driver is mild based on the change over time of the detected feature motion. A device that determines an initial state of a decrease in arousal level that starts to feel drowsiness is known (Patent Document 1).

特開2010−204984号公報JP 2010-204984 A

しかしながら、運転者の顔画像を撮像する際に、運転者が口を手で覆う動作や口の近傍で手を動かす動作をすることによって顔画像に外乱が発生すると、口などの顔の特徴点を正確に捉えることができずに運転者の特徴的な動作を誤検出する可能性があり、結果として運転者の覚醒度の判定精度が低下するという問題がある。   However, when capturing a driver's face image, if a disturbance occurs in the face image due to the driver's action of covering his mouth with his hand or moving his hand in the vicinity of his mouth, facial features such as his mouth Therefore, there is a possibility that the driver's characteristic motion may be erroneously detected without being accurately captured, and as a result, the determination accuracy of the driver's arousal level is lowered.

本発明が解決しようとする課題は、運転者が口を手で覆う動作や口の近傍で手を動かす動作をした場合であっても、運転者の覚醒度の判定精度を向上させることである。   The problem to be solved by the present invention is to improve the determination accuracy of the driver's arousal level even when the driver performs the operation of covering the mouth with a hand or moving the hand in the vicinity of the mouth. .

本発明では、顔画像領域と所定の位置関係にある顔以外の物体が検出された場合には、顔の特徴点の動きの検出処理を中止することにより、上記課題を解決する。   In the present invention, when an object other than a face having a predetermined positional relationship with the face image area is detected, the above-described problem is solved by stopping the motion feature point detection process.

本発明によれば、顔画像に外乱が発生する可能性の高い場面を判断して、顔の特徴点の動きの検出処理を中止するので、運転者が口を手で覆う動作や口の近傍で手を動かす動作をした場合であっても、運転者の覚醒度を正確に判定することができる。   According to the present invention, a scene where a disturbance is likely to occur in the face image is determined, and the motion feature point detection process is stopped. Even when the hand is moved, the driver's arousal level can be accurately determined.

本発明の実施形態を適用した運転支援システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the driving assistance system to which embodiment of this invention is applied. 本発明に係る運転者の閉眼率と副次的動作の頻度との関係を経時的に示すグラフである。It is a graph which shows the relation between the eye closure rate of a driver concerning the present invention, and the frequency of secondary operation with time. 本発明の一実施の形態を適用した運転支援装置の概略構成を示す制御ブロック図である。It is a control block diagram which shows schematic structure of the driving assistance device to which one embodiment of this invention is applied. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. 図3の動作検出のサブブロックを示す制御ブロック図である。FIG. 4 is a control block diagram illustrating a sub-block for motion detection in FIG. 3. 図5の溜め息・深呼吸検出およびあくび検出のサブブロックを示す制御ブロック図である。FIG. 6 is a control block diagram showing sub-blocks of sigh / deep breath detection and yawn detection in FIG. 5. 図3の溜め息・深呼吸検出およびあくび検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the sigh / deep breath detection of FIG. 3, and a yawn detection. 図3の溜め息・深呼吸検出およびあくび検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the sigh / deep breath detection of FIG. 3, and a yawn detection. 図3の溜め息・深呼吸検出およびあくび検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the sigh / deep breath detection of FIG. 3, and a yawn detection. 図3の溜め息・深呼吸検出およびあくび検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the sigh / deep breath detection of FIG. 3, and a yawn detection. 図3の溜め息・深呼吸検出およびあくび検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the sigh / deep breath detection of FIG. 3, and a yawn detection. 図3の溜め息・深呼吸検出およびあくび検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the sigh / deep breath detection of FIG. 3, and a yawn detection. 図3の手の動作検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the motion detection of the hand of FIG. 図3の手の動作検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the motion detection of the hand of FIG. 図3の手の動作検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the motion detection of the hand of FIG. 図3の首の動作検出の手順を説明するための図である。It is a figure for demonstrating the procedure of the motion detection of the neck of FIG. 図3の苦闘検出にあたり設定される副次的動作の重み付けの例を示す図である。It is a figure which shows the example of the weighting of the secondary operation | movement set in the struggle detection of FIG. 撮像画像の他の例を示す図である。It is a figure which shows the other example of a captured image. 本発明の実施形態の運転支援装置の制御手順を示すフローチャート図である。It is a flowchart figure which shows the control procedure of the driving assistance device of embodiment of this invention.

以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る運転支援装置を、車両の運転を支援するための運転支援システム1000に適用した場合を例にして説明する。本例では、車両に搭載される例を説明するが、飛行機、船、重機などの移動体に搭載することができる。また、運転支援装置の適用は、移動体の操縦装置に限定されず、作業・操作に高い確実性が求められる工場、作業所、管理塔に設けられた各種のオペレーション装置に組み込むことができる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case where the driving support apparatus according to the present invention is applied to a driving support system 1000 for supporting driving of a vehicle will be described as an example. In this example, an example of mounting on a vehicle will be described, but it can be mounted on a moving body such as an airplane, a ship, or a heavy machine. The application of the driving support device is not limited to a mobile control device, but can be incorporated into various operation devices provided in factories, workplaces, and management towers that require high reliability in work and operation.

図1は、本実施形態に係る運転支援装置100を含む運転支援システム1000のブロック構成図である。図1に示すように、本実施形態の運転支援システム1000は、車両に設置されたカメラ1と、光源2と、運転支援装置100と、車両コントローラ200と、報知装置300と、記憶装置400と、通信装置500とを備えることができる。また、一例ではあるが、本実施形態の運転支援システム1000は、走行支援装置610、制動装置620、出力装置630、エアコンディショナー640、座席ヒータ650、メモリ660、ナビゲーション装置670を備えることができる。これらの各装置はCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行うことができる。さらに、通信装置500を介して通信による情報の授受が可能な外部装置(コンピュータ)を備えることができる。   FIG. 1 is a block configuration diagram of a driving support system 1000 including a driving support device 100 according to the present embodiment. As shown in FIG. 1, the driving support system 1000 of the present embodiment includes a camera 1 installed in a vehicle, a light source 2, a driving support device 100, a vehicle controller 200, a notification device 300, and a storage device 400. The communication device 500 can be provided. Moreover, although it is an example, the driving assistance system 1000 of this embodiment can be provided with the driving assistance device 610, the braking device 620, the output device 630, the air conditioner 640, the seat heater 650, the memory 660, and the navigation device 670. Each of these devices is connected by a CAN (Controller Area Network) or other in-vehicle LAN, and can exchange information with each other. Furthermore, an external device (computer) that can exchange information by communication via the communication device 500 can be provided.

カメラ1は、たとえば二次元CCD(Charge Coupled Devices)イメージセンサ、MOSセンサまたはCIDなどの複数の光電変換素子が二次元に配列された光電変換モジュールで構成することができる。カメラ1は運転者の顔が撮像できる、たとえばインストルメントパネルの上面などに設置される。カメラ1は、予め設定された追跡時間内に乗員の頭部領域を複数回撮像し、撮像した撮像画像を撮像タイミングの情報を付して運転支援装置100に送出する。   The camera 1 can be composed of a photoelectric conversion module in which a plurality of photoelectric conversion elements such as a two-dimensional CCD (Charge Coupled Devices) image sensor, a MOS sensor, or a CID are two-dimensionally arranged. The camera 1 is installed on the upper surface of an instrument panel, for example, which can capture the driver's face. The camera 1 captures the occupant's head region a plurality of times within a preset tracking time, and sends the captured image to the driving support apparatus 100 with information on the imaging timing.

光源2は、運転に支障がないように運転者の顔に向かって赤外線を照射する赤外線照射装置であって、カメラ2は赤外線で照射された運転者の顔の画像を撮像する。この光源2も運転者の顔に赤外線がムラなく照射できる、たとえばインストルメントパネルやハンドルの中心部に設置される。   The light source 2 is an infrared irradiation device that irradiates infrared rays toward the driver's face so as not to interfere with driving. The camera 2 captures an image of the driver's face irradiated with infrared rays. This light source 2 is also installed at the center of an instrument panel or a handle, for example, which can irradiate the driver's face with infrared light without unevenness.

図1に示すように、本実施形態に係る運転支援装置100の制御装置10は、乗員の覚醒度を判定するプログラムが格納されたROM12と、このROM12に格納されたプログラムを実行することで、運転支援装置100として機能する動作回路としてのCPU11と、アクセス可能な記憶装置として機能するRAM13と、を備えている。   As shown in FIG. 1, the control device 10 of the driving assistance device 100 according to the present embodiment executes a ROM 12 that stores a program for determining the degree of wakefulness of an occupant and a program stored in the ROM 12. A CPU 11 as an operation circuit that functions as the driving support device 100 and a RAM 13 that functions as an accessible storage device are provided.

本実施形態に係る運転支援装置100の制御装置10は画像取得機能と、第1検出機能と、特徴検出機能と、判定機能と、第2検出機能と、検出制御機能と、出力機能とを実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行することができる。本実施形態では、制御装置10が各制御命令を送出する態様を例にして説明するが、本実施形態の制御装置10は、車両コントローラ200を介して各制御命令を送出することも可能である。   The control device 10 of the driving support device 100 according to the present embodiment realizes an image acquisition function, a first detection function, a feature detection function, a determination function, a second detection function, a detection control function, and an output function. Each function can be executed by the cooperation of the above-described software and the hardware described above. In the present embodiment, an example in which the control device 10 transmits each control command will be described as an example. However, the control device 10 according to the present embodiment can also transmit each control command via the vehicle controller 200. .

本実施形態の運転支援装置100は、運転者の覚醒度を判定する。ここで、運転者の覚醒度について説明する。図2は副次的動作の頻度Xと運転者の閉眼率Yとの関係を経時的に示すグラフであり、横軸は経過時間Time、縦軸は副次的動作の頻度X又は閉眼率Yをそれぞれ示す。なお、閉眼率Yは運転者の覚醒度と相関があり、閉眼率Yが高いほど覚醒度が低く、閉眼率Yが低いほど覚醒度が高い。   The driving assistance apparatus 100 of this embodiment determines the driver's arousal level. Here, the driver's arousal level will be described. FIG. 2 is a graph showing the relationship between the frequency X of the secondary movement and the eye closure rate Y of the driver over time, the horizontal axis is the elapsed time Time, and the vertical axis is the frequency X of the secondary movement or the eye closure rate Y. Respectively. The closed eye rate Y correlates with the driver's arousal level. The higher the closed eye rate Y, the lower the awakening level, and the lower the closed eye rate Y, the higher the awakening level.

図2に示すように、運転中に眠気が襲ってくると運転者は居眠りをしないように幾つかの行動をとることが少なくない。たとえば、眠くなると目が乾くので目を擦ったり、顔を撫でたり、首を曲げてストレッチ運動をしたり、脳に酸素を送るために溜め息(深く吐息する意味)や深呼吸をしたり、あくびをしたりする。以下、これらの動作を居眠りに至るまでの副次的動作とも言う。   As shown in FIG. 2, when drowsiness strikes during driving, the driver often takes several actions so as not to fall asleep. For example, when you sleep, your eyes will dry, so you can rub your eyes, stroke your face, bend your neck, do stretching exercises, sigh and deep breath to send oxygen to the brain, To do. Hereinafter, these operations are also referred to as secondary operations leading to falling asleep.

本発明者らが、こうした副次的動作の頻度Xと閉眼率Y(または覚醒度)との関係を観察したところ、同図の左端に示す運転者の閉眼率Yが極めて低い(覚醒度が極めて高い)平常状態Aと、同図の右端に示す閉眼率Yが極めて高い(覚醒度が極めて低い)居眠り状態Dの間で、副次的動作の頻度Xがピーク値Xmaxをとる傾向が強いことが判明した。   When the present inventors have observed the relationship between the frequency X of such a secondary movement and the eye closure rate Y (or arousal level), the driver's eye closure rate Y shown at the left end of FIG. There is a strong tendency that the frequency X of the secondary movement takes the peak value Xmax between the normal state A and the dozing state D in which the closed eye rate Y shown at the right end of the figure is extremely high (the degree of arousal is very low). It has been found.

これは平常状態から覚醒度が低下し始めると、まず運転者は睡魔と苦闘又は葛藤することでできる限り覚醒しようと努力し、そのための手の動作、首の動作、溜め息又は深呼吸、あくびなどの副次的動作の頻度が高くなるからである。一方で、睡魔に勝てずにさらに覚醒度が低下すると、こうした副次的動作できるほど覚醒していないので、その頻度が低くなるのである。   This is because when the wakefulness starts to decrease from the normal state, the driver first tries to wake up as much as possible by struggling with or struggling with the sleeper, such as hand movement, neck movement, sigh or deep breathing, yawning, etc. This is because the frequency of secondary operations increases. On the other hand, if the awakening level is further reduced without winning the sleeper, the frequency is low because the awakening level is not high enough to allow such a secondary action.

そして、同図に示すように平常状態Aと居眠りの進行状態Dとの間を、睡魔と苦闘又は葛藤している苦闘又は葛藤状態Bと、それを超えてさらに覚醒度が低下する居眠りの初期状態Cとに分けると、副次的動作の頻度Xが増加してピーク値Xmaxに至る期間を苦闘又は葛藤状態B、副次的動作の頻度Xがピーク値Xmaxから減少し始めるとともに大きく減少している期間を居眠りの初期状態と特定することができる。なお、副次的動作の頻度Xと平常状態Aおよび居眠りの進行状態Dとの関係については副次的動作の頻度Xの経時的変化よりむしろ、副次的動作の頻度Xの絶対値が所定値より小さいことで特定することができるが、平常状態Aも居眠りの進行状態Dもいずれも副次的動作の頻度Xの絶対値は小さいので、これらを識別する場合は、別途閉眼率Yなどの特性値を用いることが望ましい。   And, as shown in the figure, between the normal state A and the dozing progress state D, the struggle or struggling state B struggling with or struggling with the sleeper, and the initial state of dozing where the arousal level further decreases When divided into states C, the period of time until the secondary action frequency X increases to reach the peak value Xmax is struggling or conflicting state B, and the secondary action frequency X starts to decrease from the peak value Xmax and decreases greatly. Can be identified as the initial state of falling asleep. Regarding the relationship between the frequency X of the secondary motion and the normal state A and the dozing progress state D, the absolute value of the frequency X of the secondary motion is predetermined rather than the temporal change of the frequency X of the secondary motion. Although the absolute value of the frequency X of the secondary operation is small in both the normal state A and the dozing progress state D, the eye closure rate Y or the like is separately used to identify these. It is desirable to use the characteristic value of

すなわち、本例では居眠りの進行状態Dの前の初期状態Cを、副次的動作の頻度Xを経時的に検出し続け、同図に示す頻度Xのピーク値Xmaxからそれを過ぎた所定時間までを居眠りの初期状態Cとして検出する。検出結果は、各車載装置600において利用される。利用の態様については、後述する。   That is, in this example, the initial state C before the dozing progress state D is continuously detected over time with the frequency X of the secondary operation, and the predetermined time after the peak value Xmax of the frequency X shown in FIG. Are detected as the initial state C of dozing. The detection result is used in each in-vehicle device 600. The mode of use will be described later.

次に具体的実施形態を説明する。   Next, specific embodiments will be described.

図3は、図1の運転支援装置1をさらに詳細に示す制御ブロック図、図4は撮像画像の一例を示す図、図5は図3の動作検出のサブブロックを示す制御ブロック図、図6は図3の溜め息・深呼吸検出およびあくび検出のサブブロックを示す制御ブロック図である。   3 is a control block diagram showing the driving support apparatus 1 of FIG. 1 in more detail, FIG. 4 is a diagram showing an example of a captured image, FIG. 5 is a control block diagram showing a sub-block of motion detection of FIG. FIG. 4 is a control block diagram showing sub-blocks of sigh / deep breath detection and yawn detection in FIG. 3.

図1の制御装置10のROM(12)に記録されたソフトウェアは、運転者の顔を含む撮像画像を取得する画像取得機能(F1)と、取得された撮像画像の顔画像領域に含まれる運転者の顔の特徴点の動きを検出する第1検出機能(F2)と、検出された顔の特徴点の変化から運転者の特徴動作を検出する特徴検出機能(F3)と、検出された特徴動作の経時的変化から運転者の覚醒度を判定する判定機能(F4)と、顔画像領域と所定の位置関係にある顔以外の物体を検出する第2検出機能(F5)と、物体が検出された場合には、特徴動作の検出を中止する検出制御機能(F6)と、を実行させる。   The software recorded in the ROM (12) of the control device 10 in FIG. 1 includes an image acquisition function (F1) for acquiring a captured image including the driver's face, and driving included in the face image area of the acquired captured image. A first detection function (F2) for detecting the movement of the feature point of the person's face, a feature detection function (F3) for detecting the feature action of the driver from the detected change in the feature point of the face, and the detected feature A determination function (F4) for determining the driver's arousal level from the temporal change of the operation, a second detection function (F5) for detecting an object other than the face in a predetermined positional relationship with the face image area, and an object detected If so, a detection control function (F6) for canceling the detection of the characteristic motion is executed.

図3に示すように、カメラ1により撮像された運転者の頭部を含む撮像画像の顔画像の画像信号は、顔の時間的形状変化から首や頭の動作、溜め息や深呼吸、あくびを検出するための形状推定機能F12と、顔画像のうち顔の背景画像等から運転者の顔以外の身体(たとえば手)の動きを検出する動作検出機能F11とに出力される。   As shown in FIG. 3, the image signal of the face image of the captured image including the driver's head imaged by the camera 1 detects neck and head movements, sighs and deep breaths, and yawns from changes in the temporal shape of the face. Output to the shape estimation function F12 for detecting the movement of the body (for example, a hand) other than the driver's face from the face background image of the face image.

図4は、運転者の顔を含むように撮像された撮像画像Kの一例を示す図である。図4に示すように、運転者の顔の特徴点となる目、口、鼻、眉が含まれる画像中央部分には顔画像領域FCが設定されている。この顔画像領域FCと所定の位置関係にある顔以外の物体(手などの運転者の身体、運転者の手が持つ物などの物体)を検出するために、顔画像領域FCに対して所定の位置に外乱判定領域Vが設定されている。本実施形態において顔画像に外乱が起きる可能性が高い場合とは、特徴点が隠される(画像を取得できない)、特徴点周囲が隠される、特徴点近傍で他の物体が動く場合である。本実施形態の外乱判定領域Vは、撮像画像の中央に設定された顔画像領域FCの周囲であって、顔画像領域FCの外縁の少なくとも一部に沿うように設定されている。特に限定されないが、顔画像領域FCの少なくとも右側又は左側に外乱判定領域V3,V4を設定することができる。また、顔画像領域FCの少なくとも上側又は下側に外乱判定領域V1,V2を設定することができる。本例では、矩形の顔画像領域FCの四辺の外縁を取り囲むように、顔画像領域FCとは重複することなく、上下左右に4つの外乱判定領域V1〜V4を設定している。さらに、顔画像領域FCの外側には、運転者の顔以外の手などの身体の動きを検出するための身体画像検出領域Dを設定することができる。本例では、顔画像領域FCの外側に外乱判定領域V1〜V4を設定し、この外乱判定領域V1〜V4の外側に身体画像検出領域D1〜D4を設定している。本例の外乱判定領域V1〜V4、身体画像検出領域D1〜D4は、矩形の撮像画像の縁と略平行に帯状の形状で設定されている。外乱判定領域V1〜V4、身体画像検出領域D1〜D4の幅、長さは、撮像画像Kのサイズや顔画像の大きさ・位置に応じて適宜に設定することができる。   FIG. 4 is a diagram illustrating an example of a captured image K that is captured so as to include the driver's face. As shown in FIG. 4, a face image area FC is set at the center of the image including the eyes, mouth, nose, and eyebrows that are characteristic points of the driver's face. In order to detect an object other than a face (an object such as a driver's body such as a hand or an object held by the driver's hand) in a predetermined positional relationship with the face image area FC, the face image area FC is predetermined. The disturbance determination area V is set at the position of. In this embodiment, the case where the possibility of disturbance in the face image is high is a case where the feature point is hidden (image cannot be acquired), the periphery of the feature point is hidden, and another object moves near the feature point. The disturbance determination area V of the present embodiment is set around the face image area FC set at the center of the captured image and along at least a part of the outer edge of the face image area FC. Although not particularly limited, the disturbance determination areas V3 and V4 can be set at least on the right side or the left side of the face image area FC. Further, the disturbance determination areas V1 and V2 can be set at least above or below the face image area FC. In this example, four disturbance determination areas V1 to V4 are set vertically and horizontally without overlapping the face image area FC so as to surround the outer edges of the four sides of the rectangular face image area FC. Furthermore, a body image detection region D for detecting the movement of a body such as a hand other than the driver's face can be set outside the face image region FC. In this example, disturbance determination areas V1 to V4 are set outside the face image area FC, and body image detection areas D1 to D4 are set outside the disturbance determination areas V1 to V4. The disturbance determination areas V1 to V4 and the body image detection areas D1 to D4 in this example are set in a band shape substantially parallel to the edge of the rectangular captured image. The widths and lengths of the disturbance determination areas V1 to V4 and the body image detection areas D1 to D4 can be appropriately set according to the size of the captured image K and the size and position of the face image.

以下、本実施形態の運転支援装置100が実行する機能について説明する。
まず、本発明の本実施形態に係る第1検出機能について説明する。第1検出機能は、顔画像領域FCに含まれる運転者の顔の特徴点の動きを検出する機能を備える。また、第1検出機能は身体画像検出領域Dに含まれる運転者の顔以外の身体の動きを検出する機能を、さらに備える。なお、以下に説明する第1検出機能の処理は、後述する外乱判定領域Vの物体を検出する第2検出機能の処理に適用することができる。
Hereinafter, functions executed by the driving support device 100 of the present embodiment will be described.
First, the first detection function according to this embodiment of the present invention will be described. The first detection function has a function of detecting movement of feature points of the driver's face included in the face image area FC. Further, the first detection function further includes a function of detecting a movement of the body other than the driver's face included in the body image detection region D. Note that the process of the first detection function described below can be applied to the process of the second detection function for detecting an object in the disturbance determination region V described later.

先に、運転者の顔の特徴点の動きを検出する形状推定機能F12について説明する。図5に示すように、形状推定信号に基づく形状変化演算処理F211、ノイズ除去処理F212、及び各種動作検出処理F213が行われる。ノイズ除去処理F212では、カメラ1による画像信号、形状推定機能F12による形状推定信号および車両コントローラ200を介して取得可能な操舵制御機能2の操舵信号を用いて、運転者の顔の動きやハンドル操作する手の動きなど、予測可能な動作を検出しこれを除去する。   First, the shape estimation function F12 that detects the movement of the feature point of the driver's face will be described. As shown in FIG. 5, a shape change calculation process F211 based on the shape estimation signal, a noise removal process F212, and various operation detection processes F213 are performed. In the noise removal processing F212, the movement of the driver's face and the steering wheel operation are performed using the image signal from the camera 1, the shape estimation signal from the shape estimation function F12, and the steering signal of the steering control function 2 obtainable via the vehicle controller 200. Predictable movements such as hand movements are detected and removed.

形状推定機能F12は、時間的に連続して撮像されたデジタル画像信号(以下、ビデオストリームともいう)を入力し、統計的に表現された学習モデルを用いたAAM(Active Appearance Model)法などにより、口、鼻、顎の位置これら口、鼻、顎の形状及び形状の変化などを出力する機能を有する。   The shape estimation function F12 receives a digital image signal (hereinafter also referred to as a video stream) captured continuously in time, and uses an AAM (Active Appearance Model) method using a statistically expressed learning model. The position of the mouth, nose, and chin. The mouth, nose, and jaw have shapes and changes in shape.

また、本実施形態の制御装置10は、第1検出機能により検出された記顔の特徴点の変化、及び後述する身体の動きから運転者の特徴動作を検出する特徴検出機能を備える。本例の制御装置10は、形状推定機能F12により推定された口の形状、鼻の形状、顎の形状などを用いて、首や頭の動作、溜め息や深呼吸、あくびを検出する。この処理について図6を参照しながら説明する。なお、首や頭の動作は図3の首の動作検出機能F22により、溜め息や深呼吸は同図の溜め息・深呼吸検出機能F23により、あくびは同図のあくび検出機能F24により処理される。   In addition, the control device 10 of the present embodiment includes a feature detection function that detects a driver's feature motion based on a change in the facial feature point detected by the first detection function and a body movement described later. The control device 10 of the present example detects movements of the neck and head, sighs and deep breaths, and yawns using the mouth shape, the nose shape, the jaw shape, and the like estimated by the shape estimation function F12. This process will be described with reference to FIG. The neck and head movements are processed by the neck movement detection function F22 shown in FIG. 3, the sigh and deep breathing are processed by the sigh / deep breath detection function F23 shown in FIG. 3, and the yawn is processed by the yawn detection function F24 shown in FIG.

図6に示すように、まず、ステップS11において、上述した形状推定機能F12からの形状推定信号を入力し、前の画像と今の画像を比較し特徴点の変化ベクトルを算出する。そして、この特徴点の変化ベクトルが顔の動作か否かを識別する。   As shown in FIG. 6, first, in step S11, the shape estimation signal from the shape estimation function F12 described above is input, the previous image is compared with the current image, and a feature point change vector is calculated. Then, it is identified whether or not the feature point change vector is a face motion.

形状推定機能F12により推定された形状推定信号に基づいて特徴座標を抽出する。この処理は、図7の上図に示す口の形状、鼻の形状及び顎の形状についての形状推定信号から、口の形状の形状推定信号を抽出した場合を示す。   Feature coordinates are extracted based on the shape estimation signal estimated by the shape estimation function F12. This process shows a case where the shape estimation signal of the mouth shape is extracted from the shape estimation signals for the mouth shape, the nose shape and the jaw shape shown in the upper diagram of FIG.

次いで、ステップS12において、座標正規化処理を実行する。上記ステップで抽出された特徴点は、運転者の顔の大きさ、ヨー角、ピッチ角、ロール角に応じた座標となるので判定に使用する前に正規化処理する必要がある。ただし、本例では運転者の顔の正面のみを取り扱えばよいのでロール角のみを考えるものとする。   Next, in step S12, coordinate normalization processing is executed. Since the feature points extracted in the above steps are coordinates according to the size, yaw angle, pitch angle, and roll angle of the driver's face, it is necessary to normalize them before using them for determination. However, in this example, since only the front side of the driver's face needs to be handled, only the roll angle is considered.

そして、図8に示すように、口の形状推定信号のうち口の両端(左図の×)に着目し、このロール角θを検出する。また、口の形状推定信号を用いて口の中心を検出し、ここを中心にして先に求められたロール角θがゼロになるように特徴点を回転させる。次いで、同図の右図に示すように全ての特徴点を含む最小の長方形を特定し、各特徴点の座標を0〜1の間の値に座標変換する。   Then, as shown in FIG. 8, paying attention to both ends of the mouth (× in the left figure) in the mouth shape estimation signal, the roll angle θ is detected. Further, the center of the mouth is detected using the mouth shape estimation signal, and the feature point is rotated so that the previously obtained roll angle θ becomes zero. Next, as shown in the right figure of the figure, the minimum rectangle including all the feature points is specified, and the coordinates of each feature point are coordinate-converted to a value between 0 and 1.

図8のように特徴点の座標正規化処理を行ったら、ステップS13において、これを用いて特徴ベクトルが特徴点の間の距離を組み合わせることで算出される。この処理は、図9に示すように、鉛直方向の動作を最も反映すると考えられるベクトルf0,f1,…m0,m1,…を抽出し、これらを一つのベクトルP={f0,f1,…m0,m1,…}とする。また、過去n個のベクトルPの平均値を平均ベクトルPaveとして、差ベクトルX=P−Paveを算出する。なお、平均ベクトルPaveは僅かな差を無視するために用いられている。   When the feature point coordinate normalization process is performed as shown in FIG. 8, in step S13, the feature vector is calculated by combining the distances between the feature points. In this process, as shown in FIG. 9, vectors f0, f1,... M0, m1,... That are considered to most reflect the motion in the vertical direction are extracted, and these are extracted as one vector P = {f0, f1,. , M1,. Further, a difference vector X = P−Pave is calculated by setting an average value of the past n vectors P as an average vector Pave. The average vector Pave is used to ignore a slight difference.

こうして算出された差ベクトルXが特徴ベクトルであるが、これはたとえば図11に示すように、「あくびをしている(Yes(1))」または「あくびをしていない(No(0))」のいずれかに分類される。ステップS14において行われる分類は、たとえばANN(Artificial Neural Networks)、SVM(Support Vector Machines)、SOM(Self-Organizing Maps)などの機械学習技術により実行することができる。これが図6に示す二値化分類処理である。   The difference vector X thus calculated is a feature vector. This is, for example, as shown in FIG. 11, “Yawning (Yes (1))” or “No yawning (No (0))”. Or any of the above. The classification performed in step S14 can be executed by a machine learning technique such as ANN (Artificial Neural Networks), SVM (Support Vector Machines), or SOM (Self-Organizing Maps). This is the binarization classification process shown in FIG.

続いてステップS15において、二値化分類処理がなされたら、そのバイナリデータに基づいて、具体的な動作である首又は頭の動作、溜め息又は深呼吸、あくびといった動作を抽出する(図6の動作抽出処理)。   Subsequently, in step S15, when binarization classification processing is performed, specific operations such as neck or head motion, sigh or deep breath, and yawn are extracted based on the binary data (operation extraction in FIG. 6). processing).

あくびの検出は図3のあくび検出機能F24で実行される。あくびをすると口が縦方向に大きく変化する。図9の特徴ベクトルでいえば鉛直方向のベクトルがあくびを強く反映するので、あくびの検出にあたっては口の形状変化のうち鉛直方向の変化が重要となる。また、こうした鉛直方向の特徴ベクトルを抽出して、図11に示す二値化分類処理を行った場合に、あくびは比較的長い時間その形状を維持するので、図12に示すように所定時間より長い動作をあくびと判定し、所定時間より短い動作はあくびではないと判定する。同図でいえば、3つの動作が抽出されているが、1番目と3番目の動作は時間が長いのであくび動作であると判定するが、2番目の動作は時間が短いのであくびではない他の動作、たとえば会話である可能性が高い。したがって、あくび動作ではないと判定する。このように時間の閾値を設定することにより、他の動作との識別性が高くなる。   Yawn detection is performed by the yawn detection function F24 in FIG. When yawning, the mouth changes greatly in the vertical direction. In the feature vector of FIG. 9, the vertical vector strongly reflects the yawn, and therefore the vertical change of the mouth shape change is important for detecting the yawn. Further, when such a vertical feature vector is extracted and the binarization classification process shown in FIG. 11 is performed, the yawn maintains its shape for a relatively long time. It is determined that a long action is yawning, and an action shorter than a predetermined time is not yawning. In the figure, three actions are extracted, but the first and third actions are determined to be yawning because of the long time, but the second action is not yawning because the time is short. Is likely to be a conversation, for example a conversation. Therefore, it is determined that the operation is not yawning. By setting the time threshold in this way, the distinction from other operations is enhanced.

溜め息又は深呼吸の検出は図3の溜め息又は深呼吸検出機能F23で実行される。ここでいう溜め息とは大きく息を吐く動作を意味し、落胆したときなどに肩を落とす仕草を意味するものではない。こうした溜め息や深呼吸をすると口が窄んで横方向の変化が大きくなる。図10の特徴ベクトルでいえば水平方向のベクトルが溜め息や深呼吸を強く反映するので、溜め息や深呼吸の検出にあたっては口の形状変化のうち水平方向の変化が重要となる。また、こうした水平方向の特徴ベクトルを抽出して、図11に示す二値化分類処理を行った場合に、溜め息や深呼吸はあくびほど長くはないが会話よりも長い時間その形状を維持するので、そうした所定時間を設定すれば、会話など他の動作との識別性を高めることができる。   The detection of sigh or deep breath is executed by the sigh or deep breath detection function F23 of FIG. The sigh here refers to the action of exhaling greatly, and does not mean the gesture of dropping the shoulder when discouraged. When such sighs and deep breaths are taken, the mouth narrows and the lateral change increases. In the feature vector of FIG. 10, since the horizontal vector strongly reflects sighs and deep breaths, the change in the horizontal direction among the mouth shape changes is important in detecting sighs and deep breaths. In addition, when such horizontal feature vectors are extracted and the binarization classification process shown in FIG. 11 is performed, sighs and deep breaths are not as long as yawning but maintain their shapes for a longer time than conversation. If such a predetermined time is set, it is possible to improve discrimination from other actions such as conversation.

首又は頭の動作の検出は図3の首の動作検出機能F22にて実行される。ここでいう首又は頭の動作は、眠気を覚ますためのストレッチ運動のように、首を左右に曲げたり廻したりする動作を意味する。   The detection of the neck or head motion is executed by the neck motion detection function F22 shown in FIG. The action of the neck or head here means an action of bending or turning the neck left and right, such as a stretching exercise for waking up sleepiness.

首や頭を左右に曲げたり廻したりすると、図13に示すように形状推定機能F12にて推定された形状推定信号のうち口の両端を結ぶ直線のx軸に対する傾きθが時間とともに変化する。同図の上中図と上右図は首が左右に傾斜していることを示している。そして、前の傾斜角θt-1との差Δθt=θt−θt-1の変化が同図の下図に矢印で示すように所定の規則に従って変化した場合は、運転者が眠気を覚ますために首を左右に曲げているか廻していると判定し、そうでない場合は眠気を覚ますための首の動作ではないと判定する。   When the neck or head is bent or rotated to the left or right, as shown in FIG. 13, the inclination θ of the straight line connecting both ends of the mouth with respect to the x axis of the shape estimation signal estimated by the shape estimation function F12 changes with time. The upper middle figure and the upper right figure in the figure show that the neck is inclined to the left and right. If the change in the difference Δθt = θt-θt-1 from the previous inclination angle θt-1 changes according to the prescribed rule as shown by the arrow in the lower figure of the figure, Is determined to be bent or rotated to the left or right, otherwise it is determined not to be a movement of the neck to wake up sleepiness.

以上、本実施形態の第1検出機能における運転者の顔の特徴点の動きを検出する手法、具体的には、図3に示す形状推定機能F12から首の動作検出機能F22,溜め息・深呼吸検出機能F23,あくび検出機能F24について説明した。   As described above, the method of detecting the movement of the feature point of the driver's face in the first detection function of the present embodiment, specifically, the shape estimation function F12 to the neck motion detection function F22, sigh / deep breath detection shown in FIG. The function F23 and the yawning detection function F24 have been described.

次に、第1検出機能における運転者の顔以外の身体(手)の動きを検出する手法、具体的には、図3に示す動作検出機能F11、手の動作検出機能F21について説明する。   Next, a technique for detecting the movement of the body (hand) other than the driver's face in the first detection function, specifically, the motion detection function F11 and the hand motion detection function F21 shown in FIG. 3 will be described.

動作検出機能F11は、カメラ1により時間的に連続して撮像されるデジタル画像信号から物体の動きをベクトルで表現するオプティカルフロー法により運転者の動作を検出する。この手の動作は、最終的には既述した目を擦ったりする副次的動作を検出するために利用される。   The motion detection function F11 detects a driver's motion by an optical flow method that expresses a motion of an object as a vector from a digital image signal captured continuously in time by the camera 1. This movement of the hand is used to detect the secondary movement that finally rubs the eyes.

この場合、カメラ1にて撮像した画像のうち顔の領域以外の領域の画像データも用いられるが、カメラ1は運転者の顔を撮影するためにインストルメントパネルの上面などに設置されているから、視野内にハンドルを握る運転者の手の動作も映る可能性がある。このため、図3及び図5に示すようにハンドル操作による実際の操舵信号を車両の操舵制御装置2から手の動作検出機能F21へ入力される。これについては後述する。   In this case, image data of an area other than the face area of the image captured by the camera 1 is also used. However, the camera 1 is installed on the upper surface of the instrument panel or the like in order to photograph the driver's face. The movement of the driver's hand holding the steering wheel in the field of view may also be reflected. For this reason, as shown in FIGS. 3 and 5, an actual steering signal by the steering wheel operation is input from the vehicle steering control device 2 to the hand motion detection function F21. This will be described later.

さて、本例では運転者の手が目や顔を触ったか否かを判定するために、図4に示すように、カメラ1にて撮像された画像データの顔の周囲の四辺に身体画像検出領域D1〜D4を設定する。なお、同図において画面外に示したドット及び矢印の記号は、これらの検出領域D1〜D4の検出結果を判りやすく示すために欄外に記載したものである。   In this example, in order to determine whether or not the driver's hand touches the eyes or face, as shown in FIG. 4, body image detection is performed on the four sides around the face of the image data captured by the camera 1. Regions D1 to D4 are set. In addition, in the same figure, the symbols of the dots and arrows shown outside the screen are described outside the box in order to show the detection results of these detection regions D1 to D4 in an easily understandable manner.

オプティカルフロー法により、この身体画像検出領域D1〜D4を物体が交差するとその方向まで検出する。たとえば、図4の身体画像検出領域D3の手は画面の外側から顔に向かって移動してきたオプティカルフローを示している。   When the object intersects the body image detection areas D1 to D4, the direction is detected by the optical flow method. For example, the hand in the body image detection region D3 in FIG. 4 shows an optical flow that moves from the outside of the screen toward the face.

手の動作検出機能F21は、図5に示す形状変化演算機能F211、ノイズ除去機能F212および手の動作抽出処理F213を有し、以下の処理が実行される。   The hand motion detection function F21 includes a shape change calculation function F211, a noise removal function F212, and a hand motion extraction process F213 shown in FIG. 5, and the following processes are executed.

まず上述した形状推定機能F12からの形状推定信号を入力し、前の画像と今の画像を比較し特徴点の変化ベクトルを算出する。そして、この特徴点の変化ベクトルが顔の動作か否かを識別する。   First, a shape estimation signal from the shape estimation function F12 described above is input, and the previous image and the current image are compared to calculate a feature point change vector. Then, it is identified whether or not the feature point change vector is a face motion.

ノイズ除去処理F212では、カメラ1による画像信号、形状推定機能F12による形状推定信号および操舵制御装置2による操舵信号を用いて、運転者の顔の動きやハンドル操作する手の動きなど、予測可能な動作を検出しこれを除去する。   In the noise removal processing F212, it is possible to predict the movement of the driver's face and the hand operating the steering wheel using the image signal from the camera 1, the shape estimation signal from the shape estimation function F12, and the steering signal from the steering control device 2. Detect motion and remove it.

ノイズ除去処理F212から出力される信号は、手の動作抽出処理F213にて以下の処理が実行される。すなわち、図4に示す検出領域D1〜D4の各領域のオプティカルフローについて、図14に示すように、オプティカルフローの方向が顔の動作方向やハンドル操作方向であるものを除き、同一方向であって比較的多数のオプティカルフローを抽出し、それが顔に近づく方向か、顔から遠ざかる方向かを判定する。各検出領域D1〜D4についてのオプティカルフローを、図15に示すように分類する。   The signal output from the noise removal processing F212 is subjected to the following processing in the hand motion extraction processing F213. That is, the optical flow in each of the detection areas D1 to D4 shown in FIG. 4 is the same except that the direction of the optical flow is the face movement direction or the handle operation direction as shown in FIG. A relatively large number of optical flows are extracted, and it is determined whether the flow is closer to the face or away from the face. The optical flows for the detection areas D1 to D4 are classified as shown in FIG.

そして、図16の下図に示すように、各検出領域について、顔に近づく方向のオプティカルフローが検出されたらフラグ1、顔から遠ざかる方向のオプティカルフローが検出されたらフラグ0、いずれも検出されないときはフラグnを設定するものとし、フラグ1となったあとにフラグ0となったとき、つまり運転者の手が身体画像検出領域D1〜D4を外側から内側へ向かって一旦通過したのち、内側から外側へ向かって通過したときに、顔に触ったと判定する。このように、第1検出機能により検出された身体画像検出領域Dにおける身体の動きの変化から運転者の特徴動作を検出することができる。   Then, as shown in the lower part of FIG. 16, for each detection region, when an optical flow in the direction approaching the face is detected, flag 1 is detected, and when an optical flow in the direction away from the face is detected, flag 0 is not detected. When flag 0 is set after flag 1 is set, that is, when the driver's hand once passes through body image detection regions D1 to D4 from the outside to the inside, the flag n is set to the outside. It is determined that the face has been touched when passing toward. As described above, the driver's characteristic motion can be detected from the change in the body motion in the body image detection region D detected by the first detection function.

以上のとおり、本例の運転支援装置1によれば、運転者の顔、身体の撮像画像から、首や頭を曲げる動作、溜め息や深呼吸、あくび、手で顔を触るといった、覚醒度が低下する初期状態Cで観察される副次的動作を検出することができる。   As described above, according to the driving support device 1 of the present example, the degree of arousal such as the action of bending the neck and head, sighing and deep breathing, yawning, and touching the face with the hand from the captured image of the driver's face and body is reduced. The secondary operation observed in the initial state C can be detected.

次に、本実施形態の制御装置10の判定機能について説明する。本例の制御装置10は、特徴検出機能により検出された特徴動作に基づいて運転者の覚醒度を判定する。特に限定されないが、以上の処理により検出された副次的動作は、図3に示す苦闘検出機能F31によりその単位時間当たりの頻度がカウントされる。そして、覚醒度低下の初期状態判定機能F4にて、たとえば図2に示す頻度の変化から覚醒度低下の初期状態Cを判定する。   Next, the determination function of the control apparatus 10 of this embodiment is demonstrated. The control device 10 of the present example determines the driver's arousal level based on the feature motion detected by the feature detection function. Although not particularly limited, the frequency per unit time of the secondary operation detected by the above processing is counted by the struggle detection function F31 shown in FIG. Then, in the initial state determination function F4 for arousal level reduction, for example, the initial state C for the reduction in arousal level is determined from the change in frequency shown in FIG.

なお、苦闘検出機能F31により副次的動作の頻度をカウントするにあたり、図17に示すように首や頭を曲げる動作、溜め息や深呼吸、あくび、手で顔を触る動作を全て同じ重み付けω0〜ω3で判定してもよいが、運転者の癖に応じて重み付けω0〜ω3の大小を変えることもできる。   In addition, when counting the frequency of the secondary motion by the struggle detection function F31, the motions of bending the neck and head, sighing and deep breathing, yawning, and touching the face with hands as shown in FIG. 17 all have the same weighting ω0 to ω3. However, the weights ω0 to ω3 can be changed according to the driver's habit.

たとえば、事前の学習操作の際に、極端に首や頭を動かす動作が多いときはその動作は運転者の癖でもあると判断し、検出された首や頭の動作の重み付けを小さくする。   For example, if there are many movements that move the neck or head extremely during the learning operation in advance, it is determined that the movement is also a driver's eyelid, and the weight of the detected movement of the neck or head is reduced.

また、運転者の閉眼状態を検出する装置と組み合わせることで、図2に示す平常状態A、苦闘又は葛藤状態B、居眠りの初期状態Cおよび居眠りの進行状態Dの全てを検出することができる。   Further, by combining with a device that detects the closed state of the driver, all of the normal state A, the struggle or conflict state B, the initial state C of dozing and the progress state D of dozing shown in FIG. 2 can be detected.

以上のように、本例の運転支援装置によれば、覚醒度、特に覚醒度が低下した状態で生じる副次的動作の頻度を検出するので、苦闘又は葛藤状態Bや居眠りの初期状態Cを精度よく判定することができる。   As described above, according to the driving support device of the present example, since the frequency of the secondary motion that occurs in a state where the arousal level, particularly the arousal level is reduced, is detected, the struggle or conflict state B or the initial state C of doze is determined. It can be determined with high accuracy.

また、判定される状態は居眠りの初期状態Cだけでなく、それより覚醒度が高い苦闘又は葛藤状態Bも判定できるので、運転者に対してより事前に注意喚起することができる。   Moreover, since the determined state can determine not only the initial state C of dozing but also the struggle or conflict state B having a higher arousal level, it is possible to alert the driver in advance.

また、あくびの検出は口の鉛直方向の形状変化に基づいて行われ、溜め息や深呼吸は口の水平方向の形状変化に基づいて行われ、首や頭の動作は口の両端の傾斜角に基づいて行われるので、あくび、溜め息・深呼吸および首の動きを精度よく検出することができるとともに、これらを誤認識することが抑制される。   Yawn detection is based on the vertical shape change of the mouth, sighs and deep breaths are based on the horizontal shape change of the mouth, and neck and head movements are based on the angle of inclination of both ends of the mouth. Therefore, yawning, sighing / deep breathing, and neck movement can be accurately detected, and erroneous recognition of these can be suppressed.

また、手の動作は操舵制御装置2を用いてハンドル操作を除去し、さらに顔に接近する方向の動作と顔から離れる動作との組み合わせによって判定するので、副次的動作に関係する手の動作を精度よく検出することができる。   In addition, since the hand movement is determined by a combination of the movement in the direction approaching the face and the movement away from the face by removing the steering operation using the steering control device 2, the movement of the hand related to the secondary movement. Can be detected with high accuracy.

また、運転者の癖によって副次的動作に対する重み付けを変えることで、さらに精度よく覚醒度低下の初期状態を判定することができる。   In addition, by changing the weighting for the secondary action depending on the driver's habit, it is possible to determine the initial state of the arousal level reduction with higher accuracy.

続いて、本発明の本実施形態の第2検出機能について説明する。本実施形態の制御装置10は、顔画像領域FCと所定の位置関係にある顔以外の物体を検出する。なお、顔以外の物体には、運転者の手、肩、肘などの身体、及び運転者が持つハンカチ、飲み物、タバコなどの身体ではない物体を含む。   Then, the 2nd detection function of this embodiment of this invention is demonstrated. The control device 10 according to the present embodiment detects an object other than a face that has a predetermined positional relationship with the face image area FC. Note that the objects other than the face include non-body objects such as a driver's hand, shoulder, and elbow, and a handkerchief, drink, and cigarette that the driver has.

ところで、図18に示す撮像画像のように、運転者が手を動かすことにより、運転者の顔の一部が隠されてしまう場合がある。先述したように、撮像画像の顔画像領域FCに含まれる運転者の顔の特徴点、たとえば、P1〜P4、P11〜P14の動きを検出する際に、運転者の手などの物体が顔画像領域FCに入り込んで、顔画像に外乱が発生すると、特徴点の位置を正確に検出できない場合がある。特に図18に示すように、顔画像領域FC内外に運転者の手の像が入り込み、破線で表現するように動く場合には、顔画像に外乱が発生して特徴点の位置を正確に検出することが難しくなる。このため、制御装置10は、顔画像に外乱が発生する可能性を判断するために、顔画像領域FCと所定の位置関係にある物体を検出する。顔画像領域FCとの位置関係は特に限定されないが、本実施形態では、画像領域FCの外縁内の位置、画像領域FCの外縁上の位置、画像領域FCの外縁の外側位置、画像領域FCの中心から所定距離の位置などを所定の位置関係として定義することができる。   Incidentally, as shown in the captured image shown in FIG. 18, when the driver moves his / her hand, a part of the driver's face may be hidden. As described above, when detecting feature points of the driver's face included in the face image area FC of the captured image, for example, movements of P1 to P4 and P11 to P14, an object such as a driver's hand is a face image. If a disturbance occurs in the face image by entering the area FC, the position of the feature point may not be detected accurately. In particular, as shown in FIG. 18, when the image of the driver's hand enters the outside of the face image area FC and moves so as to be represented by a broken line, the face image is disturbed and the position of the feature point is accurately detected. It becomes difficult to do. For this reason, the control device 10 detects an object having a predetermined positional relationship with the face image area FC in order to determine the possibility of disturbance in the face image. Although the positional relationship with the face image area FC is not particularly limited, in the present embodiment, the position within the outer edge of the image area FC, the position on the outer edge of the image area FC, the outer position of the outer edge of the image area FC, the position of the image area FC A position at a predetermined distance from the center can be defined as a predetermined positional relationship.

本発明の本実施形態に係る運転支援装置100の制御装置10は、画像情報に含まれる顔画像に影響を与える物体か否かを判断するために、顔画像領域FCと所定の位置関係に外乱判定領域Vを設定する。先述したように、この外乱判定領域Vは、顔画像領域FCの外側の右側又は左側に設けることが好ましい。本実施形態では、左右の領域に外乱判定領域Vを設定するので、左右方向に沿って動かされる傾向の高い手の動きを高い精度で検出することができる。また、外乱判定領域Vは、顔画像領域FCの外側の上側又は下側に設けることが好ましい。本実施形態では、上下の領域に外乱判定領域Vを設定するので、上下方向に沿って手が動かされたことを高い精度で検出することができる。   The control device 10 of the driving assistance device 100 according to the present embodiment of the present invention has a disturbance in a predetermined positional relationship with the face image region FC in order to determine whether the object affects the face image included in the image information. The determination area V is set. As described above, the disturbance determination area V is preferably provided on the right side or the left side outside the face image area FC. In this embodiment, since the disturbance determination area V is set in the left and right areas, it is possible to detect the movement of the hand that tends to be moved along the left and right directions with high accuracy. The disturbance determination area V is preferably provided on the upper side or the lower side outside the face image area FC. In the present embodiment, since the disturbance determination area V is set in the upper and lower areas, it is possible to detect with high accuracy that the hand has been moved along the vertical direction.

制御装置10は、顔画像領域FCの周囲の所定位置に設定された外乱判定領域V以内の物体を顔画像領域FCと所定の位置関係にある物体として検出し、外乱判定領域V外の物体を顔画像領域FCと所定の位置関係にない物体として検出する。物体が外乱判定領域V以内に存在するか否かの判断手法は特に限定されないが、物体の一部が外乱判定領域V以内に存在する場合には、物体が外乱判定領域V以内に存在すると判断してもよいし、物体の像が占める面積が外乱判定領域Vに対して占める占有面積率が閾値以上である場合には、物体が外乱判定領域V以内に存在すると判断してもよい。このように、顔画像に影響を与える物体が存在するか否かを所定の基準に従って判断することにより、正確な判断をすることができる。   The control device 10 detects an object within the disturbance determination area V set at a predetermined position around the face image area FC as an object having a predetermined positional relationship with the face image area FC, and detects an object outside the disturbance determination area V. It is detected as an object that is not in a predetermined positional relationship with the face image area FC. A method for determining whether or not an object exists within the disturbance determination region V is not particularly limited, but when a part of the object exists within the disturbance determination region V, it is determined that the object exists within the disturbance determination region V. Alternatively, when the area occupied by the object image with respect to the disturbance determination region V is greater than or equal to the threshold value, it may be determined that the object exists within the disturbance determination region V. Thus, it is possible to make an accurate determination by determining whether there is an object that affects the face image according to a predetermined criterion.

特に限定されないが、本実施形態の運転支援装置100の制御装置10は、外乱判定領域Vが顔画像領域FCの右側又は左側に設定された場合における占有面積率の閾値を、顔画像領域FCの上側又は下側に外乱判定領域Vが設定された場合における占有面積率の閾値よりも低くすることができる。先述したように、運転者の手の動きは左右方向に沿って検出される頻度が高い。このため、本実施形態では、左右に沿う外乱判定領域Vについては相対的に高い閾値を設定して物体の動きを厳しい基準で検出し、上下に沿う外乱判定領域Vについては相対的に低い閾値を設定して物体の動きを緩やかな厳しい基準で検出する。これにより、顔画像に外乱を生じさせる手その他の物体の動きを高い精度で検出することができる。   Although not particularly limited, the control device 10 of the driving support device 100 according to the present embodiment sets the threshold of the occupation area ratio when the disturbance determination region V is set on the right side or the left side of the face image region FC. It can be made lower than the threshold of the occupation area ratio when the disturbance determination region V is set on the upper side or the lower side. As described above, the movement of the driver's hand is frequently detected along the left-right direction. For this reason, in the present embodiment, a relatively high threshold is set for the disturbance determination area V along the left and right to detect the movement of the object based on a strict standard, and a relatively low threshold is set for the disturbance determination area V along the top and bottom. To detect the movement of an object with a strict and strict standard. This makes it possible to detect the movement of the hand or other object that causes disturbance in the face image with high accuracy.

続いて、検出制御機能について説明する。本発明の本実施形態に係る運転支援装置100は、第2検出機能により物体が検出された場合には、第1検出機能による顔の特徴点の変化に基づく特徴動作の検出を中止させる。他方、第2検出機能により検出された物体が、顔画像領域FCと所定の位置関係にない場合には、特徴動作の検出を実行させる。これにより、顔画像に外乱を発生させる可能性が高い場合には特徴動作の検出を中止させ画像に外乱を発生させる可能性が低い場合には特徴動作の検出を実行させることができるので、特徴動作の検出、ひいては運転者の覚醒度の判定を正確に実行することができる。この結果、信頼性のある運転支援を行うことができる。   Next, the detection control function will be described. When the object is detected by the second detection function, the driving support apparatus 100 according to the present embodiment of the present invention stops the detection of the feature motion based on the change of the facial feature point by the first detection function. On the other hand, when the object detected by the second detection function is not in a predetermined positional relationship with the face image area FC, the feature action is detected. As a result, the detection of the feature motion can be stopped when the possibility of generating disturbance in the face image is high, and the detection of the feature motion can be executed when the possibility of generating disturbance in the image is low. It is possible to accurately execute the detection of the operation and, in turn, the determination of the driver's arousal level. As a result, reliable driving assistance can be performed.

また、本発明の本実施形態に係る運転支援装置100は、第2検出機能により物体が検出された場合であっても、運転者の顔以外の手などの身体の動きの変化から運転者の特徴動作を検出する処理を続行する。つまり、手などの身体の動きの変化に基づく運転者の特徴動作を検出処理は中止しない。顔画像に外乱を発生させる可能性が高い場合であっても、運転者の顔以外の手の画像などには外乱は発生しないので、顔以外の身体の画像に基づく特徴動作の検出は継続する。顔画像に外乱を発生させる可能性が低い顔以外の身体の画像に基づいて特徴動作の検出の精度は維持できるので、覚醒度に基づく運転支援を継続することができる。この結果、運転者に違和感を与えることがなく、安定した運転支援を行うことができる。   In addition, the driving assistance device 100 according to the present embodiment of the present invention can detect a driver's movement from a change in body movement such as a hand other than the driver's face even when an object is detected by the second detection function. Continue the process of detecting feature motion. That is, the detection process of the driver's characteristic motion based on a change in the movement of the body such as the hand is not stopped. Even if there is a high possibility that disturbance will occur in the face image, no disturbance will occur in the hand image other than the driver's face, so detection of feature motion based on body images other than the face will continue. . Since the accuracy of detection of feature motion can be maintained based on an image of a body other than the face that is less likely to cause disturbance in the face image, driving support based on arousal level can be continued. As a result, stable driving assistance can be performed without causing the driver to feel uncomfortable.

また、運転支援装置100の制御装置10は、第2検出手段により物体が検出された場合には、覚醒度の判定に用いられる所定時間分の特徴点の検出結果を削除する。本実施形態の制御装置10は、顔や身体(手)の特徴点の変化から特徴動作を検出し、この特徴動作の経時的な変化に基づいて運転者の覚醒度を判定する。つまり、所定時間において検出された特徴点の検出結果に基づいて覚醒度の判定が行われる。このため、一時的に顔画像に外乱を発生させる可能性が高い状況が発生した場合であっても、その時点を含む所定時間における特徴点の検出結果の信頼性は低下する。本実施形態では、顔画像に外乱を発生させる可能性の高い状況が一時的に生じた場合であっても、判定の精度を維持するために、覚醒度の判定に用いられる所定時間分の特徴点の検出結果を削除する。これにより、運転者の覚醒度の判定を正確に実行することができ、信頼性のある運転支援を行うことができる。   Moreover, the control apparatus 10 of the driving assistance apparatus 100 deletes the detection result of the feature point for the predetermined time used for determination of an arousal level, when an object is detected by the 2nd detection means. The control device 10 according to the present embodiment detects a feature motion from changes in feature points of the face and body (hand), and determines the driver's arousal level based on the change in the feature motion over time. That is, the arousal level is determined based on the detection result of the feature points detected in the predetermined time. For this reason, even when a situation in which there is a high possibility of causing a disturbance in the face image occurs temporarily, the reliability of the feature point detection result at a predetermined time including that point is lowered. In this embodiment, even when a situation that is highly likely to cause a disturbance in the face image occurs temporarily, in order to maintain the accuracy of the determination, the feature for a predetermined time used for the determination of the arousal level Delete the point detection result. Thereby, determination of a driver | operator's arousal level can be performed correctly and reliable driving assistance can be performed.

図19は、本発明の本実施形態に係る運転支援装置10の制御手順、特に、本実施形態の検出制御機能の処理を説明するためのフローチャートである。本実施形態では、起動後ステップS110〜S112の覚醒度の判定を実行し、この処理と並行して所定周期でステップS101〜S107の処理を実行する。以下には、覚醒度の判定が実行されていることを前提に、検出制御機能の処理を中心に説明する。   FIG. 19 is a flowchart for explaining the control procedure of the driving support apparatus 10 according to the present embodiment of the present invention, in particular, the processing of the detection control function of the present embodiment. In this embodiment, after starting, the determination of the arousal level in steps S110 to S112 is executed, and the processes in steps S101 to S107 are executed in a predetermined cycle in parallel with this process. Hereinafter, the processing of the detection control function will be mainly described on the assumption that the determination of the arousal level is executed.

まず、ステップS101において、制御装置10は、顔画像領域FCと所定の位置関係にある顔以外の物体を検出するため、外乱判定領域Vを設定する。この外乱判定領域Vは顔画像領域FCと所定の位置関係にある。ステップS102において、制御装置10は、第2検出機能を動作させて、外乱判定領域V以内の物体を検出する。なお、物体の検出手法については、第1検出機能の手法を用いることができる。   First, in step S101, the control device 10 sets a disturbance determination region V in order to detect an object other than a face having a predetermined positional relationship with the face image region FC. The disturbance determination area V is in a predetermined positional relationship with the face image area FC. In step S102, the control device 10 operates the second detection function to detect an object within the disturbance determination region V. As the object detection technique, the technique of the first detection function can be used.

続いて、ステップS103において、制御装置10は、外乱判定領域Vの面積に対する物体の像の面積が占める占有率を算出する。ステップS104において、制御装置10は占有率が所定値以上であり、かつその状態が所定時間継続したか否かを判断する。この判断により、画像情報に外乱が生じる可能性が高い状況であるか否かを判断することができる。外乱判定領域Vに対する物体像の占有率が所定値以上の状態が所定時間継続する場合にはステップS105へ進み、そうでない場合にはステップS110へ進む。   Subsequently, in step S <b> 103, the control device 10 calculates the occupation ratio occupied by the area of the object image with respect to the area of the disturbance determination region V. In step S104, the control device 10 determines whether or not the occupation ratio is equal to or greater than a predetermined value and the state has continued for a predetermined time. This determination makes it possible to determine whether or not the image information is likely to be disturbed. If the state where the occupancy rate of the object image with respect to the disturbance determination region V is equal to or greater than the predetermined value continues for a predetermined time, the process proceeds to step S105, and otherwise, the process proceeds to step S110.

ステップS104において、占有率が所定値以上の状態が継続し、画像情報に外乱が生じる可能性が高い状況であると判断された場合には、ステップS105において、顔の動きに基づく覚醒度の判定処理を中止する。上述した処理を例にすると、苦悶状態の判定処理を中止する。さらに、ステップS106において、覚醒度の判定に用いられる所定時間分の顔の特徴点の検出結果を削除する。これにより、誤った覚醒度の判定がされることを防止できる。検出結果を削除した後は、覚醒度の判定処理及び検出制御処理を繰り返す。   In step S104, when it is determined that the state in which the occupation ratio continues to be equal to or higher than the predetermined value and there is a high possibility of disturbance in the image information, in step S105, determination of the arousal level based on the movement of the face. Cancel processing. Taking the above-described process as an example, the determination process of the agony state is stopped. Further, in step S106, the detection result of the feature points of the face for a predetermined time used for the determination of the arousal level is deleted. Thereby, it is possible to prevent an erroneous determination of arousal level. After deleting the detection result, the arousal level determination process and the detection control process are repeated.

ステップS104においてNo,ステップS108においてYesとなり、画像情報に外乱が生じる可能性が低い場合には、ステップS110以降の処理を行う。ステップS110における覚醒度の判定処理は上述したので省略する。続くステップS111において、覚醒度が低下状態を検出する。本実施形態では、覚醒度低下の初期状態、つまり運転者が眠さに抗う苦悶状態を検出する。なお、本願発明における覚醒度の判定処理の手法は特に限定されず、顔画像に基づいて覚醒度などの運転者の状況を判断する手法を適宜に適用することができる。   If No in step S104, Yes in step S108, and there is a low possibility that disturbance will occur in the image information, the processing after step S110 is performed. Since the arousal level determination process in step S110 has been described above, a description thereof will be omitted. In subsequent step S111, a state in which the arousal level is reduced is detected. In the present embodiment, an initial state in which the arousal level is reduced, that is, an agony state in which the driver resists sleep is detected. Note that the method for determining the arousal level in the present invention is not particularly limited, and a method for determining the driver's situation such as the arousal level based on the face image can be appropriately applied.

また、ステップS104において、占有率が所定値以上の状態が継続し、画像情報に外乱が生じる可能性が高い状況であると判断された場合であっても、ステップS107からステップS110へ進み、手などの顔以外の身体の動きに基づく覚醒度判定処理を所定周期で続行する。運転者の手の画像情報には外乱が生じないので、誤った判定結果を出力することを抑制しつつ、運手者の顔以外の手などの身体に基づいて覚醒度の判定を継続することができる。   Even if it is determined in step S104 that the occupation ratio continues to be greater than or equal to the predetermined value and there is a high possibility of disturbance in the image information, the process proceeds from step S107 to step S110. The arousal level determination process based on body movements other than the face is continued at a predetermined cycle. Since disturbances do not occur in the image information of the driver's hand, the determination of the arousal level should be continued based on the body such as the hand other than the driver's face while suppressing the output of erroneous determination results. Can do.

ステップS112において、運転支援装置100は覚醒度の判定結果を出力する。検出された運転者の覚醒度は、より安全な運転を支援するために利用される。本実施形態の気分判定装置100の制御装置10は、判定された運転者の覚醒度を、車両の駆動を制御可能な車両コントローラ200、運転者に報知するための報知装置300、記憶装置400、及び外部と情報の送受信が可能な通信装置500のうちの何れか一つ以上に出力する。そして、覚醒度の判定結果は、運転者の運転操作、車両の駆動制御、次回の運転操作、他の運転者の運転操作などの制御にフィードバックされる。特に限定されないが、本実施形態における覚醒度の判定結果のフィードバック手法を、以下に例示する。   In step S112, the driving support apparatus 100 outputs a determination result of the arousal level. The detected driver's arousal level is used to support safer driving. The control device 10 of the mood determination device 100 of the present embodiment includes a vehicle controller 200 that can control the driving of the vehicle, a notification device 300 for notifying the driver, a storage device 400, and the driver. And output to any one or more of the communication devices 500 capable of transmitting / receiving information to / from the outside. Then, the determination result of the arousal level is fed back to the control such as the driving operation of the driver, the drive control of the vehicle, the next driving operation, and the driving operation of another driver. Although not particularly limited, the feedback method of the determination result of the arousal level in the present embodiment is exemplified below.

第1の例として、覚醒度の判定結果を取得した車両コントローラ200は、安全な走行を確保するため、覚醒度が低い場合には維持する車間距離を長く設定する指令を車間維持装置611に送出し、覚醒度が低い場合には維持する車速を低く設定する指令を車速維持装置620に送出する。同様に、操舵補助システムによりハンドル操作を補助するなどの安全走行を実現するための制御指令を他の走行支援装置610に対して送出することができる。また、安全な走行を確保するため、車両コントローラ200は、覚醒度が低い場合には制動装置620に車両を減速させ、車両を停止に導く指令を送出することができる。これにより、運転者の覚醒度に応じた走行支援を行うことができる。   As a first example, the vehicle controller 200 that has acquired the determination result of the arousal level sends a command for setting a long inter-vehicle distance to be maintained to the inter-vehicle distance maintaining device 611 when the awakening level is low in order to ensure safe driving. When the awakening level is low, a command for setting the vehicle speed to be maintained low is sent to the vehicle speed maintenance device 620. Similarly, a control command for realizing safe traveling such as assisting a steering wheel operation by the steering assist system can be sent to another traveling support device 610. Further, in order to ensure safe traveling, the vehicle controller 200 can send a command for decelerating the vehicle to the braking device 620 and guiding the vehicle to stop when the arousal level is low. Thereby, the driving | running | working assistance according to a driver | operator's alertness can be performed.

第2の例として、覚醒度の判定結果を取得した報知装置300は、ディスプレイ631及び/又はスピーカ632を介して、現在の運転者の覚醒度を文字、図形、点滅信号、音声などにより運転者に報知することができる。また、覚醒度の判定結果を取得した報知装置300は、運転者に覚醒度を知らせるとともに運転者の気分を転換させるため、エアコンディショナー640に温風又は冷風を送風する指令を送出することができる。さらにまた、覚醒度の判定結果を取得した報知装置300は、運転者に覚醒度を知らせるとともに運転者の覚醒度を高めるため、座席ヒータ650に冷却指令を送出することができる。このように、報知装置300は、運転者の覚醒度を運転者自身に直接的又は間接的に知らせることができる。   As a second example, the notification device 300 that has acquired the determination result of the arousal level indicates the current driver's arousal level via the display 631 and / or the speaker 632 by using characters, figures, flashing signals, voices, and the like. Can be notified. In addition, the notification device 300 that has acquired the determination result of the arousal level can send a command to blow air or cold air to the air conditioner 640 in order to notify the driver of the awakening level and change the driver's mood. . Furthermore, the notification device 300 that has acquired the determination result of the arousal level can send a cooling command to the seat heater 650 in order to notify the driver of the arousal level and increase the driver's arousal level. Thus, the notification device 300 can notify the driver himself / herself directly or indirectly of the driver's arousal level.

第3の例として、運転手に自分が居眠りの初期状態にある旨の注意を喚起し、たとえば自車の進行方向に存在するパーキングアリアをカーナビゲーション装置で検索して案内することができる。   As a third example, the driver can be alerted that he is in the initial state of falling asleep, and for example, a parking area existing in the traveling direction of the own vehicle can be searched for and guided by the car navigation device.

第4の例として、覚醒度の判定結果を取得した記憶装置400は、記憶メモリ660に追跡時間Tと対応づけて記憶することができる。また、記憶装置400は、取得した覚醒度の判定結果を、ナビゲーション装置670が利用する車載又はサーバに配置されている地図情報671、道路情報672に追跡時間T及び追跡時間Tにおける走行位置と、を対応づけて記憶することができる。これにより、走行中の運転者の覚醒度を地図情報671、道路情報672に書き込むことができる。   As a fourth example, the storage device 400 that has acquired the determination result of the arousal level can be stored in the storage memory 660 in association with the tracking time T. In addition, the storage device 400 uses the obtained determination result of the arousal level, the map information 671 disposed on the vehicle or server used by the navigation device 670, the road information 672, the tracking time T and the travel position at the tracking time T, Can be stored in association with each other. Thereby, the awakening degree of the driving | running | working driver | operator can be written in the map information 671 and the road information 672.

第5の例として、覚醒度の判定結果を取得した通信装置500は、取得した覚醒度の判定結果を、外部装置700へ通信回線を介して送出することができる。これにより、外部から運転者の注意を喚起することもできる。例えば、居眠りの初期状態を検出したら、その信号を外部の道路管理システムに送信し、たとえばスピード超過の走行車に対して行われているように、「居眠り注意!」等を路側看板に表示する。さらに、走行中の多数の運転者の覚醒度の情報を外部装置700に集約して、道路設計や道路環境整備に利用することができる。   As a fifth example, the communication device 500 that has acquired the determination result of the arousal level can send the acquired determination result of the arousal level to the external device 700 via a communication line. Thereby, a driver | operator's attention can also be alerted from the outside. For example, when the initial state of dozing is detected, the signal is transmitted to an external road management system, and “Do n’t sleep!” Or the like is displayed on the roadside signboard, as is done for an overspeeding vehicle, for example. . Furthermore, awakening information of a large number of drivers traveling can be collected in the external device 700 and used for road design and road environment maintenance.

このように、追跡時間Tの間における運転者の覚醒度の判定結果を車両コントローラ200、報知装置300、記憶装置400、通信装置500などに出力し、各装置が覚醒度の判定結果をフィードバックすることにより、後に行われる車両制御、運転者の操作、他の運転者の操作に役立てることができる。   Thus, the determination result of the driver's arousal level during the tracking time T is output to the vehicle controller 200, the notification device 300, the storage device 400, the communication device 500, etc., and each device feeds back the determination result of the arousal level. By this, it can be used for vehicle control performed later, a driver | operator's operation, and another driver | operator's operation.

出力処理が終了したら、ステップS113へ進み、終了のコマンドが入力されるまで、所定周期で覚醒度の判定及び検出制御処理を繰り返す。   When the output process ends, the process proceeds to step S113, and the arousal level determination and detection control process are repeated at a predetermined cycle until an end command is input.

以上のように構成され、動作する本実施形態の運転支援装置100は、以下の効果を奏する。   The driving support device 100 of the present embodiment configured and operating as described above has the following effects.

(1)本発明の本実施形態に係る運転支援装置100によれば、顔画像領域FCと所定の位置関係にある顔以外の物体が検出された場合には、顔画像に外乱が発生する可能性の高い場面を判断して、顔の特徴点の動きの検出処理を中止するので、運転者が口を手で覆う動作や口の近傍で手を動かす動作をした場合であっても、運転者の覚醒度を正確に判定することができる。   (1) According to the driving support apparatus 100 according to the present embodiment of the present invention, when an object other than a face having a predetermined positional relationship with the face image area FC is detected, disturbance may occur in the face image. Because it detects scenes with high characteristics and stops detecting movements of facial feature points, driving even when the driver moves the hand around the mouth or moves the hand near the mouth It is possible to accurately determine a person's arousal level.

(2)本発明の本実施形態に係る運転支援装置100によれば、第2検出機能により検出された物体が、顔画像領域FCと所定の位置関係にない場合には、特徴動作の検出を再開するので、顔画像に外乱を発生させる可能性が高い場合には特徴動作の検出を中止させる一方で、顔画像に外乱を発生させる可能性が低い場合には特徴動作の検出を実行させることができるので、特徴動作の検出、ひいては運転者の覚醒度の判定を正確に実行することができる。この結果、信頼性の高い運転支援を行うことができる。   (2) According to the driving assistance apparatus 100 according to the present embodiment of the present invention, when the object detected by the second detection function is not in a predetermined positional relationship with the face image area FC, the feature motion is detected. Since it is resumed, the detection of feature motion is stopped when there is a high possibility of causing disturbance in the face image, while the detection of feature motion is executed when the possibility of occurrence of disturbance in the face image is low. Therefore, it is possible to accurately execute detection of characteristic movements and, in turn, determination of the driver's arousal level. As a result, highly reliable driving assistance can be performed.

(3)本発明の本実施形態に係る運転支援装置100によれば、顔画像に外乱を発生させる可能性の高い状況が一時的に生じた場合であっても、判定の精度を維持するために、覚醒度の判定に用いられる所定時間分の特徴点の検出結果を削除する。これにより、運転者の覚醒度の判定を正確に実行することができる。この結果、信頼性の高い運転支援を行うことができる。   (3) According to the driving support apparatus 100 according to the present embodiment of the present invention, even when a situation that is highly likely to cause a disturbance in the face image occurs temporarily, the accuracy of the determination is maintained. In addition, the detection result of feature points for a predetermined time used for determination of the degree of arousal is deleted. Thereby, determination of a driver | operator's arousal level can be performed correctly. As a result, highly reliable driving assistance can be performed.

(4)本発明の本実施形態に係る運転支援装置100によれば、顔画像領域FCの周囲の所定位置に設定された外乱判定領域V以内の物体を顔画像領域FCと所定の位置関係にある物体として検出し、外乱判定領域V外の物体を顔画像領域FCと所定の位置関係にない物体として検出するので、撮像画像に外乱を及ぼす状況であるか否かを明確な基準に基づいて判断することができる。また、判断処理の負荷も低減させることができる。   (4) According to the driving support apparatus 100 according to the present embodiment of the present invention, an object within the disturbance determination area V set at a predetermined position around the face image area FC has a predetermined positional relationship with the face image area FC. Since an object outside the disturbance determination area V is detected as an object that is not in a predetermined positional relationship with the face image area FC, it is determined whether or not the captured image is in a state of disturbance based on a clear standard. Judgment can be made. In addition, the load of determination processing can be reduced.

(5)本発明の本実施形態に係る運転支援装置100によれば、左右の領域に外乱判定領域Vを設定するので、左右方向に沿って動かされる傾向が高い手の動きを高い精度で検出することができる。   (5) According to the driving assistance apparatus 100 according to the present embodiment of the present invention, the disturbance determination area V is set in the left and right areas, and thus the movement of the hand that is likely to be moved along the left and right direction is detected with high accuracy. can do.

(6)本発明の本実施形態に係る運転支援装置100によれば、上下の領域に外乱判定領域Vを設定するので、上下方向に沿って手が動かされたことを高い精度で検出することができる。   (6) According to the driving assistance apparatus 100 according to the present embodiment of the present invention, the disturbance determination area V is set in the upper and lower areas, so that it is detected with high accuracy that the hand is moved along the vertical direction. Can do.

(7)本発明の本実施形態に係る運転支援装置100によれば、物体の像が占める面積が外乱判定領域Vに対して占める占有面積率が閾値以上である場合には、物体が外乱判定領域V以内に存在すると判断するので、顔画像に影響を与える物体が存在するか否かを所定の基準に従って判断できるため、正確な判断をすることができる。   (7) According to the driving support apparatus 100 according to the present embodiment of the present invention, when the area occupied by the image of the object occupies the disturbance determination region V is greater than or equal to the threshold value, the object is determined as a disturbance. Since it is determined that the object exists within the region V, it can be determined according to a predetermined standard whether or not there is an object that affects the face image, and thus an accurate determination can be made.

(8)本発明の本実施形態に係る運転支援装置100によれば、左右に沿う外乱判定領域Vについては相対的に高い閾値を設定して物体の動きを厳しい基準で検出し、上下に沿う外乱判定領域Vについては相対的に低い閾値を設定して物体の動きを緩やかな厳しい基準で検出するので、顔画像に外乱を生じさせる手その他の物体の動きを高い精度で検出することができる。   (8) According to the driving assistance apparatus 100 according to the present embodiment of the present invention, a relatively high threshold is set for the disturbance determination region V along the left and right, and the movement of the object is detected based on a strict standard, and the vertical direction is followed. For the disturbance determination region V, a relatively low threshold value is set and the movement of the object is detected based on a strict and strict standard. Therefore, the movement of a hand or other object that causes a disturbance in the face image can be detected with high accuracy. .

(9)本発明の本実施形態に係る運転支援装置100によれば、顔画像領域FCの外側に設定された身体画像検出領域Dに含まれる運転者の顔以外の身体の動きの変化から運転者の特徴動作を検出する。顔画像に外乱を発生させる可能性が高い場合であっても、運転者の顔以外の手の画像などには外乱は発生しないので、顔以外の身体の画像に基づいて特徴動作の検出を行い、覚醒度の判定を行うことができる。   (9) According to the driving support apparatus 100 according to the present embodiment of the present invention, driving from a change in body movement other than the driver's face included in the body image detection region D set outside the face image region FC. The person's characteristic motion is detected. Even if there is a high possibility that disturbance will occur in the face image, no disturbance will occur in the image of the hand other than the driver's face, so feature motion detection is performed based on the body image other than the face. The determination of arousal level can be made.

(10)さらに、本発明の本実施形態に係る運転支援装置100は、第2検出機能により物体が検出された場合であっても、運転者の顔以外の手などの身体の動きの変化から運転者の特徴動作を検出する処理を続行する。つまり、手などの身体の動きの変化に基づく運転者の特徴動作を検出処理は中止しない。これにより、顔画像に外乱を発生させる可能性が低い顔以外の身体の画像に基づいて特徴動作の検出の精度を維持できるので、覚醒度に基づく運転支援を継続することができる。この結果、運転者に違和感を与えることがなく、安定した運転支援を行うことができる。   (10) Furthermore, the driving support apparatus 100 according to the present embodiment of the present invention can detect a change in the movement of a body such as a hand other than the driver's face even when an object is detected by the second detection function. The process of detecting the driver's characteristic motion is continued. That is, the detection process of the driver's characteristic motion based on a change in the movement of the body such as the hand is not stopped. Thereby, since the accuracy of detection of the feature motion can be maintained based on the image of the body other than the face that is less likely to cause disturbance in the face image, driving support based on the arousal level can be continued. As a result, stable driving assistance can be performed without causing the driver to feel uncomfortable.

なお、本発明に係る撮像手段はカメラ1に相当し、本発明に係る第1検出手段、第2検出手段は動作検出機能F11及び形状推定機能F12に相当し、本発明に係る特徴検出手段は手の動作検出機能F21,首の動作検出機能F22,溜め息・深呼吸検出機能F23及びあくび検出機能F24に相当し、本発明に係る判定手段は覚醒度低下の初期状態判定機能F4に相当し、本発明に係る検出制御手段は検出制御機能F5に相当する。   The imaging means according to the present invention corresponds to the camera 1, the first detection means according to the present invention, the second detection means correspond to the motion detection function F11 and the shape estimation function F12, and the feature detection means according to the present invention is It corresponds to a hand motion detection function F21, a neck motion detection function F22, a sigh / deep breath detection function F23, and a yawn detection function F24. The determination means according to the present invention corresponds to the initial state determination function F4 of arousal level reduction. The detection control means according to the invention corresponds to the detection control function F5.

1000…運転支援システム
100…運転支援装置
10…制御装置
1…カメラ
2…光源
13…制御装置
F11…動作検出機能
F12…形状推定機能
F21…手の動作検出機能
F22…首の動作検出機能
F23…溜め息・深呼吸検出機能
F24…あくび検出機能
F31…苦闘検出機能
F4…覚醒度低下の初期状態判定機能
F5…検出制御機能
200…車両コントローラ
300…報知装置
400…記憶装置
500…通信装置
600…車載装置
610…走行支援装置
611…車間維持装置
612…キープレーン装置
620…制動装置
630…出力装置
631…ディスプレイ
632…スピーカ
640…エアコンディショナー
650…座席ヒータ
660…メモリ
670…ナビゲーション装置
700…外部装置
DESCRIPTION OF SYMBOLS 1000 ... Driving assistance system 100 ... Driving assistance apparatus 10 ... Control apparatus 1 ... Camera 2 ... Light source 13 ... Control apparatus F11 ... Motion detection function F12 ... Shape estimation function F21 ... Hand motion detection function F22 ... Neck motion detection function F23 ... Sigh / deep breath detection function F24 ... yawn detection function F31 ... struggle detection function F4 ... initial state determination function F5 ... detection control function 200 ... vehicle controller 300 ... notification device 400 ... storage device 500 ... communication device 600 ... in-vehicle device 610: Driving support device 611: Inter-vehicle maintenance device 612 ... Key plane device 620 ... Braking device 630 ... Output device 631 ... Display 632 ... Speaker 640 ... Air conditioner 650 ... Seat heater 660 ... Memory 670 ... Navigation device 700 ... External device 700

Claims (10)

運転者の顔を含む撮像画像を取得する画像取得手段と、
前記画像取得手段により取得された撮像画像の顔画像領域に含まれる運転者の顔の特徴点の動きを検出する第1検出手段と、
前記第1検出手段により検出された前記顔の特徴点の変化から前記運転者の特徴動作を検出する特徴検出手段と、
前記特徴検出手段により検出された特徴動作に基づいて前記運転者の覚醒度を判定する判定手段と、
前記顔画像領域と所定の位置関係にある顔以外の物体を検出する第2検出手段と、
前記第2検出手段により物体が検出された場合には、前記顔の特徴点の変化に基づく特徴動作の検出を中止させる検出制御手段と、を備えたことを特徴とする運転支援装置。
Image acquisition means for acquiring a captured image including a driver's face;
First detection means for detecting movements of feature points of the driver's face included in the face image area of the captured image acquired by the image acquisition means;
Feature detecting means for detecting a feature action of the driver from a change in the feature point of the face detected by the first detecting means;
Determination means for determining the driver's arousal level based on the characteristic motion detected by the characteristic detection means;
Second detection means for detecting an object other than a face in a predetermined positional relationship with the face image region;
A driving support apparatus, comprising: a detection control unit that stops detection of a feature action based on a change in a feature point of the face when an object is detected by the second detection unit.
前記検出制御手段は、前記第2検出手段により検出された物体が、前記顔画像領域と所定の位置関係にない場合には、前記特徴動作の検出を実行させることを特徴とする請求項1に記載の運転支援装置。   2. The detection control unit according to claim 1, wherein when the object detected by the second detection unit is not in a predetermined positional relationship with the face image region, the detection of the characteristic motion is performed. The driving assistance apparatus as described. 前記検出制御手段は、前記第2検出手段により物体が検出された場合には、前記覚醒度の判定に用いられる所定時間分の前記特徴点の検出結果を削除することを特徴とする請求項1又は2に記載の運転支援装置。   2. The detection control unit according to claim 1, wherein when the second detection unit detects an object, the detection control unit deletes the detection result of the feature points for a predetermined time used for the determination of the arousal level. Or the driving assistance apparatus of 2 description. 前記第2検出手段は、前記顔画像領域の周囲の所定位置に設定された外乱判定領域以内の物体を前記顔画像領域と所定の位置関係にある物体として検出し、前記外乱判定領域外の物体を前記顔画像領域と所定の位置関係にない物体として検出する請求項1〜3の何れか1項に記載の運転支援装置。   The second detection means detects an object within a disturbance determination area set at a predetermined position around the face image area as an object having a predetermined positional relationship with the face image area, and an object outside the disturbance determination area The driving support device according to any one of claims 1 to 3, wherein the vehicle is detected as an object that is not in a predetermined positional relationship with the face image area. 前記外乱判定領域は、前記顔画像領域の右側又は左側に設定されることを特徴とする請求項4に記載の運転支援装置。   The driving assistance device according to claim 4, wherein the disturbance determination area is set on a right side or a left side of the face image area. 前記外乱判定領域は、前記顔画像領域の上側又は下側に設定されることを特徴とする請求項4又は5に記載の運転支援装置。   The driving assistance device according to claim 4 or 5, wherein the disturbance determination area is set above or below the face image area. 前記第2検出手段は、前記外乱判定領域に対する占有面積率が閾値以上の像が存在する場合には、前記外乱判定領域内の物体として検出することを特徴とする請求項4〜6の何れか一項に記載の運転支援装置。   The said 2nd detection means detects as an object in the said disturbance determination area | region, when the image whose occupation area ratio with respect to the said disturbance determination area | region exists more than a threshold value exists. The driving support device according to one item. 前記外乱判定領域が前記顔画像領域の右側又は左側に設定された場合における前記閾値は、前記顔画像領域の上側又は下側に前記外乱判定領域が設定された場合における前記閾値よりも低いことを特徴とする請求項7に記載の運転支援装置。   The threshold value when the disturbance determination area is set on the right side or the left side of the face image area is lower than the threshold value when the disturbance determination area is set above or below the face image area. The driving support apparatus according to claim 7, wherein 第1検出手段は、前記顔画像領域の外側に設定された身体画像検出領域に含まれる運転者の顔以外の身体の動きを検出し、
前記特徴検出手段は、前記第1検出手段により検出された前記身体画像検出領域における前記身体の動きの変化から前記運転者の特徴動作を検出することを特徴とする請求項1〜8の何れか一項に記載の運転支援装置。
The first detection means detects a movement of the body other than the driver's face included in the body image detection area set outside the face image area,
The feature detection means detects the driver's characteristic action from a change in the body movement in the body image detection area detected by the first detection means. The driving support device according to one item.
前記検出制御手段は、第2検出手段により物体が検出された場合であっても、前記運転者の顔以外の身体の動きの変化から前記運転者の特徴動作を検出する処理を続行することを特徴とする請求項9に記載の運転支援装置。   The detection control means continues the process of detecting the driver's characteristic action from a change in the movement of the body other than the driver's face even when the object is detected by the second detection means. The driving support apparatus according to claim 9, wherein the driving support apparatus is characterized.
JP2012014622A 2012-01-26 2012-01-26 Driving support device Pending JP2013156707A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012014622A JP2013156707A (en) 2012-01-26 2012-01-26 Driving support device
PCT/JP2013/051456 WO2013111819A1 (en) 2012-01-26 2013-01-24 Driving assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014622A JP2013156707A (en) 2012-01-26 2012-01-26 Driving support device

Publications (1)

Publication Number Publication Date
JP2013156707A true JP2013156707A (en) 2013-08-15

Family

ID=48873531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014622A Pending JP2013156707A (en) 2012-01-26 2012-01-26 Driving support device

Country Status (2)

Country Link
JP (1) JP2013156707A (en)
WO (1) WO2013111819A1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150125126A1 (en) * 2013-11-07 2015-05-07 Robert Bosch Gmbh Detection system in a vehicle for recording the speaking activity of a vehicle occupant
WO2016038784A1 (en) * 2014-09-11 2016-03-17 株式会社デンソー Driver state determination apparatus
JP2016071577A (en) * 2014-09-30 2016-05-09 マツダ株式会社 Driver state detection method and detection device
WO2016098311A1 (en) * 2014-12-15 2016-06-23 株式会社デンソー Notification device for vehicle and state notification device for vehicle
JP2016115144A (en) * 2014-12-15 2016-06-23 株式会社デンソー State notification device for vehicle
JP2016539446A (en) * 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
JP2017194772A (en) * 2016-04-19 2017-10-26 トヨタ自動車株式会社 Arousal determination apparatus
JP2019091469A (en) * 2018-12-28 2019-06-13 Kddi株式会社 Electronic apparatus, control method and program
US20190197329A1 (en) * 2017-12-22 2019-06-27 Toyota Jidosha Kabushiki Kaisha Drowsiness estimating apparatus
JP2019179235A (en) * 2018-03-20 2019-10-17 麦奇教育集団有限公司Tutor Group Limited Method of real-time supervision of interactive online education
US10558875B2 (en) 2017-05-11 2020-02-11 Hyundai Motor Company System and method for determining state of driver
JP2020514861A (en) * 2016-12-22 2020-05-21 エスアールアイ インターナショナルSRI International Driver monitoring and response system
WO2020144807A1 (en) * 2019-01-10 2020-07-16 三菱電機株式会社 Respiration determination device, occupant state determination device, respiration determination method
JP2021036367A (en) * 2019-08-30 2021-03-04 ダイハツ工業株式会社 Information display system
US10945651B2 (en) 2018-07-05 2021-03-16 Denso Corporation Arousal level determination device
JP2022077281A (en) * 2020-11-11 2022-05-23 株式会社コムテック Detection system
WO2024047856A1 (en) * 2022-09-02 2024-03-07 三菱電機株式会社 Drowsiness estimation device and drowsiness estimation method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6372388B2 (en) * 2014-06-23 2018-08-15 株式会社デンソー Driver inoperability detection device
TWI741892B (en) * 2020-12-01 2021-10-01 咸瑞科技股份有限公司 In-car driving monitoring system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4123076B2 (en) * 2003-06-27 2008-07-23 日産自動車株式会社 Driver status detection device
JP4677940B2 (en) * 2006-03-27 2011-04-27 トヨタ自動車株式会社 Sleepiness detection device

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016539446A (en) * 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
US20150125126A1 (en) * 2013-11-07 2015-05-07 Robert Bosch Gmbh Detection system in a vehicle for recording the speaking activity of a vehicle occupant
WO2016038784A1 (en) * 2014-09-11 2016-03-17 株式会社デンソー Driver state determination apparatus
JP2016057944A (en) * 2014-09-11 2016-04-21 株式会社デンソー Driver state determination device
JP2016071577A (en) * 2014-09-30 2016-05-09 マツダ株式会社 Driver state detection method and detection device
WO2016098311A1 (en) * 2014-12-15 2016-06-23 株式会社デンソー Notification device for vehicle and state notification device for vehicle
JP2016115144A (en) * 2014-12-15 2016-06-23 株式会社デンソー State notification device for vehicle
JP2017194772A (en) * 2016-04-19 2017-10-26 トヨタ自動車株式会社 Arousal determination apparatus
JP2020514861A (en) * 2016-12-22 2020-05-21 エスアールアイ インターナショナルSRI International Driver monitoring and response system
US10558875B2 (en) 2017-05-11 2020-02-11 Hyundai Motor Company System and method for determining state of driver
US20190197329A1 (en) * 2017-12-22 2019-06-27 Toyota Jidosha Kabushiki Kaisha Drowsiness estimating apparatus
US10552694B2 (en) * 2017-12-22 2020-02-04 Toyota Jidosha Kabushiki Kaisha Drowsiness estimating apparatus
JP2019179235A (en) * 2018-03-20 2019-10-17 麦奇教育集団有限公司Tutor Group Limited Method of real-time supervision of interactive online education
US10945651B2 (en) 2018-07-05 2021-03-16 Denso Corporation Arousal level determination device
JP2019091469A (en) * 2018-12-28 2019-06-13 Kddi株式会社 Electronic apparatus, control method and program
JP2021106005A (en) * 2018-12-28 2021-07-26 Kddi株式会社 Electronic apparatus, control method and program
JP7069374B2 (en) 2018-12-28 2022-05-17 Kddi株式会社 Electronic devices, control methods and programs
WO2020144807A1 (en) * 2019-01-10 2020-07-16 三菱電機株式会社 Respiration determination device, occupant state determination device, respiration determination method
JP2021036367A (en) * 2019-08-30 2021-03-04 ダイハツ工業株式会社 Information display system
JP7344051B2 (en) 2019-08-30 2023-09-13 ダイハツ工業株式会社 Information display system
JP2022077281A (en) * 2020-11-11 2022-05-23 株式会社コムテック Detection system
JP7081844B2 (en) 2020-11-11 2022-06-07 株式会社コムテック Detection system
WO2024047856A1 (en) * 2022-09-02 2024-03-07 三菱電機株式会社 Drowsiness estimation device and drowsiness estimation method

Also Published As

Publication number Publication date
WO2013111819A1 (en) 2013-08-01

Similar Documents

Publication Publication Date Title
WO2013111819A1 (en) Driving assistance device
JP5343631B2 (en) Driving assistance device
US11945435B2 (en) Devices and methods for predicting collisions and/or intersection violations
US20210232835A1 (en) Helmet wearing determination method, helmet wearing determination system, helmet wearing determination apparatus, and program
Kaplan et al. Driver behavior analysis for safe driving: A survey
CN106463065B (en) Driving incapability state detection device for driver
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
KR101276770B1 (en) Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection
US20210312193A1 (en) Devices and methods for predicting intersection violations and/or collisions
US20140062704A1 (en) Sleepiness-estimating device and sleepiness-estimating method
US20230166743A1 (en) Devices and methods for assisting operation of vehicles based on situational assessment fusing expoential risks (safer)
CN104239847B (en) Driving warning method and electronic device for vehicle
US20200211354A1 (en) System and method for adjusting reaction time of a driver
Guria et al. Iot-enabled driver drowsiness detection using machine learning
Patel et al. Deep learning based driver drowsiness detection
KR101398783B1 (en) Obstacle avoidance detection system and method using driver attention and direction of front car for semi-active safety
US20210309221A1 (en) Devices and methods for determining region of interest for object detection in camera images
Diddi et al. Head pose and eye state monitoring (HEM) for driver drowsiness detection: Overview
EP4260298A1 (en) Occlusion-aware prediction of human behavior
JP7192668B2 (en) Arousal level determination device
US20170256166A1 (en) Information processing apparatus, information processing method, and computer program product
JP6689470B1 (en) Information processing apparatus, program, and information processing method
US20200210737A1 (en) System and method for monitoring driver inattentiveness using physiological factors
Srilakshmi et al. Automated Driver Drowsiness Detection System using Computer Vision and Machine Learning
Himaswi et al. Deep Learning-Based Drowsiness Detection System Using IoT