JP7046748B2 - Driver status determination device and driver status determination method - Google Patents

Driver status determination device and driver status determination method Download PDF

Info

Publication number
JP7046748B2
JP7046748B2 JP2018135513A JP2018135513A JP7046748B2 JP 7046748 B2 JP7046748 B2 JP 7046748B2 JP 2018135513 A JP2018135513 A JP 2018135513A JP 2018135513 A JP2018135513 A JP 2018135513A JP 7046748 B2 JP7046748 B2 JP 7046748B2
Authority
JP
Japan
Prior art keywords
driver
state
value
unit
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018135513A
Other languages
Japanese (ja)
Other versions
JP2020010865A (en
Inventor
顕至 大熊
日淑 江▲崎▼
▲ウェイ▼峰 章
直規 菊地
克也 池信
隆 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018135513A priority Critical patent/JP7046748B2/en
Publication of JP2020010865A publication Critical patent/JP2020010865A/en
Application granted granted Critical
Publication of JP7046748B2 publication Critical patent/JP7046748B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Emergency Alarm Devices (AREA)

Description

本発明は、運転者状態判定装置および運転者状態判定方法に関する。 The present invention relates to a driver state determination device and a driver state determination method.

従来から、運転者が安全に運転を行うために、運転者の眠気の有無を判定するための各種装置が提案されている。例えば、特許文献1には、運転者の開眼量を検出し、開眼量とその検出頻度との分布を曲線で近似し、その曲線における極大値の変化度合いから、運転者が眠気を感じているかを判定する状態推定装置が開示されている。 Conventionally, various devices for determining whether or not a driver is drowsy have been proposed so that the driver can drive safely. For example, in Patent Document 1, the driver's eye opening amount is detected, the distribution of the eye opening amount and the detection frequency is approximated by a curve, and whether the driver feels drowsy from the degree of change in the maximum value in the curve. A state estimation device for determining the above is disclosed.

特開2008-99884号公報Japanese Unexamined Patent Publication No. 2008-99884

しかし、上記状態推定装置では、運転者が俯くなどして顔部分がカメラにより検出できない場合には、運転者が眠気を感じていても、それを見過ごしてしまう虞がある。しかし、カメラを複数取り付けて、その各々により撮像され生成された画像データを用いて処理を行う場合、処理負荷が増大する虞がある。 However, in the above-mentioned state estimation device, when the face portion cannot be detected by the camera due to the driver standing down, even if the driver feels drowsy, there is a risk of overlooking it. However, when a plurality of cameras are attached and processing is performed using the image data captured and generated by each of them, the processing load may increase.

本発明は、処理負荷を低減しつつ、運転者の状態を総合的に観察して運転者の状態を判定する運転者状態判定装置および運転者状態判定方法を提供することを目的とする。 An object of the present invention is to provide a driver state determination device and a driver state determination method for comprehensively observing a driver's condition and determining the driver's condition while reducing the processing load.

本発明の第1の態様は、運転者の第1状態を検出する第1運転者状態検出手段と、前記運転者の第2状態を検出する第2運転者状態検出手段と、を備える運転者状態判定装置であって、前記第1状態を示す値が第1閾値以上の場合に、前記第2運転者状態検出手段を作動させる。 A first aspect of the present invention is a driver including a first driver state detecting means for detecting a first state of a driver and a second driver state detecting means for detecting a second state of the driver. In the state determination device, when the value indicating the first state is equal to or higher than the first threshold value, the second driver state detecting means is operated.

本発明の第2の態様は、運転者の第1状態を検出する第1運転者状態検出ステップと、前記運転者の第2状態を検出する第2運転者状態検出ステップと、を含む、運転者状態判定装置により実行される運転者状態判定方法であって、前記第1状態を示す値が第1閾値以上の場合に、前記第2運転者状態検出ステップを実行する。 A second aspect of the present invention includes an operation including a first driver state detection step for detecting the first state of the driver and a second driver state detection step for detecting the second state of the driver. It is a driver state determination method executed by the person state determination device, and when the value indicating the first state is equal to or greater than the first threshold value, the second driver state detection step is executed.

本発明によれば、処理負荷を低減しつつ、運転者の状態を総合的に観察して運転者の状態を判定することができる。 According to the present invention, it is possible to comprehensively observe the state of the driver and determine the state of the driver while reducing the processing load.

本実施形態に係る運転者状態判定装置の機能ブロックを示す図である。It is a figure which shows the functional block of the driver state determination apparatus which concerns on this embodiment. 本実施形態に係る運転者状態判定装置による処理を示すフローチャートである。It is a flowchart which shows the process by the driver state determination apparatus which concerns on this embodiment. 本実施形態の一例に係る運転者状態判定装置の機能ブロックを示す図である。It is a figure which shows the functional block of the driver state determination apparatus which concerns on an example of this embodiment. 本実施形態の一例に係る運転者状態判定装置による処理を示すフローチャートである。It is a flowchart which shows the process by the driver state determination apparatus which concerns on an example of this embodiment.

本発明に係る運転者状態判定装置および運転者状態判定方法について、好適な実施形態を掲げ、添付の図面を参照しながら以下、詳細に説明する。 A suitable embodiment of the driver state determination device and the driver state determination method according to the present invention will be described in detail below with reference to the accompanying drawings.

[実施形態]
図1は、本実施形態に係る運転者状態判定装置10の機能ブロックを示す図である。運転者状態判定装置10は、第1運転者状態検出部12および第2運転者状態検出部14等を備える。なお、以下の説明においては、運転者状態判定装置10が搭載される対象は車両であるとするが、これには限らない。
[Embodiment]
FIG. 1 is a diagram showing a functional block of the driver state determination device 10 according to the present embodiment. The driver state determination device 10 includes a first driver state detection unit 12, a second driver state detection unit 14, and the like. In the following description, it is assumed that the target on which the driver state determination device 10 is mounted is a vehicle, but the present invention is not limited to this.

第1運転者状態検出部12は、運転者の第1状態を検出する。第1状態は、運転者の意識状態に対応する状態であって、例えば、運転者の顔の表情、自動ブレーキの作動回数または作動時間、車両の周辺状況に応じない運転者による運転操作等が挙げられる。 The first driver state detection unit 12 detects the first state of the driver. The first state corresponds to the state of consciousness of the driver, for example, the facial expression of the driver, the number of times or the operation time of the automatic brake, the driving operation by the driver regardless of the surrounding situation of the vehicle, and the like. Can be mentioned.

第2運転者状態検出部14は、運転者の第2状態を検出する。第2状態は、運転者の意識状態に対応する状態であって、例えば、運転者の上半身の姿勢、および運転者の仕草等が挙げられる。 The second driver state detection unit 14 detects the second state of the driver. The second state corresponds to the state of consciousness of the driver, and examples thereof include the posture of the upper body of the driver and the gesture of the driver.

運転者状態判定装置10は、上記第1状態を示す値が所定の閾値(第1閾値とも記載する)以上になった場合、第2運転者状態検出部14を作動させる。 The driver state determination device 10 operates the second driver state detection unit 14 when the value indicating the first state becomes equal to or higher than a predetermined threshold value (also referred to as the first threshold value).

図2は、本実施形態に係る運転者状態判定装置10による処理を示すフローチャートである。ステップS1において、第1運転者状態検出部12は、第1状態を検出する。第1状態を示す値が第1閾値以上の場合に(ステップS2:YES)、第2運転者状態検出部14は、動作を実行する(ステップS3)。第1状態を示す値が第1閾値未満の場合(ステップS2:NO)、運転者状態判定装置10の処理は、ステップS1に戻る。 FIG. 2 is a flowchart showing processing by the driver state determination device 10 according to the present embodiment. In step S1, the first driver state detection unit 12 detects the first state. When the value indicating the first state is equal to or greater than the first threshold value (step S2: YES), the second driver state detection unit 14 executes the operation (step S3). When the value indicating the first state is less than the first threshold value (step S2: NO), the process of the driver state determination device 10 returns to step S1.

以下、上記運転者状態判定装置10について詳細に説明する。図3は、本実施形態の一例に係る運転者状態判定装置10の機能ブロックを示す図である。運転者状態判定装置10は、撮像部16、車両周辺センサ18、ブレーキセンサ20、ハンドルセンサ22、自動ブレーキセンサ24、およびECU(Electronic Control Unit)26等を備える。 Hereinafter, the driver state determination device 10 will be described in detail. FIG. 3 is a diagram showing a functional block of the driver state determination device 10 according to an example of the present embodiment. The driver state determination device 10 includes an image pickup unit 16, a vehicle peripheral sensor 18, a brake sensor 20, a handle sensor 22, an automatic brake sensor 24, an ECU (Electronic Control Unit) 26, and the like.

撮像部16は、例えば、CCD(Charge Coupled Device)カメラであり、運転席の前の、インスツルメントパネル上部、ダッシュボード、バックミラー付近、フロントガラス近傍の天井部分等に設けられ、運転席に着座した運転者の上半身を撮像する。撮像部16は、ECU26からの制御に応じて適宜、運転者の顔部分を拡大して撮像する。また、撮像部16は、時間的に連続して撮像処理を実行し、撮像して得た画像データをECU26に随時出力する。撮像部16は、各時刻において撮像して生成した画像データとともに当該時刻のデータをECU26に出力してもよい。 The image pickup unit 16 is, for example, a CCD (Charge Coupled Device) camera, which is provided in the upper part of the instrument panel, the dashboard, the vicinity of the rear-view mirror, the ceiling portion near the windshield, etc. in front of the driver's seat, and is provided in the driver's seat. The upper body of the seated driver is imaged. The image pickup unit 16 appropriately magnifies and captures the driver's face portion according to the control from the ECU 26. Further, the image pickup unit 16 continuously executes the image pickup process in time, and outputs the image data obtained by the image pickup to the ECU 26 at any time. The image pickup unit 16 may output the data of the time to the ECU 26 together with the image data obtained by taking a picture at each time.

車両周辺センサ18は、車両の周辺状況を検出する。ブレーキセンサ20は、運転者による、ブレーキペダルの操作など、手動での車両停止処理を検出する。ハンドルセンサ22は、運転者によるハンドル操作を検出する。自動ブレーキセンサ24は、自動ブレーキの作動を検出する。 The vehicle peripheral sensor 18 detects the peripheral condition of the vehicle. The brake sensor 20 detects a manual vehicle stop process such as operation of the brake pedal by the driver. The steering wheel sensor 22 detects the steering wheel operation by the driver. The automatic brake sensor 24 detects the operation of the automatic brake.

ECU26は、撮像部16から入力された画像データや、車両周辺センサ18が検出した周辺状況に応じたブレーキセンサ20やハンドルセンサ22の各検出結果や、自動ブレーキセンサ24の検出結果等を用いて、運転者の状態について判定を行い、運転者の状態を運転に適した状態へ導くための処理を実行する。このような処理を実行するため、ECU26は、画像処理部28、撮像制御部30、表情データ導出部32、運転操作データ導出部34、自動ブレーキ作動データ導出部36、記憶部38、姿勢データ導出部40、状態判定部42、および覚醒支援部44等を備える。 The ECU 26 uses the image data input from the image pickup unit 16, the detection results of the brake sensor 20 and the handle sensor 22 according to the peripheral conditions detected by the vehicle peripheral sensor 18, the detection results of the automatic brake sensor 24, and the like. , The state of the driver is determined, and the process for guiding the state of the driver to a state suitable for driving is executed. In order to execute such processing, the ECU 26 includes an image processing unit 28, an image pickup control unit 30, a facial expression data derivation unit 32, a driving operation data derivation unit 34, an automatic brake operation data derivation unit 36, a storage unit 38, and a posture data derivation unit. A unit 40, a state determination unit 42, an awakening support unit 44, and the like are provided.

ECU26は、例えば、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ、各種インターフェース等により構成することができる。メモリは、記憶部38の機能を実現する。プロセッサは、メモリに記憶されたプログラムや各種情報を用いて処理を実行することにより、画像処理部28、表情データ導出部32、運転操作データ導出部34、自動ブレーキ作動データ導出部36、姿勢データ導出部40、状態判定部42の各機能を実現する。また、プロセッサは、メモリに記憶されたプログラムや各種情報を用いて処理を実行し、各種インターフェースを介することにより、撮像制御部30、覚醒支援部44の各機能を実現する。 The ECU 26 can be configured by, for example, a processor such as a CPU (Central Processing Unit), a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory), various interfaces, and the like. The memory realizes the function of the storage unit 38. The processor executes processing using the program and various information stored in the memory, so that the image processing unit 28, the facial expression data derivation unit 32, the driving operation data derivation unit 34, the automatic brake operation data derivation unit 36, and the attitude data Each function of the derivation unit 40 and the state determination unit 42 is realized. In addition, the processor executes processing using programs and various information stored in the memory, and realizes each function of the image pickup control unit 30 and the awakening support unit 44 through various interfaces.

画像処理部28は、撮像部16から入力された画像データの画像処理を行う。画像処理部28は、撮像部16から入力された画像データから、運転者の顔部分を検出する。画像処理部28は、検出した運転者の顔部分から、例えば目元部分を検出する。なお、本実施形態の一例における顔部分には、目元部分が含まれるとする。 The image processing unit 28 performs image processing of the image data input from the image pickup unit 16. The image processing unit 28 detects the driver's face portion from the image data input from the image pickup unit 16. The image processing unit 28 detects, for example, an eye portion from the detected face portion of the driver. In addition, it is assumed that the face portion in the example of the present embodiment includes the eye portion.

撮像制御部30は、画像処理部28が検出した運転者の顔部分を拡大して撮像するよう撮像部16を制御する。 The image pickup control unit 30 controls the image pickup unit 16 so as to magnify and take an image of the driver's face portion detected by the image processing unit 28.

画像処理部28は、撮像部16から顔部分の画像データを取得し、画像処理後の当該画像データを表情データ導出部32に出力する。また画像処理部28は、撮像部16が拡大機能を用いずに撮像した上半身の画像データに画像処理を行い、姿勢データ導出部40に出力する。画像処理部28は、撮像部16から入力された画像データと、その画像データが入力された時刻に係るデータとを対応付けて、表情データ導出部32および姿勢データ導出部40に出力する。 The image processing unit 28 acquires the image data of the face portion from the image pickup unit 16 and outputs the image data after the image processing to the facial expression data derivation unit 32. Further, the image processing unit 28 performs image processing on the image data of the upper body imaged by the image pickup unit 16 without using the enlargement function, and outputs the image data to the posture data derivation unit 40. The image processing unit 28 associates the image data input from the image pickup unit 16 with the data related to the time when the image data is input, and outputs the data to the facial expression data derivation unit 32 and the posture data derivation unit 40.

表情データ導出部32は、運転者の顔部分の画像データを用いて、運転者の瞼の開度を導出する。本実施形態の一例では、開度は、運転者の上瞼と下瞼との間の最大長の部分(最大長部分)の画素数または長さとする。ただし、撮像部16の拡大の倍率の値により適宜重み付けがされるとする。また開度は、画像処理部28から取得した画像データにおける上下瞼間の最大長部分の画素数または長さの、眠気を感じていない状態での運転者の画像データにおける上下瞼間の最大長部分の画素数または長さに対する割合としてもよい。この場合、予め、眠気を感じていない状態の運転者の画像データが、後述する記憶部38に記憶されている。また開度は、画像処理部28から取得した画像データの拡大に係る倍率と、眠気を感じていない状態の運転者の画像データの拡大に係る倍率とを合わせ、導出される。 The facial expression data deriving unit 32 derives the opening degree of the driver's eyelids by using the image data of the driver's face portion. In one example of the present embodiment, the opening degree is the number of pixels or the length of the maximum length portion (maximum length portion) between the upper eyelid and the lower eyelid of the driver. However, it is assumed that weighting is appropriately performed according to the value of the magnification of the enlargement of the image pickup unit 16. Further, the opening degree is the maximum length between the upper and lower eyelids in the image data of the driver in a state where he / she does not feel drowsiness, which is the number of pixels or the length of the maximum length portion between the upper and lower eyelids in the image data acquired from the image processing unit 28. It may be a ratio to the number of pixels or the length of the portion. In this case, the image data of the driver who does not feel drowsy is stored in advance in the storage unit 38, which will be described later. Further, the opening degree is derived by combining the magnification related to the enlargement of the image data acquired from the image processing unit 28 and the magnification related to the enlargement of the image data of the driver who does not feel drowsy.

表情データ導出部32は、所定時間において瞼の開度が所定の開度以下になる頻度と、瞼の開度が所定の開度以下となっている状態の維持時間の少なくとも一方を導出する。これら頻度と維持時間は、運転者の眠気の度合いを示す第1指標の例である。なお、第1指標は、顔部分の画像データや、運転者の運転操作に関する情報や、自動ブレーキの作動状況等から得られるものである。第1指標は、他にも例えば、画像データにおいて検出された目元部分において、瞳孔部分を検出できなくなる頻度や、瞳孔部分を検出できない状態の維持時間等であってもよい。また表情データ導出部32は、導出された第1指標の値が眠気の有無や強弱の判定のためには不明確である度合いを示す不明確度を導出してもよい。この不明確度は、第1状態を示す値の一例である。 The facial expression data deriving unit 32 derives at least one of the frequency with which the eyelid opening is equal to or less than the predetermined opening in a predetermined time and the maintenance time with the eyelid opening being equal to or less than the predetermined opening. These frequencies and maintenance times are examples of first indicators of the degree of drowsiness of the driver. The first index is obtained from image data of the face portion, information on the driving operation of the driver, the operation status of the automatic brake, and the like. The first index may also be, for example, the frequency at which the pupil portion cannot be detected in the eye portion detected in the image data, the maintenance time in which the pupil portion cannot be detected, or the like. Further, the facial expression data deriving unit 32 may derive an ambiguity indicating the degree to which the derived value of the first index is unclear for determining the presence or absence of drowsiness and the strength. This ambiguity is an example of a value indicating the first state.

運転操作データ導出部34は、車両周辺センサ18が検出した周辺状況(例えば、前方に障害物があるような状況)に応じたブレーキまたはハンドルの操作をブレーキセンサ20またはハンドルセンサ22が検出しない場合や検出が遅れたような場合に、その不検出の回数(以下、不検出回数とも記載する)や、検出の遅延時間(以下、遅延時間とも記載する)を導出する。これらの不検出回数と遅延時間は、第1指標の例である。また、運転操作データ導出部34は、導出された第1指標の値が眠気の有無や強弱の判定のためには不明確である度合いを示す不明確度を導出してもよい。この不明確度は、第1状態を示す値の一例である。 When the brake sensor 20 or the steering wheel sensor 22 does not detect the operation of the brake or the steering wheel according to the peripheral situation (for example, a situation where there is an obstacle in front) detected by the vehicle peripheral sensor 18 in the driving operation data derivation unit 34. When the detection is delayed, the number of non-detections (hereinafter, also referred to as the number of non-detections) and the delay time of detection (hereinafter, also referred to as the delay time) are derived. These non-detection times and delay times are examples of the first index. Further, the driving operation data deriving unit 34 may derive an ambiguity indicating the degree to which the derived value of the first index is unclear for determining the presence or absence of drowsiness and the strength of the drowsiness. This ambiguity is an example of a value indicating the first state.

自動ブレーキ作動データ導出部36は、自動ブレーキセンサ24が検出した自動ブレーキの作動回数、作動時間、または作動頻度(所定時間あたりの作動回数)を導出する。これらの作動回数、作動時間、および作動頻度は、第1指標の例である。また、自動ブレーキ作動データ導出部36は、導出された第1指標の値が眠気の有無や強弱の判定のためには不明確である度合いを示す不明確度を導出してもよい。この不明確度は、第1状態を示す値の一例である。 The automatic brake operation data derivation unit 36 derives the operation number, operation time, or operation frequency (operation number per predetermined time) of the automatic brake detected by the automatic brake sensor 24. The number of times of operation, the operation time, and the frequency of operation are examples of the first index. Further, the automatic brake operation data derivation unit 36 may derive an unclearness indicating the degree to which the derived value of the first index is unclear for determining the presence or absence of drowsiness and the strength. This ambiguity is an example of a value indicating the first state.

記憶部38は、運転者が強い眠気を感じている場合を示す第1指標の下限値(第2閾値とも記載する)と、運転者が少し眠気を感じている場合を示す第1指標の下限値(第3閾値とも記載する)とを記憶する。記憶部38は、顔部分の画像データから得られる第1指標と、運転操作に係る情報から得られる第1指標と、自動ブレーキの作動状況に係る情報から得られる第1指標のうちの少なくとも1つの第2、3閾値を記憶する。なお、これら第2、3閾値として、実験や機械学習等により予め得られた値等が用いられる。 The storage unit 38 has a lower limit value of the first index (also referred to as a second threshold value) indicating the case where the driver feels strong drowsiness, and a lower limit value of the first index indicating the case where the driver feels a little drowsy. The value (also referred to as the third threshold value) is stored. The storage unit 38 has at least one of a first index obtained from the image data of the face portion, a first index obtained from the information related to the driving operation, and a first index obtained from the information related to the operation status of the automatic brake. Memorize the second and third thresholds. As these second and third threshold values, values obtained in advance by experiments, machine learning, etc. are used.

記憶部38は、顔部分の画像データから眠気の有無や強弱を判定できない場合の不明確度の下限値、運転操作に係る情報から眠気の有無や強弱を判定できない場合における不明確度の下限値、自動ブレーキの作動状況から眠気の有無や強弱を判定できない場合における不明確度の下限値、のうちの少なくとも1つを記憶する。これらの場合の各不明確度の下限値は、第1閾値の例である。本実施形態の一例では、画像処理部28が顔部分を検出できない場合、および、表情データ導出部32により導出された第1指標の値が第3閾値以上で第2閾値未満の場合に、不明確度は第1閾値以上になる。同様に、運転操作データ導出部34により導出された第1指標の値が第3閾値以上で第2閾値未満の場合に、不明確度は第1閾値以上になる。また同様に、自動ブレーキ作動データ導出部36により導出された第1指標の値が第3閾値以上で第2閾値未満の場合に、不明確度は第1閾値以上になる。ただし、これらに、限定されない。 The storage unit 38 has a lower limit of the degree of ambiguity when the presence or absence of drowsiness and the strength cannot be determined from the image data of the face portion, and a lower limit of the degree of ambiguity when the presence or absence of drowsiness and the strength cannot be determined from the information related to the driving operation. , At least one of the lower limit of the unclearness when it is not possible to determine the presence or absence of drowsiness or the strength of the automatic brake from the operating status of the automatic brake is stored. The lower limit of each ambiguity in these cases is an example of the first threshold. In one example of the present embodiment, it is not possible when the image processing unit 28 cannot detect the face portion and when the value of the first index derived by the facial expression data derivation unit 32 is equal to or more than the third threshold value and less than the second threshold value. The clarity is greater than or equal to the first threshold. Similarly, when the value of the first index derived by the driving operation data derivation unit 34 is equal to or greater than the third threshold value and less than the second threshold value, the degree of ambiguity is equal to or greater than the first threshold value. Similarly, when the value of the first index derived by the automatic braking operation data derivation unit 36 is equal to or greater than the third threshold value and less than the second threshold value, the degree of ambiguity becomes equal to or greater than the first threshold value. However, it is not limited to these.

姿勢データ導出部40は、画像処理部28によって処理された、運転者の上半身の画像データから運転者の姿勢を検出する。なお、姿勢には、顔の向きが含まれるとする。姿勢データ導出部40は、検出した姿勢が、眠気を感じていない状態における姿勢からどれだけ逸脱しているかの度合いを導出する。例えば、姿勢データ導出部40は、車両の進行方向からの運転者の顔の向きのずれの度合いを検出する。この度合いが安全の上で許容される一定の限度以上の場合、姿勢データ導出部40は、逸脱が発生している継続時間を導出する。この継続時間は、運転者の眠気の度合いを示す第2指標の例である。 The posture data derivation unit 40 detects the posture of the driver from the image data of the upper body of the driver processed by the image processing unit 28. It is assumed that the posture includes the direction of the face. The posture data deriving unit 40 derives the degree to which the detected posture deviates from the posture in the state of not feeling drowsiness. For example, the posture data deriving unit 40 detects the degree of deviation of the driver's face from the traveling direction of the vehicle. When this degree is equal to or higher than a certain limit allowed for safety, the attitude data deriving unit 40 derives the duration in which the deviation occurs. This duration is an example of a second indicator of the degree of drowsiness of the driver.

姿勢データ導出部40は、一定時間以上の画像データから、運転者が眠気を感じている場合に行う仕草を検出する。この仕草の例としては、あくびや、首の力が抜けることによって顔面がそれまでの位置から突然に下や斜め下等を向いてしまう動作や、体の力が抜けることにより突然に体が傾く動作などがある。 The posture data deriving unit 40 detects the gesture to be performed when the driver feels drowsy from the image data for a certain period of time or longer. Examples of this gesture are yawning, the movement of the face suddenly turning downward or diagonally downward from the previous position due to the weakness of the neck, and the sudden tilting of the body due to the weakness of the body. There are operations and so on.

記憶部38は、覚醒状態における姿勢に係る情報を、例えば車の挙動(前進、カーブ等)に対応付けて記憶する。なお、この覚醒状態における姿勢は、一種類の車の挙動に対し、1以上であってもよい。この覚醒状態における姿勢には、例えば、車両の進行方向に顔が向けられている姿勢がある。記憶部38は、覚醒状態における姿勢から逸脱した様々な姿勢の逸脱度合いのうち、最小値(逸脱下限値とも記載する)を記憶する。覚醒状態における姿勢に係る情報や、逸脱下限値に係る情報は、例えば機械学習や実験等によって予め得られている。記憶部38は、覚醒状態における姿勢に係る情報や、覚醒状態における姿勢からの逸脱下限値に代えて、覚醒状態における姿勢から逸脱した姿勢に係る情報を記憶してもよい。 The storage unit 38 stores information related to the posture in the awake state in association with, for example, the behavior of the vehicle (forward movement, curve, etc.). The posture in this awake state may be 1 or more with respect to the behavior of one type of vehicle. The posture in this awake state includes, for example, a posture in which the face is turned in the traveling direction of the vehicle. The storage unit 38 stores the minimum value (also referred to as a deviation lower limit value) among the deviation degrees of various postures deviating from the posture in the awake state. Information on the posture in the awake state and information on the lower limit of deviation are obtained in advance by, for example, machine learning or an experiment. The storage unit 38 may store information related to the posture in the awake state and information related to the posture deviating from the posture in the awake state instead of the lower limit value of deviation from the posture in the awake state.

記憶部38は、姿勢に係る画像データに基づく、運転者の眠気の有無を区別するための情報(第4閾値とする)を記憶する。第4閾値は、覚醒状態で取りうる姿勢から逸脱した姿勢の継続時間であって、眠気を感じ始めている状態における継続時間等が挙げられる。また、記憶部38は、運転者が眠気を感じている場合や睡眠状態に行う仕草に係る情報を記憶する。なお、第4閾値や仕草に係る情報等は、例えば機械学習や実験等により予め得られている。 The storage unit 38 stores information (which is set as a fourth threshold value) for distinguishing the presence or absence of drowsiness of the driver based on the image data related to the posture. The fourth threshold value is the duration of the posture deviating from the posture that can be taken in the awake state, and includes the duration in the state of starting to feel drowsiness. In addition, the storage unit 38 stores information related to gestures performed when the driver feels drowsy or in a sleeping state. It should be noted that the fourth threshold value, information related to gestures, and the like are obtained in advance by, for example, machine learning or experiments.

状態判定部42は、表情データ導出部32が導出した第1指標の値が、第2、3閾値以上か否かを判定する。あるいは、状態判定部42は、第1状態を示す値が、第1閾値以上か否かを判定する。 The state determination unit 42 determines whether or not the value of the first index derived by the facial expression data derivation unit 32 is equal to or higher than the second and third threshold values. Alternatively, the state determination unit 42 determines whether or not the value indicating the first state is equal to or higher than the first threshold value.

状態判定部42は、第1指標の値が第2閾値未満で第3閾値以上の場合、または画像処理部28が運転者の顔部分を検出できなかった場合に、姿勢データ導出部40に対し第2指標の値の導出を指示する。状態判定部42は、姿勢データ導出部40が導出した第2指標の値が第4閾値以上か否かを判定する。 The state determination unit 42 refers to the posture data derivation unit 40 when the value of the first index is less than the second threshold value and equal to or higher than the third threshold value, or when the image processing unit 28 cannot detect the driver's face portion. Instruct the derivation of the value of the second index. The state determination unit 42 determines whether or not the value of the second index derived by the posture data derivation unit 40 is equal to or greater than the fourth threshold value.

状態判定部42は、第1指標の値が第2閾値以上の場合、あるいは第2指標の値が第4閾値以上の場合に、運転者が眠気を感じていると判定する。状態判定部42は、姿勢データ導出部40が、運転者が眠気を感じている場合に行う仕草を検出した場合に、運転者が眠気を感じていると判定する。 The state determination unit 42 determines that the driver feels drowsy when the value of the first index is equal to or higher than the second threshold value or when the value of the second index is equal to or higher than the fourth threshold value. The state determination unit 42 determines that the driver feels drowsy when the posture data derivation unit 40 detects a gesture to be performed when the driver feels drowsiness.

覚醒支援部44は、状態判定部42により運転者が眠気を感じていると判定された場合に、運転者を覚醒させるため、制御対象装置群46に含まれる制御対象装置を制御し所定の動作を実行させる。例えば、覚醒支援部44は、制御対象装置群46に含まれるオーディオ装置等を制御して音を出力させてもよい。また、覚醒支援部44は、人工知能(AI:Artificial Intelligence)や知的エージェント(IA:Intelligent Agent)等の技術を用いて、制御対象装置群46に含まれるオーディオ装置やナビゲーション装置等を制御して、運転者との会話を実行させてもよい。 The awakening support unit 44 controls the control target device included in the control target device group 46 to awaken the driver when the state determination unit 42 determines that the driver is drowsy, and performs a predetermined operation. To execute. For example, the awakening support unit 44 may control an audio device or the like included in the controlled target device group 46 to output sound. Further, the awakening support unit 44 controls an audio device, a navigation device, and the like included in the controlled target device group 46 by using technologies such as artificial intelligence (AI) and intelligent agent (IA). And may have a conversation with the driver.

また、制御対象装置群46に含まれる制御対象装置として、運転席にマッサージ機器が内蔵されていてもよく、覚醒支援部44はこのマッサージ機器を動作させてもよい。また、制御対象装置群46に含まれる制御対象装置として、車両に覚醒用の香りを拡散するアロマ用ディフューザーが設けられていてもよく、覚醒支援部44は当該ディフューザーを動作させてもよい。また、制御対象装置群46に含まれる制御対象装置として、運転席に対向して照明機器が設けられていてもよく、覚醒支援部44は、当該照明機器を制御して運転者に光を照射させてもよい。 Further, as the control target device included in the control target device group 46, a massage device may be built in the driver's seat, and the awakening support unit 44 may operate this massage device. Further, as the control target device included in the control target device group 46, an aroma diffuser that diffuses the awakening scent may be provided in the vehicle, and the awakening support unit 44 may operate the diffuser. Further, as the control target device included in the control target device group 46, a lighting device may be provided facing the driver's seat, and the awakening support unit 44 controls the lighting device to irradiate the driver with light. You may let me.

覚醒支援部44は、上述した音の出力や対話の実行等の処理の後、ナビゲーション装置を制御し、停車のための路肩や休憩所についての案内処理を実行させてもよい。 The awakening support unit 44 may control the navigation device after the above-mentioned processing such as sound output and execution of dialogue, and may execute guidance processing for a road shoulder or a resting place for stopping.

図4は、本実施形態の一例に係る運転者状態判定装置10による処理を示すフローチャートである。運転者状態判定装置10は、車両のエンジン作動により、その動作を開始する。ステップS11において、撮像部16は、上半身を撮像する。画像処理部28は、撮像部16が撮像して生成した画像データに適宜処理を施し、運転者の顔部分の検出処理を行う(ステップS12)。 FIG. 4 is a flowchart showing processing by the driver state determination device 10 according to an example of the present embodiment. The driver state determination device 10 starts its operation when the engine of the vehicle is operated. In step S11, the imaging unit 16 images the upper body. The image processing unit 28 appropriately processes the image data imaged and generated by the image pickup unit 16 to detect the driver's face portion (step S12).

画像処理部28が顔部分を検出した場合(ステップS13:YES)、運転者状態判定装置10による処理はステップS14に移行する。画像処理部28が顔部分を検出できなかった場合(ステップS13:NO)、運転者状態判定装置10による処理はステップS17に移行する。 When the image processing unit 28 detects the face portion (step S13: YES), the processing by the driver state determination device 10 shifts to step S14. When the image processing unit 28 cannot detect the face portion (step S13: NO), the processing by the driver state determination device 10 proceeds to step S17.

ステップS14において、表情データ導出部32、運転操作データ導出部34、自動ブレーキ作動データ導出部36は、それぞれ、各第1指標の値を導出する。ステップS15において状態判定部42により第1指標の値が第2閾値以上であると判定された場合(ステップS15:YES)、ステップS21において覚醒支援部44による上述した一定の制御動作が実行される。その後、運転者状態判定装置10による処理は、所定時間経過後、ステップS11以降の処理に移行する。 In step S14, the facial expression data derivation unit 32, the driving operation data derivation unit 34, and the automatic brake operation data derivation unit 36 each derive the value of each first index. When the state determination unit 42 determines in step S15 that the value of the first index is equal to or greater than the second threshold value (step S15: YES), the above-mentioned constant control operation by the awakening support unit 44 is executed in step S21. .. After that, the process by the driver state determination device 10 shifts to the process after step S11 after the elapse of a predetermined time.

状態判定部42により、第1指標の値が、第2閾値未満であって(ステップS15:NO)、第3閾値未満であると判定された場合(ステップS16:NO)、運転者状態判定装置10の処理はステップS11に戻る。状態判定部42により、第1指標の値が、第2閾値未満であって(ステップS15:NO)、第3閾値以上であると判定された場合(ステップS16:YES)、運転者状態判定装置10の処理はステップS17に移行する。 When the value of the first index is less than the second threshold value (step S15: NO) and is determined by the state determination unit 42 to be less than the third threshold value (step S16: NO), the driver state determination device The process of 10 returns to step S11. When the value of the first index is less than the second threshold value (step S15: NO) and is determined by the state determination unit 42 to be equal to or higher than the third threshold value (step S16: YES), the driver state determination device The process of 10 proceeds to step S17.

ステップS17において姿勢データ導出部40は、ステップS11で撮像部16により撮像され生成された、運転者の上半身の画像データを用いて、第2指標の値を導出する。ステップS18において状態判定部42により第2指標の値が第4閾値以上と判定された場合(ステップS18:YES)、ステップS21において覚醒支援部44による上述した一定の制御動作が実行される。その後、運転者状態判定装置10による処理は、所定時間経過後、ステップS11以降の処理に移行する。 In step S17, the posture data derivation unit 40 derives the value of the second index by using the image data of the upper body of the driver, which is imaged and generated by the image pickup unit 16 in step S11. When the value of the second index is determined by the state determination unit 42 in step S18 to be equal to or higher than the fourth threshold value (step S18: YES), the above-mentioned constant control operation by the awakening support unit 44 is executed in step S21. After that, the process by the driver state determination device 10 shifts to the process after step S11 after the elapse of a predetermined time.

ステップS18において状態判定部42により第2指標の値が第4閾値未満と判定された場合(ステップS18:NO)、姿勢データ導出部40は、運転者の眠気を示す仕草の検出処理を実行する(ステップS19)。この検出処理においては、一定時間における複数の画像データが用いられる。この複数の画像データには、ステップS17において第2指標の値の導出に用いられた最新の画像データの他に、この画像データより以前に撮像された画像データが含まれる。 When the value of the second index is determined to be less than the fourth threshold value by the state determination unit 42 in step S18 (step S18: NO), the posture data derivation unit 40 executes a gesture detection process indicating drowsiness of the driver. (Step S19). In this detection process, a plurality of image data at a fixed time are used. The plurality of image data includes the latest image data used for deriving the value of the second index in step S17, as well as image data captured before the image data.

次のステップS20において姿勢データ導出部40が運転者の眠気を示す仕草を検出した場合には(ステップS20:YES)、ステップS21において覚醒支援部44による上述した一定の制御動作が実行される。その後、運転者状態判定装置10による処理は、所定時間経過後、ステップS11以降の処理に移行する。ステップS20において運転者の眠気を示す仕草が検出されなかった場合には(ステップS20:NO)、運転者状態判定装置10の処理はステップS11に戻る。 When the posture data deriving unit 40 detects a gesture indicating drowsiness of the driver in the next step S20 (step S20: YES), the above-mentioned constant control operation by the awakening support unit 44 is executed in step S21. After that, the process by the driver state determination device 10 shifts to the process after step S11 after the elapse of a predetermined time. If the gesture indicating drowsiness of the driver is not detected in step S20 (step S20: NO), the process of the driver state determination device 10 returns to step S11.

本実施形態に係る運転者状態判定装置10は、運転者の第1状態の検出処理を実行し、第1状態を示す値が第1閾値以上の場合に、第2運転者状態検出部14を作動させて、第2状態の検出処理を実行させる。第1状態を示す値は、例えば、運転者の顔の画像データから導出される眠気の度合いの不明確度、運転者の運転操作データから導出される眠気の度合いの不明確度である。第2状態は、例えば、運転者の上半身の姿勢の状態、および運転者の仕草の状態である。 The driver state determination device 10 according to the present embodiment executes the detection process of the first state of the driver, and when the value indicating the first state is equal to or higher than the first threshold value, the second driver state detection unit 14 is used. It is activated to execute the detection process of the second state. The value indicating the first state is, for example, the degree of drowsiness derived from the image data of the driver's face and the degree of drowsiness derived from the driver's driving operation data. The second state is, for example, the posture of the driver's upper body and the gesture of the driver.

運転者状態判定装置10は、第1状態から運転者の意識状態が運転に適していると判断できる場合、または第1状態から運転者の意識状態が運転に適していないと判断できる場合には、第2状態の検出を行わず、それぞれの場合に応じた処理を実行する。これにより第2状態の検出処理と第2状態を示す値の導出処理等の手順を省くことができ、処理負荷の低減を図ることができる。 When the driver state determination device 10 can determine from the first state that the driver's conscious state is suitable for driving, or when it can determine from the first state that the driver's conscious state is not suitable for driving. , The second state is not detected, and the processing corresponding to each case is executed. As a result, it is possible to omit procedures such as the detection process of the second state and the derivation process of the value indicating the second state, and it is possible to reduce the processing load.

また、運転者状態判定装置10は、第1状態からは運転者の意識状態が運転に適しているか否かを判断しかねる場合に、第2状態の検出処理を実行し、第1状態以外にも第2状態に係る情報も用いて運転者の意識状態の判定を行うため、正確な判定を行うことができる。また、例えば、第1状態は運転者の顔の表情、第2状態は運転者の上半身の姿勢である場合に、1つの撮像部16によりこれらの画像データを取得することができるため、簡易な構成で、正確な判定が可能になる。 Further, when the driver state determination device 10 cannot determine from the first state whether or not the driver's consciousness state is suitable for driving, the driver state determination device 10 executes the detection process of the second state, and other than the first state. Also, since the driver's consciousness state is determined using the information related to the second state, an accurate determination can be made. Further, for example, when the first state is the facial expression of the driver and the second state is the posture of the upper body of the driver, these image data can be acquired by one image pickup unit 16, which is simple. The configuration enables accurate judgment.

[変形例]
上記実施形態について、以下の変形が可能である。
(変形例1)
上記実施形態に係る運転者状態判定装置10は、運転者の瞼の開度が所定の開度以下となる、所定時間における頻度、または維持時間を第1指標とした。本変形例に係る運転者状態判定装置10は、目元部分だけではなく、頬部分や口部分等も用いて運転者の眠気の有無を判定する。この判定のために、記憶部38は、SVM(Support Vector Machine)等の機械学習により得られた第1分類情報を記憶する。この第1分類情報は、運転者の顔面全体における各パーツの状態から導出される特徴量を、運転者の眠気の有無に応じた各グループへ分類する情報である。ここで眠気が有る場合のグループと覚醒状態におけるグループとの境界付近の特徴量については、より正確な分類のために、運転者状態判定装置10は、第2状態の検出を行う。このとき、ある特徴量の第1状態を示す値は、境界を線や面等で近似した場合に、例えば、当該境界線や境界面等からの距離の逆数である。このとき第1閾値は、例えば、意識状態についての判定に誤りが生じ始める、境界線や境界面からの距離の逆数である。
[Modification example]
The following modifications can be made to the above embodiment.
(Modification 1)
In the driver state determination device 10 according to the above embodiment, the frequency or maintenance time in a predetermined time when the opening degree of the driver's eyelids is equal to or less than the predetermined opening degree is used as the first index. The driver state determination device 10 according to this modification determines whether or not the driver is drowsy by using not only the eye portion but also the cheek portion, the mouth portion, and the like. For this determination, the storage unit 38 stores the first classification information obtained by machine learning such as SVM (Support Vector Machine). This first classification information is information that classifies the feature quantities derived from the state of each part on the entire face of the driver into each group according to the presence or absence of drowsiness of the driver. Here, for more accurate classification of the feature amount near the boundary between the group in the case of drowsiness and the group in the awake state, the driver state determination device 10 detects the second state. At this time, the value indicating the first state of a certain feature amount is, for example, the reciprocal of the distance from the boundary line, the boundary surface, or the like when the boundary is approximated by a line or a surface. At this time, the first threshold value is, for example, the reciprocal of the distance from the boundary line or the boundary surface at which an error begins to occur in the determination of the state of consciousness.

本変形例に係る運転者状態判定装置10によれば、顔面全体の表情に基づいた、総合的かつ細かい状態変化を検出することができる。 According to the driver state determination device 10 according to the present modification, it is possible to detect a comprehensive and detailed state change based on the facial expression of the entire face.

(変形例2)
本変形例に係る運転者状態判定装置10は、例えばボンネット上やフロントガラス付近に照度計等の光センサを備える。そして検出された光の照度が一定の照度以上の場合または照度が低い状態から高い状態に急に変化した場合であって、眩しさのために運転者の瞼の開度が低い状態が続くような場合に、状態判定部42は、日除けをセットするなどの運転者のその後の行動を待って運転者状態の判定を行ってもよいし、上記第2、3閾値を通常の各値よりも大きい値に変更して判定の際に用いてもよい。なお、運転者が日除けをセットするなどの行動を示すデータは、運転者が眠気を感じていないことを示すデータとして、予め機械学習等により得られており、記憶部38に記憶されている。また変更後の第2、3閾値は、目が光に慣れるまでの時間を含むとし、これらも機械学習等により得られており、予め記憶部38に記憶されている。
(Modification 2)
The driver state determination device 10 according to this modification includes, for example, an optical sensor such as an illuminance meter on the bonnet or near the windshield. Then, when the illuminance of the detected light is above a certain illuminance or when the illuminance suddenly changes from a low state to a high state, the driver's eyelid opening remains low due to glare. In this case, the state determination unit 42 may wait for the driver's subsequent actions such as setting a awning to determine the driver's state, or set the above-mentioned second and third threshold values to be higher than the usual values. It may be changed to a large value and used at the time of judgment. The data indicating the behavior of the driver, such as setting the awning, is obtained in advance by machine learning or the like as data indicating that the driver does not feel drowsy, and is stored in the storage unit 38. Further, it is assumed that the second and third threshold values after the change include the time until the eyes get used to the light, and these are also obtained by machine learning or the like and are stored in the storage unit 38 in advance.

本実施形態に係る運転者状態判定装置10によれば、外部からの光も考慮に入れた適切な判断が可能となり、運転者状態についての誤判定を防止できる。 According to the driver state determination device 10 according to the present embodiment, it is possible to make an appropriate determination in consideration of light from the outside, and it is possible to prevent an erroneous determination of the driver state.

[実施形態から得られる技術的思想]
上記実施形態から把握しうる技術的思想について、以下に記載する。
[Technical Thought Obtained from the Embodiment]
The technical ideas that can be grasped from the above embodiments are described below.

<第1の技術的思想>
運転者の第1状態を検出する第1運転者状態検出手段(12)と、運転者の第2状態を検出する第2運転者状態検出手段(14)と、を備える運転者状態判定装置(10)は、第1状態を示す値が第1閾値以上の場合に、第2運転者状態検出手段(14)を作動させる。
<First technical idea>
A driver state determination device (12) including a first driver state detecting means (12) for detecting the first state of the driver and a second driver state detecting means (14) for detecting the second state of the driver. 10) activates the second driver state detecting means (14) when the value indicating the first state is equal to or higher than the first threshold value.

これにより、処理負荷を低減しつつ、運転者の状態を総合的に観察して運転者の状態を判定することができる。 This makes it possible to comprehensively observe the driver's condition and determine the driver's condition while reducing the processing load.

第1状態は、撮像手段(16)により撮像された運転者の顔部分の画像から検出されてもよい。これにより、運転者の意識状態について多くの情報を検出することができる。 The first state may be detected from the image of the driver's face portion imaged by the image pickup means (16). This makes it possible to detect a lot of information about the driver's state of consciousness.

第2状態は、撮像手段(16)により撮像された運転者の画像から検出されてもよい。これにより、運転者の意識状態について、より正確に判断することができる。 The second state may be detected from the driver's image captured by the imaging means (16). This makes it possible to more accurately determine the state of consciousness of the driver.

第2状態は、運転者の上半身の姿勢の状態と、運転者の仕草の状態のうちの少なくとも一方を含んでもよい。これにより、運転者の意識状態について、さらにより正確に判断することができる。 The second state may include at least one of the posture of the driver's upper body and the gesture of the driver. This makes it possible to determine the driver's state of consciousness even more accurately.

第1状態は、運転者の運転操作から検出される状態と、自動ブレーキの作動状況から検出される状態のうちの少なくとも一方を含んでもよい。これにより、運転者の意識状態について、さらにより正確に判断することができる。 The first state may include at least one of a state detected from the driving operation of the driver and a state detected from the operating state of the automatic brake. This makes it possible to determine the driver's state of consciousness even more accurately.

第1運転者状態検出手段(12)は、第1状態に基づき運転者の眠気の度合いを示す第1指標の値を導出し、第2運転者状態検出手段(14)は、第2状態に基づき運転者の眠気の度合いを示す第2指標の値を導出し、第2状態に基づき運転者の仕草を検出し、運転者状態判定装置(10)は、導出された第1指標の値が第2閾値以上の場合、または導出された第2指標の値と仕草の少なくとも一方から運転者の眠気を検知した場合には、運転者を覚醒させるための動作を制御対象装置に実行させる覚醒支援手段(44)を、さらに備えてもよい。これにより、運転者を、運転にふさわしい意識状態に戻し、運転者の安全の確保を図ることができる。 The first driver state detecting means (12) derives the value of the first index indicating the degree of drowsiness of the driver based on the first state, and the second driver state detecting means (14) changes to the second state. Based on this, the value of the second index indicating the degree of drowsiness of the driver is derived, the behavior of the driver is detected based on the second state, and the driver state determination device (10) uses the derived value of the first index as the value. Awakening support that causes the controlled device to perform an action to awaken the driver when the driver's drowsiness is detected from at least one of the derived second index value and the gesture when the threshold value is equal to or higher than the second threshold value. Means (44) may be further provided. As a result, the driver can be returned to a state of consciousness suitable for driving, and the safety of the driver can be ensured.

第1指標は、運転者の瞼の開度が所定時間において所定の開度以下となる頻度、または、瞼の開度が所定の開度以下となっている状態の維持時間であってもよい。これにより、まばたき等から運転者に眠気が有るなどとする誤判定を防止することができる。 The first index may be the frequency with which the eyelid opening of the driver is equal to or less than the predetermined opening in a predetermined time, or the maintenance time in which the eyelid opening is equal to or less than the predetermined opening. .. This makes it possible to prevent erroneous determination that the driver is drowsy due to blinking or the like.

運転者状態判定装置(10)は、外光の照度が高い場合、第2閾値を大きくしてもよい。これにより運転者が眩しさのために瞼を閉じ気味になっても、意識状態について誤判定を防止できる。 The driver state determination device (10) may increase the second threshold value when the illuminance of the outside light is high. As a result, even if the driver tends to close his eyelids due to glare, it is possible to prevent erroneous determination of the state of consciousness.

第2指標は、運転者の上半身の姿勢が覚醒状態における姿勢から逸脱している継続時間であってもよい。これにより、体の動きがあるたびに誤判定が行われることを防止することができる。 The second index may be the duration during which the posture of the driver's upper body deviates from the posture in the awake state. As a result, it is possible to prevent an erroneous determination from being made every time there is a movement of the body.

覚醒状態における姿勢は、運転者が進行方向に顔を向けている姿勢であってもよい。これにより、運転者の意識状態について正確に判断ができる。 The posture in the awake state may be a posture in which the driver faces his / her face in the direction of travel. This makes it possible to accurately determine the state of consciousness of the driver.

<第2の技術的思想>
運転者状態判定装置(10)により実行される運転者状態判定方法は、運転者の第1状態を検出する第1運転者状態検出ステップと、運転者の第2状態を検出する第2運転者状態検出ステップと、を含み、第1状態を示す値が第1閾値以上の場合に、前記第2運転者状態検出ステップを実行する。
<Second technical idea>
The driver state determination method executed by the driver state determination device (10) includes a first driver state detection step for detecting the first state of the driver and a second driver for detecting the second state of the driver. When the value indicating the first state is equal to or greater than the first threshold value including the state detection step, the second driver state detection step is executed.

これにより、処理負荷を低減しつつ、運転者の状態を総合的に観察して運転者の状態を判定することができる。 This makes it possible to comprehensively observe the driver's condition and determine the driver's condition while reducing the processing load.

10…運転者状態判定装置
12…第1運転者状態検出部(第1運転者状態検出手段)
14…第2運転者状態検出部(第2運転者状態検出手段)
16…撮像部(撮像手段) 18…車両周辺センサ
20…ブレーキセンサ 22…ハンドルセンサ
24…自動ブレーキセンサ 26…Electronic Control Unit(ECU)
28…画像処理部 30…撮像制御部
32…表情データ導出部 34…運転操作データ導出部
36…自動ブレーキ作動データ導出部 38…記憶部
40…姿勢データ導出部 42…状態判定部
44…覚醒支援部(覚醒支援手段) 46…制御対象装置群
10 ... Driver state determination device 12 ... First driver state detection unit (first driver state detection means)
14 ... Second driver state detection unit (second driver state detection means)
16 ... Imaging unit (imaging means) 18 ... Vehicle peripheral sensor 20 ... Brake sensor 22 ... Handle sensor 24 ... Automatic brake sensor 26 ... Electronic Control Unit (ECU)
28 ... Image processing unit 30 ... Image control unit 32 ... Facial expression data derivation unit 34 ... Driving operation data derivation unit 36 ... Automatic brake operation data derivation unit 38 ... Storage unit 40 ... Posture data derivation unit 42 ... State determination unit 44 ... Awakening support Department (awakening support means) 46 ... Control target device group

Claims (2)

運転者の第1状態を検出する第1運転者状態検出手段と、
前記運転者の第2状態を検出する第2運転者状態検出手段と、を備え、
前記第1状態を示す値が第1閾値以上の場合に、前記第2運転者状態検出手段を作動させる、運転者状態判定装置であって、
前記第1状態は、撮像手段により撮像された前記運転者の顔部分の画像から検出され、前記運転者の運転操作から検出される状態と、自動ブレーキの作動状況から検出される状態のうちの少なくとも一方を含み、
前記第2状態は、前記撮像手段により撮像された前記運転者の画像から検出され、前記運転者の上半身の姿勢の状態と、前記運転者の仕草の状態のうちの少なくとも一方を含み、
前記第1運転者状態検出手段は、前記第1状態に基づき前記運転者の眠気の度合いを示す第1指標の値を導出し、
前記第2運転者状態検出手段は、前記第2状態に基づき前記運転者の眠気の度合いを示す第2指標の値を導出し、前記第2状態に基づき前記運転者の仕草を検出し、
前記導出された第1指標の値が第2閾値以上の場合、または前記導出された第2指標の値と前記仕草の少なくとも一方から前記運転者の眠気を検知した場合には、前記運転者を覚醒させるための動作を制御対象装置に実行させる覚醒支援手段を、さらに備える、運転者状態判定装置。
The first driver state detecting means for detecting the first state of the driver, and
A second driver state detecting means for detecting the second state of the driver is provided.
A driver state determination device that activates the second driver state detecting means when the value indicating the first state is equal to or higher than the first threshold value.
The first state is detected from the image of the driver's face portion captured by the imaging means, and is detected from the driving operation of the driver or the operating state of the automatic brake. Including at least one
The second state is detected from the image of the driver captured by the imaging means, and includes at least one of the posture state of the driver's upper body and the gesture state of the driver.
The first driver state detecting means derives a value of a first index indicating the degree of drowsiness of the driver based on the first state, and derives a value.
The second driver state detecting means derives a value of a second index indicating the degree of drowsiness of the driver based on the second state, detects the behavior of the driver based on the second state, and detects the behavior of the driver.
When the value of the derived first index is equal to or greater than the second threshold value, or when the driver's drowsiness is detected from at least one of the derived value of the second index and the gesture, the driver is referred to. A driver state determination device further provided with awakening support means for causing a controlled device to execute an operation for awakening .
運転者の第1状態を検出する第1運転者状態検出ステップと、
前記運転者の第2状態を検出する第2運転者状態検出ステップと、を備え、
前記第1状態を示す値が第1閾値以上の場合に、前記第2運転者状態検出ステップを実行する、運転者状態判定方法であって、
前記第1状態は、撮像手段により撮像された前記運転者の顔部分の画像から検出され、前記運転者の運転操作から検出される状態と、自動ブレーキの作動状況から検出される状態のうちの少なくとも一方を含み、
前記第2状態は、前記撮像手段により撮像された前記運転者の画像から検出され、前記運転者の上半身の姿勢の状態と、前記運転者の仕草の状態のうちの少なくとも一方を含み、
前記第1運転者状態検出ステップは、前記第1状態に基づき前記運転者の眠気の度合いを示す第1指標の値を導出し、
前記第2運転者状態検出ステップは、前記第2状態に基づき前記運転者の眠気の度合いを示す第2指標の値を導出し、前記第2状態に基づき前記運転者の仕草を検出し、
前記導出された第1指標の値が第2閾値以上の場合、前記導出された第2指標の値が第4閾値以上の場合、または前記導出された第2指標の値と前記仕草の少なくとも一方から前記運転者の眠気を検知した場合には、前記運転者を覚醒させるための動作を制御対象装置に実行させる覚醒支援ステップを実行する、運転者状態判定方法。
The first driver state detection step for detecting the first state of the driver, and
A second driver state detection step for detecting the second state of the driver is provided.
A driver state determination method for executing the second driver state detection step when the value indicating the first state is equal to or higher than the first threshold value.
The first state is detected from the image of the driver's face portion captured by the imaging means, and is detected from the driving operation of the driver or the operating state of the automatic brake. Including at least one
The second state is detected from the image of the driver captured by the imaging means, and includes at least one of the posture state of the driver's upper body and the gesture state of the driver.
The first driver state detection step derives a value of a first index indicating the degree of drowsiness of the driver based on the first state.
The second driver state detection step derives a value of a second index indicating the degree of drowsiness of the driver based on the second state, detects the behavior of the driver based on the second state, and detects the behavior of the driver.
When the value of the derived first index is equal to or greater than the second threshold value, when the value of the derived second index is equal to or greater than the fourth threshold value, or when the value of the derived second index is equal to or greater than that of the gesture. A driver state determination method for executing an awakening support step of causing a controlled target device to perform an operation for awakening the driver when the driver's drowsiness is detected .
JP2018135513A 2018-07-19 2018-07-19 Driver status determination device and driver status determination method Active JP7046748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018135513A JP7046748B2 (en) 2018-07-19 2018-07-19 Driver status determination device and driver status determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018135513A JP7046748B2 (en) 2018-07-19 2018-07-19 Driver status determination device and driver status determination method

Publications (2)

Publication Number Publication Date
JP2020010865A JP2020010865A (en) 2020-01-23
JP7046748B2 true JP7046748B2 (en) 2022-04-04

Family

ID=69168955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018135513A Active JP7046748B2 (en) 2018-07-19 2018-07-19 Driver status determination device and driver status determination method

Country Status (1)

Country Link
JP (1) JP7046748B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7275409B2 (en) * 2021-02-12 2023-05-17 三菱電機株式会社 Occupant state determination device and occupant state determination method
WO2023171356A1 (en) * 2022-03-07 2023-09-14 ソニーグループ株式会社 Patient monitoring system, patient monitoring method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009208739A (en) 2008-03-06 2009-09-17 Clarion Co Ltd Sleepiness awakening device
JP2014123287A (en) 2012-12-21 2014-07-03 Daimler Ag Drowsy driving warning device and drowsy driving warning method
JP2017158715A (en) 2016-03-08 2017-09-14 富士通株式会社 Drowsiness determination program, drowsiness determination device, and drowsiness determination method
JP2017194772A (en) 2016-04-19 2017-10-26 トヨタ自動車株式会社 Arousal determination apparatus
JP2017217472A (en) 2016-06-02 2017-12-14 オムロン株式会社 State estimation device, state estimation method, and state estimation program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153288A (en) * 1994-11-30 1996-06-11 Toyota Motor Corp Doze judging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009208739A (en) 2008-03-06 2009-09-17 Clarion Co Ltd Sleepiness awakening device
JP2014123287A (en) 2012-12-21 2014-07-03 Daimler Ag Drowsy driving warning device and drowsy driving warning method
JP2017158715A (en) 2016-03-08 2017-09-14 富士通株式会社 Drowsiness determination program, drowsiness determination device, and drowsiness determination method
JP2017194772A (en) 2016-04-19 2017-10-26 トヨタ自動車株式会社 Arousal determination apparatus
JP2017217472A (en) 2016-06-02 2017-12-14 オムロン株式会社 State estimation device, state estimation method, and state estimation program

Also Published As

Publication number Publication date
JP2020010865A (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US20160272217A1 (en) Two-step sleepy driving prevention apparatus through recognizing operation, front face, eye, and mouth shape
US9888875B2 (en) Driver monitoring apparatus
JP4788624B2 (en) Careless warning device, vehicle equipment control method of careless warning device, and vehicle control device program
JP5493593B2 (en) Sleepiness detection apparatus, sleepiness detection method, and program
JP7047821B2 (en) Driving support device
JP2016038793A (en) Driver monitoring device
JP3228086B2 (en) Driving operation assist device
JP6756174B2 (en) Vehicle control device
JP2009244959A (en) Driving support device and driving support method
JP6662352B2 (en) Drowsy driving alarm
US11453401B2 (en) Closed eye determination device
JP7046748B2 (en) Driver status determination device and driver status determination method
JP2009166783A (en) Symptom inference device
KR20190134909A (en) The apparatus and method for Driver Status Recognition based on Driving Status Decision Information
US11430231B2 (en) Emotion estimation device and emotion estimation method
US10945651B2 (en) Arousal level determination device
JP2019087018A (en) Driver monitor system
WO2022113275A1 (en) Sleep detection device and sleep detection system
JP2016115119A (en) Eye opening/closing determination device and eye opening/closing determination method
CN111267865B (en) Vision-based safe driving early warning method and system and storage medium
JP7192668B2 (en) Arousal level determination device
JP2022012358A (en) Drowsiness sign notification system
JP2020052773A (en) Occupant monitoring apparatus, occupant monitoring method, and occupant monitoring program
US11501561B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program
JP2018143285A (en) Biological state determination apparatus, biological state determination system and biological state determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220323

R150 Certificate of patent or registration of utility model

Ref document number: 7046748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150