JP2022127881A - Operation state detection method - Google Patents

Operation state detection method Download PDF

Info

Publication number
JP2022127881A
JP2022127881A JP2021026103A JP2021026103A JP2022127881A JP 2022127881 A JP2022127881 A JP 2022127881A JP 2021026103 A JP2021026103 A JP 2021026103A JP 2021026103 A JP2021026103 A JP 2021026103A JP 2022127881 A JP2022127881 A JP 2022127881A
Authority
JP
Japan
Prior art keywords
driver
driving
vehicle
driving ability
load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021026103A
Other languages
Japanese (ja)
Inventor
潤一郎 桑原
Junichiro Kuwahara
壮椰 青木
Soya AOKI
洋平 岩下
Yohei Iwashita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2021026103A priority Critical patent/JP2022127881A/en
Publication of JP2022127881A publication Critical patent/JP2022127881A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To detect a driver's state of being less awakened or inattentive to driving and to enable the driver's state of being idle to be detected.SOLUTION: Driver's current driving ability is evaluated (C) on the basis of a predicted load predicted from a surrounding state of a vehicle (A) and performance of driver's handling a situation (B). By comparing the current driving ability with normal driving ability of the driver, a degree of demonstrating the driving ability is determined (E). Also, whether or not the driver is sleepy or inattentive is determined (X). When the degree of demonstrating the driving ability is equal to or less than a predetermined degree and the driver is not determined to be sleepy or inattentive, the driver is determined to be in a state of being idle (F).SELECTED DRAWING: Figure 1

Description

ここに開示された技術は、車両を運転する運転者(ドライバ)の運転状態を検出する技術分野に属する。 The technology disclosed herein belongs to the technical field of detecting the driving state of a driver who drives a vehicle.

近年、車両を運転する運転者の運転状態を、例えば、ドライバモニタカメラで撮影した運転者の画像や、車両に搭載された各種センサの出力データ等から検出する技術が、開発されている。例えば、特許文献1では、運転者による車両の制御の誤差値を利用して、車両の運転者の覚醒度を評価する技術が開示されている。 2. Description of the Related Art In recent years, techniques have been developed for detecting the driving state of a driver who drives a vehicle from, for example, an image of the driver captured by a driver monitor camera, output data from various sensors mounted on the vehicle, and the like. For example, Patent Literature 1 discloses a technique for evaluating the awakening level of a vehicle driver using an error value of vehicle control by the driver.

特許第6492096号公報Japanese Patent No. 6492096

ここで、運転者の覚醒低下や脇見は、ドライバモニタカメラの画像から検出することが可能である。ところが、運転者がぼんやりしていたり考え事をしていたりして漫然状態(意識の脇見)にある場合には、外見上は通常状態と区別がつかないため、ドライバモニタカメラの画像から検出することが困難である。 Here, it is possible to detect the driver's reduced arousal and inattentiveness from the image of the driver monitor camera. However, when the driver is absent-minded or thinking and is in a careless state (attentiveness of consciousness), it cannot be distinguished from the normal state from the outside, so it is necessary to detect it from the image of the driver monitor camera. is difficult.

ここに開示された技術は、運転者の覚醒低下や脇見を検出し、かつ、運転者が漫然状態にあることを検出可能にすることを目的とする。 The technology disclosed herein aims to detect a driver's reduced arousal and distraction, and to detect that the driver is in a careless state.

前記課題を解決するために、ここに開示された技術では、車両の運転者の状態を検出する運転状態検出方法であって、前記車両の周辺状況を示す情報を用いて、前記運転者の予測負荷を推定するステップ(a)と、前記車両の周辺状況を示す情報と、前記運転者の運転操作を示す情報と、前記運転者の挙動を示す情報とを用いて、前記運転者の対応行動のパフォーマンスを評価するステップ(b)と、ステップ(a)で推定した予測負荷と、ステップ(b)で評価した対応行動のパフォーマンスとを基にして、前記運転者の現在の運転能力を評価するステップ(c)と、ステップ(c)で評価した運転能力を、運転者の通常の運転能力と比較し、運転能力の発揮度合を判定するステップ(d)と、前記運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かを判定するステップ(e)と、ステップ(d)で判定した運転能力の発揮度合が所定程度以下であって、かつ、ステップ(e)で運転者が眠気運転または脇見運転を行っていないと判定したとき、前記運転者が漫然状態にあると判定するステップ(f)と、を備える、構成とした。 In order to solve the above-mentioned problems, the technology disclosed herein provides a driving state detection method for detecting the state of a driver of a vehicle, wherein information indicating the surrounding situation of the vehicle is used to predict the driver. Using the step (a) of estimating the load, the information indicating the surrounding situation of the vehicle, the information indicating the driving operation of the driver, and the information indicating the behavior of the driver, the corresponding behavior of the driver is determined. and evaluating the current driving ability of the driver based on the predicted load estimated in step (a) and the performance of the corresponding behavior evaluated in step (b). step (c), comparing the driving ability evaluated in step (c) with the normal driving ability of the driver to determine the degree of demonstration of the driving ability, and information indicating the behavior of the driver. Step (e) for determining whether the driver is drowsy driving or distracted driving using and a step (f) of determining that the driver is in a careless state when it is determined in (e) that the driver is not drowsy driving or inattentive driving.

この構成によると、車両の周辺状況から推定された予測負荷と、運転者の対応行動のパフォーマンスとを基にして、運転者の現在の運転能力が評価される。ここで、対応行動とは、運転者が車両外部の状況に対応して行う運転行動のことをいう。そして、評価した現在の運転能力を、運転者の通常の運転能力と比較することによって、運転能力の発揮度合が判定される。一方で、運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かが判定される。そして、運転能力の発揮度合が所定程度以下であって、かつ、運転者が眠気運転または脇見運転を行っていないと判定されたときは、運転者は漫然状態にあると判定される。したがって、運転者が本来持っている運転能力が発揮されていない状態と、眠気や脇見運転の際に見られる挙動とを総合的に判断し、運転者がぼんやりしてたり考え事をしていたりする漫然状態にあるか、眠気運転または脇見運転を行っているかを判定することができる。 According to this configuration, the current driving ability of the driver is evaluated based on the predicted load estimated from the surrounding conditions of the vehicle and the performance of the response action of the driver. Here, the corresponding action means a driving action that the driver performs in response to the situation outside the vehicle. Then, by comparing the evaluated current driving ability with the normal driving ability of the driver, the degree of demonstration of the driving ability is determined. On the other hand, information indicating the behavior of the driver is used to determine whether the driver is drowsy driving or distracted driving. Then, when it is determined that the degree of manifestation of the driving ability is below a predetermined level and the driver is not drowsy driving or inattentive driving, it is determined that the driver is in a careless state. Therefore, by comprehensively judging the state in which the driver's inherent driving ability is not exhibited and the behavior seen in drowsiness and distracted driving, the driver may be absent-minded or thinking. It can be determined whether the driver is in a careless state, drowsy driving, or inattentive driving.

そして、前記運転状態検出方法において、前記ステップ(e)は、運転者の上下瞼間の距離が基準値と比べて所定閾値以上に小さくなったとき、運転者の頭部位置が基準位置と比べて所定閾値以上にずれたとき、または、運転者の視線方向と前記車両の進行方向とのずれが所定閾値以上に大きくなったとき、運転者が眠気運転または脇見運転を行っていると判定するステップを含む、としてもよい。 In the driving state detection method, the step (e) compares the driver's head position with the reference position when the distance between the upper and lower eyelids of the driver becomes smaller than the reference value by a predetermined threshold or more. When the line of sight of the driver deviates by a predetermined threshold or more, or when the deviation between the line of sight of the driver and the traveling direction of the vehicle becomes greater than a predetermined threshold, it is determined that the driver is drowsy driving or distracted driving. It may include steps.

これによると、瞼が閉じ気味であったり、頭部が通常位置からずれたり、視線が進行方向からずれたりしているとき、眠気運転または脇見運転と判定される。一方、運転者が漫然状態にある場合は、瞼は開いており、頭部は通常の位置にあり、視線は進行方向を見ている。したがって、漫然運転と、眠気運転または脇見運転とを切り分けることができる。 According to this, drowsy driving or inattentive driving is determined when the eyelids are slightly closed, the head is shifted from the normal position, or the line of sight is shifted from the direction of travel. On the other hand, when the driver is in a careless state, the eyelids are open, the head is in a normal position, and the line of sight is looking in the direction of travel. Therefore, careless driving can be distinguished from drowsy driving or inattentive driving.

以上説明したように、ここに開示された技術によると、運転者の覚醒低下や脇見を検出し、かつ、運転者が漫然状態にあることを検出することができる。 As described above, according to the technology disclosed herein, it is possible to detect the driver's reduced alertness and distraction, and to detect that the driver is in a careless state.

本実施形態に係る運転状態検出方法を実施するシステムの機能イメージFunctional image of a system that implements the driving state detection method according to the present embodiment 運転能力の発揮度合の判定手法Determining method for demonstrating driving ability 本実施形態に係る運転状態検出方法における処理の流れFlow of processing in the driving state detection method according to the present embodiment 本実施形態に係る運転状態検出方法における処理の流れFlow of processing in the driving state detection method according to the present embodiment 本実施形態に係る運転状態検出方法を実行するシステム構成例System configuration example for executing the driving state detection method according to the present embodiment

以下、例示的な実施形態について、図面を参照しながら詳細に説明する。 Exemplary embodiments are described in detail below with reference to the drawings.

図1は本実施形態に係る運転状態検出方法を実施するシステムの機能イメージ図である。図1のシステムでは、インプットとして、外界センシング情報、車両に対する運転操作の情報、および、運転者等を撮像するドライバモニタカメラの情報を受ける。外界センシング情報は、例えば、車両に搭載されたカメラやADAS(Advanced Driver Assistance Systems)車載センサ等の外部検知手段によって得られる情報であり、外部環境中の物標の情報を含む。運転操作の情報は、例えば、アクセル開度センサ、ブレーキ圧センサ等の車載センサによって得られる。ドライバモニタカメラからは、運転者の挙動、例えば、視線の動きや頭部の挙動、表情等の情報が得られる。 FIG. 1 is a functional image diagram of a system that implements a driving state detection method according to this embodiment. The system of FIG. 1 receives, as inputs, external sensing information, vehicle driving operation information, and information from a driver monitor camera that captures images of the driver and the like. The external sensing information is, for example, information obtained by external detection means such as a vehicle-mounted camera or an ADAS (Advanced Driver Assistance Systems) vehicle-mounted sensor, and includes information on targets in the external environment. The information on the driving operation is obtained, for example, by an on-vehicle sensor such as an accelerator opening sensor and a brake pressure sensor. From the driver monitor camera, information on the driver's behavior, such as movement of the line of sight, behavior of the head, facial expression, etc., can be obtained.

図1のシステムでは、アウトプットとして、漫然運転の判定と、眠気運転または脇見運転の判定を行う。漫然運転とは、運転者がぼんやりしていたり考え事をしていたりして、「意識の脇見」が発生しており、漫然状態で運転していることをいう。「意識の脇見」とは、運転に対する注意量が考え事などのために減少し、必要とされる量を下回っている状態をいう。 In the system of FIG. 1, as an output, determination of careless driving and determination of drowsy driving or inattentive driving are performed. Inattentive driving means that the driver is absent-minded or thinking, causing "awareness of distraction" and driving in an inattentive state. "Conscious inattentiveness" refers to a state in which the amount of attention for driving is reduced due to thoughts, etc., and falls below the required amount.

図1のシステムの処理について詳細に説明する。 The processing of the system of FIG. 1 will be described in detail.

ブロックAでは、外界センシング情報を用いて、予測負荷を算出する。ここで、人の認知負荷は、注意配分負荷、知覚負荷、および、予測負荷の3つの構成要素からなる。注意配分負荷は、情報を仕入れるために確認すべき場所へ目を向けるときの負荷である。知覚負荷は、目にしたものの距離や動き等を認識して解釈するときの負荷である。予測負荷は、知覚情報から将来の状況を予測するときの負荷である。ブロックAでは、予測負荷モデルが構築されており、予測負荷モデルを用いて、外界センシング情報から現在の予測負荷を推定する。 In block A, the predicted load is calculated using the external sensing information. Here, human cognitive load consists of three components: attentional load, perceived load, and predicted load. The attention allocation load is the load when looking at a place to be confirmed in order to acquire information. The perceptual load is the load on recognizing and interpreting the distance, movement, etc. of an object seen. The prediction load is the load when predicting future situations from perceptual information. In block A, a predictive load model is constructed, and the present predictive load is estimated from external sensing information using the predictive load model.

ここで、予測負荷モデルについて説明する。人は、手がかり情報から、記憶を再生し将来を予測するものと考えられる。例えば、先行車の減速という事象に対しては、手がかり情報として、先先行車の減速、上り坂、赤信号、急カーブ、ウィンカー、周辺の混雑、先行車の速度調整ミス、といったものがあることが、公道走行データから確認されている。例えば、走行環境において先行車がウィンカーを出したとき、運転者は、「ウィンカーの後は減速することが多い」という記憶を探索して、「先行車が減速するかもしれない」と予測するものと考えられる。 Now, the predictive load model will be described. Humans are thought to reproduce memories and predict the future from clue information. For example, for the event of deceleration of the preceding vehicle, clue information includes deceleration of the preceding vehicle, uphill, red light, sharp curve, turn signal, surrounding congestion, speed adjustment error of the preceding vehicle, etc. is confirmed from public road driving data. For example, in a driving environment, when the preceding vehicle emits a turn signal, the driver searches the memory that ``the vehicle often decelerates after the blinker'' and predicts that ``the preceding vehicle may decelerate.'' it is conceivable that.

そこで、本願発明者等は、予測負荷は余裕時間および遭遇率から構成される、という仮説を立てた。余裕時間とは、手がかり出現(上例ではウィンカー)から事象発生(上例では先行車の減速)までの時間であり、遭遇率は、事象に対する手がかりの割合(ウィンカー20%、赤信号25%、先先行車の減速25%等)である。すなわち、思い出すことに使える時間が長く、かつ遭遇した頻度が高く記憶に残っているほど、予測負荷が低いはず、という考え方である。 Therefore, the inventors of the present application hypothesized that the predicted load is composed of the spare time and the encounter rate. The margin time is the time from the appearance of a clue (winker in the example above) to the occurrence of an event (deceleration of the preceding vehicle in the example above). 25% deceleration of the preceding vehicle, etc.). That is, the idea is that the longer the time available for recall and the higher the frequency of encounters and the more memorable they are, the lower the prediction load should be.

ところが、本願発明者等の実験によると、必ずしも想定通りの結果にならなかった。さらなる検討の結果、予測負荷には、現実世界での事象の不確実さを考慮することが必要であることが分かった。例えば、赤信号では先行車はほぼ確実に減速する一方、先先行車が減速したときは、先行車は必ずしも減速しない。つまり、手がかりに対して事象が発生する可能性は、手がかりによって異なっている。 However, according to experiments conducted by the inventors of the present application, the expected results were not always obtained. Further investigation showed that the predicted load needed to take into account the uncertainty of real-world events. For example, at a red light, the preceding vehicle will almost certainly decelerate, but when the preceding vehicle decelerates, the preceding vehicle will not necessarily decelerate. In other words, the probability that an event will occur with respect to a clue differs depending on the clue.

そこで、予測負荷モデルは、例えば次の式で規定される。 Therefore, the predictive load model is defined by, for example, the following formula.

Figure 2022127881000002
Figure 2022127881000002

上式では、予測負荷モデルに、不確実さが反映されている。本願発明者等の検討によって、不確実さを反映したこの予測負荷モデルが、運転シーンへ適用できることが確認された。 In the above equation, uncertainty is reflected in the predictive load model. Through studies by the inventors of the present application, it has been confirmed that this predictive load model reflecting uncertainty can be applied to driving scenes.

ブロックBでは、運転者のリスク低減行動のパフォーマンスを評価する。リスク低減行動とは、事故が発生するリスクを低減するための行動であり、例えば、先行車の減速に関して、アクセルをオフする行動である。リスク低減行動のパフォーマンスは、例えば、ウィンカー等手がかり出現から、アクセルをオフするまでの時間によって評価する。リスク低減行動は、この他にも例えば、ブレーキを踏む行動、ミラーを目視する行動、等がある。 Block B evaluates the performance of the driver's risk reduction behavior. A risk reduction action is an action for reducing the risk of an accident occurring, for example, an action of releasing the accelerator in relation to the deceleration of the preceding vehicle. The performance of risk reduction behavior is evaluated, for example, by the time from the appearance of a cue such as a blinker until the accelerator is turned off. In addition to this, the risk reduction behavior includes, for example, the behavior of stepping on the brake, the behavior of looking at the mirror, and the like.

ブロックC,D,Eでは、運転者の運転能力の発揮度合を判定する。ブロックCでは、ブロックAで算出された予測負荷と、ブロックBで評価されたリスク低減行動のパフォーマンスとを合わせて、運転者の現在の運転能力として出力する。ブロックDは、ブロックCから出力された運転者の運転能力のデータを蓄積する。そして、蓄積したデータを基にして、運転者の通常の運転能力すなわち本来の運転能力を個人学習する。ブロックEでは、ブロックCから出力された運転者の現在の運転能力と、ブロックDから出力された運転者の通常の運転能力とを比較する。 Blocks C, D, and E determine the extent to which the driver's driving ability is demonstrated. In block C, the predicted load calculated in block A and the performance of the risk reduction actions evaluated in block B are combined and output as the current driving ability of the driver. Block D stores the driver's driving performance data output from block C. FIG. Based on the accumulated data, the driver's normal driving ability, that is, the original driving ability is individually learned. Block E compares the driver's current driving ability output from block C with the driver's normal driving ability output from block D.

図2は運転能力の発揮度合の判定手法を説明するための図である。図2では、運転能力は、横軸を予測負荷とし、縦軸をリスク低減行動のパフォーマンスとする2次元座標上に表されている。図2(a)はブロックCで得られた、運転者の現在の運転能力である。図2(b)はブロックDで得られた、運転者の通常の運転能力である。蓄積した運転能力のデータから、通常の運転能力を表すラインが得られている。そして図2(c)に示すように、図2(a)に示す現在の運転能力を図2(b)に示す通常の運転能力と比較し、運転能力の発揮度合を判定する。図2(c)では、同じ予測負荷においてリスク低減行動のパフォーマンスが悪化しているため、運転能力が低下している、すなわち運転能力の発揮度合が低いと判断される。発揮度合の程度は、例えば、現在の運転能力の座標位置と、通常の運転能力を表すラインとの距離によって評価すればよい。 FIG. 2 is a diagram for explaining a method of determining the degree of driving ability. In FIG. 2, the driving ability is represented on a two-dimensional coordinate system with the predicted load on the horizontal axis and the performance of risk reduction behavior on the vertical axis. FIG. 2(a) is the current driving ability of the driver obtained in block C. FIG. FIG. 2(b) is the normal driving ability of the driver obtained in Block D. FIG. From the accumulated drivability data, a line representing normal drivability has been obtained. Then, as shown in FIG. 2(c), the current driving ability shown in FIG. 2(a) is compared with the normal driving ability shown in FIG. 2(b) to determine the degree of performance of the driving ability. In FIG. 2(c), since the performance of the risk reduction behavior deteriorates under the same predicted load, it is determined that the driving ability is declining, that is, the driving ability is exhibited at a low degree. The degree of exertion may be evaluated, for example, by the distance between the coordinate position of the current driving ability and the line representing the normal driving ability.

図1に戻り、一方で、ブロックXでは、ドライバモニタカメラによって撮影された運転者の映像から、運転者が眠気運転または脇見運転をしているか否かを判定する。ブロックXでは、例えば、運転者の上下瞼間の距離、頭部位置、視線方向等を用いて判定を行う。 Returning to FIG. 1, on the other hand, in block X, it is determined whether or not the driver is drowsy driving or inattentive driving from the image of the driver captured by the driver monitor camera. In block X, for example, the distance between the upper and lower eyelids of the driver, the position of the head, the line-of-sight direction, etc. are used for determination.

ブロックFでは、ブロックXで運転者が眠気運転または脇見運転をしていないと判定されていない場合において、ブロックEの比較結果から、運転者の運転能力の発揮度合が所定程度以下であるとき、運転者が漫然運転をしていると判定する。 In block F, when it is not determined in block X that the driver is not drowsy driving or distracted driving, and the comparison result in block E shows that the degree of driving ability of the driver is below a predetermined level, It is determined that the driver is driving aimlessly.

なお、ブロックDで蓄積するデータは、運転者が漫然運転や眠気/脇見運転を行っているときのデータを含まないことが好ましい。また、図1のシステムでは、処理性能に対するノイズとして、運転者の運転特性(安全感度、許容リスクなど)、認知能力(若年者、高齢者など)、運転経験(初心者、ベテランなど)がある。 The data accumulated in block D preferably does not include data when the driver is carelessly driving or drowsy/inattentive driving. In the system of FIG. 1, the noise to the processing performance includes the driver's driving characteristics (safety sensitivity, acceptable risk, etc.), cognitive ability (young people, elderly people, etc.), and driving experience (beginners, veterans, etc.).

図3および図4は本実施形態に係る運転状態検出方法における処理の流れの一例を示すフローチャートである。また、図5は図3および図4の運転状態検出方法を実行するシステム構成例を示すブロック図である。コントローラ1は、例えば、プロセッサおよびメモリを備えたICチップ、あるいは、プロセッサおよびメモリを備えた、複数のICチップ等によって構成される。また、コントローラ1は、AI(Artificial Intelligence)専用チップ、GPU(Graphic Processing Unit)等を備えていてもよい。 3 and 4 are flowcharts showing an example of the flow of processing in the driving state detection method according to this embodiment. FIG. 5 is a block diagram showing an example of system configuration for executing the driving state detection method of FIGS. 3 and 4. In FIG. The controller 1 is composed of, for example, an IC chip with a processor and memory, or a plurality of IC chips with a processor and memory. The controller 1 may also include an AI (Artificial Intelligence) dedicated chip, a GPU (Graphic Processing Unit), or the like.

図5のシステムは、コントローラ1の入力手段として、車両に搭載されたカメラやセンサ等を備える。前方カメラ10は、例えば車両の前部に設置され、車両の前方の状況を撮影するカメラである。車内カメラ11は、例えば車両の車室内に設置され、車内の状況を撮影するカメラであり、ドライバモニタカメラとして機能する。車速センサ12、加速度センサ13およびヨーレートセンサ14は、それぞれ、車両の速度、加速度、ヨーレートを検出するセンサである。操舵角センサ15、操舵トルクセンサ16、アクセル開度センサ17およびブレーキ圧センサ18は、それぞれ、車両の操舵角、操舵トルク、アクセル開度、ブレーキ圧を検出するセンサである。GPS(Global Positioning Systems)ユニット19は、車両の位置を検知するユニットである。前方カメラ10およびGPSユニット19は、外部状況を検知する手段の一例である。操舵角センサ15、操舵トルクセンサ16、アクセル開度センサ17およびブレーキ圧センサ18は、運転操作を検知する手段の一例である。 The system of FIG. 5 includes a vehicle-mounted camera, sensor, and the like as input means for the controller 1 . The front camera 10 is a camera that is installed, for example, in the front part of the vehicle and captures the situation ahead of the vehicle. The in-vehicle camera 11 is a camera installed, for example, in the interior of the vehicle to photograph the situation inside the vehicle, and functions as a driver monitor camera. A vehicle speed sensor 12, an acceleration sensor 13, and a yaw rate sensor 14 are sensors that detect the speed, acceleration, and yaw rate of the vehicle, respectively. The steering angle sensor 15, the steering torque sensor 16, the accelerator opening sensor 17, and the brake pressure sensor 18 are sensors for detecting the steering angle, steering torque, accelerator opening, and brake pressure of the vehicle, respectively. A GPS (Global Positioning Systems) unit 19 is a unit that detects the position of the vehicle. Front camera 10 and GPS unit 19 are examples of means for detecting external conditions. The steering angle sensor 15, the steering torque sensor 16, the accelerator opening sensor 17, and the brake pressure sensor 18 are examples of means for detecting driving operation.

コントローラ1は、センターディスプレイ21やHUD(Head-Up Display)22に画像信号を送り、音声出力装置23に音声信号を送り、ステアリング制御装置24、ブレーキ制御装置25およびエンジン制御装置26に制御信号を送る。 The controller 1 sends image signals to a center display 21 and a HUD (Head-Up Display) 22, sends audio signals to an audio output device 23, and sends control signals to a steering control device 24, a brake control device 25 and an engine control device 26. send.

図3および図4の処理では、コントローラ1は、漫然運転判定フラグと、眠気/脇見運転判定フラグとを出力する。コントローラ1は、運転者が漫然運転を行っていると判定したとき、漫然運転判定フラグを「1」にセットする。運転者が眠気/脇見運転を行っていると判定したとき、眠気/脇見運転フラグを「1」にセットする。漫然運転判定フラグや眠気/脇見運転フラグが「1」にセットされたとき、コントローラ1は例えば、センターディスプレイ21やHUD22に警告画像を出力する信号を送り、音声出力装置23に警告音を出力する信号を送る。あるいは、ブレーキ制御装置25およびエンジン制御装置26に、車両の速度を低下させる制御信号を送る。 3 and 4, the controller 1 outputs a careless driving determination flag and a drowsiness/inattentive driving determination flag. When the controller 1 determines that the driver is driving carelessly, the controller 1 sets the careless driving determination flag to "1". When it is determined that the driver is drowsy/inattentive driving, the drowsy/inattentive driving flag is set to "1". When the careless driving determination flag or the drowsiness/inattentive driving flag is set to "1", the controller 1, for example, sends a signal to output a warning image to the center display 21 or the HUD 22, and outputs a warning sound to the audio output device 23. send a signal. Alternatively, it sends a control signal to the brake controller 25 and the engine controller 26 to slow the vehicle.

図3の処理において、コントローラ1は、車両の周辺情報を取得し(S11a)、運転者の運転操作情報を取得し(S11b)、運転者の視線・頭部挙動情報を取得する(S11c)。車両の周辺情報は、例えば、前方カメラ10によって撮影された映像や、GPSユニット19によって取得した位置情報等を基にして、取得する。運転操作情報は、例えば、操舵角センサ15、操舵トルクセンサ16、アクセル開度センサ17およびブレーキ圧センサ18によって検出した各種データを基にして、取得する。運転者の視線・頭部挙動情報は、例えば、車内カメラ11によって撮影された映像を基にして取得する。 In the process of FIG. 3, the controller 1 acquires vehicle peripheral information (S11a), driver's driving operation information (S11b), and driver's line of sight/head behavior information (S11c). The surrounding information of the vehicle is acquired based on, for example, images captured by the front camera 10, positional information acquired by the GPS unit 19, and the like. The driving operation information is acquired based on various data detected by the steering angle sensor 15, the steering torque sensor 16, the accelerator opening sensor 17, and the brake pressure sensor 18, for example. The line-of-sight/head behavior information of the driver is acquired, for example, based on the video imaged by the in-vehicle camera 11 .

コントローラ1は、車両の周辺情報を基にして、運転者の予測負荷を算出する(S12)。ここでは、車両の周辺情報から得た、例えば先行車のウィンカーのような手がかりに対して、上述したような予測負荷モデルを用いて、予測負荷を算出する。そして、コントローラ1は、運転者のリスク低減行動のパフォーマンスを評価する(S13)。例えば、先行車のウィンカーに対して、アクセルをオフするまでの時間を評価する。そして、コントローラ1は、S12で算出した予測負荷と、S13で評価したリスク低減行動のパフォーマンスとを併せて、運転者の現在の運転能力として評価する(S14)。 The controller 1 calculates the predicted load of the driver based on the surrounding information of the vehicle (S12). Here, the predictive load is calculated using the above-described predictive load model with respect to clues such as the blinkers of the preceding vehicle obtained from the surrounding information of the vehicle. The controller 1 then evaluates the performance of the driver's risk reduction behavior (S13). For example, the time until the accelerator is turned off is evaluated with respect to the blinker of the preceding vehicle. Then, the controller 1 evaluates the current driving ability of the driver by combining the predicted load calculated in S12 and the performance of the risk reduction action evaluated in S13 (S14).

コントローラ1は、S14で求めた運転者の現在の運転能力が、運転者の通常の運転能力を下回っているか否かを判断する(S15)。上述したとおり、運転者の通常の運転能力は、通常時における運転者の過去の運転能力の累積データから個人学習されている。下回っていないときは、問題なしとして処理を終了する。一方、下回っているときは、次のステップS16に進む。 The controller 1 determines whether or not the driver's current driving ability obtained in S14 is below the driver's normal driving ability (S15). As described above, the normal driving ability of the driver is individually learned from the cumulative data of the driver's past driving ability in normal times. If not, the process is terminated as no problem. On the other hand, when it is below, it progresses to following step S16.

S16では、コントローラ1は、眠気/脇見運転判定フラグが「0」であるか否かを判定する(S16)。なお、眠気/脇見運転判定フラグのセットフローに関しては、図4に記載されており、後述する。眠気/脇見運転判定フラグが「1」にセットされているときは、眠気/脇見運転判定フラグを出力し(S19)、処理を終了する。一方、眠気/脇見運転判定フラグが「0」のときは、コントローラ1は、漫然運転判定フラグを「1」にセットする(S17)。そして、漫然運転判定フラグを出力し(S18)、処理を終了する。 In S16, the controller 1 determines whether or not the drowsiness/inattentive driving determination flag is "0" (S16). Note that the set flow of the drowsiness/inattentive driving determination flag is described in FIG. 4 and will be described later. When the drowsiness/inattentive driving determination flag is set to "1", the drowsiness/inattentive driving determination flag is output (S19), and the process ends. On the other hand, when the drowsiness/inattentive driving determination flag is "0", the controller 1 sets the inattentive driving determination flag to "1" (S17). Then, a careless driving determination flag is output (S18), and the process is terminated.

図4は眠気/脇見運転判定フラグのセットフローを示す。コントローラ1は、車内カメラ11によって撮影された映像から、運転者の姿勢や表情等に関する情報を取得する(S21)。S21で取得した情報から、運転者の上下瞼間の距離について、基準値例えば初期状態における距離との差を算出する(S22)。算出した差が所定の閾値以上であるときは(S23でNo)、眠気/脇見運転判定フラグを「1」にセットする(S28)。算出した差が所定の閾値より小さいときは、S21で取得した情報から、運転者の頭部位置について、基準位置とのずれを算出する(S24)。算出したずれが所定の閾値以上であるときは(S25でNo)、眠気/脇見運転判定フラグを「1」にセットする(S28)。算出したずれが所定の閾値より小さいときは、S21で取得した情報から、視線方向と車両の進行方向とのずれを算出する(S26)。算出したずれが所定の閾値以上であるときは(S27でNo)、眠気/脇見運転判定フラグを「1」にセットする(S28)。算出したずれが所定の閾値より小さいときは、眠気/脇見運転判定フラグを「1」にセットしない。 FIG. 4 shows a set flow of the drowsiness/inattentive driving determination flag. The controller 1 acquires information about the driver's posture, facial expression, etc. from the video captured by the in-vehicle camera 11 (S21). Based on the information acquired in S21, the difference between the distance between the upper and lower eyelids of the driver and the reference value, for example, the distance in the initial state is calculated (S22). When the calculated difference is equal to or greater than the predetermined threshold (No in S23), the drowsiness/inattentive driving determination flag is set to "1" (S28). When the calculated difference is smaller than the predetermined threshold, the deviation of the driver's head position from the reference position is calculated from the information acquired in S21 (S24). When the calculated deviation is equal to or greater than the predetermined threshold value (No in S25), the drowsiness/inattentive driving determination flag is set to "1" (S28). When the calculated deviation is smaller than the predetermined threshold, the deviation between the line-of-sight direction and the traveling direction of the vehicle is calculated from the information acquired in S21 (S26). When the calculated deviation is greater than or equal to the predetermined threshold value (No in S27), the drowsiness/inattentive driving determination flag is set to "1" (S28). When the calculated deviation is smaller than the predetermined threshold value, the drowsiness/inattentive driving determination flag is not set to "1".

以上のように本実施形態によると、車両の周辺状況から推定された予測負荷と、運転者のリスク低減行動のパフォーマンスとを基にして、運転者の現在の運転能力が評価される。そして、評価した現在の運転能力を、運転者の通常の運転能力と比較することによって、運転能力の発揮度合が判定される。一方で、運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かが判定される。そして、運転能力の発揮度合が所定程度以下であって、かつ、運転者が眠気運転または脇見運転を行っていないと判定されたときは、運転者は漫然状態にあると判定される。したがって、運転者が本来持っている運転能力が発揮されていない状態と、眠気や脇見運転の際に見られる挙動とを総合的に判断し、運転者がぼんやりしてたり考え事をしていたりする漫然状態にあるか、眠気運転または脇見運転を行っているかを判定することができる。 As described above, according to the present embodiment, the current driving ability of the driver is evaluated based on the predicted load estimated from the surrounding conditions of the vehicle and the performance of the driver's risk reduction actions. Then, by comparing the evaluated current driving ability with the normal driving ability of the driver, the degree of demonstration of the driving ability is determined. On the other hand, information indicating the behavior of the driver is used to determine whether the driver is drowsy driving or distracted driving. Then, when it is determined that the degree of manifestation of the driving ability is below a predetermined level and the driver is not drowsy driving or inattentive driving, it is determined that the driver is in a careless state. Therefore, by comprehensively judging the state in which the driver's inherent driving ability is not exhibited and the behavior seen in drowsiness and distracted driving, the driver may be absent-minded or thinking. It can be determined whether the driver is in a careless state, drowsy driving, or inattentive driving.

また、運転者の瞼が閉じ気味であったり、頭部が通常位置からずれたり、視線が進行方向からずれたりしているとき、眠気運転または脇見運転と判定される。一方、運転者が漫然状態にある場合は、瞼は開いており、頭部は通常の位置にあり、視線は進行方向を見ている。したがって、漫然運転と、眠気運転または脇見運転とを切り分けることができる。 Also, when the driver's eyelids tend to be closed, the head is displaced from the normal position, or the line of sight deviates from the direction of travel, it is determined that the driver is drowsy driving or inattentive driving. On the other hand, when the driver is in a careless state, the eyelids are open, the head is in a normal position, and the line of sight is looking in the direction of travel. Therefore, careless driving can be distinguished from drowsy driving or inattentive driving.

なお、上述した実施形態では、運転者の運転能力を、リスク低減行動のパフォーマンスを用いて求めていた。ただし、本開示はこれに限られるものではなく、例えば、乗り心地を維持する行動や法規順守行動のパフォーマンスを用いて、運転者の運転能力を評価してもかまわない。すなわち、本開示では、運転者の対応行動のパフォーマンスを用いて、運転能力を評価する。ここでの「対応行動」とは、運転者が車両外部の状況に対応して行う運転行動のことをいい、リスク低減行動、乗り心地維持行動、および、法規順守行動は、運転者の対応行動の例である。 Note that, in the above-described embodiment, the driver's driving ability is obtained using the performance of the risk reduction behavior. However, the present disclosure is not limited to this, and for example, the driver's driving ability may be evaluated using the behavior of maintaining ride comfort and the performance of compliance behavior. That is, in the present disclosure, the performance of the driver's response behavior is used to evaluate the driving ability. Here, "response behavior" refers to the driving behavior that the driver performs in response to the situation outside the vehicle. is an example of

乗り心地維持行動や法規順守行動に関しては、予測負荷やパフォーマンスは、例えば以下のように評価すればよい。 Regarding ride comfort behavior and legal compliance behavior, predicted load and performance may be evaluated, for example, as follows.

(乗り心地維持行動)
車両の前後方向の乗り心地を維持する負荷(ペダル操作関係)については、先行車の速度が安定しないほど負荷が高い、勾配変化が激しいほど負荷が高い、走行速度が低いほど負荷が高い、といえる。具体的にいうと、先行車が一定速度で走行しているときは、自車も一定速度で走ればよいので、乗り心地に影響する加減速を生じさせる制御は発生しない。すなわち、乗り心地を維持する負荷が低い。一方、先行車が加速や減速を繰り返しているときは、滑らかな乗り心地を維持するためには状況を先読みして早めにペダル操作をする必要がある。すなわち、乗り心地を維持する負荷が高い。
(Action to maintain ride comfort)
Regarding the load (related to pedal operation) that maintains the ride comfort in the longitudinal direction of the vehicle, the load increases as the speed of the vehicle ahead becomes unstable, the load increases as the gradient changes sharply, and the load increases as the driving speed decreases. I can say. Specifically, when the preceding vehicle is running at a constant speed, the own vehicle can also run at a constant speed, so control that causes acceleration and deceleration that affects ride comfort does not occur. That is, the load for maintaining ride comfort is low. On the other hand, when the vehicle ahead is repeatedly accelerating and decelerating, it is necessary to anticipate the situation and operate the pedal early in order to maintain a smooth ride. That is, the load for maintaining ride comfort is high.

また、平坦な道であれば速度を一定にしていればよいので、乗り心地に影響する加減速を生じさせる制御は発生せず、乗り心地を維持する負荷が低い。一方、上り坂や下り坂が頻繁にあるシーンでは、前もって操作しておかないと速度が出すぎたり落ちすぎたりするため、追加でアクセルやブレーキを操作する必要が発生する。すなわち、乗り心地を維持する負荷が高い。また、走行速度が高いとき、アクセス操作やブレーキ操作によって発生する前後の重力加速度は小さくなるので、調整がしやすい。したがって、乗り心地を維持する負荷が低い。一方、走行速度が低いとき、アクセル操作やブレーキ操作によって発生する前後の重力加速度は大きくなるため、乗り心地維持のためには慎重な操作が必要になる。したがって、乗り心地を維持する負荷が高い。 In addition, since it is sufficient to keep the speed constant on a flat road, there is no control that causes acceleration or deceleration that affects ride comfort, and the load for maintaining ride comfort is low. On the other hand, in scenes where there are frequent uphills and downhills, it is necessary to operate the accelerator and brakes additionally because the speed will be too high or too low if it is not operated in advance. That is, the load for maintaining ride comfort is high. In addition, when the traveling speed is high, the front and rear gravitational acceleration generated by the access operation and the brake operation becomes small, which facilitates adjustment. Therefore, the load for maintaining ride comfort is low. On the other hand, when the driving speed is low, the longitudinal gravitational acceleration generated by the accelerator operation and the brake operation becomes large, so careful operation is required to maintain the ride comfort. Therefore, the load for maintaining ride comfort is high.

また、左右方向の乗り心地を維持する負荷(ステア操作関係)については、道路形状の変化速度が高いほど(きついカーブであるほど、高速度で走行しているほど)、負荷が高い、といえる。具体的にいうと、直線道路を走っているときは、大きなステアリング操作をする必要がない。すなわち、乗り心地を維持する負荷が低い。一方、きついカーブほど、大きなステアリング操作を行う必要があり、乗り心地を維持するためには慎重な操作が必要になる。したがって、乗り心地を維持する負荷が高い。さらに、カーブを速く走行するほど、ステアリングを速く操作する必要があるため、乗り心地を維持するためには慎重な操作が必要になる。したがって、乗り心地を維持する負荷が高い。 Regarding the load that maintains the ride comfort in the left-right direction (related to steering operation), it can be said that the higher the speed of change in road shape (the tighter the curve, the higher the speed), the higher the load. . Specifically, when driving on a straight road, you don't need to make a big steering operation. That is, the load for maintaining ride comfort is low. On the other hand, the tighter the curve, the greater the need to perform steering operation, and careful operation is required to maintain ride comfort. Therefore, the load for maintaining ride comfort is high. In addition, the faster you drive around a curve, the faster you need to steer, so careful operation is required to maintain a comfortable ride. Therefore, the load for maintaining ride comfort is high.

パフォーマンスについては、例えば、車両にかかる重力加速度の滑らかさによって、評価すればよい。例えば、躍度(加減速度の微分値)が小さいとき、パフォーマンスが高いと評価する。あるいは、カーブ走行時の前後左右Gの繋がりの滑らかさによって、評価してもよい。例えば、G-Gダイアグラムが円に近いかどうかで評価する。繋がりがなめらかだと、パフォーマンスが高いと評価する。 Performance may be evaluated, for example, by the smoothness of gravitational acceleration applied to the vehicle. For example, when the jerk (differential value of acceleration/deceleration) is small, the performance is evaluated as high. Alternatively, the evaluation may be made based on the smoothness of the connection between the front, rear, left, and right G when traveling on a curve. For example, evaluation is made based on whether the GG diagram is close to a circle. If the connection is smooth, the performance is evaluated as high.

(法規順守行動)
・信号の場合
交差点通過時に信号が赤になるタイミングを考えたとき、自車が交差点に近づいている時に赤に変わるほど、負荷が高い。具体的には例えば、自車が交差点にさしかかる30秒前に信号が赤に変わった場合、赤信号を見てゆっくり止まればよいだけである。したがって、法規順守負荷が低い。一方、自車が交差点にさしかかる3秒前に信号が赤に変わった場合、赤信号を見て即座に操作しなければいけない。したがって、法規順守負荷が高い。また、信号が緑→黄→赤に変わるタイプの信号では、赤になるまで余裕があるため負荷が低く、黄色点滅から急に赤に変わるタイプの信号では、負荷が高いといえる。
(legal compliance behavior)
・In the case of traffic lights Considering the timing at which the traffic light turns red when passing through an intersection, the load is higher when the traffic light turns red when the vehicle is approaching the intersection. Specifically, for example, when the traffic light turns red 30 seconds before the vehicle approaches an intersection, all that is required is to see the red traffic light and slowly stop. Therefore, the legal compliance load is low. On the other hand, if the traffic light turns red 3 seconds before your vehicle approaches the intersection, you must see the red traffic light and act immediately. Therefore, the legal compliance load is high. In addition, a signal that changes from green to yellow to red has a low load because there is a margin until the signal turns red, and a signal that suddenly changes from flashing yellow to red has a high load.

パフォーマンスは、例えば、赤(もしくは黄色)に変わってから何秒後に通過してしまったか、によって評価すればよい。例えば、止まれていたらパフォーマンスは高いと評価し、赤や黄色に変わってから10秒後に交差点を通過するとパフォーマンスは低いと評価する。 Performance can be evaluated, for example, by how many seconds passed after turning red (or yellow). For example, the performance is evaluated as high if stopped, and the performance is evaluated as low if the intersection is crossed 10 seconds after turning red or yellow.

・標識の場合
標識の色合い、見えやすさ、位置により、標識があることの認識が容易であれば、負荷が低い。具体的には例えば、標識がかすれていてよく見ても内容が分からないとき、あるいは、標識の前に木の枝がかかっていて見えにくいときは、法規順守負荷が高い。また、標識が倒れていたりして、一般的ではない場所にあるとき、法規順守負荷が高い、といえる。
・In the case of signs If it is easy to recognize that there is a sign due to its color, visibility, and position, the burden is low. Specifically, for example, when the sign is blurred and the content is not clear even if you look closely, or when a tree branch hangs in front of the sign and makes it difficult to see, the legal compliance load is high. Also, when the sign is upside down and in an unusual place, it can be said that the legal compliance load is high.

パフォーマンスは、例えば、速度標識の場合、制限速度からどれくらいオーバーしているのかによって評価すればよい。例えば、制限速度を守れていたらパフォーマンスが高い、オーバーしている程度が大きいほどパフォーマンスが低いと評価する。 Performance can be evaluated, for example, in the case of speed signs, by how far the speed limit is exceeded. For example, if the speed limit is observed, the performance is evaluated as high, and if the speed limit is exceeded, the performance is evaluated as low.

・走行車線の場合
走行車線の場合、車線がはっきり見えていれば負荷が低く、かすれて見えにくければ負荷が高い、といえる。
・In the case of the driving lane In the case of the driving lane, if the lane is clearly visible, the load is low, and if it is difficult to see it blurred, the load is high.

パフォーマンスについては、例えば、車両が走行車線からどれぐらいはみ出して走行しているかによって評価すればよい。例えば、はみ出していなければパフォーマンスが高い、はみ出し量が多いほどパフォーマンスが低いと評価する。 Performance may be evaluated, for example, by how far the vehicle is running out of the driving lane. For example, if there is no protrusion, the performance is evaluated to be high, and the greater the amount of protrusion, the lower the performance.

また、本発明の適用用途は、自動車に限られるものではない。自動車以外の、例えば電車等の移動体において、運転状態を検出するのに有効である。 Further, the application of the present invention is not limited to automobiles. This is effective for detecting the driving state of moving bodies other than automobiles, such as trains.

また、本開示に係る技術は、単体の情報処理装置以外の形態で実現される場合もあり得る。例えば、コントローラ1が実行する処理の一部が、別の情報処理装置によって実現されてもよい。また例えば、移動体に搭載されていない情報処理装置、例えば運転者が持っているスマホやタブレット等が、処理の一部を実行してもよい。あるいは、クラウドが、処理の一部または全部を実行するような形態としてもかまわない。 Also, the technology according to the present disclosure may be realized in a form other than a single information processing device. For example, part of the processing executed by the controller 1 may be realized by another information processing device. Further, for example, an information processing device that is not mounted on the moving object, such as a smartphone or tablet held by the driver, may execute part of the processing. Alternatively, the cloud may be configured to execute part or all of the processing.

前述の実施形態は単なる例示に過ぎず、本開示の範囲を限定的に解釈してはならない。本開示の範囲は請求の範囲によって定義され、請求の範囲の均等範囲に属する変形や変更は、全て本開示の範囲内のものである。 The above-described embodiments are merely examples, and should not be construed as limiting the scope of the present disclosure. The scope of the present disclosure is defined by the claims, and all modifications and changes within the equivalent range of the claims are within the scope of the present disclosure.

ここに開示された技術は、運転者の覚醒低下や脇見を検出し、かつ、運転者が漫然状態にあることを検出できるので、例えば、自動車の運転の安全性向上に有用である。 The technology disclosed herein is useful for improving the safety of driving a car, for example, because it can detect a driver's reduced arousal and distraction, and can also detect that the driver is in a careless state.

1 コントローラ
10 前方カメラ
11 車内カメラ(ドライバモニタカメラ)
12 車速センサ
13 加速度センサ
14 ヨーレートセンサ
15 操舵角センサ
16 操舵トルクセンサ
17 アクセル開度センサ
18 ブレーキ圧センサ
19 GPSユニット
21 センターディスプレイ
22 HUD
23 音声出力装置
24 ステアリング制御装置
25 ブレーキ制御装置
26 エンジン制御装置
1 controller 10 front camera 11 in-vehicle camera (driver monitor camera)
12 vehicle speed sensor 13 acceleration sensor 14 yaw rate sensor 15 steering angle sensor 16 steering torque sensor 17 accelerator opening sensor 18 brake pressure sensor 19 GPS unit 21 center display 22 HUD
23 audio output device 24 steering control device 25 brake control device 26 engine control device

Claims (2)

車両の運転者の状態を検出する運転状態検出方法であって、
前記車両の周辺状況を示す情報を用いて、前記運転者の予測負荷を推定するステップ(a)と、
前記車両の周辺状況を示す情報と、前記運転者の運転操作を示す情報と、前記運転者の挙動を示す情報とを用いて、前記運転者の対応行動のパフォーマンスを評価するステップ(b)と、
ステップ(a)で推定した予測負荷と、ステップ(b)で評価した対応行動のパフォーマンスとを基にして、前記運転者の現在の運転能力を評価するステップ(c)と、
ステップ(c)で評価した運転能力を、運転者の通常の運転能力と比較し、運転能力の発揮度合を判定するステップ(d)と、
前記運転者の挙動を示す情報を用いて、運転者が眠気運転または脇見運転を行っているか否かを判定するステップ(e)と、
ステップ(d)で判定した運転能力の発揮度合が所定程度以下であって、かつ、ステップ(e)で運転者が眠気運転または脇見運転を行っていないと判定したとき、前記運転者が漫然状態にあると判定するステップ(f)と、を備える運転状態検出方法。
A driving state detection method for detecting the state of a driver of a vehicle,
a step (a) of estimating the predicted load of the driver using information indicating the surrounding situation of the vehicle;
a step (b) of evaluating the performance of the response action of the driver using the information indicating the surrounding situation of the vehicle, the information indicating the driving operation of the driver, and the information indicating the behavior of the driver; ,
step (c) of assessing the driver's current driving ability based on the predicted load estimated in step (a) and the performance of the corresponding action assessed in step (b);
a step (d) of comparing the driving ability evaluated in step (c) with the normal driving ability of the driver to determine the degree of demonstration of the driving ability;
a step (e) of determining whether or not the driver is drowsy driving or distracted driving using the information indicating the behavior of the driver;
When it is determined in step (d) that the degree of manifestation of the driving ability determined in step (d) is below a predetermined level, and in step (e) it is determined that the driver is not drowsy driving or distracted driving, the driver is in a careless state. A driving state detection method comprising a step (f) of determining that the
請求項1記載の運転状態検出方法において、
前記ステップ(e)は、
運転者の上下瞼間の距離が基準値と比べて所定閾値以上に小さくなったとき、運転者の頭部位置が基準位置と比べて所定閾値以上にずれたとき、または、運転者の視線方向と前記車両の進行方向とのずれが所定閾値以上に大きくなったとき、運転者が眠気運転または脇見運転を行っていると判定するステップを含む
ことを特徴とする運転状態検出方法。
In the operating state detection method according to claim 1,
The step (e) includes
When the distance between the driver's upper and lower eyelids becomes smaller than a reference value by a predetermined threshold or more, when the driver's head position deviates from the reference position by a predetermined threshold or more, or when the driver's line of sight direction determining that the driver is drowsy driving or inattentive driving when a difference between the direction of travel and the traveling direction of the vehicle becomes greater than a predetermined threshold value.
JP2021026103A 2021-02-22 2021-02-22 Operation state detection method Pending JP2022127881A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021026103A JP2022127881A (en) 2021-02-22 2021-02-22 Operation state detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021026103A JP2022127881A (en) 2021-02-22 2021-02-22 Operation state detection method

Publications (1)

Publication Number Publication Date
JP2022127881A true JP2022127881A (en) 2022-09-01

Family

ID=83061160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021026103A Pending JP2022127881A (en) 2021-02-22 2021-02-22 Operation state detection method

Country Status (1)

Country Link
JP (1) JP2022127881A (en)

Similar Documents

Publication Publication Date Title
JP7080598B2 (en) Vehicle control device and vehicle control method
CN111361552B (en) Automatic driving system
JP6690649B2 (en) Information processing apparatus, information processing method, and program
US9007198B2 (en) Adaptive Actuator interface for active driver warning
US11685390B2 (en) Assistance method and assistance system and assistance device using assistance method that execute processing relating to a behavior model
JPWO2020100539A1 (en) Information processing equipment, mobile devices, and methods, and programs
JP6693354B2 (en) Vehicle information presentation device
US10336252B2 (en) Long term driving danger prediction system
US10338583B2 (en) Driving assistance device
JP6627811B2 (en) Concentration determination device, concentration determination method, and program for concentration determination
JP4182131B2 (en) Arousal level determination device and arousal level determination method
US11873007B2 (en) Information processing apparatus, information processing method, and program
JP6631570B2 (en) Operating state determining apparatus, operating state determining method, and program for determining operating state
CN111144311A (en) Auxiliary speed control method, device and system based on attention of driver
US11745745B2 (en) Systems and methods for improving driver attention awareness
JP2003231449A (en) Driving support device
US20240000354A1 (en) Driving characteristic determination device, driving characteristic determination method, and recording medium
JP2016016853A (en) Drive support system and drive support method
JP2017097846A (en) Method and system for improving attention level of traffic participant
JP2018151765A (en) Visual recognition support device, method and program
JP6631569B2 (en) Operating state determining apparatus, operating state determining method, and program for determining operating state
JP2022047580A (en) Information processing device
JP2022127881A (en) Operation state detection method
WO2018163536A1 (en) Driver body condition recovery support device, method and program
JP2020125089A (en) Vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231219