JP7450715B2 - Inoperability determination device and inoperability determination method - Google Patents

Inoperability determination device and inoperability determination method Download PDF

Info

Publication number
JP7450715B2
JP7450715B2 JP2022527431A JP2022527431A JP7450715B2 JP 7450715 B2 JP7450715 B2 JP 7450715B2 JP 2022527431 A JP2022527431 A JP 2022527431A JP 2022527431 A JP2022527431 A JP 2022527431A JP 7450715 B2 JP7450715 B2 JP 7450715B2
Authority
JP
Japan
Prior art keywords
driver
face
determination
immobility
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022527431A
Other languages
Japanese (ja)
Other versions
JPWO2021240768A1 (en
JPWO2021240768A5 (en
Inventor
雅史 柴田
翔悟 甫天
翔太 夏目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021240768A1 publication Critical patent/JPWO2021240768A1/ja
Publication of JPWO2021240768A5 publication Critical patent/JPWO2021240768A5/ja
Application granted granted Critical
Publication of JP7450715B2 publication Critical patent/JP7450715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、運転者が車両を運転できない運転不能状態にあることを判定する技術に関する。 The present disclosure relates to a technique for determining that a driver is in an inoperable state in which he or she cannot drive a vehicle.

特許文献1には、運転者が運転不能状態であることを検出する技術が開示されている。特許文献1の技術は、運転者の撮影映像を用いて運転者の頭部位置を検出し、頭部位置が既定の範囲から外れている状態、または顔の方向が既定の方向から外れている状態が一定時間以上継続した場合に、運転者を運転不能状態と判定する。 Patent Document 1 discloses a technique for detecting that a driver is unable to drive. The technology of Patent Document 1 detects the driver's head position using a captured image of the driver, and detects a state in which the head position is outside a predetermined range or the direction of the face is outside the predetermined direction. If the condition continues for a certain period of time or more, the driver is determined to be unable to drive.

特開2018-173996号公報Japanese Patent Application Publication No. 2018-173996

しかし、頭部位置または顔の方向が既定の位置または範囲から外れていなくても、運転者は運転不能状態にある場合がある。例えば、運転者が癲癇の発作で失神したり全身が硬直したりする場合などである。特許文献1の技術では、このような不動状態における運転不能状態を判定できないという問題がある。 However, even if the head position or the direction of the face does not deviate from a predetermined position or range, the driver may be unable to drive. For example, a driver may faint or become stiff due to an epileptic attack. The technique disclosed in Patent Document 1 has a problem in that it is not possible to determine whether the vehicle is inoperable in such a stationary state.

本開示は、上記の問題点を解決するためになされたものであり、運転者の不動状態における運転不能状態を判定する技術の提供を目的とする。 The present disclosure has been made to solve the above-mentioned problems, and aims to provide a technology for determining whether a driver is unable to drive when the driver is stationary.

本開示の第1の運転不能判定装置は、車両に搭載され車両の運転者を撮影するカメラの撮影映像を解析することにより、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得する画像解析部と、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かを判定する不動判定部と、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定する不能判定部と、を備え、不動判定部は、2つのフレームの夫々における顔領域の位置情報に基づき、2つのフレーム間における顔領域の重畳面積比率を算出し、重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定し、特徴情報は、運転者の顔の方向の情報を含み、不動判定部は、2つのフレーム間において、重畳面積比率が第1閾値以上、かつ運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、運転者が不動状態にあると判定する。
本開示の第2の運転不能判定装置は、車両に搭載され車両の運転者を撮影するカメラの撮影映像を解析することにより、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得する画像解析部と、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かを判定する不動判定部と、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定する不能判定部と、を備え、不動判定部は、2つのフレームの夫々における顔領域の位置情報に基づき、2つのフレーム間における顔領域の重畳面積比率を算出し、重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定し、不能判定部は、画像解析部が取得した運転者の顔領域の位置から、2つのフレーム間の時間よりも長い時間である一定時間内運転者の顔領域が移動した延べの距離である移動距離を算出し、移動距離にも基づき、運転者を運転不能状態と判定する。

A first driveability determination device of the present disclosure analyzes a captured image of a camera mounted on a vehicle and captures the driver of the vehicle, thereby obtaining information related to the driver's head, including positional information of the driver's face area. an image analysis unit that acquires characteristic information; and an immobility determination unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship in a photographed video. , an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold; Based on the position information, the overlapping area ratio of the face area between two frames is calculated, and when the overlapping area ratio is equal to or higher than the first threshold value, it is determined that the driver is in an immobile state, and the feature information is The immobility determining unit determines whether, between the two frames, the overlapping area ratio is greater than or equal to a first threshold, and the amount of change in face direction, which is the amount of change in the direction of the driver's face, is less than a third threshold. In this case, it is determined that the driver is in an immobile state.
The second driveability determination device of the present disclosure analyzes images taken by a camera mounted on a vehicle that photographs the driver of the vehicle, thereby obtaining information related to the driver's head, including positional information of the driver's face area. an image analysis unit that acquires characteristic information; and an immobility determination unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship in a photographed video. , an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold; Based on the position information, the overlapping area ratio of the face area between the two frames is calculated, and when the overlapping area ratio is equal to or higher than the first threshold value, it is determined that the driver is in an immobile state, and the disability determination unit From the position of the driver's face area acquired by the analysis unit, the moving distance, which is the total distance the driver's face area has moved within a certain time period, which is longer than the time between two frames, is calculated, and the movement distance is calculated. Based on the distance, the driver is determined to be unable to drive.

本開示の運転不能判定方法は、車両に搭載され車両の運転者を撮影するカメラの撮影映像を解析することにより、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得し、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かの不動判定を行い、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定し、2つのフレームの夫々における顔領域の位置情報に基づき、2つのフレーム間における顔領域の重畳面積比率を算出し、重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定し、特徴情報は、運転者の顔の方向の情報を含み、2つのフレーム間において、重畳面積比率が第1閾値以上、かつ運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、運転者が不動状態にあると判定する。

The driving incapacity determination method of the present disclosure obtains characteristic information about the driver's head, including positional information of the driver's face area, by analyzing video captured by a camera mounted on a vehicle that photographs the driver of the vehicle. Based on the change in characteristic information between two frames that have a certain temporal relationship in the photographed video, it is determined whether or not the driver is in an immobile state, and the duration of the driver's immobile state is determined. is greater than or equal to the second threshold, the driver is determined to be unable to drive, and based on the position information of the face area in each of the two frames, the overlapping area ratio of the face area between the two frames is calculated, and the overlapping area ratio of the face area between the two frames is calculated. When the area ratio is greater than or equal to the first threshold, it is determined that the driver is in an immobile state , and the feature information includes information on the direction of the driver's face, and between the two frames, the superimposed area ratio is the first When the face direction change amount, which is the amount of change in the direction of the driver's face, is equal to or greater than the threshold value and less than the third threshold value, it is determined that the driver is in an immobile state .

本開示の技術によれば、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定するため、運転者の不動状態における運転不能状態を判定することができる。本開示の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 According to the technology of the present disclosure, in order to determine that the driver is unable to drive when the duration of the immobile state of the driver is equal to or greater than the second threshold value, it is possible to determine the inoperable state in the immobile state of the driver. I can do it. Objects, features, aspects, and advantages of the present disclosure will become more apparent from the following detailed description and accompanying drawings.

実施の形態1の運転不能判定装置の構成を示す図である。1 is a diagram showing the configuration of an inoperability determination device according to a first embodiment; FIG. 実施の形態1の運転不能判定装置の全体処理を示すフローチャートである。2 is a flowchart showing the overall processing of the inoperability determination device according to the first embodiment. 実施の形態1の運転不能判定装置の不動判定処理を示すフローチャートである。3 is a flowchart showing immobility determination processing of the inoperability determination device according to the first embodiment. 2つのフレーム間における顔領域の変化を示す図である。FIG. 3 is a diagram showing a change in a face area between two frames. 実施の形態1の運転不能判定装置の不能判定処理を示すフローチャートである。2 is a flowchart showing an inoperability determination process of the inoperability determination device according to the first embodiment. 実施の形態2の運転不能判定装置の構成を示す図である。FIG. 3 is a diagram showing the configuration of an inoperability determination device according to a second embodiment. 実施の形態2の運転不能判定装置の不動判定処理を示すフローチャートである。12 is a flowchart showing immobility determination processing of the inoperability determination device according to the second embodiment. 実施の形態3の運転不能判定装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of an inoperability determination device according to a third embodiment. 実施の形態3の運転不能判定装置の不動判定処理を示すフローチャートである。13 is a flowchart showing immobility determination processing of the inoperability determination device according to the third embodiment. 実施の形態4の運転不能判定装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of an inoperability determination device according to a fourth embodiment. 実施の形態4の運転不能判定装置の不動判定処理を示すフローチャートである。12 is a flowchart showing immobility determination processing of the inoperability determination device according to the fourth embodiment. 車両がカーブを走行する様子を示す図である。FIG. 3 is a diagram showing how a vehicle travels around a curve. 意識のある状態の運転者の顔の向きを示す図である。FIG. 3 is a diagram showing the direction of the driver's face in a conscious state. 意識のない運転者の顔の向きを示す図である。FIG. 3 is a diagram showing the direction of the face of an unconscious driver. 実施の形態5の運転不能判定装置の構成を示す図である。It is a figure showing the composition of the inoperability judgment device of Embodiment 5. 実施の形態5の運転不能判定装置の不動判定処理を示すフローチャートである。12 is a flowchart showing immobility determination processing of the inoperability determination device according to the fifth embodiment. 実施の形態6の運転不能判定装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of an inoperability determination device according to a sixth embodiment. 実施の形態6の運転不能判定装置の不能判定処理を示すフローチャートである。12 is a flowchart showing the inoperability determination process of the inoperability determination device according to the sixth embodiment. 運転不能判定装置のハードウェア構成を示す図である。FIG. 2 is a diagram showing a hardware configuration of an inoperability determination device. 運転不能判定装置のハードウェア構成を示す図である。FIG. 2 is a diagram showing a hardware configuration of an inoperability determination device. 車両とサーバによる実施の形態6の運転不能判定装置の構成例を示す図である。It is a figure showing the example of composition of the drivability judgment device of Embodiment 6 including a vehicle and a server.

以下に説明する各実施の形態の運転不能判定装置は、車両の運転者の不動状態が継続する場合に、運転者が運転不能状態にあると判定する。以下、運転不能判定装置が運転不能状態の判定対象とする運転者が搭乗する車両を、単に車両と称する。また、以下に説明する各実施の形態では、同一または対応する構成要素に同一の参照符号が付されている。従って、同一の参照符号が付された構成要素は、異なる実施の形態間で同一または対応している。 The inoperability determining device of each embodiment described below determines that the driver of the vehicle is in an inoperable state when the driver of the vehicle continues to be immobile. Hereinafter, a vehicle in which a driver, whose inability to drive state is to be determined by the inoperability determination device, is boarded will be simply referred to as a vehicle. Moreover, in each embodiment described below, the same reference numerals are given to the same or corresponding components. Therefore, components labeled with the same reference numerals are the same or correspond between different embodiments.

<A.実施の形態1>
<A-1.構成>
図1は、実施の形態1の運転不能判定装置101とその周辺装置の構成を示す図である。運転不能判定装置101は、撮像装置50と接続され、これを利用可能に構成されている。
<A. Embodiment 1>
<A-1. Configuration>
FIG. 1 is a diagram showing the configuration of an inoperability determination device 101 and its peripheral devices according to the first embodiment. The driving impossibility determination device 101 is connected to the imaging device 50 and is configured to be able to use it.

撮像装置50は、運転者を撮像する装置であり、車両に搭載されている。撮像装置50は、カメラ51とLED52とを備えて構成される。カメラ51は主に運転者の顔を含む頭部を撮像する。カメラ51は、ある特定の瞬間だけ撮影を行うのではなく、ある一定の期間連続して撮影を行っている。カメラ51の撮影映像の各フレームが画像解析部10Aに出力される。撮影映像のフレームレートは、例えば10fpsまたは30fpsである。LED52は、運転者の顔に光を照射し、カメラ51が運転者の顔を明瞭に撮影できるようにする。 The image capturing device 50 is a device that captures an image of a driver, and is mounted on a vehicle. The imaging device 50 includes a camera 51 and an LED 52. The camera 51 mainly images the driver's head including the face. The camera 51 does not take pictures only at a specific moment, but continuously takes pictures for a certain period of time. Each frame of the video shot by the camera 51 is output to the image analysis section 10A. The frame rate of the captured video is, for example, 10 fps or 30 fps. The LED 52 irradiates the driver's face with light so that the camera 51 can clearly photograph the driver's face.

運転不能判定装置101は、典型的には車両に搭載されるが、<G.ハードウェア構成>で後述するように、運転不能判定装置101の各構成が必ずしも車両に搭載されている必要はない。運転不能判定装置101は、画像解析部10A、不動判定部20Aおよび不能判定部30Aを備える。 The driveability determination device 101 is typically mounted on a vehicle, but <G. Hardware Configuration> As will be described later in ``Hardware Configuration'', each component of the inoperability determination device 101 does not necessarily need to be installed in the vehicle. The inoperability determination device 101 includes an image analysis section 10A, an immobility determination section 20A, and an inoperability determination section 30A.

画像解析部10Aは、カメラ51の撮影映像の各フレームを解析することにより、運転者の頭部に関する特徴情報(以下、単に「特徴情報」と称する)を取得する。具体的には、画像解析部10Aは、顔位置検出部11を備えている。顔位置検出部11は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける顔領域を検出し、顔領域の位置情報を取得する。すなわち、特徴情報は、運転者の顔領域の位置情報を含む。 The image analysis unit 10A acquires characteristic information (hereinafter simply referred to as "characteristic information") regarding the driver's head by analyzing each frame of the image captured by the camera 51. Specifically, the image analysis section 10A includes a face position detection section 11. The face position detection unit 11 analyzes each frame of the image captured by the camera 51, detects a face area in each frame, and obtains position information of the face area. That is, the feature information includes position information of the driver's face area.

不動判定部20Aは、特徴情報に基づき運転者が不動状態であるか否かを判定する。通常、運転者は、運転中に周辺車両または障害物など、車両の周辺の様々な物または人を確認するため、頭部にある程度の動きがある。しかし、癲癇の発作など、何らかの原因で身体が硬直してしまった場合には、通常時に比べて頭部の動きが明らかに小さくなる。本明細書では、運転者が運転中の状態としては不自然なほど動かない状態を、「不動状態」と称する。 The immobility determining unit 20A determines whether the driver is in an immobile state based on the characteristic information. Typically, a driver makes some head movements while driving to check various objects or people around the vehicle, such as nearby vehicles or obstacles. However, when the body becomes rigid for some reason, such as during an epileptic attack, the movement of the head becomes noticeably smaller than normal. In this specification, a state in which the driver does not move to an extent that is unnatural for a state in which the driver is driving is referred to as an "immobile state."

具体的には、不動判定部20Aは、重畳比率算出部21を備える。重畳比率算出部21は、顔位置検出部11が検出した撮影映像の各フレーム中の顔領域の位置から、2つのフレーム間で顔領域の重畳面積比率を算出する。ここで、顔領域を比較する2つのフレームは、典型的には時系列において連続する2つのフレームであるが、これに限らず、一定の時間的前後関係を有していれば良い。例えば、重畳比率算出部21は、2フレームおき、または10フレームおきに選択した2つのフレームにおいて顔領域の重畳面積比率を算出してもよい。 Specifically, the immobility determination unit 20A includes a superimposition ratio calculation unit 21. The superimposition ratio calculation unit 21 calculates the superimposition area ratio of the face area between two frames from the position of the face area in each frame of the photographed video detected by the face position detection unit 11. Here, the two frames whose face regions are compared are typically two consecutive frames in time series, but are not limited to this, as long as they have a certain temporal relationship. For example, the superimposition ratio calculation unit 21 may calculate the superimposition area ratio of the face area in two frames selected every two frames or every ten frames.

不動判定部20Aは、2つのフレーム間における顔領域の重畳面積比率が、予め定められた第1閾値Th1以上である場合に、運転者が不動状態であると判定する。不動判定部20Aは、カメラ51の撮影映像の新たな各フレームに対して、不動状態の判定処理を繰り返す。 The immobility determining unit 20A determines that the driver is in an immobile state when the overlapping area ratio of the face area between two frames is greater than or equal to a predetermined first threshold Th1. The immobility determination unit 20A repeats the immobility determination process for each new frame of the image captured by the camera 51.

不能判定部30Aは、不動判定部20Aにより運転者が不動状態と判定された時間が、予め定められた第2閾値Th2以上継続する場合に、運転者は運転が不可能な運転不能状態にあると判定する。第2閾値Th2は、例えば90秒である。 The inability determining unit 30A determines that the driver is in an inoperable state in which driving is not possible when the time period during which the driver is determined to be in an immobile state by the immobility determining unit 20A continues for a predetermined second threshold Th2 or more. It is determined that The second threshold Th2 is, for example, 90 seconds.

<A-2.動作>
図2は、運転不能判定装置101の全体処理を示すフローチャートである。以下、図2に沿って運転不能判定装置101の全体処理を説明する。図2のフローは、例えば車両が走行を開始する際にスタートし、車両の走行中は繰り返し行われる。また、撮像装置50は、例えば車両のアクセサリ電源がオンになった後は、常に撮影を行っているものとする。
<A-2. Operation>
FIG. 2 is a flowchart showing the overall processing of the inoperability determination device 101. The overall processing of the inoperability determination device 101 will be described below with reference to FIG. The flow shown in FIG. 2 starts, for example, when the vehicle starts traveling, and is repeated while the vehicle is traveling. Further, it is assumed that the imaging device 50 always takes pictures, for example, after the accessory power of the vehicle is turned on.

まず、画像解析部10Aがカメラ51の撮影映像を取得し、撮影映像を解析して、撮影映像の各フレームにおける運転者の頭部に関する特徴情報を取得する(ステップS101)。より具体的には、本実施の形態では、顔位置検出部11が各フレームにおける運転者の顔領域の位置を取得する。 First, the image analysis unit 10A acquires a captured image of the camera 51, analyzes the captured image, and obtains characteristic information regarding the driver's head in each frame of the captured image (step S101). More specifically, in this embodiment, the face position detection unit 11 acquires the position of the driver's face area in each frame.

次に、不動判定部20Aが、画像解析部10Aの画像解析結果に基づき、運転者が不動状態にあるか否かを判定する(ステップS102)。本ステップの詳細は図3で後述する。 Next, the immobility determining unit 20A determines whether the driver is in an immobile state based on the image analysis result of the image analyzing unit 10A (step S102). Details of this step will be described later with reference to FIG.

次に、不能判定部30Aが、不動判定部20Aの判定結果に基づき運転者が運転不能状態にあるか否かを判定する(ステップS103)。本ステップの詳細は図5で後述する。そして、運転不能判定装置101はステップS101の処理に戻る。 Next, the inability determining unit 30A determines whether the driver is in an inoperable state based on the determination result of the immobility determining unit 20A (step S103). Details of this step will be described later with reference to FIG. The inoperability determination device 101 then returns to the process of step S101.

図3は、不動判定部20Aにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。以下、図3に沿って不動判定処理を説明する。まず、重畳比率算出部21は、顔位置検出部11から各フレームにおける運転者の顔領域の位置を取得し、特定の2フレーム間で、顔領域の重畳面積比率を算出する。 FIG. 3 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the immobility determination unit 20A. The immobility determination process will be described below with reference to FIG. First, the superimposition ratio calculation unit 21 acquires the position of the driver's face area in each frame from the face position detection unit 11, and calculates the overlap area ratio of the face area between two specific frames.

図4は、2つのフレームにおける顔領域の重畳面積を示している。図4において、水平方向にx、垂直方向にy軸が設定されている。そして、一つ前のフレーム202における顔領域の位置座標が(X´、Y´)で表され、現在のフレーム201における顔領域の位置座標が(X、Y)で表されている。こうした顔領域の位置座標から、重畳比率算出部21は、両フレームにおける顔領域の重畳領域203を得ることができる。そして、重畳比率算出部21は、顔領域の面積と重畳領域203の面積とから、重畳面積比率を算出する。 FIG. 4 shows the overlapping area of face regions in two frames. In FIG. 4, the x-axis is set in the horizontal direction and the y-axis is set in the vertical direction. The position coordinates of the face area in the previous frame 202 are represented by (X', Y'), and the position coordinates of the face area in the current frame 201 are represented by (X, Y). From these positional coordinates of the face area, the overlapping ratio calculation unit 21 can obtain the overlapping area 203 of the face area in both frames. Then, the superimposition ratio calculating unit 21 calculates the superimposition area ratio from the area of the face region and the area of the superimposition region 203.

不動判定部20Aは、重畳面積比率が閾値Th1以上であるか否かを判断する(ステップS1021)。例えば、運転者が全く動かないと仮定すると、2フレーム間で運転者の顔領域の位置は全く同一となり、完全に重畳するため、重畳面積比率は1である。運転者の顔領域の動きが大きいほど、重畳面積比率は小さくなる。従って、不動判定部20Aは、重畳面積比率が閾値Th1以上である場合には、運転者が不動状態にあると判定し、不動判定時間T0をカウントアップする(ステップS1022)。他方、不動判定部20Aは、重畳面積比率が閾値Th1未満である場合には、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。以上で、不動判定部20Aは不動判定処理を終了する。 The immobility determining unit 20A determines whether the overlapping area ratio is equal to or greater than a threshold Th1 (step S1021). For example, assuming that the driver does not move at all, the position of the driver's face area will be exactly the same between two frames and will be completely overlapped, so the overlap area ratio will be 1. The larger the movement of the driver's face area, the smaller the overlapping area ratio becomes. Therefore, when the superimposed area ratio is equal to or greater than the threshold Th1, the immobility determining unit 20A determines that the driver is in an immobile state, and counts up the immobility determination time T0 (step S1022). On the other hand, if the overlapping area ratio is less than the threshold Th1, the immobility determining unit 20A determines that the driver is not in an immobile state, and resets the immobility determination time T0 (step S1023). With this, the immobility determination unit 20A ends the immobility determination process.

図5は、不能判定部30Aにおける不能判定処理(図2のステップS103)の詳細を示すフローチャートである。以下、図5に沿って不能判定処理を説明する。まず、不能判定部30Aは、不動判定時間T0が閾値Th2以上であるか否かを判断する(ステップS1031)。不動判定時間T0は、不動判定部20Aが図3のステップS1022でカウントアップ、またはステップS1023においてリセットするものである。ステップS1031においてT0≧Th2であれば、不能判定部30Aは運転者の不動状態が継続しており、運転者は運転不能状態にあると判定する(ステップS1032)。他方、ステップS1031においてT0<Th2であれば、不能判定部30Aは、運転者は運転不能状態にないと判定する(ステップS1033)。以上で、不能判定部30Aは不能判定処理を終了する。 FIG. 5 is a flowchart showing details of the impossibility determination process (step S103 in FIG. 2) in the impossibility determination section 30A. The impossibility determination process will be described below with reference to FIG. First, the impossibility determination unit 30A determines whether the immobility determination time T0 is equal to or greater than the threshold Th2 (step S1031). The immobility determination time T0 is counted up by the immobility determination unit 20A in step S1022 of FIG. 3, or reset in step S1023. If T0≧Th2 in step S1031, the inability determining unit 30A determines that the driver remains immobile and is in an inoperable state (step S1032). On the other hand, if T0<Th2 in step S1031, the inability determining unit 30A determines that the driver is not in an inoperable state (step S1033). With this, the impossibility determining section 30A ends the impossibility determining process.

<A-3.効果>
実施の形態1の運転不能判定装置101は、車両に搭載され車両の運転者を撮影するカメラ51の撮影映像を解析して、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得する画像解析部10Aと、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、2つのフレーム間において運転者の顔領域の重畳面積比率が第1閾値Th1以上となる場合に、運転者が不動状態にあるか否かを判定する不動判定部20Aと、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定する不能判定部30Aと、を備える。
<A-3. Effect>
The driving impossibility determination device 101 of the first embodiment analyzes a captured image of a camera 51 that is mounted on a vehicle and photographs the driver of the vehicle, and obtains information related to the driver's head, including positional information of the driver's face area. The image analysis unit 10A that acquires feature information calculates the overlapping area ratio of the driver's face area between the two frames based on the change in feature information between two frames having a certain temporal relationship of the photographed video. The immobility determination unit 20A determines whether or not the driver is in an immobile state when the first threshold value Th1 or more is reached, and the immobility determination unit 20A determines whether the driver is in an immobile state when the duration of the immobility state of the driver is equal to or more than a second threshold value. It includes an incapacity determining section 30A that determines that the state is in an incapacitated state.

以上の構成により、運転不能判定装置101によれば、運転者が不動状態にあるか否かを、カメラ51の撮影映像の2つのフレーム間における運転者の顔領域の重畳面積比率から判定することができる。そして、運転不能判定装置101によれば、運転者の不動状態が一定時間以上継続した場合に、運転者が運転不能状態にあると判定することができる。 With the above configuration, the driving impossibility determination device 101 can determine whether the driver is in an immobile state based on the overlapping area ratio of the driver's face area between two frames of the image captured by the camera 51. I can do it. According to the inoperability determining device 101, if the driver remains immobile for a certain period of time or more, it can be determined that the driver is in an inoperable state.

<B.実施の形態2>
<B-1.構成>
図6は、実施の形態2の運転不能判定装置102とその周辺装置の構成を示す図である。運転不能判定装置102は、撮像装置50、出力装置60および車両制御装置70と接続され、これらを利用可能に構成されている。以下、運転不能判定装置102の運転不能判定装置101と異なる部分について主に説明を行う。
<B. Embodiment 2>
<B-1. Configuration>
FIG. 6 is a diagram showing the configuration of the inoperability determining device 102 and its peripheral devices according to the second embodiment. The driving impossibility determination device 102 is connected to the imaging device 50, the output device 60, and the vehicle control device 70, and is configured to be able to use these. Hereinafter, parts of the inoperability determining device 102 that are different from the inoperable determining device 101 will be mainly explained.

出力装置60は、不能判定部30Aの判定結果を出力する、車両に搭載された装置である。図6の例では、出力装置60は、表示装置61とスピーカー62とを備えるが、これらの少なくとも一方を備えていれば良い。不能判定部30Aが運転者を運転不能状態と判定した場合、例えば「運転者が運転不能です。」というメッセージが表示装置61に表示され、またはスピーカー62から音声出力される。これにより、車両の同乗者または車両外の通行人等が、運転者が運転不能であることを把握し、適切な対応を取ることが期待される。 The output device 60 is a device mounted on the vehicle that outputs the determination result of the impossibility determination section 30A. In the example of FIG. 6, the output device 60 includes a display device 61 and a speaker 62, but it is sufficient to include at least one of these. When the inability determining unit 30A determines that the driver is in an inoperable state, for example, a message "The driver is incapable of driving." is displayed on the display device 61 or output as a sound from the speaker 62. This is expected to allow fellow passengers in the vehicle or passersby outside the vehicle to understand that the driver is unable to drive, and to take appropriate measures.

車両制御装置70は、不能判定部30Aの判定結果を取得し、これに基づき車両の自動運転制御を行う。不能判定部30Aが運転者を運転不能状態と判定した場合、車両制御装置70は、車両の前方に緊急退避スペースを見つけ、緊急退避スペースに車両を緊急停止させることにより、車両の乗員の安全を確保する。 The vehicle control device 70 acquires the determination result of the impossibility determining section 30A, and performs automatic driving control of the vehicle based on the determination result. When the inability determination unit 30A determines that the driver is in an inoperable state, the vehicle control device 70 finds an emergency evacuation space in front of the vehicle and makes an emergency stop of the vehicle in the emergency evacuation space, thereby ensuring the safety of the vehicle occupants. secure.

運転不能判定装置102は、画像解析部10B、不動判定部20Bおよび不能判定部30Aを備えている。画像解析部10Bは、実施の形態1の画像解析部10Aの構成に加えて顔方向検出部12を備えている。顔方向検出部12は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける運転者の顔の方向を検出する。すなわち、実施の形態2において、特徴情報は、運転者の顔の方向の情報を含む。 The inoperability determination device 102 includes an image analysis section 10B, an immobility determination section 20B, and an inoperability determination section 30A. The image analysis section 10B includes a face direction detection section 12 in addition to the configuration of the image analysis section 10A of the first embodiment. The face direction detection unit 12 analyzes each frame of the image captured by the camera 51 and detects the direction of the driver's face in each frame. That is, in the second embodiment, the feature information includes information on the direction of the driver's face.

不動判定部20Bは、実施の形態1の不動判定部20Aの構成に加えて顔方向変化算出部22を備えている。顔方向変化算出部22は、顔方向検出部12が検出した撮影映像の各フレーム中の顔方向から、2つのフレーム間で顔方向の変化量(以下、「顔方向変化量」と称する)を算出する。ここで、顔方向変化算出部22が顔方向の変化量を算出する2つのフレームは、重畳比率算出部21が顔領域の重畳面積比率を算出する2つのフレームと同じである。顔方向変化量は、ヨー角、ピッチ角、ロール角の3つで表される。 The immobility determination unit 20B includes a facial direction change calculation unit 22 in addition to the configuration of the immobility determination unit 20A of the first embodiment. The face direction change calculation unit 22 calculates the amount of change in the face direction between two frames (hereinafter referred to as the “face direction change amount”) from the face direction in each frame of the photographed video detected by the face direction detection unit 12. calculate. Here, the two frames for which the face direction change calculation unit 22 calculates the amount of change in the face direction are the same as the two frames for which the superimposition ratio calculation unit 21 calculates the overlap area ratio of the face area. The face direction change amount is expressed by three angles: yaw angle, pitch angle, and roll angle.

不動判定部20Bは、顔領域の重畳面積比率が第1閾値Th1以上、かつ顔方向変化量が予め定められた第3閾値未満である場合に、運転者が不動状態にあると判定する。本実施の形態では、顔方向変化量を不動状態の判定において考慮するため、顔位置がフレーム間で殆ど変化しないが、顔方向が変化している場合に、運転者を不動状態と誤判定することを防止できる。顔位置がフレーム間で殆ど変化しないが、顔方向が変化する動作としては、例えば、ルームミラーを見る動作、ナビゲーション装置の表示画面を視認する動作などが挙げられる。 The immobility determining unit 20B determines that the driver is in an immobile state when the overlapping area ratio of the face area is greater than or equal to the first threshold Th1 and the face direction change amount is less than a predetermined third threshold. In this embodiment, since the amount of change in face direction is taken into consideration in determining whether the driver is in an immobile state, the face position hardly changes between frames, but if the face direction is changing, the driver is incorrectly determined to be in an immobile state. This can be prevented. Examples of actions in which the face position changes little between frames but the face direction changes include actions such as looking in a rearview mirror and visually checking the display screen of a navigation device.

<B-2.動作>
図7は、不動判定部20Bにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。以下、図7に沿って不動判定処理を説明する。まず、実施の形態1と同様、重畳比率算出部21が特定の2フレーム間で顔領域の重畳面積比率を算出する。そして、不動判定部20Bは、重畳面積比率が閾値Th1以上であるか否かを判断する(ステップS1021)。ステップS1021において重畳面積比率が閾値Th1未満であれば、実施の形態1と同様、不動判定部20Bは不動判定時間T0をリセットする(ステップS1023)。ステップS1021において重畳面積比率が閾値Th1以上であれば、顔方向変化算出部22が特定の2フレーム間で顔方向変化量を算出する。そして、不動判定部20Bは、顔方向変化量が閾値Th3未満であるか否かを判断する(ステップS1021A)。
<B-2. Operation>
FIG. 7 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the immobility determination unit 20B. The immobility determination process will be described below with reference to FIG. First, as in the first embodiment, the superimposition ratio calculation unit 21 calculates the superimposition area ratio of the face area between two specific frames. Then, the immobility determination unit 20B determines whether the superimposed area ratio is equal to or greater than the threshold Th1 (step S1021). If the superimposed area ratio is less than the threshold Th1 in step S1021, the immobility determination unit 20B resets the immobility determination time T0 as in the first embodiment (step S1023). If the superimposed area ratio is equal to or greater than the threshold Th1 in step S1021, the face direction change calculation unit 22 calculates the face direction change amount between two specific frames. Then, the immobility determining unit 20B determines whether the face direction change amount is less than the threshold Th3 (step S1021A).

ステップS1021Aにおいて顔方向変化量が閾値Th3未満であれば、不動判定部20Bは、運転者が不動状態にあると判定し、不動判定時間T0をカウントアップする(ステップS1022)。他方、不動判定部20Bは、ステップS1021Aにおいて顔方向変化量が閾値Th3以上であれば、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。以上で、不動判定部20Bは不動判定処理を終了する。 If the face direction change amount is less than the threshold Th3 in step S1021A, the immobility determining unit 20B determines that the driver is in an immobile state, and counts up the immobility determination time T0 (step S1022). On the other hand, if the face direction change amount is equal to or greater than the threshold Th3 in step S1021A, the immobility determining unit 20B determines that the driver is not in an immobile state, and resets the immobility determination time T0 (step S1023). With this, the immobility determination unit 20B ends the immobility determination process.

<B-3.効果>
実施の形態2の運転不能判定装置102において、画像解析部10Bが取得する特徴情報は運転者の顔の方向の情報を含み、不動判定部20Bは、2つのフレーム間において、重畳面積比率が第1閾値以上、かつ運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、運転者が不動状態にあると判定する。従って、運転不能判定装置102によれば、顔位置がフレーム間で殆ど変化しないが、顔方向が変化する場合に、運転者を不動状態と誤判定することを防止できる。
<B-3. Effect>
In the driveability determination device 102 of the second embodiment, the feature information acquired by the image analysis unit 10B includes information on the direction of the driver's face, and the immobility determination unit 20B determines whether the superimposed area ratio is the highest between two frames. It is determined that the driver is in an immobile state when the face direction change amount, which is the amount of change in the direction of the driver's face, is equal to or more than one threshold value and less than a third threshold value. Therefore, according to the driveability determining device 102, when the face position hardly changes between frames but the face direction changes, it is possible to prevent the driver from being erroneously determined to be in an immobile state.

<C.実施の形態3>
<C-1.構成>
図8は、実施の形態3の運転不能判定装置103とその周辺装置の構成を示す図である。運転不能判定装置103は、撮像装置50、出力装置60および車両制御装置70と接続され、これらを利用可能に構成されている。以下、運転不能判定装置103の運転不能判定装置102と異なる部分について主に説明を行う。
<C. Embodiment 3>
<C-1. Configuration>
FIG. 8 is a diagram showing the configuration of the inoperability determination device 103 and its peripheral devices according to the third embodiment. The driving impossibility determination device 103 is connected to the imaging device 50, the output device 60, and the vehicle control device 70, and is configured to be able to use these. Hereinafter, the parts of the inoperability determining device 103 that are different from the inoperable determining device 102 will be mainly explained.

運転不能判定装置103は、画像解析部10C、不動判定部20Cおよび不能判定部30Aを備えている。画像解析部10Cは、実施の形態2の画像解析部10Bの構成に加えて視線方向検出部13を備えている。視線方向検出部13は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける運転者の視線方向を検出する。すなわち、実施の形態3において、特徴情報は、運転者の視線方向の情報を含む。 The inoperability determination device 103 includes an image analysis section 10C, an immobility determination section 20C, and an inoperability determination section 30A. The image analysis section 10C includes a line-of-sight direction detection section 13 in addition to the configuration of the image analysis section 10B of the second embodiment. The line-of-sight direction detection unit 13 analyzes each frame of the image captured by the camera 51 and detects the driver's line-of-sight direction in each frame. That is, in the third embodiment, the feature information includes information on the driver's line of sight direction.

不動判定部20Cは、実施の形態2の不動判定部20Bの構成に加えて視線方向変化算出部23を備えている。視線方向変化算出部23は、視線方向検出部13が検出した撮影映像の各フレーム中の視線方向から、2つのフレーム間で視線方向変化量を算出する。ここで、視線方向変化算出部23が視線方向の変化量を算出する2つのフレームは、重畳比率算出部21が顔領域の重畳面積比率を算出する2つのフレームと同じである。 The immobility determination unit 20C includes a line-of-sight direction change calculation unit 23 in addition to the configuration of the immobility determination unit 20B of the second embodiment. The line-of-sight direction change calculation unit 23 calculates the amount of line-of-sight direction change between two frames from the line-of-sight direction in each frame of the photographed video detected by the line-of-sight direction detection unit 13. Here, the two frames for which the line-of-sight direction change calculation unit 23 calculates the amount of change in the line-of-sight direction are the same as the two frames for which the superimposition ratio calculation unit 21 calculates the overlap area ratio of the face area.

不動判定部20Cは、顔領域の重畳面積比率が第1閾値Th1以上、顔方向変化量が予め定められた第3閾値未満、かつ視線方向変化量が予め定められた第4閾値未満である場合に、運転者が不動状態にあると判定する。本実施の形態では、視線方向変化量を不動状態の判定において考慮するため、顔位置および顔方向がフレーム間で殆ど変化しないが、視線方向が変化している場合に、運転者を不動状態と誤判定することを防止できる。 The immobility determination unit 20C determines when the overlapping area ratio of the face area is equal to or higher than the first threshold Th1, the amount of change in face direction is less than a predetermined third threshold, and the amount of change in line of sight direction is less than a fourth predetermined threshold. It is determined that the driver is not moving. In this embodiment, since the amount of change in the direction of the driver's gaze is taken into consideration in determining the immobile state, the face position and face direction hardly change between frames, but if the direction of the driver's gaze changes, the driver is determined to be in the immobile state. Misjudgment can be prevented.

<C-2.動作>
図9は、不動判定部20Cにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。ステップS1021およびステップS1021Aは実施の形態2と同様である。不動判定部20Bが、顔方向変化量が閾値Th3未満であると判断すると(ステップS1021AでYes)、視線方向変化算出部23が特定の2フレーム間で視線方向変化量を算出する。そして、不動判定部20Cは、視線方向変化量が閾値Th4未満であるか否かを判断する(ステップS1021B)。ステップS1021Bにおいて視線方向変化量が閾値Th4未満であれば、不動判定部20Cは、運転者が不動状態にあると判定し、不動判定時間T0をカウントアップする(ステップS1022)。他方、不動判定部20Cは、ステップS1021Bにおいて顔方向変化量が閾値Th4以上であれば、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。以上で、不動判定部20Bは不動判定処理を終了する。
<C-2. Operation>
FIG. 9 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the immobility determination unit 20C. Step S1021 and step S1021A are the same as in the second embodiment. If the immobility determining unit 20B determines that the face direction change amount is less than the threshold Th3 (Yes in step S1021A), the line-of-sight direction change calculation unit 23 calculates the line-of-sight direction change amount between two specific frames. Then, the immobility determination unit 20C determines whether the amount of change in the line of sight direction is less than the threshold Th4 (step S1021B). If the line-of-sight direction change amount is less than the threshold Th4 in step S1021B, the immobility determining unit 20C determines that the driver is in an immobile state, and counts up the immobility determination time T0 (step S1022). On the other hand, if the face direction change amount is equal to or greater than the threshold Th4 in step S1021B, the immobility determining unit 20C determines that the driver is not in an immobile state, and resets the immobility determination time T0 (step S1023). With this, the immobility determination unit 20B ends the immobility determination process.

上記では、実施の形態2の運転不能判定装置102に視線方向検出部13と視線方向変化算出部23を追加したものを、実施の形態3の運転不能判定装置103として説明した。しかし、実施の形態1の運転不能判定装置101に視線方向検出部13と視線方向変化算出部23を追加してもよい。 In the above description, the driving impossibility determining apparatus 102 of the second embodiment in which the line-of-sight direction detection section 13 and the line-of-sight direction change calculation section 23 are added is referred to as the driving impossibility determining apparatus 103 of the third embodiment. However, the line-of-sight direction detection section 13 and the line-of-sight direction change calculation section 23 may be added to the driveability determination device 101 of the first embodiment.

<C-3.効果>
実施の形態3の運転不能判定装置103において、特徴情報は、運転者の視線の方向の情報を含み、不動判定部20Cは、2つのフレーム間において、重複面積比率が第1閾値以上、顔方向変化量が第3閾値未満、かつ運転者の視線の方向の変化量である視線方向変化量が第4閾値未満となる場合に、運転者が不動状態にあると判定する。従って、運転不能判定装置103によれば、顔位置および顔方向がフレーム間で殆ど変化しないが、視線方向が変化している場合に、運転者を不動状態と誤判定することを防止できる。
<C-3. Effect>
In the driving impossibility determination device 103 of the third embodiment, the feature information includes information on the direction of the driver's line of sight, and the immobility determination unit 20C determines whether the overlapping area ratio is greater than or equal to the first threshold value and the face direction between the two frames. When the amount of change is less than the third threshold and the amount of change in the direction of the line of sight, which is the amount of change in the direction of the driver's line of sight, is less than the fourth threshold, it is determined that the driver is in an immobile state. Therefore, according to the driving impossibility determination device 103, when the face position and face direction hardly change between frames, but the line of sight direction changes, it is possible to prevent the driver from being erroneously determined to be in an immobile state.

<D.実施の形態4>
<D-1.構成>
図10は、実施の形態4の運転不能判定装置104とその周辺装置の構成を示す図である。運転不能判定装置104は、撮像装置50、出力装置60、車両制御装置70および車両情報通信装置80と接続され、これらを利用可能に構成されている。車両情報通信装置80は、車両情報を運転不能判定装置104に送信する。車両情報は、車両の走行状況に関する情報、または操作に関する情報を含む。車速信号、操舵角信号、シフトポジション情報、シートベルト装着情報、方向指示器の動作情報、アクセル信号、またはブレーキ信号が車両情報の例として挙げられる。
<D. Embodiment 4>
<D-1. Configuration>
FIG. 10 is a diagram showing the configuration of the inoperability determination device 104 and its peripheral devices according to the fourth embodiment. The driving impossibility determination device 104 is connected to the imaging device 50, the output device 60, the vehicle control device 70, and the vehicle information communication device 80, and is configured to be able to use these devices. Vehicle information communication device 80 transmits vehicle information to drivability determination device 104 . The vehicle information includes information regarding the driving status of the vehicle or information regarding the operation. Examples of the vehicle information include a vehicle speed signal, a steering angle signal, shift position information, seatbelt wearing information, turn signal operation information, an accelerator signal, or a brake signal.

以下、運転不能判定装置104の運転不能判定装置103と異なる部分について主に説明を行う。運転不能判定装置104は、画像解析部10C、不動判定部20Dおよび不能判定部30Aを備えている。 Hereinafter, the parts of the inoperability determining device 104 that are different from the inoperable determining device 103 will be mainly explained. The inoperability determination device 104 includes an image analysis section 10C, an immobility determination section 20D, and an inoperability determination section 30A.

不動判定部20Dは、実施の形態3の不動判定部20Cの構成に加えて無意識判定部24を備えている。無意識判定部24は、運転者の顔方向が変化する場合、すなわち運転者の顔方向変化量が第3閾値以上である場合に、顔方向の変化が車両の挙動に誘発されたものであり、運転者が無意識状態にあるか否かを判定する。不動判定部20Dは、運転者の顔方向変化量が第3閾値以上であっても、無意識判定部24が運転者を無意識状態と判定した場合には、運転者を不動状態と判定する。 The immobility determination unit 20D includes an unconsciousness determination unit 24 in addition to the configuration of the immobility determination unit 20C of the third embodiment. The unconscious determination unit 24 determines that the change in the face direction is induced by the behavior of the vehicle when the driver's face direction changes, that is, when the amount of change in the driver's face direction is equal to or greater than a third threshold, Determine whether the driver is unconscious. The immobility determination unit 20D determines that the driver is in an immobile state when the unconsciousness determination unit 24 determines that the driver is in an unconscious state even if the amount of change in the driver's face direction is equal to or greater than the third threshold value.

車両の挙動に誘発される顔方向の変化の例として、車両の振動を受けて頭部が上下に変化することがある。人間は、意識がある状態では姿勢を維持する傾向がある。そのため、走行路面状態に応じて車体が上下に振動する場合、意識の有無により、頭部の上下方向の移動と顔方向のピッチ方向の変化量との関係には差異が生じる。従って、無意識判定部24は、顔位置検出部11から顔領域の位置を取得し、顔方向検出部12から顔方向を取得し、(顔方向のピッチ角の分散)/(顔の上下方向の位置Yの分散)で求まる指標値が閾値以上の場合、運転者が無意識状態にあると判定することが可能である。 An example of a change in the direction of the face induced by the behavior of a vehicle is when the head changes vertically due to vibrations of the vehicle. Humans tend to maintain their posture when they are conscious. Therefore, when the vehicle body vibrates up and down depending on the road surface condition, the relationship between the vertical movement of the head and the amount of change in the pitch direction of the face differs depending on whether the driver is conscious or not. Therefore, the unconsciousness determination unit 24 acquires the position of the face area from the face position detection unit 11 and the face direction from the face direction detection unit 12. If the index value determined by the variance of the position Y is greater than or equal to the threshold value, it can be determined that the driver is in an unconscious state.

車両の挙動に誘発される顔方向の変化の別の例として、車両旋回中の頭部移動が挙げられる。図11は、車両204が左に旋回する様子を示している。このとき、操舵角の変化方向は図12において矢印209で示す左方向であり、運転者205にとっては矢印208で示すように操舵角の変化方向と反対の右方向に遠心力が発生する。運転者は意識がある状態では、安全確認のため車両204の進行方向に顔を向けるため、顔は矢印206で示す方向に移動し、矢印207で示す方向となる。このように、操舵角が左側に変化すれば、顔のヨー角も操舵角の変化にあわせて左側に傾く。言い換えれば、顔は操舵角の変化方向にヨーイングする。 Another example of changes in facial orientation induced by vehicle behavior is head movement during vehicle turns. FIG. 11 shows the vehicle 204 turning to the left. At this time, the direction of change in the steering angle is to the left as shown by arrow 209 in FIG. 12, and for the driver 205, centrifugal force is generated in the right direction opposite to the direction in which the steering angle changes, as shown by arrow 208. When the driver is conscious, he turns his head in the direction of travel of the vehicle 204 to confirm safety, so his face moves in the direction shown by arrow 206 and then in the direction shown by arrow 207. In this way, if the steering angle changes to the left, the yaw angle of the face also tilts to the left in accordance with the change in the steering angle. In other words, the face yaws in the direction of the change in steering angle.

これに対して、運転者が無意識の場合、図13に示すように、顔は遠心力を受けて右側に傾く。言い換えれば、顔は操舵角の変化方向と反対方向にローリングする。従って、無意識判定部24は車両情報通信装置80から車両の操舵角の情報を取得し、顔方向検出部12から運転者の顔の方向を取得し、運転者の顔のローリング方向が操舵角の変化方向と反対方向であれば、運転者が無意識状態にあると判定することが可能である。 On the other hand, when the driver is unconscious, his or her face tilts to the right due to centrifugal force, as shown in FIG. 13. In other words, the face rolls in the opposite direction to the direction of change of the steering angle. Therefore, the unconsciousness determination unit 24 acquires information on the steering angle of the vehicle from the vehicle information communication device 80, acquires the direction of the driver's face from the face direction detection unit 12, and determines that the rolling direction of the driver's face is equal to the steering angle. If the direction is opposite to the direction of change, it can be determined that the driver is in an unconscious state.

また、顔のロール角が予め定められた閾値以上であることをもって、無意識判定部24は運転者が無意識状態にあると判定することが可能である。 Further, if the roll angle of the face is equal to or greater than a predetermined threshold value, the unconsciousness determining unit 24 can determine that the driver is in an unconscious state.

<D-2.動作>
図14は、不動判定部20Dにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。ステップS1021およびステップS1021Aは実施の形態3と同様である。不動判定部20Dが、顔方向変化量が閾値Th3以上であると判断すると(ステップS1021AでNo)、無意識判定部24は運転者が無意識か否かを判断する(ステップS1021AB)。
<D-2. Operation>
FIG. 14 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the immobility determination unit 20D. Step S1021 and step S1021A are the same as in the third embodiment. When the immobility determination unit 20D determines that the amount of change in facial direction is equal to or greater than the threshold Th3 (No in step S1021A), the unconsciousness determination unit 24 determines whether the driver is unconscious (step S1021AB).

ステップS1021ABにおいて運転者が無意識状態ではない場合は、不動判定部20Dは、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。他方、ステップS1021ABにおいて運転者が無意識状態であれば、不動判定部20DはステップS1021Bの処理に進む。ステップS1021B以降の処理は実施の形態3と同様である。 If the driver is not in an unconscious state in step S1021AB, the immobility determining unit 20D determines that the driver is not in an immobile state, and resets the immobility determination time T0 (step S1023). On the other hand, if the driver is unconscious in step S1021AB, the immobility determination unit 20D proceeds to the process of step S1021B. The processing after step S1021B is the same as in the third embodiment.

<D-3.効果>
実施の形態4の運転不能判定装置104において、不動判定部20Dは、運転者の顔の方向に基づき運転者が無意識であるか否かを判断する無意識判定部24を備え、運転者を無意識と判断した場合には、2つのフレーム間において、顔方向変化量が第3閾値以上であっても、運転者が不動状態にあると判定する。従って、運転不能判定装置104によれば、無意識の運転者の顔の方向が車両の挙動に伴って大きく変化する場合に、不動状態ではないと誤判定することを防止することができる。
<D-3. Effect>
In the driveability determining device 104 of the fourth embodiment, the immobility determining section 20D includes an unconscious determining section 24 that determines whether or not the driver is unconscious based on the direction of the driver's face. If so, it is determined that the driver is in an immobile state even if the face direction change amount is equal to or greater than the third threshold between two frames. Therefore, according to the driveability determining device 104, when the direction of the unconscious driver's face changes significantly with the behavior of the vehicle, it is possible to prevent the driver from erroneously determining that the driver is not in an immobile state.

無意識判定部24は、運転者の顔領域の鉛直方向の位置の分散と、運転者の顔の方向のピッチ角の分散とに基づき、運転者が無意識であるか否かを判断することができる。これにより、無意識の運転者の顔の方向のピッチ角が車両の振動に伴い大きく変化する場合に、不動状態ではないと誤判定することを防止することができる。 The unconsciousness determining unit 24 can determine whether or not the driver is unconscious based on the variance of the vertical position of the driver's face area and the variance of the pitch angle in the direction of the driver's face. . This can prevent an erroneous determination that the driver is not in an immobile state when the pitch angle in the direction of the unconscious driver's face changes significantly due to vibrations of the vehicle.

あるいは、無意識判定部24は、車両の操舵角の変化方向と、運転者の顔の方向とに基づき、運転者が無意識であるか否かを判断することができる。これにより、無意識の運転者の顔の方向が車両に働く遠心力に伴い大きく変化する場合に、不動状態ではないと誤判定することを防止することができる。 Alternatively, the unconsciousness determining unit 24 can determine whether the driver is unconscious based on the direction of change in the steering angle of the vehicle and the direction of the driver's face. Thereby, when the direction of the unconscious driver's face changes significantly due to the centrifugal force acting on the vehicle, it is possible to prevent an erroneous determination that the driver is not in an immobile state.

<E.実施の形態5>
<E-1.構成>
図15は、実施の形態5の運転不能判定装置105およびその周辺装置の構成を示す図である。運転不能判定装置105は、撮像装置50、出力装置60、車両制御装置70および車両情報通信装置80と接続され、これらを利用可能に構成されている。運転不能判定装置105は、画像解析部10C、不動判定部20E、および不能判定部30Aを備えている。不動判定部20Eの構成は、実施の形態4の不動判定部20Dと同様である。
<E. Embodiment 5>
<E-1. Configuration>
FIG. 15 is a diagram showing the configuration of the inoperability determination device 105 and its peripheral devices according to the fifth embodiment. The driving impossibility determination device 105 is connected to the imaging device 50, the output device 60, the vehicle control device 70, and the vehicle information communication device 80, and is configured to be able to use these devices. The inoperability determination device 105 includes an image analysis section 10C, an immobility determination section 20E, and an inoperability determination section 30A. The configuration of immobility determining section 20E is similar to immobility determining section 20D of the fourth embodiment.

視線方向検出部13は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける運転者の視線方向を検出する。視線方向変化算出部23は、視線方向検出部13が検出した撮影映像の各フレーム中の視線方向から、2つのフレーム間で視線方向変化量を算出する。そして、不動判定部20Eは、視線方向変化量が第4閾値未満であることを、運転者が不動状態であると判定する条件の一つとしている。 The line-of-sight direction detection unit 13 analyzes each frame of the image captured by the camera 51 and detects the driver's line-of-sight direction in each frame. The line-of-sight direction change calculation unit 23 calculates the amount of line-of-sight direction change between two frames from the line-of-sight direction in each frame of the photographed video detected by the line-of-sight direction detection unit 13. The immobility determining unit 20E determines that the amount of change in the line-of-sight direction is less than the fourth threshold as one of the conditions for determining that the driver is in an immobile state.

しかし、視線方向検出部13は常に運転者の視線方向を検出できるとは限らない。例えば、運転者がサングラスを付けていたり、髪によって目が隠れていたりする場合、視線方向検出部13は視線方向を検出できない。このような場合、視線方向検出部13は視線方向を検出できない旨の情報を不動判定部20Eに出力する。当然、視線方向変化算出部23は視線方向変化量を算出できない。従って、不動判定部20Eは、視線方向変化量を、運転者が不動状態であると判定する条件から除外し、実施の形態2の不動判定部20Bと同様、顔領域の重畳面積比率と顔方向変化量とに基づき、不動判定処理を行う。 However, the line-of-sight direction detection unit 13 cannot always detect the driver's line-of-sight direction. For example, if the driver is wearing sunglasses or his eyes are hidden by his hair, the line-of-sight direction detection unit 13 cannot detect the line-of-sight direction. In such a case, the line-of-sight direction detection unit 13 outputs information indicating that the line-of-sight direction cannot be detected to the immobility determination unit 20E. Naturally, the line-of-sight direction change calculation unit 23 cannot calculate the amount of change in the line-of-sight direction. Therefore, the immobility determination unit 20E excludes the amount of change in the direction of the line of sight from the conditions for determining that the driver is in an immobility state, and similarly to the immobility determination unit 20B of the second embodiment, the overlapping area ratio of the face area and the face direction. Immobility determination processing is performed based on the amount of change.

視線方向変化量に基づく不動判定処理が行えない分、不動判定の精度が低下するおそれがあり、誤って運転者を不動状態と判定するおそれがある。そこで、不動判定部20Eは、視線方向検出部13が視線方向を検出できない場合には、検出できる場合と比べて、顔領域の重畳面積比率の閾値である第1閾値Th1、および不動判定時間の閾値である第2閾値Th2を大きくすることにより、不動状態と判定しにくく、さらに運転不能状態と判定しにくくする。なお、ここで不動判定部20Eは、第1閾値Th1と第2閾値Th2のいずれか一方のみを大きくしてもよい。 Since the immobility determination process based on the amount of change in the direction of the line of sight cannot be performed, the accuracy of the immobility determination may be reduced, and there is a risk that the driver may be erroneously determined to be in an immobile state. Therefore, when the line-of-sight direction detection unit 13 cannot detect the line-of-sight direction, the immobility determination unit 20E sets the first threshold Th1, which is the threshold of the overlapping area ratio of the face area, and the immobility determination time, compared to the case where the line-of-sight direction detection unit 13 cannot detect the line-of-sight direction. By increasing the second threshold value Th2, which is the threshold value, it becomes difficult to determine that the vehicle is in an immobile state, and furthermore, it becomes difficult to determine that the vehicle is in an inoperable state. Note that here, the immobility determination unit 20E may increase only one of the first threshold Th1 and the second threshold Th2.

<E-2.動作>
図16は、不動判定部20Eにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。以下、図16に沿って不動判定部20Eの不動判定処理を説明する。まず、不動判定部20Eは、視線方向を検出可能か否かを判断する(ステップS1020A)。不動判定部20Eは、視線方向検出部13からカメラ51の撮影映像の各フレームにおける運転者の視線方向を取得すると、視線方向を検出可能と判断する。また、不動判定部20Eは、視線方向検出部13から視線方向を検出できない旨の情報を取得すると、視線方向を検出不可能と判断する。
<E-2. Operation>
FIG. 16 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the immobility determination unit 20E. Hereinafter, the immobility determination process of the immobility determination unit 20E will be explained along FIG. 16. First, the immobility determining unit 20E determines whether the line of sight direction can be detected (step S1020A). When the immobility determination unit 20E obtains the driver's line of sight direction in each frame of the image captured by the camera 51 from the line of sight direction detection unit 13, it determines that the line of sight direction can be detected. Further, when the immobility determination unit 20E obtains information indicating that the line-of-sight direction cannot be detected from the line-of-sight direction detection unit 13, it determines that the line-of-sight direction cannot be detected.

ステップS1020Aにおいて視線方向を検出可能な場合、不動判定部20Eは、顔領域の重畳面積比率の閾値である第1閾値Th1にTh1Aを設定し、不動判定時間T0の閾値である第2閾値Th2にTh2Aを設定する(ステップS1020B)。一方、ステップS1020Bにおいて視線方向を検出不可能な場合、不動判定部20Eは、顔領域の重畳面積比率の閾値である第1閾値Th1にTh1Bを設定し、不動判定時間T0の閾値である第2閾値Th2にTh2Bを設定する(ステップS1020C)。ここで、Th1A<Th1Bであり、Th2A<Th2Bである。つまり、視線方向検出部13が視線方向を検出不可能な場合には、検出可能な場合に比べて、不動状態と判定されにくく、さらに運転不能状態と判定されにくくなる。 If the line of sight direction can be detected in step S1020A, the immobility determination unit 20E sets Th1A to the first threshold Th1, which is the threshold for the overlapping area ratio of the face area, and sets Th1A to the second threshold Th2, which is the threshold for the immobility determination time T0. Th2A is set (step S1020B). On the other hand, if the line of sight direction cannot be detected in step S1020B, the immobility determining unit 20E sets Th1B to the first threshold Th1, which is the threshold for the overlapping area ratio of the face area, and sets Th1B to the second threshold Th1, which is the threshold for the immobility determination time T0. Th2B is set as the threshold Th2 (step S1020C). Here, Th1A<Th1B and Th2A<Th2B. That is, when the line-of-sight direction detecting unit 13 cannot detect the line-of-sight direction, it is less likely to be determined to be in an immobile state, and furthermore, it is less likely to be determined to be in an inoperable state, compared to a case where the line-of-sight direction can be detected.

その後の、ステップS1021,S1021A,S1021ABは実施の形態4と同様である。ステップS1021Aにおいて、顔方向変化量が閾値Th3未満である場合、またはステップS1021ABにおいて運転者が無意識である場合、不動判定部20EはステップS1020Aと同様に視線方向を検出可能か否かを判断する(ステップS1021AC)。ステップS1021ACにおいて視線方向を検出できない場合、不動判定部20EはステップS1021Bをスキップして不動判定時間T0をカウントアップする(ステップS1022)。他方、ステップS1021ACにおいて視線方向を検出可能な場合、不動判定部20EはステップS1021Bの処理に進む。ステップS1021B以降の処理は実施の形態4と同様である。 Subsequent steps S1021, S1021A, and S1021AB are the same as in the fourth embodiment. In step S1021A, if the face direction change amount is less than the threshold Th3, or if the driver is unconscious in step S1021AB, the immobility determination unit 20E determines whether the line of sight direction can be detected in the same manner as in step S1020A ( Step S1021AC). If the line-of-sight direction cannot be detected in step S1021AC, the immobility determination unit 20E skips step S1021B and counts up the immobility determination time T0 (step S1022). On the other hand, if the line-of-sight direction can be detected in step S1021AC, the immobility determination unit 20E proceeds to the process of step S1021B. The processing after step S1021B is the same as in the fourth embodiment.

<E-3.効果>
実施の形態5の運転不能判定装置105において、画像解析部10Cが撮影映像から運転者の視線の方向を取得できない場合、不動判定部20Eは、視線方向変化量を不動状態の判定条件から除外し、第1閾値および第2閾値の少なくとも一方を、画像解析部10Cが撮影映像から運転者の視線の方向を取得できる場合に比べて大きくする。これにより、運転不能判定装置105によれば、視線方向変化量を考慮しないことによる不動判定の精度低下を考慮し、運転者を誤って不動状態と判定することを抑制することが可能である。
<E-3. Effect>
In the driveability determination device 105 of Embodiment 5, if the image analysis unit 10C cannot acquire the direction of the driver's line of sight from the photographed video, the immobility determination unit 20E excludes the amount of change in the direction of the line of sight from the conditions for determining the immobility state. , at least one of the first threshold value and the second threshold value is made larger than in the case where the image analysis unit 10C can acquire the direction of the driver's line of sight from the captured video. Thereby, according to the driving impossibility determination device 105, it is possible to take into account the decrease in accuracy of immobility determination due to not taking into account the amount of change in the line of sight direction, and to suppress erroneously determining that the driver is in an immobile state.

<F.実施の形態6>
実施の形態1から実施の形態5では、運転者の不動状態が一定時間以上継続した場合に、運転者を運転不能状態と判定した。しかし、実施の形態6では、他の条件を運転不能状態の判定条件に加えることによって、運転者が運転不能状態にないのに誤って運転不能状態と誤判定してしまう可能性をさらに小さくする。
<F. Embodiment 6>
In Embodiments 1 to 5, if the driver remains immobile for a certain period of time or more, the driver is determined to be unable to drive. However, in the sixth embodiment, by adding other conditions to the conditions for determining the inoperable state, the possibility that the driver mistakenly determines that the driver is in the inoperable state when the driver is not in the inoperable state is further reduced. .

<F-1.構成>
図17は、実施の形態6の運転不能判定装置106およびその周辺装置の構成を示す図である。運転不能判定装置106は、撮像装置50、出力装置60、車両制御装置70および車両情報通信装置80と接続され、これらを利用可能に構成されている。運転不能判定装置106は、画像解析部10D、不動判定部20E、および不能判定部30Bを備えている。
<F-1. Configuration>
FIG. 17 is a diagram showing the configuration of the inoperability determination device 106 and its peripheral devices according to the sixth embodiment. The driving impossibility determination device 106 is connected to the imaging device 50, the output device 60, the vehicle control device 70, and the vehicle information communication device 80, and is configured to be able to use these devices. The inoperability determination device 106 includes an image analysis section 10D, an immobility determination section 20E, and an inoperability determination section 30B.

画像解析部10Dは、実施の形態5の画像解析部10Cの構成に加えて眼開閉度検出部14を備えている。眼開閉度検出部14は、カメラ51の撮影映像を取得し、撮影映像の各フレームを解析して、各フレームにおける運転者の眼の開閉度を検出する。眼開閉度検出部14は、検出した眼の開閉度を不能判定部30Bに出力する。 The image analysis section 10D includes an eye opening/closing degree detection section 14 in addition to the configuration of the image analysis section 10C of the fifth embodiment. The eye opening/closing degree detecting unit 14 acquires a video shot by the camera 51, analyzes each frame of the shot video, and detects the degree of opening/closing of the driver's eyes in each frame. The eye opening/closing degree detection section 14 outputs the detected degree of eye opening/closing to the disability determining section 30B.

不能判定部30Bは、閉眼回数カウント部31、顔領域移動距離算出部32、および異常操作検出部33を備えている。閉眼回数カウント部31は、眼開閉度検出部14から取得した、撮影映像の各フレームにおける運転者の眼の開閉度に基づき、一定時間内の運転者の閉眼回数をカウントする。閉眼回数カウント部31は、不動判定部20Eにおいて運転者が不動状態にあると判定されている時間に、閉眼回数をカウントすることが望ましい。従って、例えば閉眼回数カウント部31は、不動判定時間T0のカウントアップが始まると閉眼回数のカウントを開始し、不動判定時間T0がリセットされると閉眼回数のカウントをリセットし、不動判定時間T0が第2閾値Th2以上になると閉眼回数のカウントを終了する。この場合、閉眼回数のカウント時間は第2閾値Th2と等しくなる。なお、閉眼回数のカウント時間は第2閾値Th2未満でもよい。 The impossibility determining section 30B includes an eye-closing frequency counting section 31, a face area movement distance calculating section 32, and an abnormal operation detecting section 33. The eye-closing frequency counting section 31 counts the number of times the driver's eyes are closed within a certain period of time based on the degree of opening/closing of the driver's eyes in each frame of the photographed video, which is obtained from the eye-opening/closing degree detection section 14 . It is preferable that the eye-closed number counting section 31 counts the number of times the eyes are closed during the time when the immobility determining section 20E determines that the driver is in an immobile state. Therefore, for example, when the immobility determination time T0 starts counting up, the eye closure count unit 31 starts counting the number of eye closures, and when the immobility determination time T0 is reset, it resets the count of the eye closure times, and the immobility determination time T0 is reset. When the second threshold value Th2 or more is reached, counting of the number of times the eyes are closed ends. In this case, the counting time of the number of times the eyes are closed becomes equal to the second threshold Th2. Note that the count time of the number of times the eyes are closed may be less than the second threshold Th2.

顔領域移動距離算出部32は、顔位置検出部11から、撮影映像の各フレームにおける運転者の顔領域の位置情報を取得する。そして、顔領域移動距離算出部32は、撮影映像の各フレームにおける運転者の顔領域の位置情報から、一定時間内の運転者の顔領域の移動距離を算出する。ここで、顔領域の移動距離は、算出時間の開始時と終了時の顔領域の位置の差分ではなく、算出時間内に顔領域が移動した延べの距離を意味する。顔領域の移動距離の算出時間は、不動判定部20Eの不動判定処理において比較される2つのフレーム間の時間より少なくとも数倍程度長く、閉眼回数のカウント時間と同様に設定される。 The face area movement distance calculation unit 32 acquires position information of the driver's face area in each frame of the photographed video from the face position detection unit 11. Then, the face area movement distance calculation unit 32 calculates the movement distance of the driver's face area within a certain period of time from the position information of the driver's face area in each frame of the photographed video. Here, the movement distance of the face area does not mean the difference between the positions of the face area at the start and end of the calculation time, but rather the total distance that the face area has moved within the calculation time. The calculation time of the movement distance of the face area is at least several times longer than the time between two frames compared in the immobility determination process of the immobility determination unit 20E, and is set similarly to the time for counting the number of times the eyes are closed.

異常操作検出部33は、車両情報通信装置80から車両情報を取得し、車両情報に基づき車両に異常操作が行われていないかを検出する。異常操作の例として、方向指示器を点灯せずに車線変更を繰り返すことがある。これは、方向指示器の動作情報と、操舵角から判断することができる。また、異常操作検出部33は、アクセル信号、ブレーキ信号または車速信号から、急激な加減速を異常操作と検出することができる。 The abnormal operation detection unit 33 acquires vehicle information from the vehicle information communication device 80, and detects whether an abnormal operation is performed on the vehicle based on the vehicle information. An example of abnormal operation is repeatedly changing lanes without turning on the turn signal. This can be determined from the operation information of the direction indicator and the steering angle. Further, the abnormal operation detection unit 33 can detect sudden acceleration or deceleration as an abnormal operation from an accelerator signal, a brake signal, or a vehicle speed signal.

<F-2.動作>
図18は、実施の形態6の不能判定部30Bによる不能判定処理を示すフローチャートである。以下、図18のフローに沿って不能判定処理を説明する。まず、不能判定部30Bは、不動判定時間T0が閾値Th2以上であるか否かを判断する(ステップS1031)。ステップS1031においてT0<Th2であれば、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。これらの処理は、不能判定部30Aによる不能判定処理と同様である。
<F-2. Operation>
FIG. 18 is a flowchart showing the impossibility determination process by the impossibility determination unit 30B of the sixth embodiment. The impossibility determination process will be described below along the flowchart of FIG. First, the impossibility determination unit 30B determines whether the immobility determination time T0 is equal to or greater than the threshold Th2 (step S1031). If T0<Th2 in step S1031, the inability determining unit 30B determines that the driver is not in an inoperable state (step S1033). These processes are similar to the impossibility determination process by the impossibility determination unit 30A.

ステップS1031においてT0≧Th2であっても、不能判定部30Bは、直ちに運転者を運転不能状態とは判定せず、以下の処理を行う。まず、不能判定部30Bは、閉眼回数カウント部31でカウントした運転者の一定時間内の閉眼回数nが、予め定められた第5閾値Th5未満であるか否かを判断する(ステップS1031A)。例えば、閉眼回数nのカウント時間は90秒であり、第5閾値Th5は例えば6である。ステップS1031Aにおいてn≧Th5であれば、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。つまり、不能判定部30Bは、運転者が正常に瞬きをしている場合には運転不能状態と判定しない。 Even if T0≧Th2 in step S1031, the inability determining unit 30B does not immediately determine that the driver is in an inoperable state, and performs the following processing. First, the incapacity determining unit 30B determines whether the number of times n of eyes closed by the driver within a certain period of time counted by the eyes closed count unit 31 is less than a predetermined fifth threshold Th5 (step S1031A). For example, the count time of the number of closed eyes n is 90 seconds, and the fifth threshold Th5 is, for example, 6. If n≧Th5 in step S1031A, the inability determining unit 30B determines that the driver is not in an inoperable state (step S1033). In other words, the inability determining unit 30B does not determine that the vehicle is in an inoperable state if the driver is blinking normally.

ステップS1031Aにおいてn<Th5であれば、不能判定部30Bは、顔領域移動距離算出部32で算出した顔領域の移動距離dが、予め定められた第6閾値Th6未満であるか否かを判断する(ステップS1031B)。ステップS1031Bにおいてd≧Th6であれば、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。運転者の顔の動きがゆっくりであったり、同じ動きを繰り返したりしてている場合、不動判定部20Eの不動判定処理において比較する2つのフレーム間で顔領域の移動距離が小さく、重複面積比率が第1閾値以上となって運転者が不動状態にあると判定されてしまうことが想定される。しかし、本ステップでは不動判定処理で比較される2つのフレーム間の時間よりも長い時間における顔領域の移動距離を判定することにより、上記のように不動状態が誤判定された場合でも、運転者を運転不能状態と誤判定することを防ぐ。 If n<Th5 in step S1031A, the impossibility determination unit 30B determines whether the face area movement distance d calculated by the face area movement distance calculation unit 32 is less than a predetermined sixth threshold Th6. (Step S1031B). If d≧Th6 in step S1031B, the inability determining unit 30B determines that the driver is not in an inoperable state (step S1033). If the driver's face moves slowly or repeats the same movement, the movement distance of the face area is small between the two frames compared in the immobility determination process of the immobility determination unit 20E, and the overlapping area ratio is It is assumed that the driver is determined to be in an immobile state due to the first threshold value being greater than or equal to the first threshold value. However, in this step, by determining the movement distance of the face area in a time longer than the time between the two frames compared in the immobility determination process, even if the immobility state is incorrectly determined as described above, the driver This prevents erroneous determination that the vehicle is in an inoperable state.

ステップS1031Bにおいてd<Th6であれば、不能判定部30Bは、異常操作検出部33が異常操作を検出したか否かを判断する(ステップS1031C)。ステップS1031Cにおいて異常操作が検出されていなければ、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。他方、ステップS1031Cにおいて異常操作が検出されていれば、不能判定部30Bは運転者が運転不能状態にあると判定する(ステップS1032)。以上で、不能判定部30Bは不能判定処理を終了する。 If d<Th6 in step S1031B, the impossibility determining unit 30B determines whether the abnormal operation detecting unit 33 has detected an abnormal operation (step S1031C). If no abnormal operation is detected in step S1031C, the inability determining unit 30B determines that the driver is not in an inoperable state (step S1033). On the other hand, if an abnormal operation is detected in step S1031C, the inability determining unit 30B determines that the driver is in an inoperable state (step S1032). With this, the impossibility determining unit 30B ends the impossibility determining process.

このように、不能判定部30Bは、不動判定時間T0の条件に加えて、閉眼回数n、顔枠移動距離d、および異常操作という3つの条件を考慮することにより、運転者が運転不能状態にある可能性が極めて高い場合に限って、運転不能状態にあると判定する。従って、運転不能状態にない運転者を誤って運転不能状態と判定してしまうことが抑制される。なお、上記では、不能判定部30Bは、閉眼回数n、顔枠移動距離d、および異常操作という3つの条件を考慮したが、これらのうち少なくとも1つの条件が考慮されればよい。 In this way, the disability determining unit 30B determines whether the driver is unable to drive by considering three conditions: the number of times of eye closure n, the face frame movement distance d, and the abnormal operation in addition to the condition of the immobility determination time T0. It is determined that the vehicle is in an inoperable state only when there is an extremely high possibility that the vehicle is in an inoperable state. Therefore, it is possible to prevent a driver who is not in an inoperable state from being erroneously determined to be in an inoperable state. In the above, the disability determining unit 30B considers three conditions: the number of times of eye closure n, the face frame movement distance d, and the abnormal operation, but it is only necessary to consider at least one of these conditions.

<F-3.効果>
実施の形態6の運転不能判定装置106において、画像解析部10Dは、撮影映像から運転者の眼の開閉度を取得し、不能判定部30Bは、画像解析部10Dが取得した運転者の眼の開閉度に基づき、一定時間内の運転者の閉眼回数を算出し、閉眼回数にも基づき、運転者を運転不能状態と判定する。従って、不動状態であっても正常に瞬きをしている運転者を運転不能状態と誤判定してしまうことが抑制される。
<F-3. Effect>
In the driving disability determination device 106 of the sixth embodiment, the image analysis unit 10D acquires the driver's eye opening/closing degree from the photographed video, and the disability determination unit 30B acquires the driver's eye opening/closing degree acquired by the image analysis unit 10D. Based on the degree of opening/closing, the number of times the driver's eyes are closed within a certain period of time is calculated, and based on the number of times the driver's eyes are closed, the driver is determined to be unable to drive. Therefore, even if the driver is in an immobile state, it is possible to prevent the driver from erroneously determining that he or she is blinking normally as being unable to drive.

実施の形態6の運転不能判定装置106において、不能判定部30Bは、画像解析部10Dが取得した運転者の顔領域の位置から、一定時間内の運転者の顔領域の移動距離を算出し、移動距離にも基づき、運転者を運転不能状態と判定する。従って、顔の移動がゆっくりである場合に運転者を運転不能状態と誤判定してしまうことが抑制される。 In the driving disability determination device 106 of the sixth embodiment, the disability determination unit 30B calculates the moving distance of the driver's face area within a certain period of time from the position of the driver's face area acquired by the image analysis unit 10D, Based on the distance traveled, the driver is determined to be unable to drive. Therefore, when the face moves slowly, it is possible to prevent the driver from being erroneously determined to be unable to drive.

実施の形態6の運転不能判定装置106において、不能判定部30Bは、車両の操作情報に基づき車両の操作を異常と判定する異常判定を行い、異常判定の結果にも基づき、運転者の状態を運転不能状態と判定する。従って、車両の異常操作が検出されない場合に運転者を運転不能状態と誤判定してしまうことが抑制される。 In the driving impossibility determination device 106 of the sixth embodiment, the impossibility determination unit 30B performs an abnormality determination in which the vehicle operation is determined to be abnormal based on the vehicle operation information, and also determines the driver's condition based on the result of the abnormality determination. Determined to be inoperable state. Therefore, it is possible to prevent the driver from being erroneously determined to be unable to drive when no abnormal operation of the vehicle is detected.

<G.ハードウェア構成>
上述した運転不能判定装置101,102,103,104,105,106における、画像解析部10A,10B,10C,10D、不動判定部20A,20B,20C,20D,20E、および不能判定部30A,30Bは、図19に示す処理回路81により実現される。すなわち、処理回路81は、画像解析部10A,10B,10C,10D、不動判定部20A,20B,20C,20D,20E、および不能判定部30A,30B(以下、「画像解析部等」と称する)を備える。処理回路81には、専用のハードウェアが適用されても良いし、メモリに格納されるプログラムを実行するプロセッサが適用されても良い。プロセッサは、例えば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。
<G. Hardware configuration>
Image analysis sections 10A, 10B, 10C, 10D, immobility judgment sections 20A, 20B, 20C, 20D, 20E, and impossibility judgment sections 30A, 30B in the above-mentioned inoperability judgment devices 101, 102, 103, 104, 105, 106 is realized by a processing circuit 81 shown in FIG. That is, the processing circuit 81 includes image analysis units 10A, 10B, 10C, and 10D, immobility determination units 20A, 20B, 20C, 20D, and 20E, and disability determination units 30A and 30B (hereinafter referred to as "image analysis units, etc."). Equipped with. Dedicated hardware may be applied to the processing circuit 81, or a processor that executes a program stored in memory may be applied. The processor is, for example, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.

処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。~部等の各部の機能それぞれは、複数の処理回路81で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。 When the processing circuit 81 is dedicated hardware, the processing circuit 81 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Circuit). Gate Array), or a combination of these. The functions of each section, such as the section .

処理回路81がプロセッサである場合、画像解析部等の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図20に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、運転不能判定装置101,102,103,104,105,106は、処理回路81により実行されるときに、カメラ51の撮影映像を解析して、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得するステップと、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かの不動判定を行うステップと、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。不動判定では、2つのフレーム間において運転者の顔領域の重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定される。換言すれば、このプログラムは、画像解析部等の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)及びそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。 When the processing circuit 81 is a processor, the functions of the image analysis section and the like are realized by a combination of software and the like (software, firmware, or software and firmware). Software etc. are written as programs and stored in memory. As shown in FIG. 20, a processor 82 applied to a processing circuit 81 realizes the functions of each part by reading and executing a program stored in a memory 83. That is, when the driving impossibility determination devices 101, 102, 103, 104, 105, and 106 are executed by the processing circuit 81, they analyze the video captured by the camera 51 and include the position information of the driver's face area. Obtaining feature information regarding the driver's head; and determining whether or not the driver is in an immobile state based on changes in feature information between two frames having a certain temporal relationship in the photographed video. and a step of determining that the driver is unable to drive if the duration of the driver's immobile state is equal to or greater than a second threshold value. A memory 83 is provided. In the immobility determination, it is determined that the driver is in an immobility state when the overlapping area ratio of the driver's face area between two frames is equal to or greater than a first threshold value. In other words, this program can be said to cause a computer to execute the procedure or method of the image analysis section or the like. Here, the memory 83 includes nonvolatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Read Only Memory). or volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk) and its drive device, or any storage medium that will be used in the future. There may be.

以上、画像解析部等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、画像解析部等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、運転不能判定装置101において、画像解析部10Aについては専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 Above, the configuration in which each function of the image analysis section and the like is realized by either hardware or software has been described. However, the present invention is not limited to this, and a configuration may be adopted in which a part of the image analysis section or the like is realized by dedicated hardware, and another part is realized by software or the like. For example, in the inoperability determination device 101, the function of the image analysis unit 10A is realized by a processing circuit as dedicated hardware, and for other parts, the processing circuit 81 as the processor 82 executes the program stored in the memory 83. The function can be realized by reading and executing it.

以上のように、処理回路は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the processing circuit can realize each of the above functions using hardware, software, etc., or a combination thereof.

運転不能判定装置101,102,103,104,105,106は典型的には車載装置であるが、PND(Portable Navigation Device)、通信端末(例えば携帯電話、スマートフォン、およびタブレットなどの携帯端末)、およびこれらにインストールされるアプリケーションの機能、並びにサーバなどを適宜に組み合わせてシステムとして構築されるシステムにも適用することができる。この場合、以上で説明した運転不能判定装置101,102,103,104,105,106の各機能または各構成要素は、システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。 The driveability determination devices 101, 102, 103, 104, 105, and 106 are typically in-vehicle devices, but include PNDs (Portable Navigation Devices), communication terminals (for example, mobile terminals such as mobile phones, smartphones, and tablets), The present invention can also be applied to a system constructed by appropriately combining functions of applications installed on these, servers, etc. In this case, each function or each component of the inoperability determination devices 101, 102, 103, 104, 105, and 106 described above may be distributed and arranged in each device constructing the system, or may be arranged in any one of the devices. The equipment may be centrally located.

その例として、図21は、車両とサーバによる運転不能判定装置106の構成例を示している。図21において、画像解析部10Dと不能判定部30Bは車両に配置され、不動判定部20Eはサーバに配置される。 As an example, FIG. 21 shows a configuration example of the drivability determination device 106 including a vehicle and a server. In FIG. 21, the image analysis section 10D and the impossibility determination section 30B are arranged in the vehicle, and the immobility determination section 20E is arranged in the server.

なお、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。上記の説明は、すべての態様において、例示である。例示されていない無数の変形例が想定され得るものと解される。 Note that it is possible to freely combine each embodiment, or to modify or omit each embodiment as appropriate. The above description is in all aspects exemplary. It is understood that countless variations not illustrated may be envisioned.

10A,10B,10C,10D 画像解析部、11 顔位置検出部、12 顔方向検出部、13 視線方向検出部、14 眼開閉度検出部、20A,20B,20C,20D,20E 不動判定部、21 重畳比率算出部、22 顔方向変化算出部、23 視線方向変化算出部、24 無意識判定部、30A,30B 不能判定部、31 閉眼回数カウント部、32 顔領域移動距離算出部、33 異常操作検出部、50 撮像装置、51 カメラ、52 LED、60 出力装置、61 表示装置、62 スピーカー、70 車両制御装置、80 車両情報通信装置、101,102,103,104,105,106 運転不能判定装置、204 車両。 10A, 10B, 10C, 10D Image analysis unit, 11 Face position detection unit, 12 Face direction detection unit, 13 Gaze direction detection unit, 14 Eye opening/closing degree detection unit, 20A, 20B, 20C, 20D, 20E Immobility determination unit, 21 Superimposition ratio calculation unit, 22 Face direction change calculation unit, 23 Gaze direction change calculation unit, 24 Unconsciousness determination unit, 30A, 30B Impossibility determination unit, 31 Eye closure count unit, 32 Face area movement distance calculation unit, 33 Abnormal operation detection unit , 50 imaging device, 51 camera, 52 LED, 60 output device, 61 display device, 62 speaker, 70 vehicle control device, 80 vehicle information communication device, 101, 102, 103, 104, 105, 106 driveability determination device, 204 vehicle.

Claims (11)

車両に搭載され前記車両の運転者を撮影するカメラの撮影映像を解析することにより、前記運転者の顔領域の位置情報を含む、前記運転者の頭部に関する特徴情報を取得する画像解析部と、
前記撮影映像の一定の時間的前後関係を有する2つのフレーム間における前記特徴情報の変化に基づき、前記運転者が不動状態にあるか否かを判定する不動判定部と、
前記運転者の前記不動状態の継続時間が第2閾値以上となる場合に、前記運転者を運転不能状態と判定する不能判定部と、を備え、
前記不動判定部は、前記2つのフレームの夫々における前記顔領域の位置情報に基づき、前記2つのフレーム間における前記顔領域の重畳面積比率を算出し、前記重畳面積比率が第1閾値以上となる場合に、前記運転者が不動状態にあると判定し、
前記特徴情報は、前記運転者の顔の方向の情報を含み、
前記不動判定部は、前記2つのフレーム間において、前記重畳面積比率が前記第1閾値以上、かつ前記運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、前記運転者が前記不動状態にあると判定する、
運転不能判定装置。
an image analysis unit that acquires characteristic information regarding the driver's head, including positional information of the driver's face area, by analyzing a captured image of a camera mounted on the vehicle and photographing the driver of the vehicle; ,
an immobility determining unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship of the photographed video;
an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold;
The immobility determination unit calculates an overlapping area ratio of the facial area between the two frames based on position information of the facial area in each of the two frames, and the overlapping area ratio is equal to or higher than a first threshold value. In this case, it is determined that the driver is in an immobile state,
The feature information includes information on the direction of the driver's face,
The immobility determination unit is configured to determine whether the overlapping area ratio is equal to or greater than the first threshold and the amount of change in face direction, which is the amount of change in the direction of the driver's face, is less than a third threshold between the two frames. , determining that the driver is in the immobile state;
Drivability determination device.
前記特徴情報は、前記運転者の視線の方向の情報を含み、
前記不動判定部は、前記2つのフレーム間において、前記重畳面積比率が前記第1閾値以上、前記顔方向変化量が前記第3閾値未満、かつ前記運転者の視線の方向の変化量である視線方向変化量が第4閾値未満となる場合に、前記運転者が前記不動状態にあると判定する、
請求項1に記載の運転不能判定装置。
The characteristic information includes information on the direction of the driver's line of sight,
The immobility determination unit is configured to determine, between the two frames, that the superimposed area ratio is greater than or equal to the first threshold, the amount of change in face direction is less than the third threshold, and the amount of change in the direction of the driver's line of sight is the amount of change in the direction of the driver's line of sight. determining that the driver is in the immobile state when the amount of direction change is less than a fourth threshold;
The inoperability determination device according to claim 1.
前記不動判定部は、前記運転者の顔の方向に基づき前記運転者が無意識であるか否かを判定する無意識判定部を備え、前記運転者を無意識と判定した場合には、前記2つのフレーム間において、前記顔方向変化量が前記第3閾値以上であっても、前記運転者が前記不動状態にあると判定する、
請求項1に記載の運転不能判定装置。
The immobility determination unit includes an unconsciousness determination unit that determines whether the driver is unconscious based on the direction of the driver's face, and when determining that the driver is unconscious, the two frames determining that the driver is in the immobile state even if the face direction change amount is equal to or greater than the third threshold value;
The inoperability determination device according to claim 1.
前記無意識判定部は、前記運転者の顔領域の鉛直方向の位置の分散と、前記運転者の顔の方向のピッチ角の分散とに基づき、前記運転者が無意識であるか否かを判定する、
請求項3に記載の運転不能判定装置。
The unconsciousness determination unit determines whether or not the driver is unconscious based on a variance in the vertical position of the driver's face area and a variance in pitch angle in the direction of the driver's face. ,
The inoperability determination device according to claim 3.
前記無意識判定部は、前記車両の操舵角の変化方向と、前記運転者の顔の方向とに基づき、前記運転者が無意識であるか否かを判定する、
請求項3に記載の運転不能判定装置。
The unconsciousness determining unit determines whether the driver is unconscious based on a direction of change in the steering angle of the vehicle and a direction of the driver's face.
The inoperability determination device according to claim 3.
前記画像解析部が前記撮影映像から前記運転者の視線の方向を取得できない場合、
前記不動判定部は、前記視線方向変化量を前記不動状態の判定条件から除外し、前記第1閾値および前記第2閾値の少なくとも一方を、前記画像解析部が前記撮影映像から前記運転者の視線の方向を取得できる場合に比べて大きくする、
請求項2に記載の運転不能判定装置。
If the image analysis unit cannot obtain the direction of the driver's line of sight from the captured video,
The immobility determination unit excludes the amount of change in the direction of the line of sight from the determination condition of the immobility state, and the image analysis unit determines at least one of the first threshold value and the second threshold value based on the driver's line of sight based on the photographed video. to be larger than when you can get the direction of ,
The inoperability determination device according to claim 2.
前記画像解析部は、前記撮影映像から前記運転者の眼の開閉度を取得し、
前記不能判定部は、前記画像解析部が取得した前記運転者の眼の開閉度に基づき、一定時間内の前記運転者の閉眼回数を算出し、前記閉眼回数にも基づき、前記運転者を前記運転不能状態と判定する、
請求項1に記載の運転不能判定装置。
The image analysis unit obtains the degree of eye opening/closing of the driver from the captured video,
The inability determining unit calculates the number of times the driver's eyes are closed within a certain period of time based on the degree of opening and closing of the driver's eyes acquired by the image analysis unit, and also based on the number of times the driver's eyes are closed. It is determined that the vehicle is unable to drive.
The inoperability determination device according to claim 1.
車両に搭載され前記車両の運転者を撮影するカメラの撮影映像を解析することにより、前記運転者の顔領域の位置情報を含む、前記運転者の頭部に関する特徴情報を取得する画像解析部と、
前記撮影映像の一定の時間的前後関係を有する2つのフレーム間における前記特徴情報の変化に基づき、前記運転者が不動状態にあるか否かを判定する不動判定部と、
前記運転者の前記不動状態の継続時間が第2閾値以上となる場合に、前記運転者を運転不能状態と判定する不能判定部と、を備え、
前記不動判定部は、前記2つのフレームの夫々における前記顔領域の位置情報に基づき、前記2つのフレーム間における前記顔領域の重畳面積比率を算出し、前記重畳面積比率が第1閾値以上となる場合に、前記運転者が不動状態にあると判定し、
前記不能判定部は、前記画像解析部が取得した前記運転者の顔領域の位置から、前記2つのフレーム間の時間よりも長い時間である一定時間内前記運転者の顔領域が移動した延べの距離である移動距離を算出し、前記移動距離にも基づき、前記運転者を前記運転不能状態と判定する、
運転不能判定装置。
an image analysis unit that acquires characteristic information regarding the driver's head, including positional information of the driver's face area, by analyzing a captured image of a camera mounted on the vehicle and photographing the driver of the vehicle; ,
an immobility determining unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship of the photographed video;
an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold;
The immobility determination unit calculates an overlapping area ratio of the facial area between the two frames based on position information of the facial area in each of the two frames, and the overlapping area ratio is equal to or higher than a first threshold value. In this case, it is determined that the driver is in an immobile state,
The impossibility determination unit determines the total amount of movement of the driver's face area within a certain period of time that is longer than the time between the two frames from the position of the driver's face area acquired by the image analysis unit. calculating a travel distance that is a distance of , and determining that the driver is in the driving incapacity state based on the travel distance;
Drivability determination device.
前記不能判定部は、前記車両の操作情報に基づき前記車両の操作を異常と判定する異常判定を行い、前記異常判定の結果にも基づき、前記運転者の状態を運転不能状態と判定する、
請求項1に記載の運転不能判定装置。
The incapacity determining unit performs an abnormality determination in which the operation of the vehicle is determined to be abnormal based on the operation information of the vehicle, and determines the state of the driver to be in an inoperable state based also on the result of the abnormality determination.
The inoperability determination device according to claim 1.
前記不能判定部の判定結果を、前記車両の自動運転制御を行う車両制御装置に出力する、
請求項1に記載の運転不能判定装置。
outputting the determination result of the impossibility determination unit to a vehicle control device that performs automatic driving control of the vehicle;
The inoperability determination device according to claim 1.
車両に搭載され前記車両の運転者を撮影するカメラの撮影映像を解析することにより、運転者の顔領域の位置情報を含む、前記運転者の頭部に関する特徴情報を取得し、前記撮影映像の一定の時間的前後関係を有する2つのフレーム間における前記特徴情報の変化に基づき、前記運転者が不動状態にあるか否かの不動判定を行い、
前記運転者の前記不動状態の継続時間が第2閾値以上となる場合に、前記運転者を運転不能状態と判定し、
前記2つのフレームの夫々における前記顔領域の位置情報に基づき、前記2つのフレーム間における前記顔領域の重畳面積比率を算出し、前記重畳面積比率が第1閾値以上となる場合に、前記運転者が不動状態にあると判定し、
前記特徴情報は、前記運転者の顔の方向の情報を含み、
前記2つのフレーム間において、前記重畳面積比率が前記第1閾値以上、かつ前記運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、前記運転者が前記不動状態にあると判定する、
運転不能判定方法。
By analyzing the video captured by a camera mounted on a vehicle that photographs the driver of the vehicle, characteristic information regarding the driver's head, including positional information of the driver's face area, is acquired, and information on the captured video is analyzed. determining whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship;
determining that the driver is unable to drive if the duration of the immobility state of the driver is equal to or greater than a second threshold;
The overlapping area ratio of the facial area between the two frames is calculated based on the positional information of the facial area in each of the two frames, and when the overlapping area ratio is equal to or higher than a first threshold, the driver is determined to be in an immobile state,
The feature information includes information on the direction of the driver's face,
Between the two frames, if the superimposed area ratio is greater than or equal to the first threshold and the amount of change in face direction, which is the amount of change in the direction of the driver's face, is less than the third threshold, the driver It is determined that it is in an immobile state,
How to determine if you are unable to drive.
JP2022527431A 2020-05-29 2020-05-29 Inoperability determination device and inoperability determination method Active JP7450715B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/021300 WO2021240768A1 (en) 2020-05-29 2020-05-29 Driving inability determination device and driving inability determination method

Publications (3)

Publication Number Publication Date
JPWO2021240768A1 JPWO2021240768A1 (en) 2021-12-02
JPWO2021240768A5 JPWO2021240768A5 (en) 2022-07-29
JP7450715B2 true JP7450715B2 (en) 2024-03-15

Family

ID=78723289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022527431A Active JP7450715B2 (en) 2020-05-29 2020-05-29 Inoperability determination device and inoperability determination method

Country Status (2)

Country Link
JP (1) JP7450715B2 (en)
WO (1) WO2021240768A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019033911A (en) 2017-08-17 2019-03-07 テイ・エス テック株式会社 Abnormality detection device and seat
WO2019198179A1 (en) 2018-04-11 2019-10-17 三菱電機株式会社 Passenger state determination device, alarm output control device, and passenger state determination method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161798A (en) * 1997-12-01 1999-06-18 Toyota Motor Corp Vehicle driver monitoring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019033911A (en) 2017-08-17 2019-03-07 テイ・エス テック株式会社 Abnormality detection device and seat
WO2019198179A1 (en) 2018-04-11 2019-10-17 三菱電機株式会社 Passenger state determination device, alarm output control device, and passenger state determination method

Also Published As

Publication number Publication date
JPWO2021240768A1 (en) 2021-12-02
WO2021240768A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
KR100921092B1 (en) Driver state monitorring system using a camera on a steering wheel
US20230161342A1 (en) Methods and systems to reduce false calls in self driving vehicles
JP6573193B2 (en) Determination device, determination method, and determination program
KR20150043659A (en) Method for alarming status of vehicle and Apparatus for the same
WO2020170916A1 (en) State detection device and state detection method
JP2007207274A (en) Start annunciation device
JP2018097515A (en) Drive assisting device, drive assisting method, and program thereof
WO2019068699A1 (en) Method for classifying an object point as static or dynamic, driver assistance system, and motor vehicle
Smirnov et al. Smartphone-based identification of dangerous driving situations: Algorithms and implementation
JP5498183B2 (en) Behavior detection device
US20180022357A1 (en) Driving recorder system
JP7450715B2 (en) Inoperability determination device and inoperability determination method
JP5935759B2 (en) Driver status determination system
JP3984863B2 (en) Start notification device
JP7109649B2 (en) Arousal level estimation device, automatic driving support device, and arousal level estimation method
JP4840638B2 (en) Vehicle occupant monitoring device
WO2023108364A1 (en) Method and apparatus for detecting driver state, and storage medium
JP7175381B2 (en) Arousal level estimation device, automatic driving support device, and arousal level estimation method
JP5587068B2 (en) Driving support apparatus and method
JP7298351B2 (en) State determination device, in-vehicle device, driving evaluation system, state determination method, and program
JP7019394B2 (en) Visual target detection device, visual target detection method, and program
JP2021105958A (en) Driver state estimation device and driver state estimation method
JP6992493B2 (en) Operating condition determination device and operating condition determination method
WO2022234632A1 (en) Reflective eye movement evaluation device, reflective eye movement evaluation system, and reflective eye movement evaluation method
WO2021140583A1 (en) Drowsiness estimation device and drowsiness estimation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240305

R150 Certificate of patent or registration of utility model

Ref document number: 7450715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150