JP7450715B2 - Inoperability determination device and inoperability determination method - Google Patents
Inoperability determination device and inoperability determination method Download PDFInfo
- Publication number
- JP7450715B2 JP7450715B2 JP2022527431A JP2022527431A JP7450715B2 JP 7450715 B2 JP7450715 B2 JP 7450715B2 JP 2022527431 A JP2022527431 A JP 2022527431A JP 2022527431 A JP2022527431 A JP 2022527431A JP 7450715 B2 JP7450715 B2 JP 7450715B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- face
- determination
- immobility
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 36
- 230000008859 change Effects 0.000 claims description 86
- 238000010191 image analysis Methods 0.000 claims description 43
- 208000003443 Unconsciousness Diseases 0.000 claims description 35
- 210000003128 head Anatomy 0.000 claims description 18
- 230000002159 abnormal effect Effects 0.000 claims description 16
- 230000001815 facial effect Effects 0.000 claims description 9
- 230000002123 temporal effect Effects 0.000 claims description 9
- 230000005856 abnormality Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 36
- 238000004364 calculation method Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000004399 eye closure Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000001037 epileptic effect Effects 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 201000009482 yaws Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Description
本開示は、運転者が車両を運転できない運転不能状態にあることを判定する技術に関する。 The present disclosure relates to a technique for determining that a driver is in an inoperable state in which he or she cannot drive a vehicle.
特許文献1には、運転者が運転不能状態であることを検出する技術が開示されている。特許文献1の技術は、運転者の撮影映像を用いて運転者の頭部位置を検出し、頭部位置が既定の範囲から外れている状態、または顔の方向が既定の方向から外れている状態が一定時間以上継続した場合に、運転者を運転不能状態と判定する。 Patent Document 1 discloses a technique for detecting that a driver is unable to drive. The technology of Patent Document 1 detects the driver's head position using a captured image of the driver, and detects a state in which the head position is outside a predetermined range or the direction of the face is outside the predetermined direction. If the condition continues for a certain period of time or more, the driver is determined to be unable to drive.
しかし、頭部位置または顔の方向が既定の位置または範囲から外れていなくても、運転者は運転不能状態にある場合がある。例えば、運転者が癲癇の発作で失神したり全身が硬直したりする場合などである。特許文献1の技術では、このような不動状態における運転不能状態を判定できないという問題がある。 However, even if the head position or the direction of the face does not deviate from a predetermined position or range, the driver may be unable to drive. For example, a driver may faint or become stiff due to an epileptic attack. The technique disclosed in Patent Document 1 has a problem in that it is not possible to determine whether the vehicle is inoperable in such a stationary state.
本開示は、上記の問題点を解決するためになされたものであり、運転者の不動状態における運転不能状態を判定する技術の提供を目的とする。 The present disclosure has been made to solve the above-mentioned problems, and aims to provide a technology for determining whether a driver is unable to drive when the driver is stationary.
本開示の第1の運転不能判定装置は、車両に搭載され車両の運転者を撮影するカメラの撮影映像を解析することにより、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得する画像解析部と、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かを判定する不動判定部と、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定する不能判定部と、を備え、不動判定部は、2つのフレームの夫々における顔領域の位置情報に基づき、2つのフレーム間における顔領域の重畳面積比率を算出し、重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定し、特徴情報は、運転者の顔の方向の情報を含み、不動判定部は、2つのフレーム間において、重畳面積比率が第1閾値以上、かつ運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、運転者が不動状態にあると判定する。
本開示の第2の運転不能判定装置は、車両に搭載され車両の運転者を撮影するカメラの撮影映像を解析することにより、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得する画像解析部と、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かを判定する不動判定部と、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定する不能判定部と、を備え、不動判定部は、2つのフレームの夫々における顔領域の位置情報に基づき、2つのフレーム間における顔領域の重畳面積比率を算出し、重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定し、不能判定部は、画像解析部が取得した運転者の顔領域の位置から、2つのフレーム間の時間よりも長い時間である一定時間内に運転者の顔領域が移動した延べの距離である移動距離を算出し、移動距離にも基づき、運転者を運転不能状態と判定する。
A first driveability determination device of the present disclosure analyzes a captured image of a camera mounted on a vehicle and captures the driver of the vehicle, thereby obtaining information related to the driver's head, including positional information of the driver's face area. an image analysis unit that acquires characteristic information; and an immobility determination unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship in a photographed video. , an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold; Based on the position information, the overlapping area ratio of the face area between two frames is calculated, and when the overlapping area ratio is equal to or higher than the first threshold value, it is determined that the driver is in an immobile state, and the feature information is The immobility determining unit determines whether, between the two frames, the overlapping area ratio is greater than or equal to a first threshold, and the amount of change in face direction, which is the amount of change in the direction of the driver's face, is less than a third threshold. In this case, it is determined that the driver is in an immobile state.
The second driveability determination device of the present disclosure analyzes images taken by a camera mounted on a vehicle that photographs the driver of the vehicle, thereby obtaining information related to the driver's head, including positional information of the driver's face area. an image analysis unit that acquires characteristic information; and an immobility determination unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship in a photographed video. , an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold; Based on the position information, the overlapping area ratio of the face area between the two frames is calculated, and when the overlapping area ratio is equal to or higher than the first threshold value, it is determined that the driver is in an immobile state, and the disability determination unit From the position of the driver's face area acquired by the analysis unit, the moving distance, which is the total distance the driver's face area has moved within a certain time period, which is longer than the time between two frames, is calculated, and the movement distance is calculated. Based on the distance, the driver is determined to be unable to drive.
本開示の運転不能判定方法は、車両に搭載され車両の運転者を撮影するカメラの撮影映像を解析することにより、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得し、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かの不動判定を行い、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定し、2つのフレームの夫々における顔領域の位置情報に基づき、2つのフレーム間における顔領域の重畳面積比率を算出し、重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定し、特徴情報は、運転者の顔の方向の情報を含み、2つのフレーム間において、重畳面積比率が第1閾値以上、かつ運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、運転者が不動状態にあると判定する。
The driving incapacity determination method of the present disclosure obtains characteristic information about the driver's head, including positional information of the driver's face area, by analyzing video captured by a camera mounted on a vehicle that photographs the driver of the vehicle. Based on the change in characteristic information between two frames that have a certain temporal relationship in the photographed video, it is determined whether or not the driver is in an immobile state, and the duration of the driver's immobile state is determined. is greater than or equal to the second threshold, the driver is determined to be unable to drive, and based on the position information of the face area in each of the two frames, the overlapping area ratio of the face area between the two frames is calculated, and the overlapping area ratio of the face area between the two frames is calculated. When the area ratio is greater than or equal to the first threshold, it is determined that the driver is in an immobile state , and the feature information includes information on the direction of the driver's face, and between the two frames, the superimposed area ratio is the first When the face direction change amount, which is the amount of change in the direction of the driver's face, is equal to or greater than the threshold value and less than the third threshold value, it is determined that the driver is in an immobile state .
本開示の技術によれば、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定するため、運転者の不動状態における運転不能状態を判定することができる。本開示の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 According to the technology of the present disclosure, in order to determine that the driver is unable to drive when the duration of the immobile state of the driver is equal to or greater than the second threshold value, it is possible to determine the inoperable state in the immobile state of the driver. I can do it. Objects, features, aspects, and advantages of the present disclosure will become more apparent from the following detailed description and accompanying drawings.
以下に説明する各実施の形態の運転不能判定装置は、車両の運転者の不動状態が継続する場合に、運転者が運転不能状態にあると判定する。以下、運転不能判定装置が運転不能状態の判定対象とする運転者が搭乗する車両を、単に車両と称する。また、以下に説明する各実施の形態では、同一または対応する構成要素に同一の参照符号が付されている。従って、同一の参照符号が付された構成要素は、異なる実施の形態間で同一または対応している。 The inoperability determining device of each embodiment described below determines that the driver of the vehicle is in an inoperable state when the driver of the vehicle continues to be immobile. Hereinafter, a vehicle in which a driver, whose inability to drive state is to be determined by the inoperability determination device, is boarded will be simply referred to as a vehicle. Moreover, in each embodiment described below, the same reference numerals are given to the same or corresponding components. Therefore, components labeled with the same reference numerals are the same or correspond between different embodiments.
<A.実施の形態1>
<A-1.構成>
図1は、実施の形態1の運転不能判定装置101とその周辺装置の構成を示す図である。運転不能判定装置101は、撮像装置50と接続され、これを利用可能に構成されている。
<A. Embodiment 1>
<A-1. Configuration>
FIG. 1 is a diagram showing the configuration of an
撮像装置50は、運転者を撮像する装置であり、車両に搭載されている。撮像装置50は、カメラ51とLED52とを備えて構成される。カメラ51は主に運転者の顔を含む頭部を撮像する。カメラ51は、ある特定の瞬間だけ撮影を行うのではなく、ある一定の期間連続して撮影を行っている。カメラ51の撮影映像の各フレームが画像解析部10Aに出力される。撮影映像のフレームレートは、例えば10fpsまたは30fpsである。LED52は、運転者の顔に光を照射し、カメラ51が運転者の顔を明瞭に撮影できるようにする。
The image capturing
運転不能判定装置101は、典型的には車両に搭載されるが、<G.ハードウェア構成>で後述するように、運転不能判定装置101の各構成が必ずしも車両に搭載されている必要はない。運転不能判定装置101は、画像解析部10A、不動判定部20Aおよび不能判定部30Aを備える。
The
画像解析部10Aは、カメラ51の撮影映像の各フレームを解析することにより、運転者の頭部に関する特徴情報(以下、単に「特徴情報」と称する)を取得する。具体的には、画像解析部10Aは、顔位置検出部11を備えている。顔位置検出部11は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける顔領域を検出し、顔領域の位置情報を取得する。すなわち、特徴情報は、運転者の顔領域の位置情報を含む。
The
不動判定部20Aは、特徴情報に基づき運転者が不動状態であるか否かを判定する。通常、運転者は、運転中に周辺車両または障害物など、車両の周辺の様々な物または人を確認するため、頭部にある程度の動きがある。しかし、癲癇の発作など、何らかの原因で身体が硬直してしまった場合には、通常時に比べて頭部の動きが明らかに小さくなる。本明細書では、運転者が運転中の状態としては不自然なほど動かない状態を、「不動状態」と称する。
The
具体的には、不動判定部20Aは、重畳比率算出部21を備える。重畳比率算出部21は、顔位置検出部11が検出した撮影映像の各フレーム中の顔領域の位置から、2つのフレーム間で顔領域の重畳面積比率を算出する。ここで、顔領域を比較する2つのフレームは、典型的には時系列において連続する2つのフレームであるが、これに限らず、一定の時間的前後関係を有していれば良い。例えば、重畳比率算出部21は、2フレームおき、または10フレームおきに選択した2つのフレームにおいて顔領域の重畳面積比率を算出してもよい。
Specifically, the
不動判定部20Aは、2つのフレーム間における顔領域の重畳面積比率が、予め定められた第1閾値Th1以上である場合に、運転者が不動状態であると判定する。不動判定部20Aは、カメラ51の撮影映像の新たな各フレームに対して、不動状態の判定処理を繰り返す。
The
不能判定部30Aは、不動判定部20Aにより運転者が不動状態と判定された時間が、予め定められた第2閾値Th2以上継続する場合に、運転者は運転が不可能な運転不能状態にあると判定する。第2閾値Th2は、例えば90秒である。
The
<A-2.動作>
図2は、運転不能判定装置101の全体処理を示すフローチャートである。以下、図2に沿って運転不能判定装置101の全体処理を説明する。図2のフローは、例えば車両が走行を開始する際にスタートし、車両の走行中は繰り返し行われる。また、撮像装置50は、例えば車両のアクセサリ電源がオンになった後は、常に撮影を行っているものとする。
<A-2. Operation>
FIG. 2 is a flowchart showing the overall processing of the
まず、画像解析部10Aがカメラ51の撮影映像を取得し、撮影映像を解析して、撮影映像の各フレームにおける運転者の頭部に関する特徴情報を取得する(ステップS101)。より具体的には、本実施の形態では、顔位置検出部11が各フレームにおける運転者の顔領域の位置を取得する。
First, the
次に、不動判定部20Aが、画像解析部10Aの画像解析結果に基づき、運転者が不動状態にあるか否かを判定する(ステップS102)。本ステップの詳細は図3で後述する。
Next, the
次に、不能判定部30Aが、不動判定部20Aの判定結果に基づき運転者が運転不能状態にあるか否かを判定する(ステップS103)。本ステップの詳細は図5で後述する。そして、運転不能判定装置101はステップS101の処理に戻る。
Next, the
図3は、不動判定部20Aにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。以下、図3に沿って不動判定処理を説明する。まず、重畳比率算出部21は、顔位置検出部11から各フレームにおける運転者の顔領域の位置を取得し、特定の2フレーム間で、顔領域の重畳面積比率を算出する。
FIG. 3 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the
図4は、2つのフレームにおける顔領域の重畳面積を示している。図4において、水平方向にx、垂直方向にy軸が設定されている。そして、一つ前のフレーム202における顔領域の位置座標が(X´、Y´)で表され、現在のフレーム201における顔領域の位置座標が(X、Y)で表されている。こうした顔領域の位置座標から、重畳比率算出部21は、両フレームにおける顔領域の重畳領域203を得ることができる。そして、重畳比率算出部21は、顔領域の面積と重畳領域203の面積とから、重畳面積比率を算出する。
FIG. 4 shows the overlapping area of face regions in two frames. In FIG. 4, the x-axis is set in the horizontal direction and the y-axis is set in the vertical direction. The position coordinates of the face area in the
不動判定部20Aは、重畳面積比率が閾値Th1以上であるか否かを判断する(ステップS1021)。例えば、運転者が全く動かないと仮定すると、2フレーム間で運転者の顔領域の位置は全く同一となり、完全に重畳するため、重畳面積比率は1である。運転者の顔領域の動きが大きいほど、重畳面積比率は小さくなる。従って、不動判定部20Aは、重畳面積比率が閾値Th1以上である場合には、運転者が不動状態にあると判定し、不動判定時間T0をカウントアップする(ステップS1022)。他方、不動判定部20Aは、重畳面積比率が閾値Th1未満である場合には、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。以上で、不動判定部20Aは不動判定処理を終了する。
The
図5は、不能判定部30Aにおける不能判定処理(図2のステップS103)の詳細を示すフローチャートである。以下、図5に沿って不能判定処理を説明する。まず、不能判定部30Aは、不動判定時間T0が閾値Th2以上であるか否かを判断する(ステップS1031)。不動判定時間T0は、不動判定部20Aが図3のステップS1022でカウントアップ、またはステップS1023においてリセットするものである。ステップS1031においてT0≧Th2であれば、不能判定部30Aは運転者の不動状態が継続しており、運転者は運転不能状態にあると判定する(ステップS1032)。他方、ステップS1031においてT0<Th2であれば、不能判定部30Aは、運転者は運転不能状態にないと判定する(ステップS1033)。以上で、不能判定部30Aは不能判定処理を終了する。
FIG. 5 is a flowchart showing details of the impossibility determination process (step S103 in FIG. 2) in the
<A-3.効果>
実施の形態1の運転不能判定装置101は、車両に搭載され車両の運転者を撮影するカメラ51の撮影映像を解析して、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得する画像解析部10Aと、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、2つのフレーム間において運転者の顔領域の重畳面積比率が第1閾値Th1以上となる場合に、運転者が不動状態にあるか否かを判定する不動判定部20Aと、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定する不能判定部30Aと、を備える。
<A-3. Effect>
The driving
以上の構成により、運転不能判定装置101によれば、運転者が不動状態にあるか否かを、カメラ51の撮影映像の2つのフレーム間における運転者の顔領域の重畳面積比率から判定することができる。そして、運転不能判定装置101によれば、運転者の不動状態が一定時間以上継続した場合に、運転者が運転不能状態にあると判定することができる。
With the above configuration, the driving
<B.実施の形態2>
<B-1.構成>
図6は、実施の形態2の運転不能判定装置102とその周辺装置の構成を示す図である。運転不能判定装置102は、撮像装置50、出力装置60および車両制御装置70と接続され、これらを利用可能に構成されている。以下、運転不能判定装置102の運転不能判定装置101と異なる部分について主に説明を行う。
<B. Embodiment 2>
<B-1. Configuration>
FIG. 6 is a diagram showing the configuration of the
出力装置60は、不能判定部30Aの判定結果を出力する、車両に搭載された装置である。図6の例では、出力装置60は、表示装置61とスピーカー62とを備えるが、これらの少なくとも一方を備えていれば良い。不能判定部30Aが運転者を運転不能状態と判定した場合、例えば「運転者が運転不能です。」というメッセージが表示装置61に表示され、またはスピーカー62から音声出力される。これにより、車両の同乗者または車両外の通行人等が、運転者が運転不能であることを把握し、適切な対応を取ることが期待される。
The
車両制御装置70は、不能判定部30Aの判定結果を取得し、これに基づき車両の自動運転制御を行う。不能判定部30Aが運転者を運転不能状態と判定した場合、車両制御装置70は、車両の前方に緊急退避スペースを見つけ、緊急退避スペースに車両を緊急停止させることにより、車両の乗員の安全を確保する。
The
運転不能判定装置102は、画像解析部10B、不動判定部20Bおよび不能判定部30Aを備えている。画像解析部10Bは、実施の形態1の画像解析部10Aの構成に加えて顔方向検出部12を備えている。顔方向検出部12は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける運転者の顔の方向を検出する。すなわち、実施の形態2において、特徴情報は、運転者の顔の方向の情報を含む。
The
不動判定部20Bは、実施の形態1の不動判定部20Aの構成に加えて顔方向変化算出部22を備えている。顔方向変化算出部22は、顔方向検出部12が検出した撮影映像の各フレーム中の顔方向から、2つのフレーム間で顔方向の変化量(以下、「顔方向変化量」と称する)を算出する。ここで、顔方向変化算出部22が顔方向の変化量を算出する2つのフレームは、重畳比率算出部21が顔領域の重畳面積比率を算出する2つのフレームと同じである。顔方向変化量は、ヨー角、ピッチ角、ロール角の3つで表される。
The
不動判定部20Bは、顔領域の重畳面積比率が第1閾値Th1以上、かつ顔方向変化量が予め定められた第3閾値未満である場合に、運転者が不動状態にあると判定する。本実施の形態では、顔方向変化量を不動状態の判定において考慮するため、顔位置がフレーム間で殆ど変化しないが、顔方向が変化している場合に、運転者を不動状態と誤判定することを防止できる。顔位置がフレーム間で殆ど変化しないが、顔方向が変化する動作としては、例えば、ルームミラーを見る動作、ナビゲーション装置の表示画面を視認する動作などが挙げられる。
The
<B-2.動作>
図7は、不動判定部20Bにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。以下、図7に沿って不動判定処理を説明する。まず、実施の形態1と同様、重畳比率算出部21が特定の2フレーム間で顔領域の重畳面積比率を算出する。そして、不動判定部20Bは、重畳面積比率が閾値Th1以上であるか否かを判断する(ステップS1021)。ステップS1021において重畳面積比率が閾値Th1未満であれば、実施の形態1と同様、不動判定部20Bは不動判定時間T0をリセットする(ステップS1023)。ステップS1021において重畳面積比率が閾値Th1以上であれば、顔方向変化算出部22が特定の2フレーム間で顔方向変化量を算出する。そして、不動判定部20Bは、顔方向変化量が閾値Th3未満であるか否かを判断する(ステップS1021A)。
<B-2. Operation>
FIG. 7 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the
ステップS1021Aにおいて顔方向変化量が閾値Th3未満であれば、不動判定部20Bは、運転者が不動状態にあると判定し、不動判定時間T0をカウントアップする(ステップS1022)。他方、不動判定部20Bは、ステップS1021Aにおいて顔方向変化量が閾値Th3以上であれば、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。以上で、不動判定部20Bは不動判定処理を終了する。
If the face direction change amount is less than the threshold Th3 in step S1021A, the
<B-3.効果>
実施の形態2の運転不能判定装置102において、画像解析部10Bが取得する特徴情報は運転者の顔の方向の情報を含み、不動判定部20Bは、2つのフレーム間において、重畳面積比率が第1閾値以上、かつ運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、運転者が不動状態にあると判定する。従って、運転不能判定装置102によれば、顔位置がフレーム間で殆ど変化しないが、顔方向が変化する場合に、運転者を不動状態と誤判定することを防止できる。
<B-3. Effect>
In the
<C.実施の形態3>
<C-1.構成>
図8は、実施の形態3の運転不能判定装置103とその周辺装置の構成を示す図である。運転不能判定装置103は、撮像装置50、出力装置60および車両制御装置70と接続され、これらを利用可能に構成されている。以下、運転不能判定装置103の運転不能判定装置102と異なる部分について主に説明を行う。
<C. Embodiment 3>
<C-1. Configuration>
FIG. 8 is a diagram showing the configuration of the
運転不能判定装置103は、画像解析部10C、不動判定部20Cおよび不能判定部30Aを備えている。画像解析部10Cは、実施の形態2の画像解析部10Bの構成に加えて視線方向検出部13を備えている。視線方向検出部13は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける運転者の視線方向を検出する。すなわち、実施の形態3において、特徴情報は、運転者の視線方向の情報を含む。
The
不動判定部20Cは、実施の形態2の不動判定部20Bの構成に加えて視線方向変化算出部23を備えている。視線方向変化算出部23は、視線方向検出部13が検出した撮影映像の各フレーム中の視線方向から、2つのフレーム間で視線方向変化量を算出する。ここで、視線方向変化算出部23が視線方向の変化量を算出する2つのフレームは、重畳比率算出部21が顔領域の重畳面積比率を算出する2つのフレームと同じである。
The
不動判定部20Cは、顔領域の重畳面積比率が第1閾値Th1以上、顔方向変化量が予め定められた第3閾値未満、かつ視線方向変化量が予め定められた第4閾値未満である場合に、運転者が不動状態にあると判定する。本実施の形態では、視線方向変化量を不動状態の判定において考慮するため、顔位置および顔方向がフレーム間で殆ど変化しないが、視線方向が変化している場合に、運転者を不動状態と誤判定することを防止できる。
The
<C-2.動作>
図9は、不動判定部20Cにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。ステップS1021およびステップS1021Aは実施の形態2と同様である。不動判定部20Bが、顔方向変化量が閾値Th3未満であると判断すると(ステップS1021AでYes)、視線方向変化算出部23が特定の2フレーム間で視線方向変化量を算出する。そして、不動判定部20Cは、視線方向変化量が閾値Th4未満であるか否かを判断する(ステップS1021B)。ステップS1021Bにおいて視線方向変化量が閾値Th4未満であれば、不動判定部20Cは、運転者が不動状態にあると判定し、不動判定時間T0をカウントアップする(ステップS1022)。他方、不動判定部20Cは、ステップS1021Bにおいて顔方向変化量が閾値Th4以上であれば、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。以上で、不動判定部20Bは不動判定処理を終了する。
<C-2. Operation>
FIG. 9 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the
上記では、実施の形態2の運転不能判定装置102に視線方向検出部13と視線方向変化算出部23を追加したものを、実施の形態3の運転不能判定装置103として説明した。しかし、実施の形態1の運転不能判定装置101に視線方向検出部13と視線方向変化算出部23を追加してもよい。
In the above description, the driving
<C-3.効果>
実施の形態3の運転不能判定装置103において、特徴情報は、運転者の視線の方向の情報を含み、不動判定部20Cは、2つのフレーム間において、重複面積比率が第1閾値以上、顔方向変化量が第3閾値未満、かつ運転者の視線の方向の変化量である視線方向変化量が第4閾値未満となる場合に、運転者が不動状態にあると判定する。従って、運転不能判定装置103によれば、顔位置および顔方向がフレーム間で殆ど変化しないが、視線方向が変化している場合に、運転者を不動状態と誤判定することを防止できる。
<C-3. Effect>
In the driving
<D.実施の形態4>
<D-1.構成>
図10は、実施の形態4の運転不能判定装置104とその周辺装置の構成を示す図である。運転不能判定装置104は、撮像装置50、出力装置60、車両制御装置70および車両情報通信装置80と接続され、これらを利用可能に構成されている。車両情報通信装置80は、車両情報を運転不能判定装置104に送信する。車両情報は、車両の走行状況に関する情報、または操作に関する情報を含む。車速信号、操舵角信号、シフトポジション情報、シートベルト装着情報、方向指示器の動作情報、アクセル信号、またはブレーキ信号が車両情報の例として挙げられる。
<D. Embodiment 4>
<D-1. Configuration>
FIG. 10 is a diagram showing the configuration of the
以下、運転不能判定装置104の運転不能判定装置103と異なる部分について主に説明を行う。運転不能判定装置104は、画像解析部10C、不動判定部20Dおよび不能判定部30Aを備えている。
Hereinafter, the parts of the
不動判定部20Dは、実施の形態3の不動判定部20Cの構成に加えて無意識判定部24を備えている。無意識判定部24は、運転者の顔方向が変化する場合、すなわち運転者の顔方向変化量が第3閾値以上である場合に、顔方向の変化が車両の挙動に誘発されたものであり、運転者が無意識状態にあるか否かを判定する。不動判定部20Dは、運転者の顔方向変化量が第3閾値以上であっても、無意識判定部24が運転者を無意識状態と判定した場合には、運転者を不動状態と判定する。
The
車両の挙動に誘発される顔方向の変化の例として、車両の振動を受けて頭部が上下に変化することがある。人間は、意識がある状態では姿勢を維持する傾向がある。そのため、走行路面状態に応じて車体が上下に振動する場合、意識の有無により、頭部の上下方向の移動と顔方向のピッチ方向の変化量との関係には差異が生じる。従って、無意識判定部24は、顔位置検出部11から顔領域の位置を取得し、顔方向検出部12から顔方向を取得し、(顔方向のピッチ角の分散)/(顔の上下方向の位置Yの分散)で求まる指標値が閾値以上の場合、運転者が無意識状態にあると判定することが可能である。
An example of a change in the direction of the face induced by the behavior of a vehicle is when the head changes vertically due to vibrations of the vehicle. Humans tend to maintain their posture when they are conscious. Therefore, when the vehicle body vibrates up and down depending on the road surface condition, the relationship between the vertical movement of the head and the amount of change in the pitch direction of the face differs depending on whether the driver is conscious or not. Therefore, the
車両の挙動に誘発される顔方向の変化の別の例として、車両旋回中の頭部移動が挙げられる。図11は、車両204が左に旋回する様子を示している。このとき、操舵角の変化方向は図12において矢印209で示す左方向であり、運転者205にとっては矢印208で示すように操舵角の変化方向と反対の右方向に遠心力が発生する。運転者は意識がある状態では、安全確認のため車両204の進行方向に顔を向けるため、顔は矢印206で示す方向に移動し、矢印207で示す方向となる。このように、操舵角が左側に変化すれば、顔のヨー角も操舵角の変化にあわせて左側に傾く。言い換えれば、顔は操舵角の変化方向にヨーイングする。
Another example of changes in facial orientation induced by vehicle behavior is head movement during vehicle turns. FIG. 11 shows the
これに対して、運転者が無意識の場合、図13に示すように、顔は遠心力を受けて右側に傾く。言い換えれば、顔は操舵角の変化方向と反対方向にローリングする。従って、無意識判定部24は車両情報通信装置80から車両の操舵角の情報を取得し、顔方向検出部12から運転者の顔の方向を取得し、運転者の顔のローリング方向が操舵角の変化方向と反対方向であれば、運転者が無意識状態にあると判定することが可能である。
On the other hand, when the driver is unconscious, his or her face tilts to the right due to centrifugal force, as shown in FIG. 13. In other words, the face rolls in the opposite direction to the direction of change of the steering angle. Therefore, the
また、顔のロール角が予め定められた閾値以上であることをもって、無意識判定部24は運転者が無意識状態にあると判定することが可能である。
Further, if the roll angle of the face is equal to or greater than a predetermined threshold value, the
<D-2.動作>
図14は、不動判定部20Dにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。ステップS1021およびステップS1021Aは実施の形態3と同様である。不動判定部20Dが、顔方向変化量が閾値Th3以上であると判断すると(ステップS1021AでNo)、無意識判定部24は運転者が無意識か否かを判断する(ステップS1021AB)。
<D-2. Operation>
FIG. 14 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the
ステップS1021ABにおいて運転者が無意識状態ではない場合は、不動判定部20Dは、運転者が不動状態にはないと判定し、不動判定時間T0をリセットする(ステップS1023)。他方、ステップS1021ABにおいて運転者が無意識状態であれば、不動判定部20DはステップS1021Bの処理に進む。ステップS1021B以降の処理は実施の形態3と同様である。
If the driver is not in an unconscious state in step S1021AB, the
<D-3.効果>
実施の形態4の運転不能判定装置104において、不動判定部20Dは、運転者の顔の方向に基づき運転者が無意識であるか否かを判断する無意識判定部24を備え、運転者を無意識と判断した場合には、2つのフレーム間において、顔方向変化量が第3閾値以上であっても、運転者が不動状態にあると判定する。従って、運転不能判定装置104によれば、無意識の運転者の顔の方向が車両の挙動に伴って大きく変化する場合に、不動状態ではないと誤判定することを防止することができる。
<D-3. Effect>
In the
無意識判定部24は、運転者の顔領域の鉛直方向の位置の分散と、運転者の顔の方向のピッチ角の分散とに基づき、運転者が無意識であるか否かを判断することができる。これにより、無意識の運転者の顔の方向のピッチ角が車両の振動に伴い大きく変化する場合に、不動状態ではないと誤判定することを防止することができる。
The
あるいは、無意識判定部24は、車両の操舵角の変化方向と、運転者の顔の方向とに基づき、運転者が無意識であるか否かを判断することができる。これにより、無意識の運転者の顔の方向が車両に働く遠心力に伴い大きく変化する場合に、不動状態ではないと誤判定することを防止することができる。
Alternatively, the
<E.実施の形態5>
<E-1.構成>
図15は、実施の形態5の運転不能判定装置105およびその周辺装置の構成を示す図である。運転不能判定装置105は、撮像装置50、出力装置60、車両制御装置70および車両情報通信装置80と接続され、これらを利用可能に構成されている。運転不能判定装置105は、画像解析部10C、不動判定部20E、および不能判定部30Aを備えている。不動判定部20Eの構成は、実施の形態4の不動判定部20Dと同様である。
<E. Embodiment 5>
<E-1. Configuration>
FIG. 15 is a diagram showing the configuration of the
視線方向検出部13は、カメラ51の撮影映像の各フレームを解析して、各フレームにおける運転者の視線方向を検出する。視線方向変化算出部23は、視線方向検出部13が検出した撮影映像の各フレーム中の視線方向から、2つのフレーム間で視線方向変化量を算出する。そして、不動判定部20Eは、視線方向変化量が第4閾値未満であることを、運転者が不動状態であると判定する条件の一つとしている。
The line-of-sight
しかし、視線方向検出部13は常に運転者の視線方向を検出できるとは限らない。例えば、運転者がサングラスを付けていたり、髪によって目が隠れていたりする場合、視線方向検出部13は視線方向を検出できない。このような場合、視線方向検出部13は視線方向を検出できない旨の情報を不動判定部20Eに出力する。当然、視線方向変化算出部23は視線方向変化量を算出できない。従って、不動判定部20Eは、視線方向変化量を、運転者が不動状態であると判定する条件から除外し、実施の形態2の不動判定部20Bと同様、顔領域の重畳面積比率と顔方向変化量とに基づき、不動判定処理を行う。
However, the line-of-sight
視線方向変化量に基づく不動判定処理が行えない分、不動判定の精度が低下するおそれがあり、誤って運転者を不動状態と判定するおそれがある。そこで、不動判定部20Eは、視線方向検出部13が視線方向を検出できない場合には、検出できる場合と比べて、顔領域の重畳面積比率の閾値である第1閾値Th1、および不動判定時間の閾値である第2閾値Th2を大きくすることにより、不動状態と判定しにくく、さらに運転不能状態と判定しにくくする。なお、ここで不動判定部20Eは、第1閾値Th1と第2閾値Th2のいずれか一方のみを大きくしてもよい。
Since the immobility determination process based on the amount of change in the direction of the line of sight cannot be performed, the accuracy of the immobility determination may be reduced, and there is a risk that the driver may be erroneously determined to be in an immobile state. Therefore, when the line-of-sight
<E-2.動作>
図16は、不動判定部20Eにおける不動判定処理(図2のステップS102)の詳細を示すフローチャートである。以下、図16に沿って不動判定部20Eの不動判定処理を説明する。まず、不動判定部20Eは、視線方向を検出可能か否かを判断する(ステップS1020A)。不動判定部20Eは、視線方向検出部13からカメラ51の撮影映像の各フレームにおける運転者の視線方向を取得すると、視線方向を検出可能と判断する。また、不動判定部20Eは、視線方向検出部13から視線方向を検出できない旨の情報を取得すると、視線方向を検出不可能と判断する。
<E-2. Operation>
FIG. 16 is a flowchart showing details of the immobility determination process (step S102 in FIG. 2) in the
ステップS1020Aにおいて視線方向を検出可能な場合、不動判定部20Eは、顔領域の重畳面積比率の閾値である第1閾値Th1にTh1Aを設定し、不動判定時間T0の閾値である第2閾値Th2にTh2Aを設定する(ステップS1020B)。一方、ステップS1020Bにおいて視線方向を検出不可能な場合、不動判定部20Eは、顔領域の重畳面積比率の閾値である第1閾値Th1にTh1Bを設定し、不動判定時間T0の閾値である第2閾値Th2にTh2Bを設定する(ステップS1020C)。ここで、Th1A<Th1Bであり、Th2A<Th2Bである。つまり、視線方向検出部13が視線方向を検出不可能な場合には、検出可能な場合に比べて、不動状態と判定されにくく、さらに運転不能状態と判定されにくくなる。
If the line of sight direction can be detected in step S1020A, the
その後の、ステップS1021,S1021A,S1021ABは実施の形態4と同様である。ステップS1021Aにおいて、顔方向変化量が閾値Th3未満である場合、またはステップS1021ABにおいて運転者が無意識である場合、不動判定部20EはステップS1020Aと同様に視線方向を検出可能か否かを判断する(ステップS1021AC)。ステップS1021ACにおいて視線方向を検出できない場合、不動判定部20EはステップS1021Bをスキップして不動判定時間T0をカウントアップする(ステップS1022)。他方、ステップS1021ACにおいて視線方向を検出可能な場合、不動判定部20EはステップS1021Bの処理に進む。ステップS1021B以降の処理は実施の形態4と同様である。
Subsequent steps S1021, S1021A, and S1021AB are the same as in the fourth embodiment. In step S1021A, if the face direction change amount is less than the threshold Th3, or if the driver is unconscious in step S1021AB, the
<E-3.効果>
実施の形態5の運転不能判定装置105において、画像解析部10Cが撮影映像から運転者の視線の方向を取得できない場合、不動判定部20Eは、視線方向変化量を不動状態の判定条件から除外し、第1閾値および第2閾値の少なくとも一方を、画像解析部10Cが撮影映像から運転者の視線の方向を取得できる場合に比べて大きくする。これにより、運転不能判定装置105によれば、視線方向変化量を考慮しないことによる不動判定の精度低下を考慮し、運転者を誤って不動状態と判定することを抑制することが可能である。
<E-3. Effect>
In the
<F.実施の形態6>
実施の形態1から実施の形態5では、運転者の不動状態が一定時間以上継続した場合に、運転者を運転不能状態と判定した。しかし、実施の形態6では、他の条件を運転不能状態の判定条件に加えることによって、運転者が運転不能状態にないのに誤って運転不能状態と誤判定してしまう可能性をさらに小さくする。
<F. Embodiment 6>
In Embodiments 1 to 5, if the driver remains immobile for a certain period of time or more, the driver is determined to be unable to drive. However, in the sixth embodiment, by adding other conditions to the conditions for determining the inoperable state, the possibility that the driver mistakenly determines that the driver is in the inoperable state when the driver is not in the inoperable state is further reduced. .
<F-1.構成>
図17は、実施の形態6の運転不能判定装置106およびその周辺装置の構成を示す図である。運転不能判定装置106は、撮像装置50、出力装置60、車両制御装置70および車両情報通信装置80と接続され、これらを利用可能に構成されている。運転不能判定装置106は、画像解析部10D、不動判定部20E、および不能判定部30Bを備えている。
<F-1. Configuration>
FIG. 17 is a diagram showing the configuration of the
画像解析部10Dは、実施の形態5の画像解析部10Cの構成に加えて眼開閉度検出部14を備えている。眼開閉度検出部14は、カメラ51の撮影映像を取得し、撮影映像の各フレームを解析して、各フレームにおける運転者の眼の開閉度を検出する。眼開閉度検出部14は、検出した眼の開閉度を不能判定部30Bに出力する。
The
不能判定部30Bは、閉眼回数カウント部31、顔領域移動距離算出部32、および異常操作検出部33を備えている。閉眼回数カウント部31は、眼開閉度検出部14から取得した、撮影映像の各フレームにおける運転者の眼の開閉度に基づき、一定時間内の運転者の閉眼回数をカウントする。閉眼回数カウント部31は、不動判定部20Eにおいて運転者が不動状態にあると判定されている時間に、閉眼回数をカウントすることが望ましい。従って、例えば閉眼回数カウント部31は、不動判定時間T0のカウントアップが始まると閉眼回数のカウントを開始し、不動判定時間T0がリセットされると閉眼回数のカウントをリセットし、不動判定時間T0が第2閾値Th2以上になると閉眼回数のカウントを終了する。この場合、閉眼回数のカウント時間は第2閾値Th2と等しくなる。なお、閉眼回数のカウント時間は第2閾値Th2未満でもよい。
The
顔領域移動距離算出部32は、顔位置検出部11から、撮影映像の各フレームにおける運転者の顔領域の位置情報を取得する。そして、顔領域移動距離算出部32は、撮影映像の各フレームにおける運転者の顔領域の位置情報から、一定時間内の運転者の顔領域の移動距離を算出する。ここで、顔領域の移動距離は、算出時間の開始時と終了時の顔領域の位置の差分ではなく、算出時間内に顔領域が移動した延べの距離を意味する。顔領域の移動距離の算出時間は、不動判定部20Eの不動判定処理において比較される2つのフレーム間の時間より少なくとも数倍程度長く、閉眼回数のカウント時間と同様に設定される。
The face area movement
異常操作検出部33は、車両情報通信装置80から車両情報を取得し、車両情報に基づき車両に異常操作が行われていないかを検出する。異常操作の例として、方向指示器を点灯せずに車線変更を繰り返すことがある。これは、方向指示器の動作情報と、操舵角から判断することができる。また、異常操作検出部33は、アクセル信号、ブレーキ信号または車速信号から、急激な加減速を異常操作と検出することができる。
The abnormal
<F-2.動作>
図18は、実施の形態6の不能判定部30Bによる不能判定処理を示すフローチャートである。以下、図18のフローに沿って不能判定処理を説明する。まず、不能判定部30Bは、不動判定時間T0が閾値Th2以上であるか否かを判断する(ステップS1031)。ステップS1031においてT0<Th2であれば、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。これらの処理は、不能判定部30Aによる不能判定処理と同様である。
<F-2. Operation>
FIG. 18 is a flowchart showing the impossibility determination process by the
ステップS1031においてT0≧Th2であっても、不能判定部30Bは、直ちに運転者を運転不能状態とは判定せず、以下の処理を行う。まず、不能判定部30Bは、閉眼回数カウント部31でカウントした運転者の一定時間内の閉眼回数nが、予め定められた第5閾値Th5未満であるか否かを判断する(ステップS1031A)。例えば、閉眼回数nのカウント時間は90秒であり、第5閾値Th5は例えば6である。ステップS1031Aにおいてn≧Th5であれば、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。つまり、不能判定部30Bは、運転者が正常に瞬きをしている場合には運転不能状態と判定しない。
Even if T0≧Th2 in step S1031, the
ステップS1031Aにおいてn<Th5であれば、不能判定部30Bは、顔領域移動距離算出部32で算出した顔領域の移動距離dが、予め定められた第6閾値Th6未満であるか否かを判断する(ステップS1031B)。ステップS1031Bにおいてd≧Th6であれば、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。運転者の顔の動きがゆっくりであったり、同じ動きを繰り返したりしてている場合、不動判定部20Eの不動判定処理において比較する2つのフレーム間で顔領域の移動距離が小さく、重複面積比率が第1閾値以上となって運転者が不動状態にあると判定されてしまうことが想定される。しかし、本ステップでは不動判定処理で比較される2つのフレーム間の時間よりも長い時間における顔領域の移動距離を判定することにより、上記のように不動状態が誤判定された場合でも、運転者を運転不能状態と誤判定することを防ぐ。
If n<Th5 in step S1031A, the
ステップS1031Bにおいてd<Th6であれば、不能判定部30Bは、異常操作検出部33が異常操作を検出したか否かを判断する(ステップS1031C)。ステップS1031Cにおいて異常操作が検出されていなければ、不能判定部30Bは運転者が運転不能状態にないと判定する(ステップS1033)。他方、ステップS1031Cにおいて異常操作が検出されていれば、不能判定部30Bは運転者が運転不能状態にあると判定する(ステップS1032)。以上で、不能判定部30Bは不能判定処理を終了する。
If d<Th6 in step S1031B, the
このように、不能判定部30Bは、不動判定時間T0の条件に加えて、閉眼回数n、顔枠移動距離d、および異常操作という3つの条件を考慮することにより、運転者が運転不能状態にある可能性が極めて高い場合に限って、運転不能状態にあると判定する。従って、運転不能状態にない運転者を誤って運転不能状態と判定してしまうことが抑制される。なお、上記では、不能判定部30Bは、閉眼回数n、顔枠移動距離d、および異常操作という3つの条件を考慮したが、これらのうち少なくとも1つの条件が考慮されればよい。
In this way, the
<F-3.効果>
実施の形態6の運転不能判定装置106において、画像解析部10Dは、撮影映像から運転者の眼の開閉度を取得し、不能判定部30Bは、画像解析部10Dが取得した運転者の眼の開閉度に基づき、一定時間内の運転者の閉眼回数を算出し、閉眼回数にも基づき、運転者を運転不能状態と判定する。従って、不動状態であっても正常に瞬きをしている運転者を運転不能状態と誤判定してしまうことが抑制される。
<F-3. Effect>
In the driving
実施の形態6の運転不能判定装置106において、不能判定部30Bは、画像解析部10Dが取得した運転者の顔領域の位置から、一定時間内の運転者の顔領域の移動距離を算出し、移動距離にも基づき、運転者を運転不能状態と判定する。従って、顔の移動がゆっくりである場合に運転者を運転不能状態と誤判定してしまうことが抑制される。
In the driving
実施の形態6の運転不能判定装置106において、不能判定部30Bは、車両の操作情報に基づき車両の操作を異常と判定する異常判定を行い、異常判定の結果にも基づき、運転者の状態を運転不能状態と判定する。従って、車両の異常操作が検出されない場合に運転者を運転不能状態と誤判定してしまうことが抑制される。
In the driving
<G.ハードウェア構成>
上述した運転不能判定装置101,102,103,104,105,106における、画像解析部10A,10B,10C,10D、不動判定部20A,20B,20C,20D,20E、および不能判定部30A,30Bは、図19に示す処理回路81により実現される。すなわち、処理回路81は、画像解析部10A,10B,10C,10D、不動判定部20A,20B,20C,20D,20E、および不能判定部30A,30B(以下、「画像解析部等」と称する)を備える。処理回路81には、専用のハードウェアが適用されても良いし、メモリに格納されるプログラムを実行するプロセッサが適用されても良い。プロセッサは、例えば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。
<G. Hardware configuration>
処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。~部等の各部の機能それぞれは、複数の処理回路81で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
When the
処理回路81がプロセッサである場合、画像解析部等の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図20に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、運転不能判定装置101,102,103,104,105,106は、処理回路81により実行されるときに、カメラ51の撮影映像を解析して、運転者の顔領域の位置情報を含む、運転者の頭部に関する特徴情報を取得するステップと、撮影映像の一定の時間的前後関係を有する2つのフレーム間における特徴情報の変化に基づき、運転者が不動状態にあるか否かの不動判定を行うステップと、運転者の不動状態の継続時間が第2閾値以上となる場合に、運転者を運転不能状態と判定するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。不動判定では、2つのフレーム間において運転者の顔領域の重畳面積比率が第1閾値以上となる場合に、運転者が不動状態にあると判定される。換言すれば、このプログラムは、画像解析部等の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)及びそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
When the
以上、画像解析部等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、画像解析部等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、運転不能判定装置101において、画像解析部10Aについては専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
Above, the configuration in which each function of the image analysis section and the like is realized by either hardware or software has been described. However, the present invention is not limited to this, and a configuration may be adopted in which a part of the image analysis section or the like is realized by dedicated hardware, and another part is realized by software or the like. For example, in the
以上のように、処理回路は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the processing circuit can realize each of the above functions using hardware, software, etc., or a combination thereof.
運転不能判定装置101,102,103,104,105,106は典型的には車載装置であるが、PND(Portable Navigation Device)、通信端末(例えば携帯電話、スマートフォン、およびタブレットなどの携帯端末)、およびこれらにインストールされるアプリケーションの機能、並びにサーバなどを適宜に組み合わせてシステムとして構築されるシステムにも適用することができる。この場合、以上で説明した運転不能判定装置101,102,103,104,105,106の各機能または各構成要素は、システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
The
その例として、図21は、車両とサーバによる運転不能判定装置106の構成例を示している。図21において、画像解析部10Dと不能判定部30Bは車両に配置され、不動判定部20Eはサーバに配置される。
As an example, FIG. 21 shows a configuration example of the
なお、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。上記の説明は、すべての態様において、例示である。例示されていない無数の変形例が想定され得るものと解される。 Note that it is possible to freely combine each embodiment, or to modify or omit each embodiment as appropriate. The above description is in all aspects exemplary. It is understood that countless variations not illustrated may be envisioned.
10A,10B,10C,10D 画像解析部、11 顔位置検出部、12 顔方向検出部、13 視線方向検出部、14 眼開閉度検出部、20A,20B,20C,20D,20E 不動判定部、21 重畳比率算出部、22 顔方向変化算出部、23 視線方向変化算出部、24 無意識判定部、30A,30B 不能判定部、31 閉眼回数カウント部、32 顔領域移動距離算出部、33 異常操作検出部、50 撮像装置、51 カメラ、52 LED、60 出力装置、61 表示装置、62 スピーカー、70 車両制御装置、80 車両情報通信装置、101,102,103,104,105,106 運転不能判定装置、204 車両。 10A, 10B, 10C, 10D Image analysis unit, 11 Face position detection unit, 12 Face direction detection unit, 13 Gaze direction detection unit, 14 Eye opening/closing degree detection unit, 20A, 20B, 20C, 20D, 20E Immobility determination unit, 21 Superimposition ratio calculation unit, 22 Face direction change calculation unit, 23 Gaze direction change calculation unit, 24 Unconsciousness determination unit, 30A, 30B Impossibility determination unit, 31 Eye closure count unit, 32 Face area movement distance calculation unit, 33 Abnormal operation detection unit , 50 imaging device, 51 camera, 52 LED, 60 output device, 61 display device, 62 speaker, 70 vehicle control device, 80 vehicle information communication device, 101, 102, 103, 104, 105, 106 driveability determination device, 204 vehicle.
Claims (11)
前記撮影映像の一定の時間的前後関係を有する2つのフレーム間における前記特徴情報の変化に基づき、前記運転者が不動状態にあるか否かを判定する不動判定部と、
前記運転者の前記不動状態の継続時間が第2閾値以上となる場合に、前記運転者を運転不能状態と判定する不能判定部と、を備え、
前記不動判定部は、前記2つのフレームの夫々における前記顔領域の位置情報に基づき、前記2つのフレーム間における前記顔領域の重畳面積比率を算出し、前記重畳面積比率が第1閾値以上となる場合に、前記運転者が不動状態にあると判定し、
前記特徴情報は、前記運転者の顔の方向の情報を含み、
前記不動判定部は、前記2つのフレーム間において、前記重畳面積比率が前記第1閾値以上、かつ前記運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、前記運転者が前記不動状態にあると判定する、
運転不能判定装置。 an image analysis unit that acquires characteristic information regarding the driver's head, including positional information of the driver's face area, by analyzing a captured image of a camera mounted on the vehicle and photographing the driver of the vehicle; ,
an immobility determining unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship of the photographed video;
an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold;
The immobility determination unit calculates an overlapping area ratio of the facial area between the two frames based on position information of the facial area in each of the two frames, and the overlapping area ratio is equal to or higher than a first threshold value. In this case, it is determined that the driver is in an immobile state,
The feature information includes information on the direction of the driver's face,
The immobility determination unit is configured to determine whether the overlapping area ratio is equal to or greater than the first threshold and the amount of change in face direction, which is the amount of change in the direction of the driver's face, is less than a third threshold between the two frames. , determining that the driver is in the immobile state;
Drivability determination device.
前記不動判定部は、前記2つのフレーム間において、前記重畳面積比率が前記第1閾値以上、前記顔方向変化量が前記第3閾値未満、かつ前記運転者の視線の方向の変化量である視線方向変化量が第4閾値未満となる場合に、前記運転者が前記不動状態にあると判定する、
請求項1に記載の運転不能判定装置。 The characteristic information includes information on the direction of the driver's line of sight,
The immobility determination unit is configured to determine, between the two frames, that the superimposed area ratio is greater than or equal to the first threshold, the amount of change in face direction is less than the third threshold, and the amount of change in the direction of the driver's line of sight is the amount of change in the direction of the driver's line of sight. determining that the driver is in the immobile state when the amount of direction change is less than a fourth threshold;
The inoperability determination device according to claim 1.
請求項1に記載の運転不能判定装置。 The immobility determination unit includes an unconsciousness determination unit that determines whether the driver is unconscious based on the direction of the driver's face, and when determining that the driver is unconscious, the two frames determining that the driver is in the immobile state even if the face direction change amount is equal to or greater than the third threshold value;
The inoperability determination device according to claim 1.
請求項3に記載の運転不能判定装置。 The unconsciousness determination unit determines whether or not the driver is unconscious based on a variance in the vertical position of the driver's face area and a variance in pitch angle in the direction of the driver's face. ,
The inoperability determination device according to claim 3.
請求項3に記載の運転不能判定装置。 The unconsciousness determining unit determines whether the driver is unconscious based on a direction of change in the steering angle of the vehicle and a direction of the driver's face.
The inoperability determination device according to claim 3.
前記不動判定部は、前記視線方向変化量を前記不動状態の判定条件から除外し、前記第1閾値および前記第2閾値の少なくとも一方を、前記画像解析部が前記撮影映像から前記運転者の視線の方向を取得できる場合に比べて大きくする、
請求項2に記載の運転不能判定装置。 If the image analysis unit cannot obtain the direction of the driver's line of sight from the captured video,
The immobility determination unit excludes the amount of change in the direction of the line of sight from the determination condition of the immobility state, and the image analysis unit determines at least one of the first threshold value and the second threshold value based on the driver's line of sight based on the photographed video. to be larger than when you can get the direction of ,
The inoperability determination device according to claim 2.
前記不能判定部は、前記画像解析部が取得した前記運転者の眼の開閉度に基づき、一定時間内の前記運転者の閉眼回数を算出し、前記閉眼回数にも基づき、前記運転者を前記運転不能状態と判定する、
請求項1に記載の運転不能判定装置。 The image analysis unit obtains the degree of eye opening/closing of the driver from the captured video,
The inability determining unit calculates the number of times the driver's eyes are closed within a certain period of time based on the degree of opening and closing of the driver's eyes acquired by the image analysis unit, and also based on the number of times the driver's eyes are closed. It is determined that the vehicle is unable to drive.
The inoperability determination device according to claim 1.
前記撮影映像の一定の時間的前後関係を有する2つのフレーム間における前記特徴情報の変化に基づき、前記運転者が不動状態にあるか否かを判定する不動判定部と、
前記運転者の前記不動状態の継続時間が第2閾値以上となる場合に、前記運転者を運転不能状態と判定する不能判定部と、を備え、
前記不動判定部は、前記2つのフレームの夫々における前記顔領域の位置情報に基づき、前記2つのフレーム間における前記顔領域の重畳面積比率を算出し、前記重畳面積比率が第1閾値以上となる場合に、前記運転者が不動状態にあると判定し、
前記不能判定部は、前記画像解析部が取得した前記運転者の顔領域の位置から、前記2つのフレーム間の時間よりも長い時間である一定時間内に前記運転者の顔領域が移動した延べの距離である移動距離を算出し、前記移動距離にも基づき、前記運転者を前記運転不能状態と判定する、
運転不能判定装置。 an image analysis unit that acquires characteristic information regarding the driver's head, including positional information of the driver's face area, by analyzing a captured image of a camera mounted on the vehicle and photographing the driver of the vehicle; ,
an immobility determining unit that determines whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship of the photographed video;
an inability determining unit that determines that the driver is in an inoperable state when the duration of the immobile state of the driver is equal to or greater than a second threshold;
The immobility determination unit calculates an overlapping area ratio of the facial area between the two frames based on position information of the facial area in each of the two frames, and the overlapping area ratio is equal to or higher than a first threshold value. In this case, it is determined that the driver is in an immobile state,
The impossibility determination unit determines the total amount of movement of the driver's face area within a certain period of time that is longer than the time between the two frames from the position of the driver's face area acquired by the image analysis unit. calculating a travel distance that is a distance of , and determining that the driver is in the driving incapacity state based on the travel distance;
Drivability determination device.
請求項1に記載の運転不能判定装置。 The incapacity determining unit performs an abnormality determination in which the operation of the vehicle is determined to be abnormal based on the operation information of the vehicle, and determines the state of the driver to be in an inoperable state based also on the result of the abnormality determination.
The inoperability determination device according to claim 1.
請求項1に記載の運転不能判定装置。 outputting the determination result of the impossibility determination unit to a vehicle control device that performs automatic driving control of the vehicle;
The inoperability determination device according to claim 1.
前記運転者の前記不動状態の継続時間が第2閾値以上となる場合に、前記運転者を運転不能状態と判定し、
前記2つのフレームの夫々における前記顔領域の位置情報に基づき、前記2つのフレーム間における前記顔領域の重畳面積比率を算出し、前記重畳面積比率が第1閾値以上となる場合に、前記運転者が不動状態にあると判定し、
前記特徴情報は、前記運転者の顔の方向の情報を含み、
前記2つのフレーム間において、前記重畳面積比率が前記第1閾値以上、かつ前記運転者の顔の方向の変化量である顔方向変化量が第3閾値未満となる場合に、前記運転者が前記不動状態にあると判定する、
運転不能判定方法。 By analyzing the video captured by a camera mounted on a vehicle that photographs the driver of the vehicle, characteristic information regarding the driver's head, including positional information of the driver's face area, is acquired, and information on the captured video is analyzed. determining whether or not the driver is in an immobile state based on a change in the characteristic information between two frames having a certain temporal relationship;
determining that the driver is unable to drive if the duration of the immobility state of the driver is equal to or greater than a second threshold;
The overlapping area ratio of the facial area between the two frames is calculated based on the positional information of the facial area in each of the two frames, and when the overlapping area ratio is equal to or higher than a first threshold, the driver is determined to be in an immobile state,
The feature information includes information on the direction of the driver's face,
Between the two frames, if the superimposed area ratio is greater than or equal to the first threshold and the amount of change in face direction, which is the amount of change in the direction of the driver's face, is less than the third threshold, the driver It is determined that it is in an immobile state,
How to determine if you are unable to drive.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/021300 WO2021240768A1 (en) | 2020-05-29 | 2020-05-29 | Driving inability determination device and driving inability determination method |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021240768A1 JPWO2021240768A1 (en) | 2021-12-02 |
JPWO2021240768A5 JPWO2021240768A5 (en) | 2022-07-29 |
JP7450715B2 true JP7450715B2 (en) | 2024-03-15 |
Family
ID=78723289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022527431A Active JP7450715B2 (en) | 2020-05-29 | 2020-05-29 | Inoperability determination device and inoperability determination method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7450715B2 (en) |
WO (1) | WO2021240768A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019033911A (en) | 2017-08-17 | 2019-03-07 | テイ・エス テック株式会社 | Abnormality detection device and seat |
WO2019198179A1 (en) | 2018-04-11 | 2019-10-17 | 三菱電機株式会社 | Passenger state determination device, alarm output control device, and passenger state determination method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11161798A (en) * | 1997-12-01 | 1999-06-18 | Toyota Motor Corp | Vehicle driver monitoring device |
-
2020
- 2020-05-29 WO PCT/JP2020/021300 patent/WO2021240768A1/en active Application Filing
- 2020-05-29 JP JP2022527431A patent/JP7450715B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019033911A (en) | 2017-08-17 | 2019-03-07 | テイ・エス テック株式会社 | Abnormality detection device and seat |
WO2019198179A1 (en) | 2018-04-11 | 2019-10-17 | 三菱電機株式会社 | Passenger state determination device, alarm output control device, and passenger state determination method |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021240768A1 (en) | 2021-12-02 |
WO2021240768A1 (en) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100921092B1 (en) | Driver state monitorring system using a camera on a steering wheel | |
US20230161342A1 (en) | Methods and systems to reduce false calls in self driving vehicles | |
JP6573193B2 (en) | Determination device, determination method, and determination program | |
KR20150043659A (en) | Method for alarming status of vehicle and Apparatus for the same | |
WO2020170916A1 (en) | State detection device and state detection method | |
JP2007207274A (en) | Start annunciation device | |
JP2018097515A (en) | Drive assisting device, drive assisting method, and program thereof | |
WO2019068699A1 (en) | Method for classifying an object point as static or dynamic, driver assistance system, and motor vehicle | |
Smirnov et al. | Smartphone-based identification of dangerous driving situations: Algorithms and implementation | |
JP5498183B2 (en) | Behavior detection device | |
US20180022357A1 (en) | Driving recorder system | |
JP7450715B2 (en) | Inoperability determination device and inoperability determination method | |
JP5935759B2 (en) | Driver status determination system | |
JP3984863B2 (en) | Start notification device | |
JP7109649B2 (en) | Arousal level estimation device, automatic driving support device, and arousal level estimation method | |
JP4840638B2 (en) | Vehicle occupant monitoring device | |
WO2023108364A1 (en) | Method and apparatus for detecting driver state, and storage medium | |
JP7175381B2 (en) | Arousal level estimation device, automatic driving support device, and arousal level estimation method | |
JP5587068B2 (en) | Driving support apparatus and method | |
JP7298351B2 (en) | State determination device, in-vehicle device, driving evaluation system, state determination method, and program | |
JP7019394B2 (en) | Visual target detection device, visual target detection method, and program | |
JP2021105958A (en) | Driver state estimation device and driver state estimation method | |
JP6992493B2 (en) | Operating condition determination device and operating condition determination method | |
WO2022234632A1 (en) | Reflective eye movement evaluation device, reflective eye movement evaluation system, and reflective eye movement evaluation method | |
WO2021140583A1 (en) | Drowsiness estimation device and drowsiness estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450715 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |