JPWO2019198179A1 - 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法 - Google Patents

搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法 Download PDF

Info

Publication number
JPWO2019198179A1
JPWO2019198179A1 JP2020512997A JP2020512997A JPWO2019198179A1 JP WO2019198179 A1 JPWO2019198179 A1 JP WO2019198179A1 JP 2020512997 A JP2020512997 A JP 2020512997A JP 2020512997 A JP2020512997 A JP 2020512997A JP WO2019198179 A1 JPWO2019198179 A1 JP WO2019198179A1
Authority
JP
Japan
Prior art keywords
passenger
determination unit
state determination
immobility
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020512997A
Other languages
English (en)
Other versions
JP7118136B2 (ja
Inventor
永 菅原
永 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019198179A1 publication Critical patent/JPWO2019198179A1/ja
Application granted granted Critical
Publication of JP7118136B2 publication Critical patent/JP7118136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change

Abstract

搭乗者状態判定装置(100)は、車室内撮像用のカメラ(2)による撮像画像(I)を示す画像データを取得する画像データ取得部(11)と、画像データを用いて、撮像画像(I)に対する画像認識処理を実行する画像認識処理部(12)と、画像認識処理の結果を用いて、搭乗者が不動状態であるか否かを判定する不動状態判定部(13)と、不動状態判定部(13)による判定結果を用いて、搭乗者が覚醒度の低下による異常状態であるか否かを判定する異常状態判定部(14)とを備え、異常状態判定部(14)は、不動状態の継続時間(T)が基準時間(Tth)を超えたとき、搭乗者が異常状態であると判定する。

Description

本発明は、搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法に関する。
従来、車室内撮像用のカメラによる撮像画像を用いて、運転者が覚醒度の低下による異常状態であるか否かを判定する技術が開発されている(例えば、特許文献1,2参照。)。以下、覚醒度の低下による異常状態を単に「異常状態」ということがある。
特許文献1記載の技術は、1個のカメラによる撮像画像に対する画像認識処理を実行することにより、運転者の開眼度を検出するものである。特許文献1記載の技術は、当該検出された開眼度に基づき運転者が異常状態であるか否かを判定するものである。
特許文献2記載の技術は、複数個のカメラの各々による撮像画像に運転者の頭部が含まれているか否かを判定することにより、前傾方向又は後傾方向に対する運転者の姿勢変化を検出するものである。特許文献2記載の技術は、当該検出された姿勢変化に基づき運転者が異常状態であるか否かを判定するものである。
特開2008−99884号公報 特開2017−49636号公報
覚醒度の低下による異常状態には、意識の消失により前傾姿勢が発生している状態(以下「前傾状態」という。)、眼を開けた状態にて瞬眠が発生している状態(以下「開眼瞬眠状態」という。)、眼を閉じた状態にて瞬眠が発生している状態(以下「閉眼瞬眠状態」という。)及び意識の消失により後傾姿勢が発生している状態(以下「後傾状態」という。)などがある。
これらの異常状態のうち、閉眼瞬眠状態は開眼度の変化を伴うものであり、前傾状態及び後傾状態は姿勢の変化を伴うものである。このため、閉眼瞬眠状態は特許文献1記載の技術により判定可能であり、前傾状態及び後傾状態は特許文献2記載の技術により判定可能である。これに対して、開眼瞬眠状態による開眼度の変化は小さく、姿勢の変化も小さい。このため、開眼瞬眠状態は特許文献1,2記載の技術により判定することができないという問題があった。
また、特許文献1記載の技術は、開眼度が正常に検出されない状態(例えば運転者がサングラスを着用している状態又は運転者の眼が運転者の前髪により隠されている状態など)である場合、異常状態の判定をすることができないという問題があった。
本発明は、上記のような課題を解決するためになされたものであり、開眼瞬眠状態を含む異常状態を判定することができ、かつ、開眼度が正常に検出されない状態であるか否かにかかわらず異常状態を判定することができる搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法を提供することを目的とする。
本発明の搭乗者状態判定装置は、車室内撮像用のカメラによる撮像画像を示す画像データを取得する画像データ取得部と、画像データを用いて、撮像画像に対する画像認識処理を実行する画像認識処理部と、画像認識処理の結果を用いて、搭乗者が不動状態であるか否かを判定する不動状態判定部と、不動状態判定部による判定結果を用いて、搭乗者が覚醒度の低下による異常状態であるか否かを判定する異常状態判定部とを備え、異常状態判定部は、不動状態の継続時間が基準時間を超えたとき、搭乗者が異常状態であると判定するものである。
本発明によれば、上記のように構成したので、開眼瞬眠状態を含む異常状態を判定することができ、かつ、開眼度が正常に検出されない状態であるか否かにかかわらず異常状態を判定することができる。
実施の形態1に係る警告出力制御装置の要部を示すブロック図である。 実施の形態1に係る警告出力制御装置のうちの画像認識処理部の要部を示すブロック図である。 図3Aは、撮像画像の一例を示す説明図である。図3Bは、顔領域の一例を示す説明図である。図3Cは、複数個の特徴点の一例を示す説明図である。 図4Aは、喜びの表情に対応する複数個の特徴点の位置関係を示す説明図である。図4Bは、驚きの表情に対応する複数個の特徴点の位置関係を示す説明図である。図4Cは、恐れの表情に対応する複数個の特徴点の位置関係を示す説明図である。図4Dは、悲しみの表情に対応する複数個の特徴点の位置関係を示す説明図である。図4Eは、怒りの表情に対応する複数個の特徴点の位置関係を示す説明図である。図4Fは、嫌悪の表情に対応する複数個の特徴点の位置関係を示す説明図である。 複数個の特徴点及び運転者の骨格モデルの一例を示す説明図である。 図6Aは、実施の形態1に係る警告出力制御装置のハードウェア構成を示すブロック図である。図6Bは、実施の形態1に係る警告出力制御装置の他のハードウェア構成を示すブロック図である。 実施の形態1に係る警告出力制御装置の動作を示すフローチャートである。 第nの撮像画像における顔領域と第n+1の撮像画像における顔領域とが互いに重畳している状態の一例を示す説明図である。 PERCLOSの一例を示す説明図である。 図10Aは、基準ヒストグラムに係る所定時間の一例を示す説明図である。図10Bは、基準ヒストグラムに係る顔領域の中心部のx座標値及びy座標値の一例を示す説明図である。図10Cは、基準ヒストグラムの一例を示す説明図である。 図11Aは、比較用ヒストグラムに係る所定時間の一例を示す説明図である。図11Bは、比較用ヒストグラムに係る顔領域の中心部のx座標値及びy座標値の一例を示す説明図である。図11Cは、比較用ヒストグラムの一例を示す説明図である。 実施の形態2に係る警告出力制御装置の要部を示すブロック図である。 実施の形態2に係る警告出力制御装置の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る警告出力制御装置の要部を示すブロック図である。図2は、実施の形態1に係る警告出力制御装置のうちの画像認識処理部の要部を示すブロック図である。図1及び図2を参照して、実施の形態1の搭乗者状態判定装置100及び警告出力制御装置200について説明する。
車両1は、車室内撮像用のカメラ2を有している。カメラ2は、例えば、車両1のセンタークラスターに設けられている。カメラ2は、例えば、赤外線カメラ又は可視光カメラにより構成されている。
画像データ取得部11は、カメラ2による撮像画像Iを示す画像データを所定の時間間隔にてカメラ2から取得するものである。画像データ取得部11は、当該取得された画像データを画像認識処理部12に出力するものである。
画像認識処理部12は、画像データ取得部11により出力された画像データを用いて、撮像画像Iに対する画像認識処理を実行するものである。画像認識処理部12による画像認識処理は、例えば、顔領域検出部21、顔特徴点検出部22、開眼度検出部23、傾き角度検出部24、表情検出部25、人体領域検出部31、骨格特徴点検出部32及び傾き角度検出部33による以下の処理を含むものである。
顔領域検出部21は、撮像画像Iにおける車両1の運転者の顔に対応する領域(以下「顔領域」という。)A1を検出するものである。顔領域A1の検出方法は公知の種々の方法を用いることができるものであり、詳細な説明は省略する。以下、車両1の運転者を単に「運転者」という。
顔特徴点検出部22は、顔領域A1における複数個の特徴点P1であって、運転者の個々の顔パーツに対応する複数個の特徴点P1を検出するものである。特徴点P1の検出方法は公知の種々の方法を用いることができるものであり、詳細な説明は省略する。
具体的には、例えば、顔特徴点検出部22は、運転者の右眼に対応する複数個の特徴点P1、運転者の左眼に対応する複数個の特徴点P1、運転車の鼻に対応する複数個の特徴点P1及び運転者の口に対応する複数個の特徴点P1を検出する。運転者の右眼に対応する複数個の特徴点P1は、例えば、目尻に対応する特徴点P1、目頭に対応する特徴点P1、上瞼に対応する特徴点P1及び下瞼に対応する特徴点P1などを含むものである。運転者の左眼に対応する複数個の特徴点P1は、例えば、目尻に対応する特徴点P1、目頭に対応する特徴点P1、上瞼に対応する特徴点P1及び下瞼に対応する特徴点P1などを含むものである。運転者の鼻に対応する複数個の特徴点P1は、例えば、鼻根に対応する特徴点P1、鼻背に対応する特徴点P1、鼻翼に対応する特徴点P1及び鼻尖に対応する特徴点P1などを含むものである。運転者の口に対応する複数個の特徴点P1は、例えば、上唇に対応する特徴点P1及び下唇に対応する特徴点P1などを含むものである。
図3Aは撮像画像Iの一例を示しており、図3Bは顔領域A1の一例を示しており、図3Cは複数個の特徴点P1の一例を示している。図3Cに示す例においては、運転者の右眼に対応する4個の特徴点P1、運転者の左眼に対応する4個の特徴点P1、運転者の鼻に対応する2個の特徴点P1及び運転者の口に対応する3個の特徴点P1が検出されている。
開眼度検出部23は、顔特徴点検出部22により検出された複数個の特徴点P1(より具体的には運転者の右眼に対応する複数個の特徴点P1及び運転者の左眼に対応する複数個の特徴点P1)を用いて、運転者の開眼度Dを検出するものである。開眼度Dの検出方法は公知の種々の方法を用いることができるものであり、以下の具体例に限定されるものではない。
具体的には、例えば、開眼度検出部23は、上瞼に対応する特徴点P1と下瞼に対応する特徴点P1間の距離(以下「瞼間距離」という。)の現在値を算出する。開眼度検出部23は、所定時間内の瞼間距離の最頻値に基づき、瞼間距離の基準値を算出する。開眼度検出部23は、基準値に対する現在値の比率に基づき開眼度Dを算出する。すなわち、開眼度Dの単位はパーセントである。
傾き角度検出部24は、顔特徴点検出部22により検出された複数個の特徴点P1を用いて、運転者の頭部の傾き角度θ1を検出するものである。傾き角度θ1の検出方法は公知の種々の方法を用いることができるものであり、詳細な説明は省略する。
傾き角度θ1は、例えば、運転者の顔が車両1の前方に向けられており、かつ、運転者の後頭部が運転席のヘッドレストに当接している状態を基準(すなわち0°)とするものである。傾き角度検出部24は、例えば、運転者の首を軸とする回転方向の傾き角度θ1、前傾方向又は後傾方向に対する傾き角度θ1及び左右方向に対する傾き角度θ1を検出する。
表情検出部25は、顔特徴点検出部22により検出された複数個の特徴点P1を用いて、運転者の表情を検出するものである。表情の検出方法は公知の種々の方法を用いることができるものであり、以下の具体例に限定されるものではない。
具体的には、例えば、表情検出部25は、運転者の右眉に対応する3個の特徴点P1、運転者の左眉に対応する3個の特徴点P1、運転者の右眼に対応する2個の特徴点P1、運転者の左眼に対応する2個の特徴点P1及び運転者の口に対応する4個の特徴点P1の位置関係、すなわち合計14個の特徴点P1の位置関係に基づき運転者の表情を検出する。図4Aは、喜びの表情に対応する当該14個の特徴点P1の位置関係の一例を示している。図4Bは、驚きの表情に対応する当該14個の特徴点P1の位置関係の一例を示している。図4Cは、恐れの表情に対応する当該14個の特徴点P1の位置関係の一例を示している。図4Dは、悲しみの表情に対応する当該14個の特徴点P1の位置関係の一例を示している。図4Eは、怒りの表情に対応する当該14個の特徴点P1の位置関係の一例を示している。図4Fは、嫌悪の表情に対応する当該14個の特徴点P1の位置関係の一例を示している。
人体領域検出部31は、撮像画像Iにおける運転者の顔及び体に対応する領域(以下「人体領域」という。)A2を検出するものである。人体領域A2の検出方法は公知の種々の方法を用いることができるものであり、詳細な説明は省略する。
骨格特徴点検出部32は、人体領域A2における複数個の特徴点P2であって、いわゆる「骨格モデル」の生成に用いられる複数個の特徴点P2を検出するものである。特徴点P2の検出方法は公知の種々の方法を用いることができるものであり、詳細な説明は省略する。
傾き角度検出部33は、骨格特徴点検出部32により検出された複数個の特徴点P2を用いて、運転者の骨格モデルを生成するものである。傾き角度検出部33は、当該生成された骨格モデルを用いて、運転者の肩の傾き角度θ2、運転者の腕の傾き角度θ3及び運転者の頭部の傾き角度θ4を検出するものである。傾き角度θ2,θ3,θ4の検出方法は公知の種々の方法を用いることができるものであり、詳細な説明は省略する。
傾き角度θ2,θ3,θ4は、例えば、運転者の顔が車両1の前方に向けられており、かつ、運転者の後頭部が運転席のヘッドレストに当接しており、かつ、運転者の背中が運転席の背もたれに当接しており、かつ、運転者が両手で車両1のハンドルを掴んでおり、かつ、車両1の操舵角が略0°である(すなわち車両1が略直進中である)状態を基準とするものである。傾き角度θ4の具体例は傾き角度θ1の具体例と同様であるため、詳細な説明は省略する。
図5は、複数個の特徴点P2及び運転者の骨格モデルの一例を示している。図5に示す例においては、12個の特徴点P2が検出されており、いわゆる「棒モデル」による骨格モデルが生成されている。
不動状態判定部13は、画像認識処理部12による画像認識処理の結果を用いて、運転者の動きがない状態(以下「不動状態」という。)であるか否かを判定するものである。不動状態判定部13による判定方法の具体例については後述する。
異常状態判定部14は、不動状態判定部13による判定結果を用いて、運転者が覚醒度の低下による異常状態であるか否かを判定するものである。以下、覚醒度の低下による異常状態を単に「異常状態」という。
すなわち、異常状態判定部14は、不動状態判定部13による判定結果を用いて不動状態の継続時間Tを算出する。異常状態判定部14は、当該算出された継続時間Tを所定の基準時間Tthと比較する。異常状態判定部14は、継続時間Tが基準時間Tthを超えたとき、運転者が異常状態であると判定する。
警告出力制御部15は、異常状態判定部14により運転者が異常状態であると判定されたとき、警告を出力する制御を実行するものである。
具体的には、例えば、警告出力制御部15は、警告用の画像を表示装置3に表示させる制御を実行する。または、例えば、警告出力制御部15は、警告用の音声を音声出力装置4に出力させる制御を実行する。すなわち、当該画像又は当該音声による警告は、主として車内に対する警告である。
または、例えば、警告出力制御部15は、警告用の信号を無線通信装置5に送信させる制御を実行する。当該信号は、インターネットなどの広域通信網を介して、いわゆる「センター」に送信される。または、当該信号は、いわゆる「車車間通信」により、車両1の周囲を走行中の他車両に送信される。すなわち、当該信号による警告は、主として車外に対する警告である。
表示装置3は、例えば、LCD(Liquid Crystal Display)、OLED(Organic Electro−Luminescence Display)又はHUD(Head−Up Display)により構成されている。音声出力装置4は、例えば、スピーカーにより構成されている。無線通信装置5は、例えば、インターネット接続用の送信機及び受信機又は車車間通信用の送信機及び受信機により構成されている。
なお、警告出力制御部15は、警告用の画像を表示装置3に表示させる制御、警告用の音声を音声出力装置4に出力させる制御又は警告用の信号を無線通信装置5に送信させる制御のうちのいずれか二以上を実行するものであっても良い。
顔領域検出部21、顔特徴点検出部22、開眼度検出部23、傾き角度検出部24、表情検出部25、人体領域検出部31、骨格特徴点検出部32及び傾き角度検出部33により、画像認識処理部12の要部が構成されている。画像データ取得部11、画像認識処理部12、不動状態判定部13及び異常状態判定部14により、搭乗者状態判定装置100の要部が構成されている。搭乗者状態判定装置100及び警告出力制御部15により、警告出力制御装置200の要部が構成されている。
次に、図6を参照して、警告出力制御装置200の要部のハードウェア構成について説明する。
図6Aに示す如く、警告出力制御装置200はコンピュータにより構成されており、当該コンピュータはプロセッサ41及びメモリ42を有している。メモリ42には、当該コンピュータを画像データ取得部11、画像認識処理部12、不動状態判定部13、異常状態判定部14及び警告出力制御部15として機能させるためのプログラムが記憶されている。メモリ42に記憶されているプログラムをプロセッサ41が読み出して実行することにより、画像データ取得部11、画像認識処理部12、不動状態判定部13、異常状態判定部14及び警告出力制御部15の機能が実現される。
または、図6Bに示す如く、警告出力制御装置200は処理回路43を有するものであっても良い。この場合、画像データ取得部11、画像認識処理部12、不動状態判定部13、異常状態判定部14及び警告出力制御部15の機能が処理回路43により実現されるものであっても良い。
または、警告出力制御装置200はプロセッサ41、メモリ42及び処理回路43を有するものであっても良い。この場合、画像データ取得部11、画像認識処理部12、不動状態判定部13、異常状態判定部14及び警告出力制御部15の機能のうちの一部の機能がプロセッサ41及びメモリ42により実現されて、残余の機能が処理回路43により実現されるものであっても良い。
プロセッサ41は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)などを用いたものである。
メモリ42は、例えば、半導体メモリ、磁気ディスク、光ディスク又は光磁気ディスクを用いたものである。より具体的には、メモリ42は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、SSD(Solid State Drive)、HDD(Hard Disk Drive)、FD(Floppy Disk)、CD(Compact Disc)、DVD(Digital Versatile Disc)、MO(Magneto−Optical)又はMD(Mini Disc)などを用いたものである。
処理回路43は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、SoC(System−on−a−Chip)又はシステムLSI(Large−Scale Integration)などを用いたものである。
次に、図7のフローチャートを参照して、警告出力制御装置200の動作について説明する。警告出力制御装置200は、例えば、電源がオンされている状態(より具体的には車両1のイグニッション電源がオンされている状態)にて、図7に示す処理を繰り返し実行するようになっている。
まず、ステップST1にて、画像データ取得部11は、撮像画像Iを示す画像データをカメラ2から取得する。画像データ取得部11は、当該取得された画像データを画像認識処理部12に出力する。
次いで、ステップST2にて、画像認識処理部12は、画像データ取得部11により出力された画像データを用いて、撮像画像Iに対する画像認識処理を実行する。画像認識処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
次いで、ステップST3にて、不動状態判定部13は、画像認識処理部12による画像認識処理の結果を用いて、運転者が不動状態であるか否かを判定する。不動状態判定部13による判定方法の具体例については後述する。
運転者が不動状態であると判定された場合(ステップST3“YES”)、ステップST4にて、異常状態判定部14は、不動状態の継続時間Tが基準時間Tthを超えたか否かを判定する。この継続時間Tは、異常状態判定部14により算出されたものである。
不動状態の継続時間Tが基準時間Tthを超えたと判定された場合(ステップST4“YES”)、ステップST5にて、警告出力制御部15は警告を出力する制御を実行する。警告出力制御部15による警告の出力方法の具体例は既に説明したとおりであるため、再度の説明は省略する。
次に、図8〜図11を参照して、不動状態判定部13による判定方法の具体例について説明する。
〈不動状態判定部13による判定方法の第1具体例〉
不動状態判定部13は、顔領域検出部21による検出結果を用いて、時間的に連続する2フレーム分の撮像画像I,In+1における顔領域A1,A1n+1について(nは任意の整数)、顔領域A1,A1n+1が互いに重畳している部位の面積(以下「重畳面積」という。)を算出する。不動状態判定部13は、顔領域A1の面積又は顔領域A1n+1の面積に対する重畳面積の比率(以下「重畳面積比率」という。)を算出する。不動状態判定部13は、重畳面積比率に基づき顔領域A1の移動量を算出する。例えば、不動状態判定部13は、重畳面積比率が小さいほど顔領域A1の移動量を大きい値に算出する。不動状態判定部13は、顔領域A1の移動量が所定の基準量未満である場合、運転者が不動状態であると判定する。なお、重畳面積比率の分母は、顔領域A1と顔領域A1n+1の和(より具体的には論理和)に対応する部位の面積であっても良い。
図8は、第nの撮像画像Iにおける顔領域A1と第n+1の撮像画像In+1における顔領域A1n+1とが互いに重畳している状態の一例を示している。図中、網掛け部は顔領域A1,A1n+1が互いに重畳している部位を示している。上記のとおり、撮像画像I,In+1は時間的に連続する2フレームに対応するものである。すなわち、撮像画像I,In+1は互いに異なるタイミングにて撮像されたものである。
〈不動状態判定部13による判定方法の第2具体例〉
不動状態判定部13は、顔領域検出部21による検出結果を用いて、時間的に連続する2フレーム分の撮像画像I,In+1における顔領域A1,A1n+1について(nは任意の整数)、顔領域A1のサイズに対する顔領域A1n+1のサイズの変化量を算出する。当該算出された変化量は、前後方向に対する運転者の頭部の移動量を示すものである。不動状態判定部13は、顔領域A1のサイズの変化量が所定の基準量未満である場合、運転者が不動状態であると判定する。
〈不動状態判定部13による判定方法の第3具体例〉
不動状態判定部13は、顔領域検出部21による検出結果を用いて、所定時間内の第1番目に撮像された撮像画像Iにおける顔領域A1の中心部に対する、所定時間内の第2番目以降に撮像された撮像画像Iの各々における顔領域A1の中心部の移動量を算出する。不動状態判定部13は、当該算出された移動量を積算することにより、所定時間内の顔領域A1の移動量を算出する。不動状態判定部13は、顔領域A1の移動量が所定の基準量未満である場合、運転者が不動状態であると判定する。
〈不動状態判定部13による判定方法の第4具体例〉
不動状態判定部13は、傾き角度検出部24による検出結果を用いて、運転者の頭部の傾き角度θ1が所定の基準角度以上であるか否かを判定する。不動状態判定部13は、第1具体例又は第3具体例と同様の方法により、顔領域A1の移動量が基準量未満であるか否かを判定する。不動状態判定部13は、傾き角度θ1が基準角度以上であり、かつ、顔領域A1の移動量が基準量未満である場合、運転者が不動状態であると判定する。
〈不動状態判定部13による判定方法の第5具体例〉
不動状態判定部13は、傾き角度検出部24による検出結果を用いて、運転者の頭部の傾き角度θ1が所定の基準角度以上であるか否かを判定する。不動状態判定部13は、第2具体例と同様の方法により、顔領域A1のサイズの変化量が基準量未満であるか否かを判定する。不動状態判定部13は、傾き角度θ1が基準角度以上であり、かつ、顔領域A1のサイズの変化量が基準量未満である場合、運転者が不動状態であると判定する。
〈不動状態判定部13による判定方法の第6具体例〉
通常、人間のまばたきは3種類に分類される。すなわち、無意識に行われる「周期性まばたき」、眼に光が差し込んだときに行われる「反射性まばたき」及び意識的に行われる「随意性まばたき」である。周期性まばたきは、人間が覚醒している状態にて略一定の周期にて(すなわち略一定の頻度にて)行われる。
そこで、不動状態判定部13は、開眼度検出部23による検出結果を用いて、運転者の瞬きの頻度を算出する。不動状態判定部13は、当該算出された頻度が所定の閾値未満である場合、運転者が不動状態であると判定する。
〈不動状態判定部13による判定方法の第7具体例〉
不動状態判定部13は、開眼度検出部23による検出結果を用いて、いわゆる「PERCLOS」を算出する。PERCLOSは、所定時間(いわゆる「ウインドウサイズ」)TWINDOWにおける、運転者の眼が閉じている時間TCLOSEの割合を示すものである。したがって、PERCLOSの算出には以下の式(1)が用いられる。
PERCLOS=Σ(TCLOSE)/TWINDOW (1)
図9は、PERCLOSの一例を示している。図中、Dthは、開眼度Dに対する比較対象となる閾値であって、運転者が眼を開けている状態であるか運転者が眼を閉じている状態であるかの判定に用いられるものである。不動状態判定部13は、例えば、所定の閾値Dthを用いて個々のTCLOSEを算出して、これらのTCLOSEの総和であるΣ(TCLOSE)を算出することにより、PERCLOSを算出する。
不動状態判定部13は、所定時間毎に(すなわちTWINDOW毎に)PERCLOSを算出して、これらのPERCLOSの変化量を算出する。不動状態判定部13は、PERCLOSの変化量が所定の基準量未満である場合、運転者が不動状態であると判定する。
〈不動状態判定部13による判定方法の第8具体例〉
不動状態判定部13は、nフレーム分の撮像画像I〜In−1における顔領域A1〜A1n−1の中心部の位置座標(より具体的にはx座標値x〜xn−1及びy座標値y〜yn−1)を示す情報を顔領域検出部21から取得する(nは2以上の整数)。撮像画像I〜In−1は、所定条件(以下「キャリブレーション条件」という。)の成立タイミングt1を始点とする所定時間(例えばA+α秒)内に撮像されたものである。カメラ2による撮像フレームレートをframe_rateとすると、nとAの関係は以下の式(2)により表される。
n=A*frame_rate (2)
図10Aは、所定時間(すなわちA+α秒)の一例を示している。図10Bは、顔領域A1〜A1n−1の中心部のx座標値x〜xn−1及びy座標値y〜yn−1の一例を示している。
不動状態判定部13は、撮像画像Iの全体又は撮像画像Iの一部(例えば撮像画像Iのうちの顔領域A1を含む蓋然性が他の部位よりも高い部位)を所定間隔(例えばBピクセル間隔)に分割してなる複数個の領域と一対一に対応する複数個のビンを設定する。不動状態判定部13は、n個の顔領域A1〜A1n−1について、各ビンに含まれる顔領域A1の中心部の個数をカウントしてなるヒストグラムを生成する。以下、このヒストグラムを「基準ヒストグラム」という。図10Cは、基準ヒストグラムの一例を示している。
その後、不動状態判定部13は、mフレーム分の撮像画像I〜Im−1における顔領域A1〜A1m−1の中心部の位置座標(より具体的にはx座標値x〜xm−1及びy座標値y〜ym−1)を示す情報を顔領域検出部21から取得する(mは2以上の整数)。撮像画像I〜Im−1は、撮像画像Im−1の撮像タイミングt2を終点とする所定時間(例えばC秒)内に撮像されたものである。カメラ2による撮像フレームレートをframe_rateとすると、mとCの関係は以下の式(3)により表される。
m=C*frame_rate (3)
図11Aは、所定時間(すなわちC秒)の一例を示している。図11Bは、顔領域A1〜A1m−1の中心部のx座標値x〜xm−1及びy座標値y〜ym−1の一例を示している。
不動状態判定部13は、基準ヒストグラムにおける複数個のビンと同様の複数個のビンを設定する。不動状態判定部13は、m個の顔領域A1〜A1m−1について、各ビンに含まれる顔領域A1の中心部の個数をカウントしてなるヒストグラムを生成する。以下、このヒストグラムを「比較用ヒストグラム」という。図11Cは、比較用ヒストグラムの一例を示している。
不動状態判定部13は、比較用ヒストグラムにおける各ビンの値を、基準ヒストグラムにおける対応するビンの値と比較する。これにより、不動状態判定部13は、基準ヒストグラムに対する比較用ヒストグラムの変化の度合を求める。具体的には、例えば、不動状態判定部13は、ヒストグラムにおける値の分布の変化の度合を求めたり、又は最大値に対応するビンの位置の変化の有無を求めたりする。これにより、不動状態判定部13は、運転者の顔の変化の有無を判定する。不動状態判定部13は、運転者の顔の変化がないと判定された場合、運転者が不動状態であると判定する。
なお、比較用ヒストグラムは、基準ヒストグラムが生成された後、所定の時間間隔にて繰り返し生成されるもの(すなわち所定の時間間隔にて更新されるもの)であっても良い。不動状態判定部13は、比較用ヒストグラムが生成される度毎に(すなわち比較用ヒストグラムが更新される度毎に)、最新の比較用ヒストグラムにおける各ビンの値を基準ヒストグラムにおける対応するビンの値と比較するものであっても良い。
〈不動状態判定部13による判定方法の第9具体例〉
通常、人間が覚醒している状態においては、周囲の環境又は会話の内容などに応じて、略一定の周期にて(すなわち略一定の頻度にて)表情が変化する。これに対して、覚醒度が低下している状態においては表情の変化がなくなる。より具体的には、表情筋が弛緩することにより口角が下がった表情が維持される。
そこで、不動状態判定部13は、表情検出部25による検出結果を用いて、運転者の表情の変化の有無を判定する。不動状態判定部13は、表情の変化がないと判定された場合、運転者が不動状態であると判定する。
〈不動状態判定部13による判定方法の第10具体例〉
不動状態判定部13は、傾き角度検出部33による検出結果を用いて、傾き角度θ2の変化の有無(すなわち運転者の肩の動きの有無)を判定する。また、不動状態判定部13は、傾き角度θ3の変化の有無(すなわち運転者の腕の動きの有無)を判定する。また、不動状態判定部13は、傾き角度θ4の変化の有無(すなわち運転者の頭部の動きの有無)を判定する。
不動状態判定部13は、これら動きの有無の判定結果に基づき、運転者が不動状態であるか否かを判定する。例えば、不動状態判定部13は、運転者の肩の動きがなく、かつ、運転者の腕の動きがなく、かつ、運転者の頭部の動きがない場合、運転者が不動状態であると判定する。
なお、不動状態判定部13は、第1具体例〜第10具体例のうちのいずれか1個の方法を実行するものであっても良く、又は第1具体例〜第10具体例のうちのいずれか2個以上の方法を実行するものであっても良い。第1具体例〜第10具体例のうちのいずれか2個以上の方法が実行されるものである場合、不動状態判定部13は、当該2個以上の方法のうちの所定個数以上の方法により運転者が不動状態であると判定されたとき、運転者が不動状態であることを示す判定結果を異常状態判定部14に出力するものであっても良い。または、この場合、不動状態判定部13は、個々の方法による判定結果を重み付けすることにより、最終的な判定結果を異常状態判定部14に出力するものであっても良い。
このように、実施の形態1の搭乗者状態判定装置100は、運転者が不動状態であるか否かを判定して、不動状態の継続時間Tに基づき運転者が異常状態であるか否かを判定する。また、運転者が不動状態であるか否かの判定方法は、開眼度Dの検出結果を用いない方法(第1具体例、第2具体例、第3具体例、第4具体例、第5具体例、第8具体例、第9具体例及び第10具体例)を含むものである。このため、開眼瞬眠状態を含む異常状態を判定することができ、かつ、開眼度Dが正常に検出されない状態であるか否かにかかわらず異常状態を判定することができる。
また、運転者が不動状態であるか否かの判定方法(第1具体例〜第10具体例)は、いずれも、カメラ2による撮像画像Iを用いるものである。すなわち、生体センサ等の高価なデバイスは不要である。このため、警告出力制御装置200を含むシステム全体を安価に実現することができる。
なお、異常状態判定部14は、車両1に設けられている自動運転制御用のECU(Electronic Control Unit)から、いわゆる「自動運転レベル」を示す情報を取得するものであっても良い。自動運転レベルは0〜5の値により表されるものであり、レベル0は車両1が手動運転により走行中であることを示している。異常状態判定部14は、当該取得された情報を用いて、基準時間Tthを車両1の自動運転レベルに応じて異なる値に設定するものであっても良い。例えば、異常状態判定部14は、自動運転レベルが2以下である場合、自動運転レベルが3以上である場合に比して基準時間Tthを小さい値に設定するものであっても良い。これにより、車両1の自動運転レベルに応じて、適切な基準時間Tthに基づく異常状態の判定を実現することができる。
また、開眼度検出部23は、開眼度Dを検出する処理を実行したとき、当該検出の成否を示す情報を不動状態判定部13に出力するものであっても良い。不動状態判定部13は、開眼度検出部23により出力された情報を用いて、開眼度検出部23が開眼度Dの検出に成功した場合は開眼度Dの検出結果を用いる方法(第6具体例又は第7具体例のうちの少なくとも1個の方法)により運転者が不動状態であるか否かを判定して、開眼度検出部23が開眼度Dの検出に失敗した場合は開眼度Dの検出結果を用いない方法(第1具体例、第2具体例、第3具体例、第4具体例、第5具体例、第8具体例、第9具体例又は第10具体例のうちの少なくとも1個の方法)により運転者が不動状態であるか否かを判定するものであっても良い。これにより、開眼度Dの検出の成否に応じて、適切な方法による不動状態の判定を実現することができる。
また、開眼度検出部23は、開眼度Dの検出に成功したとき、当該検出結果の信頼度を示す情報を異常状態判定部14に出力するものであっても良い。異常状態判定部14は、開眼度検出部23により出力された情報を用いて、基準時間Tthを開眼度Dの検出結果の信頼度に応じて異なる値に設定するものであっても良い。例えば、異常状態判定部14は、信頼度が所定の閾値未満である場合、信頼度が閾値以上である場合に比して基準時間Tthを小さい値に設定するものであっても良い。これにより、開眼度Dの検出結果の信頼度に応じて、適切な基準時間Tthに基づく異常状態の判定を実現することができる。
また、不動状態判定部13による判定方法が第4具体例及び第5具体例を含まないものである場合、画像認識処理部12は、図2に示す傾き角度検出部24を除去してなるものであっても良い。
また、不動状態判定部13による判定方法が第6具体例及び第7具体例を含まないものである場合、画像認識処理部12は、図2に示す開眼度検出部23を除去してなるものであっても良い。
また、不動状態判定部13による判定方法が第9具体例を含まないものである場合、画像認識処理部12は、図2に示す表情検出部25を除去してなるものであっても良い。
また、不動状態判定部13による判定方法が第10具体例を含まないものである場合、画像認識処理部12は、図2に示す人体領域検出部31、骨格特徴点検出部32及び傾き角度検出部33を除去してなるものであっても良い。
また、警告出力制御部15による警告の出力方法は、上記の具体例に限定されるものではない。警告出力制御部15は、例えば、異常状態判定部14により運転者が異常状態であると判定されたとき、車両1のハザードランプを点灯させる制御を実行するものであっても良い。
また、搭乗者状態判定装置100は、運転者が異常状態であるか否かの判定に用いることができるのはもちろんのこと、車両1の搭乗者のうちの運転者と異なる搭乗者が異常状態であるか否かの判定にも用いることができる。例えば、搭乗者状態判定装置100は、車両1がレベル3以上の自動運転により走行しているとき、運転席に着座しているものの車両1を運転していない搭乗者が異常状態であるか否かの判定にも用いることができる。
以上のように、実施の形態1の搭乗者状態判定装置100は、車室内撮像用のカメラ2による撮像画像Iを示す画像データを取得する画像データ取得部11と、画像データを用いて、撮像画像Iに対する画像認識処理を実行する画像認識処理部12と、画像認識処理の結果を用いて、搭乗者が不動状態であるか否かを判定する不動状態判定部13と、不動状態判定部13による判定結果を用いて、搭乗者が覚醒度の低下による異常状態であるか否かを判定する異常状態判定部14とを備え、異常状態判定部14は、不動状態の継続時間Tが基準時間Tthを超えたとき、搭乗者が異常状態であると判定する。これにより、開眼瞬眠状態を含む異常状態を判定することができ、かつ、開眼度Dが正常に検出されない状態であるか否かにかかわらず異常状態を判定することができる。
また、異常状態判定部14は、基準時間Tthを自動運転レベルに応じて異なる値に設定する。これにより、車両1の自動運転レベルに応じて、適切な基準時間Tthに基づく異常状態の判定を実現することができる。
また、画像認識処理は、搭乗者の開眼度Dを検出する処理を含むものであり、異常状態判定部14は、基準時間Tthを開眼度Dの検出結果の信頼度に応じて異なる値に設定する。これにより、開眼度Dの検出結果の信頼度に応じて、適切な基準時間Tthに基づく異常状態の判定を実現することができる。
また、画像認識処理は、搭乗者の開眼度Dを検出する処理を含むものであり、不動状態判定部13による判定方法は、開眼度Dの検出結果を用いる方法と開眼度Dの検出結果を用いない方法とを含むものであり、不動状態判定部13は、画像認識処理部12が開眼度Dの検出に失敗した場合、開眼度Dの検出結果を用いない方法により搭乗者が不動状態であるか否かを判定する。これにより、開眼度Dの検出の成否に応じて、適切な方法による不動状態の判定を実現することができる。
また、画像認識処理は、撮像画像Iにおける顔領域A1を検出する処理を含むものであり、不動状態判定部13は、顔領域A1の移動量又は顔領域A1のサイズの変化量が基準量未満である場合、搭乗者が不動状態であると判定する。これにより、例えば、第1具体例、第2具体例及び第3具体例を実現することができる。
また、撮像画像Iは、カメラ2により互いに異なるタイミングにて撮像された第1撮像画像(I)及び第2撮像画像(In+1)を含むものであり、顔領域A1は、第1撮像画像(I)における第1顔領域(A1)及び第2撮像画像(In+1)における第2顔領域(A1n+1)を含むものであり、不動状態判定部13は、第1顔領域(A1)の面積又は第2顔領域(A1n+1)の面積に対する第1顔領域(A1)及び第2顔領域(A1n+1)が互いに重畳している部位の面積の比率に基づき移動量を算出する。これにより、例えば、第1具体例を実現することができる。
また、画像認識処理は、搭乗者の頭部の傾き角度θ1を検出する処理を含むものであり、不動状態判定部13は、傾き角度θ1が基準角度以上であり、かつ、移動量又は変化量が基準量未満である場合、搭乗者が不動状態であると判定する。これにより、例えば、第4具体例及び第5具体例を実現することができる。
また、画像認識処理は、搭乗者の開眼度Dを検出する処理を含むものであり、不動状態判定部13は、開眼度Dの変化に基づき搭乗者が不動状態であるか否かを判定する。これにより、例えば、第6具体例及び第7具体例を実現することができる。
また、画像認識処理は、撮像画像Iにおける顔領域A1を検出する処理を含むものであり、不動状態判定部13は、所定時間内に撮像された複数枚の撮像画像(I〜In−1)における顔領域(A1〜A1n−1)の中心部の位置を示す基準ヒストグラムと、他の所定時間内に撮像された複数枚の撮像画像(I〜Im−1)における顔領域(A1〜A1m−1)の中心部の位置を示す比較用ヒストグラムとを生成して、基準ヒストグラムと比較用ヒストグラムとを比較することにより搭乗者が不動状態であるか否かを判定する。これにより、例えば、第8具体例を実現することができる。
また、画像認識処理は、搭乗者の表情を検出する処理を含むものであり、不動状態判定部13は、表情の変化の有無に基づき搭乗者が不動状態であるか否かを判定する。これにより、例えば、第9具体例を実現することができる。
また、画像認識処理は、搭乗者の骨格モデルを用いて搭乗者の肩、腕及び頭部の傾き角度θ2,θ3,θ4を検出する処理を含むものであり、不動状態判定部13は、傾き角度θ2,θ3,θ4の変化の有無に基づき搭乗者が不動状態であるか否かを判定する。これにより、例えば、第10具体例を実現することができる。
また、実施の形態1の警告出力制御装置200は、搭乗者状態判定装置100と、異常状態判定部14により搭乗者が異常状態であると判定されたとき、警告を出力する制御を実行する警告出力制御部15とを備える。これにより、運転者の異常状態が発生したとき、その旨を示す警告を出力することができる。
また、警告出力制御部15は、警告用の画像を表示装置3に表示させる制御、警告用の音声を音声出力装置4に出力させる制御又は警告用の信号を無線通信装置5に送信させる制御のうちの少なくとも一つを実行する。これにより、運転者の異常状態が発生したとき、その旨を示す警告を車内又は車外に対して出力することができる。
また、実施の形態1の搭乗者状態判定方法は、画像データ取得部11が、車室内撮像用のカメラ2による撮像画像Iを示す画像データを取得するステップST1と、画像認識処理部12が、画像データを用いて、撮像画像Iに対する画像認識処理を実行するステップST2と、不動状態判定部13が、画像認識処理の結果を用いて、搭乗者が不動状態であるか否かを判定するステップST3と、異常状態判定部14が、不動状態判定部13による判定結果を用いて、搭乗者が覚醒度の低下による異常状態であるか否かを判定するステップST4とを備え、異常状態判定部14は、不動状態の継続時間Tが基準時間Tthを超えたとき、搭乗者が異常状態であると判定する。これにより、開眼瞬眠状態を含む異常状態を判定することができ、かつ、開眼度Dが正常に検出されない状態であるか否かにかかわらず異常状態を判定することができる。
実施の形態2.
図12は、実施の形態2に係る警告出力制御装置の要部を示すブロック図である。図12を参照して、実施の形態2の搭乗者状態判定装置100a及び警告出力制御装置200aについて説明する。なお、図12において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
操作状態情報取得部16は、運転者による車両設備6の操作状態を示す情報(以下「操作状態情報」という。)を取得するものである。具体的には、例えば、操作状態情報取得部16は、図示しないCAN(Controller Area Network)などの車内ネットワークを介して、車両設備6から操作状態情報を取得する。
車両設備6は、主として車両1の走行に関するものである。車両設備6は、例えば、ステアリング、アクセルペダル、ブレーキペダル、ターンシグナル、ドア及びシフトレバーなどを含むものである。
操作状態情報取得部16は、当該取得された操作状態情報を不動状態判定部13aに出力するものである。
不動状態判定部13aは、画像認識処理部12による画像認識処理の結果及び操作状態情報取得部16により出力された操作状態情報を用いて、運転者が不動状態であるか否かを判定するものである。
すなわち、不動状態判定部13aは、操作状態情報取得部16により出力された操作状態情報を用いて、運転者による車両設備6の操作の有無を判定する。また、不動状態判定部13aは、画像認識処理部12による画像認識処理の結果を用いて、第1具体例〜第10具体例のうちの少なくとも1個の方法により、運転者の動きの有無を判定する。不動状態判定部13aは、運転者による車両設備6の操作がなく、かつ、運転者の動きがないと判定された場合、運転者が不動状態であると判定する。第1具体例〜第10具体例は実施の形態1にて説明したものと同様であるため、再度の説明は省略する。
画像データ取得部11、画像認識処理部12、不動状態判定部13a、異常状態判定部14及び操作状態情報取得部16により、搭乗者状態判定装置100aの要部が構成されている。搭乗者状態判定装置100a及び警告出力制御部15により、警告出力制御装置200aの要部が構成されている。
警告出力制御装置200aの要部のハードウェア構成は、実施の形態1にて図6を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、不動状態判定部13aの機能はプロセッサ41及びメモリ42により実現されるものであっても良く、又は処理回路43により実現されるものであっても良い。また、操作状態情報取得部16の機能はプロセッサ41及びメモリ42により実現されるものであっても良く、又は処理回路43により実現されるものであっても良い。
次に、図13のフローチャートを参照して、警告出力制御装置200aの動作について説明する。警告出力制御装置200aは、例えば、電源がオンされている状態(より具体的には車両1のイグニッション電源がオンされている状態)にて、図13に示す処理を繰り返し実行するようになっている。
まず、ステップST6にて、操作状態情報取得部16は、車両設備6の操作状態情報を取得する。操作状態情報取得部16は、当該取得された操作状態情報を不動状態判定部13aに出力する。
次いで、ステップST1にて、画像データ取得部11は、撮像画像Iを示す画像データをカメラ2から取得する。画像データ取得部11は、当該取得された画像データを画像認識処理部12に出力する。
次いで、ステップST2にて、画像認識処理部12は、画像データ取得部11により出力された画像データを用いて、撮像画像Iに対する画像認識処理を実行する。画像認識処理の具体例は実施の形態1にて説明したとおりであるため、再度の説明は省略する。
次いで、ステップST3aにて、不動状態判定部13aは、画像認識処理部12による画像認識処理の結果及び操作状態情報取得部16により出力された操作状態情報を用いて、運転者が不動状態であるか否かを判定する。不動状態判定部13aによる判定方法の具体例は既に説明したとおりであるため、再度の説明は省略する。
運転者が不動状態であると判定された場合(ステップST3a“YES”)、ステップST4にて、異常状態判定部14は、不動状態の継続時間Tが基準時間Tthを超えたか否かを判定する。この継続時間Tは、異常状態判定部14により算出されたものである。
不動状態の継続時間Tが基準時間Tthを超えたと判定された場合(ステップST4“YES”)、ステップST5にて、警告出力制御部15は警告を出力する制御を実行する。警告出力制御部15による警告の出力方法の具体例は実施の形態1にて説明したとおりであるため、再度の説明は省略する。
このように、画像認識処理の結果に加えて操作状態情報を用いることにより、運転者が不動状態であるか否かをより正確に判定することができる。
なお、車両1に設けられているECUがOBD(On−Board Diagnostics)機能を有している場合、操作状態情報取得部16は、当該OBD機能により出力された操作状態情報を取得するものであっても良い。
また、不動状態判定部13aが第8具体例を実行するものである場合、不動状態判定部13aは、操作状態情報を用いてキャリブレーション条件の成立タイミングt1を検出するものであっても良い。すなわち、キャリブレーション条件は、運転者が車両設備6を操作していないという条件であっても良い。これにより、比較用ヒストグラムに対する比較に適した基準ヒストグラム(すなわち当該比較により運転者が不動状態であるか否かをより正確に判定可能な基準ヒストグラム)を生成することができる。
また、搭乗者状態判定装置100aは、実施の形態1にて説明したものと同様の種々の変形例、すなわち搭乗者状態判定装置100と同様の種々の変形例を採用することができる。
また、警告出力制御装置200aは、実施の形態1にて説明したものと同様の種々の変形例、すなわち警告出力制御装置200と同様の種々の変形例を採用することができる。
以上のように、実施の形態2の搭乗者状態判定装置100aは、搭乗者による車両設備6の操作状態を示す操作状態情報を取得する操作状態情報取得部16を備え、不動状態判定部13aは、画像認識処理の結果及び操作状態情報を用いて搭乗者が不動状態であるか否かを判定する。画像認識処理の結果に加えて操作状態情報を用いることにより、運転者が不動状態であるか否かをより正確に判定することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本発明の搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法は、例えば、いわゆる「ドライバーモニタリングシステム」に応用することができる。
1 車両、2 カメラ、3 表示装置、4 音声出力装置、5 無線通信装置、6 車両設備、11 画像データ取得部、12 画像認識処理部、13,13a 不動状態判定部、14 異常状態判定部、15 警告出力制御部、16 操作状態情報取得部、21 顔領域検出部、22 顔特徴点検出部、23 開眼度検出部、24 傾き角度検出部、25 表情検出部、31 人体領域検出部、32 骨格特徴点検出部、33 傾き角度検出部、41 プロセッサ、42 メモリ、43 処理回路、100,100a 搭乗者状態判定装置、200,200a 警告出力制御装置。
本発明の搭乗者状態判定装置は、車室内撮像用のカメラによる撮像画像を示す画像データを取得する画像データ取得部と、画像データを用いて、撮像画像に対する画像認識処理を実行する画像認識処理部と、画像認識処理の結果を用いて、搭乗者が不動状態であるか否かを判定する不動状態判定部と、不動状態判定部による判定結果を用いて、搭乗者が覚醒度の低下による異常状態であるか否かを判定する異常状態判定部とを備え、画像認識処理は、撮像画像における顔領域を検出する処理を含むものであり、不動状態判定部は、顔領域の移動量又は顔領域のサイズの変化量が基準量未満である場合、搭乗者が不動状態であると判定し、異常状態判定部は、不動状態の継続時間が基準時間を超えたとき、搭乗者が異常状態であると判定するものである。

Claims (15)

  1. 車室内撮像用のカメラによる撮像画像を示す画像データを取得する画像データ取得部と、
    前記画像データを用いて、前記撮像画像に対する画像認識処理を実行する画像認識処理部と、
    前記画像認識処理の結果を用いて、搭乗者が不動状態であるか否かを判定する不動状態判定部と、
    前記不動状態判定部による判定結果を用いて、前記搭乗者が覚醒度の低下による異常状態であるか否かを判定する異常状態判定部と、を備え、
    前記異常状態判定部は、前記不動状態の継続時間が基準時間を超えたとき、前記搭乗者が前記異常状態であると判定する
    ことを特徴とする搭乗者状態判定装置。
  2. 前記異常状態判定部は、前記基準時間を自動運転レベルに応じて異なる値に設定することを特徴とする請求項1記載の搭乗者状態判定装置。
  3. 前記画像認識処理は、前記搭乗者の開眼度を検出する処理を含むものであり、
    前記異常状態判定部は、前記基準時間を前記開眼度の検出結果の信頼度に応じて異なる値に設定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  4. 前記画像認識処理は、前記搭乗者の開眼度を検出する処理を含むものであり、
    前記不動状態判定部による判定方法は、前記開眼度の検出結果を用いる方法と前記開眼度の検出結果を用いない方法とを含むものであり、
    前記不動状態判定部は、前記画像認識処理部が前記開眼度の検出に失敗した場合、前記開眼度の検出結果を用いない方法により前記搭乗者が前記不動状態であるか否かを判定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  5. 前記画像認識処理は、前記撮像画像における顔領域を検出する処理を含むものであり、
    前記不動状態判定部は、前記顔領域の移動量又は前記顔領域のサイズの変化量が基準量未満である場合、前記搭乗者が前記不動状態であると判定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  6. 前記撮像画像は、前記カメラにより互いに異なるタイミングにて撮像された第1撮像画像及び第2撮像画像を含むものであり、
    前記顔領域は、前記第1撮像画像における第1顔領域及び前記第2撮像画像における第2顔領域を含むものであり、
    前記不動状態判定部は、前記第1顔領域の面積又は前記第2顔領域の面積に対する前記第1顔領域及び前記第2顔領域が互いに重畳している部位の面積の比率に基づき前記移動量を算出する
    ことを特徴とする請求項5記載の搭乗者状態判定装置。
  7. 前記画像認識処理は、前記搭乗者の頭部の傾き角度を検出する処理を含むものであり、
    前記不動状態判定部は、前記傾き角度が基準角度以上であり、かつ、前記移動量又は前記変化量が前記基準量未満である場合、前記搭乗者が前記不動状態であると判定する
    ことを特徴とする請求項5記載の搭乗者状態判定装置。
  8. 前記画像認識処理は、前記搭乗者の開眼度を検出する処理を含むものであり、
    前記不動状態判定部は、前記開眼度の変化に基づき前記搭乗者が前記不動状態であるか否かを判定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  9. 前記画像認識処理は、前記撮像画像における顔領域を検出する処理を含むものであり、
    前記不動状態判定部は、所定時間内に撮像された複数枚の前記撮像画像における前記顔領域の中心部の位置を示す基準ヒストグラムと、他の所定時間内に撮像された複数枚の前記撮像画像における前記顔領域の中心部の位置を示す比較用ヒストグラムとを生成して、前記基準ヒストグラムと前記比較用ヒストグラムとを比較することにより前記搭乗者が前記不動状態であるか否かを判定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  10. 前記画像認識処理は、前記搭乗者の表情を検出する処理を含むものであり、
    前記不動状態判定部は、前記表情の変化の有無に基づき前記搭乗者が前記不動状態であるか否かを判定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  11. 前記画像認識処理は、前記搭乗者の骨格モデルを用いて前記搭乗者の肩、腕及び頭部の傾き角度を検出する処理を含むものであり、
    前記不動状態判定部は、前記傾き角度の変化の有無に基づき前記搭乗者が前記不動状態であるか否かを判定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  12. 前記搭乗者による車両設備の操作状態を示す操作状態情報を取得する操作状態情報取得部を備え、
    前記不動状態判定部は、前記画像認識処理の結果及び前記操作状態情報を用いて前記搭乗者が前記不動状態であるか否かを判定する
    ことを特徴とする請求項1記載の搭乗者状態判定装置。
  13. 請求項1記載の搭乗者状態判定装置と、
    前記異常状態判定部により前記搭乗者が前記異常状態であると判定されたとき、警告を出力する制御を実行する警告出力制御部と、
    を備えることを特徴とする警告出力制御装置。
  14. 前記警告出力制御部は、警告用の画像を表示装置に表示させる制御、警告用の音声を音声出力装置に出力させる制御又は警告用の信号を無線通信装置に送信させる制御のうちの少なくとも一つを実行することを特徴とする請求項13記載の警告出力制御装置。
  15. 画像データ取得部が、車室内撮像用のカメラによる撮像画像を示す画像データを取得するステップと、
    画像認識処理部が、前記画像データを用いて、前記撮像画像に対する画像認識処理を実行するステップと、
    不動状態判定部が、前記画像認識処理の結果を用いて、搭乗者が不動状態であるか否かを判定するステップと、
    異常状態判定部が、前記不動状態判定部による判定結果を用いて、前記搭乗者が覚醒度の低下による異常状態であるか否かを判定するステップと、を備え、
    前記異常状態判定部は、前記不動状態の継続時間が基準時間を超えたとき、前記搭乗者が前記異常状態であると判定する
    ことを特徴とする搭乗者状態判定方法。
JP2020512997A 2018-04-11 2018-04-11 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法 Active JP7118136B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/015255 WO2019198179A1 (ja) 2018-04-11 2018-04-11 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法

Publications (2)

Publication Number Publication Date
JPWO2019198179A1 true JPWO2019198179A1 (ja) 2020-12-03
JP7118136B2 JP7118136B2 (ja) 2022-08-15

Family

ID=68164181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020512997A Active JP7118136B2 (ja) 2018-04-11 2018-04-11 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法

Country Status (4)

Country Link
US (1) US11315361B2 (ja)
JP (1) JP7118136B2 (ja)
DE (1) DE112018007454T5 (ja)
WO (1) WO2019198179A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7470540B2 (ja) * 2020-03-18 2024-04-18 本田技研工業株式会社 内部機器の異常判定装置、異常判定方法、及びプログラム
WO2021240768A1 (ja) * 2020-05-29 2021-12-02 三菱電機株式会社 運転不能判定装置および運転不能判定方法
CN111932822A (zh) * 2020-07-11 2020-11-13 广州融康汽车科技有限公司 一种乘员身体位置报警装置
US20230026074A1 (en) * 2021-07-26 2023-01-26 Ubtech North America Research And Development Center Corp Human abnormal behavior response method and mobility aid robot using the same
WO2024057356A1 (ja) * 2022-09-12 2024-03-21 三菱電機株式会社 開瞼度検出装置、開瞼度検出方法、および眠気判定システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005013626A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 覚醒状態検出装置
JP2008099884A (ja) * 2006-10-19 2008-05-01 Toyota Motor Corp 状態推定装置
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2013257691A (ja) * 2012-06-12 2013-12-26 Panasonic Corp 居眠り状態判定装置及び居眠り状態判定方法
JP2016009258A (ja) * 2014-06-23 2016-01-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2017199279A (ja) * 2016-04-28 2017-11-02 トヨタ自動車株式会社 運転意識推定装置
JP2017219885A (ja) * 2016-06-02 2017-12-14 株式会社Subaru 乗員状態監視装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
JP5418579B2 (ja) * 2011-12-06 2014-02-19 株式会社デンソー 開閉眼検出装置
JP5949660B2 (ja) * 2013-05-21 2016-07-13 株式会社デンソー ドライバ確認装置
US10210761B2 (en) * 2013-09-30 2019-02-19 Sackett Solutions & Innovations, LLC Driving assistance systems and methods
JP6090129B2 (ja) * 2013-11-27 2017-03-08 株式会社デンソー 視認領域推定装置
US9720259B2 (en) * 2014-10-13 2017-08-01 William Hart Eyewear pupilometer
GB2532457B (en) * 2014-11-19 2018-04-18 Jaguar Land Rover Ltd Dynamic control apparatus and related method
US20160180677A1 (en) * 2014-12-18 2016-06-23 Ford Global Technologies, Llc Apparatus for reducing driver distraction via short range vehicle communication
JP6256433B2 (ja) 2015-08-31 2018-01-10 マツダ株式会社 運転者状態検出装置
DE102015218306A1 (de) * 2015-09-23 2017-03-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines Schläfrigkeitszustands eines Fahrers
FR3048542A1 (fr) * 2016-03-01 2017-09-08 Valeo Comfort & Driving Assistance Dispositif et methode de surveillance personnalises d'un conducteur d'un vehicule automobile
JP2017199302A (ja) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 判定装置、判定方法、判定プログラム及び記録媒体
JP6690517B2 (ja) * 2016-12-13 2020-04-28 株式会社デンソー 運転支援装置、及び運転支援方法
US11341756B2 (en) * 2017-10-02 2022-05-24 Fotonation Limited Human monitoring system incorporating calibration methodology
JP6812952B2 (ja) * 2017-11-15 2021-01-13 オムロン株式会社 脇見判定装置、脇見判定方法、およびプログラム
JP6705437B2 (ja) * 2017-11-15 2020-06-03 オムロン株式会社 脇見判定装置、脇見判定方法及び脇見判定のためのプログラム
JP7099037B2 (ja) * 2018-05-07 2022-07-12 オムロン株式会社 データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
EP3575175B1 (en) * 2018-06-01 2024-03-13 Zenuity AB Method and system for assisting drivers to drive with precaution

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005013626A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 覚醒状態検出装置
JP2008099884A (ja) * 2006-10-19 2008-05-01 Toyota Motor Corp 状態推定装置
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2013257691A (ja) * 2012-06-12 2013-12-26 Panasonic Corp 居眠り状態判定装置及び居眠り状態判定方法
JP2016009258A (ja) * 2014-06-23 2016-01-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2017199279A (ja) * 2016-04-28 2017-11-02 トヨタ自動車株式会社 運転意識推定装置
JP2017219885A (ja) * 2016-06-02 2017-12-14 株式会社Subaru 乗員状態監視装置

Also Published As

Publication number Publication date
WO2019198179A1 (ja) 2019-10-17
US20210073522A1 (en) 2021-03-11
DE112018007454T5 (de) 2021-02-11
JP7118136B2 (ja) 2022-08-15
US11315361B2 (en) 2022-04-26

Similar Documents

Publication Publication Date Title
JP7118136B2 (ja) 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法
KR102469234B1 (ko) 운전 상태 분석 방법 및 장치, 운전자 모니터링 시스템 및 차량
US11726577B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
KR102469233B1 (ko) 운전 상태 검출 방법 및 장치, 운전자 모니터링 시스템 및 차량
EP3033999B1 (en) Apparatus and method for determining the state of a driver
CN107665330B (zh) 在车辆中检测头部姿势的系统、方法和计算机可读介质
US11042766B2 (en) Artificial intelligence apparatus and method for determining inattention of driver
KR101386823B1 (ko) 동작, 안면, 눈, 입모양 인지를 통한 2단계 졸음운전 방지 장치
CN113056390A (zh) 情境驾驶员监控系统
US20170101111A1 (en) System and method for controlling vehicle systems in a vehicle
US20220203996A1 (en) Systems and methods to limit operating a mobile phone while driving
EP3588372B1 (en) Controlling an autonomous vehicle based on passenger behavior
JP7369184B2 (ja) 運転者注意状態推定
US11084424B2 (en) Video image output apparatus, video image output method, and medium
US20240096116A1 (en) Devices and methods for detecting drowsiness of drivers of vehicles
US20230347903A1 (en) Sensor-based in-vehicle dynamic driver gaze tracking
JP6689470B1 (ja) 情報処理装置、プログラム及び情報処理方法
US10945651B2 (en) Arousal level determination device
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
Ujir et al. Real-Time Driver’s Monitoring Mobile Application through Head Pose, Drowsiness and Angry Detection
JP2019179370A (ja) 車速制御装置
Mohan et al. Eye Gaze Estimation Invisible and IR Spectrum for Driver Monitoring System
WO2022224173A1 (en) Systems and methods for determining driver control over a vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R150 Certificate of patent or registration of utility model

Ref document number: 7118136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150