JP7175381B2 - 覚醒度推定装置、自動運転支援装置および覚醒度推定方法 - Google Patents

覚醒度推定装置、自動運転支援装置および覚醒度推定方法 Download PDF

Info

Publication number
JP7175381B2
JP7175381B2 JP2021506087A JP2021506087A JP7175381B2 JP 7175381 B2 JP7175381 B2 JP 7175381B2 JP 2021506087 A JP2021506087 A JP 2021506087A JP 2021506087 A JP2021506087 A JP 2021506087A JP 7175381 B2 JP7175381 B2 JP 7175381B2
Authority
JP
Japan
Prior art keywords
occupant
eye
arousal level
unit
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506087A
Other languages
English (en)
Other versions
JPWO2020188788A1 (ja
Inventor
大貴 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020188788A1 publication Critical patent/JPWO2020188788A1/ja
Application granted granted Critical
Publication of JP7175381B2 publication Critical patent/JP7175381B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は車両の乗員の覚醒度を推定する技術に関するものである。
車載カメラで撮影した運転者の顔の画像から求めた開眼度(目の開度、すなわち目の開き具合)に基づいて、運転者の覚醒度(眠気の有無)を推定する覚醒度推定装置が知られている(例えば特許文献1~3)。
運転者は、他の乗員との会話中やハンズフリー通話中などに笑顔になることがある。一般に、人が笑顔になると目が細くなるので、笑顔になったときの開眼度は、覚醒度が低下したときの開眼度に近い値になる。そのため、覚醒度推定装置においては、運転者が笑顔になったときに、覚醒度が低下したと誤判定されるのを防止することが課題になる。
特許文献1~3の覚醒度推定装置は、運転者の開眼度から覚醒度を推定するとともに、運転者が笑顔か否かの判定を行い、運転者の開眼度が小さくなった場合でも、運転者が笑顔であれば覚醒度が高いと判定することによって、上記誤判定を防止している。
特開2016-115120号公報 特開2010-9093号公報 特開2010-142345号公報
特許文献1~3には、運転者の笑顔の判定手法が種々提案されているが、覚醒度の推定精度の判定の更なる向上を図るために、新たな判定手法が望まれる。
本発明は以上のような課題を解決するためになされたものであり、車両の乗員が笑顔か否かを考慮することで、当該乗員の覚醒度を高い精度で推定可能な覚醒度推定装置を提供することを目的とする。
本発明に係る覚醒度推定装置は、車両の乗員の顔を撮影した画像である顔画像を取得する顔画像取得部と、顔画像に基づいて乗員の開眼度を算出する開眼度算出部と、開眼度が予め定められた閾値より小さいか否かを判定する開閉眼判定部と、顔画像から乗員の両口角および両目頭の中点の位置を検出し、一方の口角と両目頭の中点とを結ぶ直線と他方の口角と両目頭の中点とを結ぶ直線とが成す角度である笑顔判定用角度を算出する笑顔判定用角度算出部と、笑顔判定用角度に基づいて、乗員が笑顔か否かを判定する笑顔判定部と、開眼度が閾値より小さくなり、且つ、乗員が笑顔でないと判定されると、乗員の覚醒度が低下したと推定する覚醒度推定部と、を備え、笑顔判定部は、顔画像から検出した乗員の目の形状を加味して、乗員が笑顔か否かを判定する。

本発明によれば、乗員の開眼度が閾値より小さくなり、且つ、乗員が笑顔でないと判定されたときに、乗員の覚醒度が低下したと推定される。つまり、乗員が笑顔と判定されたときは、乗員の開眼度が閾値より小さくても覚醒度は高いと推定される。それにより、乗員が笑顔になったときに覚醒度が低下したと誤判定されることが防止され、覚醒度の推定精度が向上する。また、乗員が笑顔か否かの判定は、乗員の両口角および両目頭の中点の位置から算出される笑顔判定用角度に基づいて行われる。一般に、口角の位置は、人が笑顔のときとそうでないときとで大きく変化するため、乗員の笑顔か否かの判定を容易、且つ、高い精度で行うことができる。
本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る覚醒度推定装置の構成を示すブロック図である。 実施の形態1に係る覚醒度推定装置の動作を示すフローチャートである。 実施の形態1に係る覚醒度推定装置の変更例を示すブロック図である。 覚醒度推定装置のハードウェア構成例を示す図である。 覚醒度推定装置のハードウェア構成例を示す図である。 実施の形態2に係る覚醒度推定装置の構成を示すブロック図である。 実施の形態2に係る覚醒度推定装置の動作を示すフローチャートである。 実施の形態3に係る自動運転支援装置の構成を示すブロック図である。
<実施の形態1>
図1は、実施の形態1に係る覚醒度推定装置10の構成を示すブロック図である。本実施の形態では、覚醒度推定装置10は車両に搭載されているものと仮定する。ただし、覚醒度推定装置10は、車両に常設されるものに限られず、例えば、携帯電話やスマートフォン、ポーダブルナビゲーション装置など、車両に持ち込み可能な携帯型のデバイスに構築されていてもよい。また、覚醒度推定装置10の一部または全部が、車両の外部に設置され、車両との通信が可能なサーバー上に構築されていてもよい。
図1のように、覚醒度推定装置10は、車両が備えるカメラ21および警告装置22と接続されている。
カメラ21は、車内を撮影するものであり、車両の乗員の顔を撮影可能な位置に設置されている。本実施の形態では、カメラ21は、車両の全座席の乗員の顔を撮影できるだけの撮影範囲を持つ広角カメラであるものとする。ただし、例えば覚醒度推定装置10が運転席の乗員(運転者)の覚醒度のみを推定すればよい場合は、カメラ21の撮影範囲は少なくとも運転席を撮影できる広さでよい。
覚醒度推定装置10は、カメラ21が撮影した乗員の顔の画像(以下「顔画像」という)に基づいて、乗員の覚醒度(眠気の有無)を推定し、その推定結果を警告装置22へ出力する。本実施の形態では、覚醒度推定装置10は、カメラ21で撮影された全乗員の覚醒度を推定するものとする。この場合、覚醒度推定装置10は、各乗員の覚醒度の推定結果とともに、各乗員の座席の位置の情報を出力する。すなわち、覚醒度推定装置10からは、覚醒度が高いと推定される乗員がどの座席にいて、覚醒度が低いと推定される乗員がどの座席にいるのか、といった情報が出力される。
警告装置22は、覚醒度推定装置10が推定した乗員の覚醒度に応じて、車内へ警報を発するものであり、警告音や警告メッセージを発するスピーカ、警報画面を表示するディスプレイなどを備えている。本実施の形態では、警告装置22は、運転席の乗員(運転者)の覚醒度が低下したと推定された場合に警告を発するものとする。ただし、警告装置22の動作内容に制約はなく、例えば、運転者以外の乗員の覚醒度が低下したと推定された場合にも、警告を発してもよい。
図1のように、覚醒度推定装置10は、顔画像取得部11、開眼度算出部12、開閉眼判定部13、笑顔判定用角度算出部14、笑顔判定部15および覚醒度推定部16を備えている。
顔画像取得部11は、カメラ21が撮影した乗員の顔画像を取得する。本実施の形態では、カメラ21は車両の全座席を撮影できる広角カメラであるため、顔画像取得部11は、顔認識技術を用いて、カメラ21が撮影した車内の画像から乗員ごとの顔画像を抽出する。
開眼度算出部12は、顔画像取得部11が取得した乗員の顔画像に基づいて、当該乗員の開眼度(目の開き具合)を算出する。顔画像取得部11により複数の乗員の顔画像が取得された場合、開眼度算出部12は、複数の乗員それぞれの開眼度を算出する。開眼度算出部12における開眼度の算出方法に特に制約はなく、例えば、上記の特許文献1~3に示された方法を用いてもよい。
本実施の形態では、開眼度算出部12は、乗員の顔画像から、乗員の目頭の位置、目尻の位置および上瞼の最高点の位置を検出し、目頭と目尻とを結ぶ直線と上瞼の最高点との間の距離を、目頭と目尻との間の距離で除算することで目の扁平率を求め、扁平率を予め定められた基準値で除算して得られる値を、開眼度として算出する。一般に、下瞼の輪郭線は、上瞼の輪郭線に比べて顔画像から検出することが難しいが、この方法では、下瞼の輪郭線の情報を用いずに開眼度を算出するため、開眼度を高い精度で算出できる。なお、上瞼の最高点とは、目尻と目頭とを結ぶ直線から最も離れている上瞼の点(頂点)である。
目の扁平率の基準値は、例えば、目の扁平率の平均的な値として覚醒度推定装置10の製造者が定めた一定の値でよい。あるいは、覚醒度推定装置10が、顔画像を用いた顔認証などによって乗員個人を識別可能な場合には、覚醒度推定装置10に乗員ごとの基準値を登録できるようにしてもよい。乗員ごとに異なる基準値を用いられることで、開眼度の算出結果に、目の大きさの個人差が影響することが抑えられる。
開閉眼判定部13は、開眼度算出部12が算出した乗員の開眼度と予め定められた閾値とを比較し、乗員の開眼度が閾値以上か否かを判定することで、乗員の目が開いているか閉じているかを判定する。以下、この判定を「開閉眼判定」といい、開眼度が閾値以上の状態を「開眼状態」、開眼度が閾値より小さい状態を「閉眼状態」という。先に述べたように、開眼度算出部12により算出される開眼度の精度は高いため、開閉眼判定部13による開閉眼判定の精度も高いものとなる。
笑顔判定用角度算出部14は、顔画像から乗員の両口角および両目頭の中点の位置を検出し、一方の口角と両目頭の中点とを結ぶ直線と他方の口角と両目頭の中点とを結ぶ直線とが成す角度を算出する。この角度を「笑顔判定用角度」と定義する。
笑顔判定部15は、笑顔判定用角度算出部14が算出した乗員の笑顔判定用角度に基づいて、乗員が笑顔か否かを判定する。具体的には、笑顔判定部15は、乗員の笑顔判定用角度と予め定められた閾値とを比較し、笑顔判定用角度が閾値以上の場合に、当該乗員が笑顔であると判定する。以下、この判定を「笑顔判定」という。
ここで、本実施の形態では、乗員の笑顔判定が、乗員の両口角および両目頭の中点の位置から算出される笑顔判定用角度に基づいて行われる。一般に、口角の位置は、人が笑顔のときとそうでないときとで大きく変化するため、この笑顔判定の方法によれば、乗員の笑顔判定を容易、且つ、高い精度で行うことができる。
覚醒度推定部16は、開閉眼判定部13による乗員の開閉眼判定の結果と、笑顔判定部15による当該乗員の笑顔判定の結果とに基づいて、当該乗員の覚醒度が低下したか否かを推定する。具体的には、覚醒度推定部16は、乗員が閉眼状態と判定され、且つ、当該乗員が笑顔でないと判定されるときに、当該乗員の覚醒度が低下したと推定する。すなわち、乗員の開眼度が閾値より小さく、且つ、当該乗員の笑顔判定用角度が閾値よりも小さいと判定されるときに、当該乗員の覚醒度が低下したと推定される。上述したように、開閉眼判定部13は開閉眼判定を高い精度で行うことができ、笑顔判定部15は笑顔判定を高い精度で行うことができるため、覚醒度推定部16による乗員の覚醒度推定も精度の高いものとなる。
このように、実施の形態1に係る覚醒度推定装置10によれば、乗員が笑顔か否かを考慮することで、乗員の覚醒度を高い精度で推定することができる。
図2は、実施の形態1に係る覚醒度推定装置10の動作を示すフローチャートである。以下、図2を参照しつつ、実施の形態1の覚醒度推定装置10の動作を説明する。
車両のイグニッションがオンになり、覚醒度推定装置10が起動すると、まず、顔画像取得部11が、カメラ21が撮影した乗員の顔画像を取得する(ステップS101)。ここでは説明の簡単のため、カメラ21が撮影した画像には、1人の乗員の顔画像だけが含まれているものと仮定する。ただし、本実施の形態のようにカメラ21が広角カメラであれば、ステップS101で複数の乗員の顔画像が取得されることもある。その場合、以下のステップS102~S108の処理は、それぞれの乗員の顔画像に対して実施される。
次に、開眼度算出部12が、ステップS101で取得された乗員の顔画像から、乗員の目頭の位置、目尻の位置および上瞼の最高点の位置を検出し、それらの位置関係に基づいて、乗員の開眼度を算出する(ステップS102)。
そして、開閉眼判定部13が、ステップS102で算出された乗員の開眼度と予め定められた閾値とを比較することで、当該乗員の開閉眼判定を行う(ステップS103)。
ステップS103で、当該乗員が閉眼状態である(開眼度が閾値よりも小さい)と判定された場合(ステップS103でYES)、笑顔判定用角度算出部14が、ステップS101で取得された乗員の顔画像に基づいて、当該乗員の笑顔判定用角度を算出する(ステップS104)。そして、笑顔判定部15が、ステップS104で算出された笑顔判定用角度と予め定められた閾値とを比較することで、当該乗員の笑顔判定を行う(ステップS105)。
ステップS105で、当該乗員が笑顔でない(笑顔判定用角度が閾値よりも小さい)と判定された場合(ステップS105でNO)、覚醒度推定部16は、当該乗員の覚醒度が低下したと推定する(ステップS106)。
一方、ステップS103で、当該乗員が開眼状態である(開眼度が閾値以上)と判定された場合(ステップS103でNO)、または、ステップS105で乗員が笑顔である(笑顔判定用角度が閾値以上)と判定された場合(ステップS105でYES)、覚醒度推定部16は、当該乗員の覚醒度は高いと推定する(ステップS107)。
ステップS106またはS107による乗員の覚醒度の推定結果は、警告装置22に出力される(ステップS108)。その結果、警告装置22からは、乗員の覚醒度の推定結果に応じた警告が発せられる。
覚醒度推定装置10は、以上のフローを繰り返し実行する。なお、当該フローは、例えば、覚醒度推定装置10の起動後(車両のイグニッションがオンになった後)、常時実行されてもよいし、車両の走行中のみに実行される(車両の停止中は実行されない)ようにしてもよい。当該フローが常時実行される場合、車両が動き出す前から乗員の覚醒度が推定されるため、車両の安全性の向上に寄与できる。ただし、一般的には、車両の停止中に乗員の覚醒度を推定する必要性はあまり高くないため、当該フローが車両の走行中のみに実行されるようにして、覚醒度推定装置10の処理負荷の低減および消費電力の低減を図ってもよい。
[変更例]
実施の形態1の覚醒度推定装置10では、覚醒度推定部16が、乗員の覚醒度の推定結果を警告装置22に出力していたが、その出力先は警告装置22に限られず、任意の装置でよい。例えば、図3のように、覚醒度推定部16による乗員の覚醒度の推定結果が、車両の自動運転を行うECU(Electronic Control Unit)である自動運転制御装置23にも入力されてもよい。
図3の自動運転制御装置23の動作としては、例えば、覚醒度推定部16が運転席の乗員(運転者)の覚醒度が低下したと推定し、警告装置22が警告を発したにもかかわらず、運転者の覚醒度が低下したままであった場合に、自動運転制御装置23が、車両を自動的に安全な場所(例えば、幅の広い路肩やパーキングエリアなど)へ退避させて停止させるといった動作が考えられる。
[ハードウェア構成例]
図4および図5は、それぞれ覚醒度推定装置10のハードウェア構成の例を示す図である。図1に示した覚醒度推定装置10の構成要素の各機能は、例えば図4に示す処理回路50により実現される。すなわち、覚醒度推定装置10は、車両の乗員の顔を撮影した画像である顔画像を取得し、顔画像に基づいて乗員の開眼度を算出し、開眼度が予め定められた閾値より小さいか否かを判定し、顔画像から乗員の両口角および両目頭の中点の位置を検出し、一方の口角と両目頭の中点とを結ぶ直線と他方の口角と両目頭の中点とを結ぶ直線とが成す角度である笑顔判定用角度を算出し、笑顔判定用角度に基づいて、乗員が笑顔か否かを判定し、開眼度が閾値より小さくなり、且つ、乗員が笑顔でないと判定されると、乗員の覚醒度が低下したと推定するための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。覚醒度推定装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
図5は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における覚醒度推定装置10のハードウェア構成の例を示している。この場合、覚醒度推定装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、覚醒度推定装置10は、プロセッサ51により実行されるときに、車両の乗員の顔を撮影した画像である顔画像を取得する処理と、顔画像に基づいて乗員の開眼度を算出する処理と、開眼度が予め定められた閾値より小さいか否かを判定する処理と、顔画像から乗員の両口角および両目頭の中点の位置を検出し、一方の口角と両目頭の中点とを結ぶ直線と他方の口角と両目頭の中点とを結ぶ直線とが成す角度である笑顔判定用角度を算出する処理と、笑顔判定用角度に基づいて、乗員が笑顔か否かを判定する処理と、開眼度が閾値より小さくなり、且つ、乗員が笑顔でないと判定されると、乗員の覚醒度が低下したと推定する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、覚醒度推定装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、覚醒度推定装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、覚醒度推定装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、覚醒度推定装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
<実施の形態2>
図6は、実施の形態2に係る覚醒度推定装置10の構成を示すブロック図である。図6の覚醒度推定装置10の構成は、図1の構成に対し、眼形状検出部17を追加したものである。その他は、基本的に図1と同様であるため、ここでは図1の覚醒度推定装置10と相違する点のみ説明する。
眼形状検出部17は、顔画像取得部11が取得した乗員の顔画像から、乗員の目の形状の情報を検出する。眼形状検出部17が取得する情報としては、例えば、上瞼と下瞼との間の距離、目尻と目頭との間の距離、目尻の成す角度などが挙げられる。ここで、目尻の成す角度は、一方の目尻と両目頭の中点とを結ぶ直線と他方の目尻と両目頭の中点とを結ぶ直線とが成す角度として定義されるものとする。
また、実施の形態2では、笑顔判定部15は、笑顔判定用角度算出部14が算出する乗員の笑顔判定用角度(一方の口角と両目頭の中点とを結ぶ直線と他方の口角と両目頭の中点とを結ぶ直線とが成す角度)だけでなく、眼形状検出部17が検出した当該乗員の目の形状を加味して、当該乗員が笑顔か否かを判定する。
一般的に、人が笑顔になると、目が細くなったり目尻が下がったりして、目の形状が変化する。すなわち、人が笑顔になると、上瞼と下瞼との間の距離は短くなり、目尻と目頭との間の距離は長くなり、目尻の成す角度は小さくなる、といった目の形状の変化が現れる。笑顔判定部15が、乗員の笑顔判定用角度および当該乗員の目の形状の情報を総合的に考慮して、当該乗員が笑顔か否かを判定することで、笑顔判定の精度向上が期待できる。
図7は、実施の形態2に係る覚醒度推定装置10の動作を示すフローチャートである。図7のフローは、図2のフローのS104とS105との間に、ステップS110を追加したものである。
以下、図7を参照しつつ、実施の形態2の覚醒度推定装置10の動作を説明する。
覚醒度推定装置10が起動すると、まず、顔画像取得部11が、カメラ21が撮影した乗員の顔画像を取得する(ステップS101)。次に、開眼度算出部12が、ステップS101で取得された乗員の顔画像から、乗員の目頭の位置、目尻の位置および上瞼の最高点の位置を検出し、それらの位置関係に基づいて、乗員の開眼度を算出する(ステップS102)。そして、開閉眼判定部13が、ステップS102で算出された乗員の開眼度と予め定められた閾値とを比較することで、当該乗員の開閉眼判定を行う(ステップS103)。
ステップS103で、乗員が閉眼状態と判定されると(ステップS103でYES)、笑顔判定用角度算出部14が、当該乗員の笑顔判定用角度を算出する(ステップS104)。さらに、眼形状検出部17が当該乗員の目の形状を検出する(ステップS110)。そして、笑顔判定部15が、ステップS104で算出された笑顔判定用角度と、ステップS110で検出された乗員の目の形状の情報とを総合的に考慮して、当該乗員の笑顔判定を行う(ステップS105)。
ステップS105で、当該乗員が笑顔でないと判定された場合(ステップS105でNO)、覚醒度推定部16は、当該乗員の覚醒度が低下したと推定する(ステップS106)。
一方、ステップS103で、当該乗員が開眼状態であると判定された場合(ステップS103でNO)、または、ステップS105で乗員が笑顔であると判定された場合(ステップS105でYES)、覚醒度推定部16は、当該乗員の覚醒度は高いと推定する(ステップS107)。
ステップS106またはS107による乗員の覚醒度の推定結果は、警告装置22に出力される(ステップS108)。その結果、警告装置22からは、乗員の覚醒度の推定結果に応じた警告が発せられる。
覚醒度推定装置10は、以上のフローを繰り返し実行する。なお、図7では、ステップS110をステップS104の次に挿入したが、ステップS110とステップS104はどちらが先に行われてもよい。また、実施の形態2においても、覚醒度推定装置10による乗員の覚醒度の推定結果の出力先は警告装置22に限られず、例えば図3の変形例と同様に自動運転制御装置23でもよい。
<実施の形態3>
実施の形態3では、実施の形態1で示した覚醒度推定装置10を、車両の自動運転を支援する自動運転支援装置に適用した例を示す。
ここで、自動車の自動運転の自動化レベル(自動運転レベル)の定義について説明する。SAE(Society of Automotive Engineers)International のJ3016(2016年9月)、および、その日本語参考訳であるJASO TP18004(2018年2月)によると、自動運転システムの自動運転レベルは次のように定義されている。
レベル0(運転自動化なし):運転者が一部又は全ての動的運転タスクを実行
レベル1(運転支援):システムが縦方向又は横方向のいずれかの車両運動制御のサブタスクを限定領域において実行
レベル2(部分運転自動化):システムが縦方向及び横方向両方の車両運動制御のサブタスクを限定領域において実行
レベル3(条件付運転自動化):システムが全ての動的運転タスクを限定領域において実行するが、作動継続が困難な場合は、システムからの介入要求等に運転者が適切に応答
レベル4(高度運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を限定領域において実行
レベル5(完全運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を無制限に(すなわち限定領域内ではない)実行
なお、「動的運転タスク」とは、道路交通において車両を操作する際にリアルタイムで行う必要がある全ての操作上及び戦術上の機能(行程計画並びに経由地の選択などの戦略上の機能は除く)をいう。また、「限定領域」とは、システム又はその機能が作動するように設計されている特定の条件(地理的制約、道路面の制約、環境的制約、交通の制約、速度上の制約、時間的な制約などを含む)をいう。
図8は、実施の形態3に係る自動運転支援装置30の構成を示すブロック図である。図8において、図1に示したものと同様に機能する要素には、図1と同一の参照符号を付しており、ここではそれらの説明は省略する。
図8のように、自動運転支援装置30は、カメラ21、自動運転制御装置23および通知装置24と接続されている。自動運転制御装置23は、車両の自動運転を行うECUであり、上記の「システム」に相当する。本実施の形態では、自動運転制御装置23は、少なくともレベル3の自動運転を行うものとする。通知装置24は、車両の乗員に対する通知を行うものであり、通知音や通知メッセージの音声を発するスピーカ、警報画面を表示するディスプレイなどを備えている。
また、自動運転支援装置30は、覚醒度推定装置10と、乗員選択部31とを備えている。覚醒度推定装置10は、実施の形態1で説明したものと同様に車両の乗員の覚醒度を推定し、その推定結果を乗員選択部31へ出力する。
乗員選択部31は、自動運転支援装置30からの介入要求に応じて、車両の運転に介入させる乗員(運転者にする乗員)を選択する。介入要求は、自動運転支援装置30がレベル3の自動運転を実行しており、自動運転の継続が困難になった場合に、自動運転支援装置30から乗員選択部31へ入力される。乗員選択部31は、自動運転支援装置30からの介入要求を受けると、覚醒度推定装置10による乗員の覚醒度の推定結果を確認し、覚醒度が高いと推定された乗員を、車両の運転に介入させる乗員として選択する。
乗員選択部31による選択結果は、通知装置24に入力される。通知装置24は、乗員選択部31が選択した乗員に対し、車両の運転へ介入を指示するための通知を行う。
乗員選択部31が運転席にいる乗員を選択した場合は、車両を停止させることなく、車両の運転権限をその乗員へ移行することができる。しかし、乗員選択部31が運転席以外の乗員を選択した場合は、自動運転制御装置23が車両を安全な場所に停止させ、選択された乗員が運転席へ移動してから、その乗員に運転権限を移行すればよい。覚醒度が高いと推定された乗員が複数いる場合、乗員選択部31はそのうちの誰を選択してもよいが、運転席にいる乗員を優先的に選択するようにしてもよい。
このように、実施の形態3の自動運転支援装置30は、自動運転支援装置30が乗員へ運転権限を引き渡す、いわゆるハンドオーバーの処理を支援し、覚醒度の低い乗員に運転権限が移行されることを防止することができる。
実施の形態3では、実施の形態1で示した覚醒度推定装置10を、車両の自動運転を支援する自動運転支援装置に適用した例を示したが、実施の形態2で示した覚醒度推定装置10も、自動運転支援装置に適用可能であることは言うまでもない。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
10 覚醒度推定装置、11 顔画像取得部、12 開眼度算出部、13 開閉眼判定部、14 笑顔判定用角度算出部、15 笑顔判定部、16 覚醒度推定部、17 眼形状検出部、21 カメラ、22 警告装置、23 自動運転制御装置、24 通知装置、30 自動運転支援装置、31 乗員選択部、50 処理回路、51 プロセッサ、52 メモリ。

Claims (6)

  1. 車両の乗員の顔を撮影した画像である顔画像を取得する顔画像取得部と、
    前記顔画像に基づいて前記乗員の開眼度を算出する開眼度算出部と、
    前記開眼度が予め定められた閾値より小さいか否かを判定する開閉眼判定部と、
    前記顔画像から前記乗員の両口角および両目頭の中点の位置を検出し、一方の口角と両目頭の中点とを結ぶ直線と他方の口角と両目頭の中点とを結ぶ直線とが成す角度である笑顔判定用角度を算出する笑顔判定用角度算出部と、
    前記笑顔判定用角度に基づいて、前記乗員が笑顔か否かを判定する笑顔判定部と、
    前記開眼度が前記閾値より小さくなり、且つ、前記乗員が笑顔でないと判定されると、前記乗員の覚醒度が低下したと推定する覚醒度推定部と、
    を備え
    前記笑顔判定部は、前記顔画像から検出した前記乗員の目の形状を加味して、前記乗員が笑顔か否かを判定する覚醒度推定装置。
  2. 前記笑顔判定部は、前記笑顔判定用角度が予め定められた閾値より大きくなると前記乗員が笑顔であると判定する、
    請求項1に記載の覚醒度推定装置。
  3. 前記覚醒度推定部は、前記乗員の覚醒度の推定結果を、前記車両の乗員への警告を行う警告装置へ出力する、
    請求項1に記載の覚醒度推定装置。
  4. 前記覚醒度推定部は、前記乗員の覚醒度の推定結果を、前記車両の自動運転制御装置へ出力する、
    請求項1に記載の覚醒度推定装置。
  5. 車両の自動運転を支援する自動運転支援装置であって、
    請求項1に記載の覚醒度推定装置と、
    前記車両の自動運転の継続が困難になった場合に、前記覚醒度推定部による前記乗員の覚醒度の推定結果に基づいて、前記車両の運転へ介入させる乗員を選択する乗員選択部と、
    を備える自動運転支援装置。
  6. 覚醒度推定装置の顔画像取得部が、車両の乗員の顔を撮影した画像である顔画像を取得し、
    前記覚醒度推定装置の開眼度算出部が、前記顔画像に基づいて前記乗員の開眼度を算出し、
    前記覚醒度推定装置の開閉眼判定部が、前記開眼度が予め定められた閾値より小さいか否かを判定し、
    前記覚醒度推定装置の笑顔判定用角度算出部が、前記顔画像から前記乗員の両口角および両目頭の中点の位置を検出し、一方の口角と両目頭の中点とを結ぶ直線と他方の口角と両目頭の中点とを結ぶ直線とが成す角度である笑顔判定用角度を算出し、
    前記覚醒度推定装置の笑顔判定部が、前記笑顔判定用角度に基づいて、前記乗員が笑顔か否かを判定し、
    前記開眼度が前記閾値より小さくなり、且つ、前記乗員が笑顔でないと判定されると、前記覚醒度推定装置の覚醒度推定部が、前記乗員の覚醒度が低下したと推定し、
    前記笑顔判定部が、前記顔画像から検出した前記乗員の目の形状を加味して、前記乗員が笑顔か否かを判定する、
    覚醒度推定方法。
JP2021506087A 2019-03-20 2019-03-20 覚醒度推定装置、自動運転支援装置および覚醒度推定方法 Active JP7175381B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/011702 WO2020188788A1 (ja) 2019-03-20 2019-03-20 覚醒度推定装置、自動運転支援装置および覚醒度推定方法

Publications (2)

Publication Number Publication Date
JPWO2020188788A1 JPWO2020188788A1 (ja) 2021-10-14
JP7175381B2 true JP7175381B2 (ja) 2022-11-18

Family

ID=72519763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506087A Active JP7175381B2 (ja) 2019-03-20 2019-03-20 覚醒度推定装置、自動運転支援装置および覚醒度推定方法

Country Status (3)

Country Link
JP (1) JP7175381B2 (ja)
DE (1) DE112019007052T5 (ja)
WO (1) WO2020188788A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022269654A1 (ja) * 2021-06-21 2022-12-29 三菱電機株式会社 状態判定装置および状態判定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242602A (ja) 2007-03-26 2008-10-09 Denso Corp 眠気警報装置、及びプログラム
JP2009045418A (ja) 2007-02-16 2009-03-05 Denso Corp 眠気判定装置,プログラムおよび眠気判定方法
JP2016115120A (ja) 2014-12-15 2016-06-23 アイシン精機株式会社 開閉眼判定装置および開閉眼判定方法
JP2018077649A (ja) 2016-11-09 2018-05-17 本田技研工業株式会社 遠隔運転制御装置、車両制御システム、遠隔運転制御方法、および遠隔運転制御プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5208711B2 (ja) 2008-12-17 2013-06-12 アイシン精機株式会社 眼開閉判別装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009045418A (ja) 2007-02-16 2009-03-05 Denso Corp 眠気判定装置,プログラムおよび眠気判定方法
JP2008242602A (ja) 2007-03-26 2008-10-09 Denso Corp 眠気警報装置、及びプログラム
JP2016115120A (ja) 2014-12-15 2016-06-23 アイシン精機株式会社 開閉眼判定装置および開閉眼判定方法
JP2018077649A (ja) 2016-11-09 2018-05-17 本田技研工業株式会社 遠隔運転制御装置、車両制御システム、遠隔運転制御方法、および遠隔運転制御プログラム

Also Published As

Publication number Publication date
JPWO2020188788A1 (ja) 2021-10-14
DE112019007052T5 (de) 2022-01-27
WO2020188788A1 (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US11959761B1 (en) Passenger profiles for autonomous vehicles
JP7109649B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
CN107303907B (zh) 用于确定驾驶者的睡意的装置和方法
EP3806045B1 (en) Record/play device, record/play method, and program
JP7138175B2 (ja) バーチャルコンテンツを表示するためのヘッドマウント式電子ディスプレイ装置の操作方法およびバーチャルコンテンツを表示するためのディスプレイシステム
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
JP2018046343A (ja) 画像記録装置、画像記録方法およびプログラム
US11189048B2 (en) Information processing system, storing medium storing program, and information processing device controlling method for performing image processing on target region
US11305649B2 (en) Apparatus and method for controlling alcohol interlock
US11221495B2 (en) Aid for a driver with impaired field of view
JP7175381B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
JP6996969B2 (ja) 運転支援装置、及び運転支援方法
JP2022143854A (ja) 乗員状態判定装置および乗員状態判定方法
WO2021140583A1 (ja) 眠気推定装置および眠気推定方法
WO2020250962A1 (ja) 画像処理装置、画像処理方法、記録媒体
JP7447455B2 (ja) 車両用記録制御装置および車両用記録制御方法
JP6847323B2 (ja) 視線検出装置および視線検出方法
JP5040634B2 (ja) 警告装置、警告方法および警告プログラム
WO2021240768A1 (ja) 運転不能判定装置および運転不能判定方法
JP2021012624A (ja) 運転支援装置、および、運転支援プログラム
US11645861B2 (en) Methods and system for occupancy class prediction and occlusion value determination
US20240246568A1 (en) Vehicle device and vehicle estimation method
JP2023063933A (ja) 携帯端末機能制限装置および携帯端末機能制限方法
KR20130080914A (ko) 아이 트래커에 기초하여 디스플레이 모드를 컨트롤 하는 자동차 시스템의 제어 방법 및 컨트롤러
JP7062909B2 (ja) 警報装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221108

R150 Certificate of patent or registration of utility model

Ref document number: 7175381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350