JP2016115119A - 開閉眼判定装置、及び開閉眼判定方法 - Google Patents
開閉眼判定装置、及び開閉眼判定方法 Download PDFInfo
- Publication number
- JP2016115119A JP2016115119A JP2014252942A JP2014252942A JP2016115119A JP 2016115119 A JP2016115119 A JP 2016115119A JP 2014252942 A JP2014252942 A JP 2014252942A JP 2014252942 A JP2014252942 A JP 2014252942A JP 2016115119 A JP2016115119 A JP 2016115119A
- Authority
- JP
- Japan
- Prior art keywords
- open
- eye
- unit
- person
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Emergency Alarm Devices (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】人の眼が開いているか否かを高精度で検出する。【解決手段】実施形態の開閉眼判定装置は、車両の座席に人が座った場合に、当該人の顔が存在する可能性がある第1の範囲に対して、赤外線を照射する照射部と、照射部により赤外線が照射された、第1の範囲を撮像する撮像部と、撮像部が撮像した第1の範囲に、照射部が照射した赤外線による、人の眼の角膜表面からの反射光に相当する、予め定められた閾値以上の高い輝度値が含まれているか否かに基づいて、座席に座っている人の眼が開いているか否かを判定する判定部と、を備える。【選択図】図4
Description
本発明の実施形態は、開閉眼判定装置、及び開閉眼判定方法に関する。
近年、撮像された静止画像または動画像に含まれる顔の位置および向き、ならびに眼および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、車両においては、運転者の顔検出結果から開閉眼判定を行って、居眠り運転等を検知し、警報等の所定の処理を行うことができる。
従来から、居眠り運転等を検知するために、運転者の開閉眼の状態を検知する他、車両運動等の運転挙動から居眠り運転等の推定情報を用いる技術が知られている(例えば、特許文献1参照)。また、顔検出結果から得られる運転者の眼の上下瞼間距離(開眼度)と瞼形状の双方を利用して運転者の開閉眼状態を検知し、居眠り運転等を検知する技術も知られている(例えば、特許文献2参照)。
しかしながら、従来技術では、運転者の開閉眼の状態を検知する際に外乱の影響が大きく開閉眼を正確に判定することが難しい。また、二次元画像上で開閉眼判定を行っているので、二次元画像上でのまぶたの形状は、顔とカメラ間の相対的な角度関係に従って、見え方が変化し、正確な開閉眼判定を行うことが困難である。
そこで、本発明の課題の一つは、より正確な運転者の開閉眼判定を行うことができる開閉眼判定装置、及び開閉眼判定方法を提供することである。
実施形態の開閉眼判定装置は、例えば、車両の座席に人が座った場合に、当該人の顔が存在する可能性がある第1の範囲に対して、赤外線を照射する照射部と、照射部により赤外線が照射された、第1の範囲を撮像する撮像部と、撮像部が撮像した第1の範囲に、照射部が照射した赤外線による、人の眼の角膜表面からの反射光に相当する、予め定められた閾値以上の高い輝度値が含まれているか否かに基づいて、座席に座っている人の眼が開いているか否かを判定する判定部と、を備える。よって、例えば、人の眼が開いているか否かの検出を高精度で実現する。
また、実施形態の開閉眼判定装置は、例えば、座席に座っている人の眼が開いていないと判定された場合には、人に対して警告を促す制御を行う制御部を、さらに備える。よって、例えば、人が寝ていると推定される場合に警告を促すことで、安全性の向上を実現する。
また、実施形態の開閉眼判定装置は、例えば、被験者の三次元顔形状と、三次元顔形状に含まれる、被験者の眼を含む顔の特徴を表す特徴情報と、表情に応じた顔の特徴の形状変化を示す形状パラメータと、を対応付けた三次元顔モデルを記憶する記憶部と、撮像部で撮像された第1の範囲から抽出された、人の顔の特徴を表す特徴情報と、記憶部に記憶された三次元顔モデルの特徴情報と、を照合して、第1の範囲に含まれる、人の眼の位置を特定する照合部と、撮像部で撮像された撮像画像データにおける、照合部により位置が特定された人の眼の状態に対応する、三次元顔モデルの形状パラメータを特定する形状パラメータ判定部と、をさらに備え、判定部は、さらに、特定された形状パラメータと、予め定められた閾値以上の高い輝度値が含まれているか否かと、に基づいて、座席に座っている人の眼が開いているか否かを判定する。よって、例えば、三次元顔モデルによる形状パラメータ、及び予め定められた閾値以上の高い輝度値が含まれているか否かの両方を用いることで、人の眼が開いているか否かの検出を高精度で実現する。
また、実施形態の開閉眼判定装置は、例えば、判定部は、さらに、形状パラメータに基づいて人の眼が閉じていると判定される場合でも、予め定められた閾値以上の高い輝度値が含まれている場合に、座席に座っている人の眼が開いていると判定する。よって、例えば、人の眼が開いているか否かの検出を高精度で実現する。
実施形態の開閉眼判定方法は、例えば、開閉眼判定装置で実行される開閉眼判定方法であって、車両の座席に人が座った場合に、当該人の顔が存在する可能性がある第1の範囲に対して、赤外線を照射し、撮像部が、赤外線が照射された、第1の範囲を撮像し、撮像部により撮像された第1の範囲に、照射部が照射した赤外線による、人の眼の角膜表面からの反射光に相当する、予め定められた閾値以上の高い輝度値が含まれているか否かに基づいて、座席に座っている人の眼が開いているか否かを判定する。よって、例えば、人の眼が開いているか否かの検出を高精度で実現する。
以下に示す実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
(第1の実施形態)
図1に示されるように、第1の実施形態の車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。
図1に示されるように、第1の実施形態の車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。
また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。
また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置や音声出力装置が設けられている。表示装置は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置において手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。
また、図2に示すように、ハンドルコラム202には、撮像部201と、赤外線照射器203と、が設けられている。赤外線照射器203は、例えば、赤外線を照射するLED(Light Emitting Diode)ライト等とする。撮像部201は、例えば、赤外線による撮影に対応した、CCD(Charge Coupled Device)カメラ等とする。
撮像部201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。また、赤外線照射器203は、当該赤外線照射器203が照射する光の光軸が、座席2bに着座する運転者302の顔の近傍に来るように、調整されている。
赤外線照射器203は、上述した調整の結果、車両1の座席2bに人が座った場合に、当該人の顔が存在する可能性がある範囲250に対して、赤外線212を照射する。赤外線212は、人の眼には光として認識されない。このため、人の顔の方向に照射しても、照射対象となった人はまぶしいと感じない。このため、運転時の快適性を確保すると共に、撮像部201による、人の顔の撮像が容易になる。
撮像部201は、上述した調整の結果、赤外線照射器203により赤外線が照射される、当該人の顔が存在する可能性がある範囲250を撮像する。そして、撮像部201は、車両1の運転が行われている間、運転者302の顔の撮影を継続し、撮影により得た撮像画像データを順次、ECU14に出力する。なお、撮像部201による撮像は、一定時間間隔で周期的に行われる。
次に、本実施形態にかかる車両1における開閉眼判定装置を有する開閉眼判定システムについて説明する。図3は、本実施形態にかかる開閉眼判定システム100の構成の一例を示すブロック図である。図3に例示されるように、開閉眼判定システム100では、ECU14や、モニタ装置11、操舵システム13等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、アクチュエータ13aを含む操舵システム13、アクチュエータ18aを含むブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。ここで、ECU14は、開閉眼判定装置の一例である。
ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、表示装置8で表示するための画像データを処理する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
図4は、本実施形態のECU14の機能的構成を示すブロック図である。図4に示されるように、ECU14は、ROM14bに記憶されたプログラムを実行することで、少なくとも、入力部401と、検出部402と、開眼度演算部403と、プルキニエ像判定部404と、開閉眼判定部405と、制御部406と、を実現する。なお、これらの構成をハードウェアで実現するように構成しても良い。
入力部401は、撮像部201により撮像された撮像画像データを入力する。
検出部402は、入力された撮像画像データから、人の顔の領域と、顔部品とを検出する。人の顔の領域、及び顔部品を検出する手法として、どのような手法を用いても良いが、例えば、NN、Adaboost、個人顔テンプレートを用いる手法が考えられる。
また、検出部402は、当該人の部品が定められた領域内で、顔の特徴点(例えば、口端、目尻、目頭等)を検出する。
そして、検出部402は、検出された目尻、目頭を基準として、上まぶた及び下まぶたを検出する。上まぶた及び下まぶたの検出手法としてはどのような手法を用いても良く、例えば、ベジエフィッティング手法を用いることが考えられる。
開眼度演算部403は、算出された上まぶた及び下まぶたの間の距離に基づいて、眼の開眼度を算出する。
プルキニエ像判定部404は、撮像画像データにおける、検出部402により検出された上まぶた及び下まぶたの間近傍の輝度値を解析し、プルキニエ像が写っているか否かを判定する。本実施形態では、プルキニエ像とは、赤外線照射器203が照射した赤外線が、人の眼の角膜表面で反射した場合の写る虚像とする。
図5は、本実施形態にかかる赤外線照射器203が照射した赤外線により写ったプルキニエ像を例示した図である。図5に示されるように、赤外線照射器203から赤外線が照射された場合に、人の眼の角膜表面にプルキニエ像501が生じる。撮像部201が、人の顔を含む領域を撮像する場合に、プルキニエ像501が、輝度値が高い領域として写る。
そこで、プルキニエ像判定部404は、撮像画像データにおける、検出部402により検出された上まぶた及び下まぶたの間の近傍領域において、予め定められた閾値以上の高い輝度値が含まれているか否かを判定する。そして、プルキニエ像判定部404は、予め定められた閾値以上の高い輝度値が含まれている場合に、プルキニエ像が写っていると判定する。なお、予め定められた閾値は、実施態様に応じて定められる値であり、例えば、赤外線照射器203が照射した赤外線の強さに基づいて定められる値として、説明を省略する。
開閉眼判定部405は、開眼度演算部403により算出された眼の開眼度と、プルキニエ像判定部404により判定されたプルキニエ像の判定結果と、に基づいて、人の眼が閉じているか否かを判定する。
本実施形態では、開閉眼判定部405は、開眼度が予め定められた閾値以上か否かに応じて眼が開いているか否かを判定する。例えば、開閉眼判定部405は、開眼度が予め定められた閾値以上の場合に眼が開いていると判定し、開眼度が予め定められた閾値より小さい場合には眼が閉じていると判定する。しかしながら、開眼度が予め定められた閾値より小さい場合であっても、プルキニエ像判定部404によりプルキニエ像が写っていると判定された場合には、当該判定結果を優先して、眼が開いていると判定する。
従来、撮像画像データでは、上まぶたと下まぶたとの間が何ドットあるかに従って、眼の開眼状態を検出していた。しかしながら、顔の正面に設置された撮像部が撮像した撮像画像データでは、顔が下向いている場合や上向いている場合では、眼が開いている状態であっても、上まぶたと下まぶたとの間が狭くなるため、眼が閉じていると判定される可能性があった。
一方、プルキニエ像は、赤外線照射器203が照射した赤外線の、人の眼の角膜表面からの反射光であるため、撮像画像データにおいてプルキニエ像が写っている場合には、眼が開いている可能性が高いと考えられる。
そこで、本実施形態では、撮像画像データに基づいて算出された上まぶたと下まぶたとの間の距離が短い場合でも、プルキニエ像が撮像画像データに写っている場合には、眼が開いていると判定する。
図6は、本実施形態の撮像部201により撮像された撮像画像データから検出されたプルキニエ像の一例を示した図である。図6(A)に示される撮像画像データは、顔が前方を向いたうえで、眼を薄く開いている例とする。そして、図6(B)に示される例は、検出部402により検出された上まぶた601と、下まぶた602とが示されている。図6(B)に示される例は、上まぶた601と、下まぶた602との間にプルキニエ像603が特定できる。
図7は、本実施形態の撮像部201により撮像された撮像画像データから検出されたプルキニエ像の一例を示した図である。図7(A)に示される撮像画像データは、顔が下方を向いたうえで、眼を薄く開いている例とする。そして、図7(B)に示される例は、検出部402により検出された上まぶた701と、下まぶた702とが示されている。図7(B)に示される例は、上まぶた701と、下まぶた702との間にプルキニエ像703が特定できる。
このように、本実施形態では、図6及び図7の例で示されるように、上まぶたと下まぶたとの間の距離が狭い場合であっても、プルキニエ像が特定できる場合では、眼が開いていると推定する。
なお、本実施形態では、撮像画像データにおいて、人の顔の領域、顔部品、及び顔の特徴を検出した後、上まぶたと下まぶたを検出し、上まぶたと下まぶたの近傍でプルキニエ像に相当する輝度値が含まれているか否かを判定する例について説明した。しかしながら、本実施形態は、上まぶたと下まぶたとを特定した後に、上まぶたと下まぶたの近傍でプルキニエ像に相当する輝度値が含まれているか否かを判定する手法に制限するものではない。例えば、撮像画像データにおいて、顔の領域や顔部品等の検出等を行わず、プルキニエ像に相当する輝度値が検出された場合には、眼が開いていると判定しても良い。
制御部406は、開閉眼判定部405により、座席2bに座っている人の眼が閉じていると判定された場合に、モニタ装置11の音声出力装置9から警報となる音声を出力する。なお、本実施形態は、モニタ装置11の音声出力装置9から警報として音声を出力する例について説明するが、警報を音声出力に制限するものではなく、例えば、操舵部4や座席2bの振動など、他の手段を用いても良い。
次に、本実施形態のECU14における、眼の開閉判定に関する全体的な処理について説明する。図8は、本実施形態のECU14における上述した処理の手順を示すフローチャートである。
まず、赤外線照射器203が、運転者の顔を含む可能性がある範囲に赤外線を照射する(ステップS801)。
次に、撮像部201が、赤外線照射器203による赤外線が照射された範囲であって、運転者の顔を含む可能性がある範囲を撮像する(ステップS802)。そして、撮像された撮像画像データは、ECU14に出力される。
そして、入力部401が、撮像部201により撮像された撮像画像データを入力処理する(ステップS803)。
そして、検出部402は、入力された撮像画像データから、人の顔の領域と、顔部品とを検出する(ステップS804)。
そして、検出部402は、人の部品が定められた領域内で、顔の特徴点(例えば、口端、目尻、目頭等)を検出する(ステップS805)。そして、検出部402は、検出された顔の特徴点(目尻、目頭)を基準として、上まぶた及び下まぶたを検出する(ステップS806)。
次に、開眼度演算部403は、算出された上まぶた及び下まぶたの間の距離に基づいて、眼の開眼度を算出する(ステップS807)。
プルキニエ像判定部404は、検出部402により検出された上まぶた及び下まぶたの間近傍の輝度値を解析し、プルキニエ像が写っているか否かを判定する(ステップS808)。
そして、開閉眼判定部405は、開眼度演算部403により算出された眼の開眼度と、プルキニエ像判定部404により判定されたプルキニエ像の判定結果と、に基づいて、人の眼が開いているか否かを判定する(ステップS809)。
そして、開閉眼判定部405が、人の眼が開いていると判定した場合(ステップS809:Yes)、処理を終了する。
一方、開閉眼判定部405が、人の眼が開いていない、又は人の眼が閉じていると判定した場合(ステップS809:No)、音声出力装置9から警報を出力する制御を行う(ステップS810)。
本実施形態では、上述した制御を行うことで、運転するための座席2bに座っている人が寝ている可能性が高いか否かを判定し、寝ている可能性が高い場合には警告することができる。これにより車両1を運転する際の安全性を向上させることができる。
(第2の実施形態)
第1の実施形態では、開眼度と、プルキニエ像の有無と、を組み合わせて、人の眼が開いているか否かを判定する例について説明した。しかしながら、人の眼が開いているか否かを判定する手法を、第1の実施形態に示した手法に制限するものではない。そこで、第2の実施形態では、三次元形状モデルによる開眼状況と、プルキニエ像の有無とを組み合わせて、人の眼が開いているか否かを判定する例について説明する。
第1の実施形態では、開眼度と、プルキニエ像の有無と、を組み合わせて、人の眼が開いているか否かを判定する例について説明した。しかしながら、人の眼が開いているか否かを判定する手法を、第1の実施形態に示した手法に制限するものではない。そこで、第2の実施形態では、三次元形状モデルによる開眼状況と、プルキニエ像の有無とを組み合わせて、人の眼が開いているか否かを判定する例について説明する。
第2の実施形態では、撮像画像データに写っている顔に対して、三次元形状モデルを当てはめ、写っている人の顔の向きや眼の開眼を、当該三次元モデルに基づいて推定する。なお、第2の実施形態のハードウェア構成は第1の実施形態と同様として説明を省略する。第2の実施形態は、第1の実施形態と比べて、ROM14bに格納されるプログラム、及びデータが異なる。このため、ECU14で実現される構成も異なる。
図9は、本実施形態のECU14の機能的構成を示すブロック図である。図9に示されるように、ECU14は、入力部901と、照合部902と、形状パラメータ判定部903と、プルキニエ像判定部904と、開閉眼判定部905と、制御部906と、三次元顔モデル910とを主に備えている。図9に示される、三次元顔モデル910を除く各構成は、ECU14として構成されたCPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェアで実現するように構成しても良い。
三次元顔モデル910は、SSD14f等の記憶媒体に保存されている。三次元顔モデル910は、様々な被験者に基づいて生成された統計的な三次元顔形状と、三次元顔形状上に配置される、被験者の眉、眼、鼻、口および輪郭を表す顔の特徴を表す特徴点と、表情に応じた顔の特徴の形状の変化を示す形状パラメータと、を対応付けている。三次元顔モデル910は、一例として、CLM(Constrained Local Model),AAM(Active Appearance Model),ASM(Active Shape Model)を用いることができるが、これらに限定されるものではない。
図10は、本実施形態の三次元顔モデル910の一例を説明するための模式図である。図10では、例示的な顔のモデルMを示している。モデルMは、例えば様々な被験者から得られた顔形状から生成された顔の立体的形状を示しており、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図10に示す例では、眉、眼、鼻、口および輪郭を表す特徴点Pを示しているが、モデルMは図10に示したものとは異なる特徴点Pを含んでもよい。
本実施形態では、三次元顔モデル910に含まれる形状パラメータを調整することで、三次元顔モデルと、撮像された顔の領域との間のフィッティングを行うことが可能である。さらには、形状パラメータを調整することで、運転者の顔の表情や動作の変化に伴う運転者の眼の形状の段階的な変化を調整することができる。
例えば、三次元顔モデル910には、顔が無表情で正面を向いて眼が開いている状態を標準の状態と、この標準の状態から表情が笑顔になるまでの眼の形状の段階的な変化、標準の状態から眼を閉じるまでの眼の形状の段階的な変化、標準の状態から下を向く(下方視)までの眼の形状の段階的な変化等の各状態が形状パラメータとして登録されている。なお、三次元形状モデルの生成手法は、どのような手法を用いても良いものとして説明を省略する。
本実施形態では、形状パラメータを調整して、三次元形状モデル上で眼の開閉状態を導出する。
このように、本実施形態では、撮像画像データに写っている顔から、当該顔の三次元形状モデルを推定し、当該三次元形状モデルにおいて、顔の向きなどを特定した上で、眼が開いているか否かを判定している。つまり、撮像画像データでは上まぶたと下まぶたとの間がほとんど開いてないと判定される場合でも、三次元形状モデルを推定し、当該三次元形状モデルで、撮像画像データに写っている上まぶたと下まぶたに対応する形状パラメータを特定する。そして、特定された形状パラメータでは、眼が開いている状態であるか否かを判定するため、顔が下向いている場合や上向いている場合であっても眼が開いているか否かを判定できる。
しかしながら、顔がより下を向いている場合や、顔がより上を向いている場合では、三次元形状モデルにおいて上まぶたと下まぶたに対応する形状パラメータを正確に特定できない場合がある。
そこで、本実施形態では、特定された形状パラメータでは眼が閉じていると判定される場合であっても、プルキニエ像が撮像画像データに写っている場合には、眼が開いていると判定する。
次に、本実施形態のECU14における、眼の開閉判定に関する全体的な処理について説明する。図11は、本実施形態のECU14における上述した処理の手順を示すフローチャートである。
まず、赤外線照射器203が、運転者の顔を含む可能性がある範囲に赤外線を照射する(ステップS1101)。次に、撮像部201が、赤外線照射器203による赤外線が照射された範囲であって、運転者の顔を含む可能性がある範囲を撮像する(ステップS1102)。そして、入力部901が、撮像部201により撮像された撮像画像データを入力処理する(ステップS1103)。
照合部902は、二次元の撮像画像データに写っている運転者の顔と、三次元顔モデル910を構成する三次元顔構造データと、を適合させる(ステップS1104)。すなわち、照合部902は、モデルフィッティングとモデルのトラッキングを行う。これにより、照合部902は、運転者の顔の向きを特定(推定)し、三次元顔モデル910上での眼の位置を特定(推定)する。
ここで、本実施形態において、モデルフィッティングは、統計的顔形状モデルである三次元顔モデル910に記憶された顔のモデルを初期状態として用い、該モデルの特徴点Pを撮像画像の顔の各部分に一致するように形状パラメータを調整することで、該顔に近似したモデルMを生成する。
また、本実施形態において、モデルフィッティングにおいてモデルMが生成された後に、形状パラメータ判定部903は、撮像部201で周期的に撮像される運転者の二次元の撮像画像データを、三次元眼モデルに、継続的に適合させる(ステップS1105)。つまり、眼の形状を示した形状パラメータを変化させ、形状パラメータを特定させる処理を継続的に行っている。これにより、撮像画像データに写っている眼の形状に対応する、形状パラメータが継続的に特定される。
次に、プルキニエ像判定部904が、撮像画像データにプルキニエ像に写っているか否かを判定する(ステップS1106)。
開閉眼判定部905は、ステップS1107で特定された形状パラメータと、ステップS1108で判定されたプルキニエ像が写っているか否かに基づいて、運転者が開眼の状態か閉眼の状態かを判定する(ステップS1107)。
開閉眼判定部905は、開眼度が予め定められた閾値以上の場合、又は開眼度が予め定められた閾値より小さくても、プルキニエ像が写っていると判定されている場合には、眼が開いていると判定し(ステップS1107:Yes)、処理を終了する。
一方、開閉眼判定部905は、開眼度が予め定められた閾値より小さく且つプルキニエ像が写っていないと判定されている場合には、眼が閉じていると判定し(ステップS1107:No)、制御部906が、音声出力装置9から警報を出力する制御を行う(ステップS1108)。
なお、本実施形態では、三次元形状モデルで眼が閉じていると判定されているか否かにかかわらず、プルキニエ像が写っている場合には、眼が開いていると判定する例について説明した。しかしながら、プルキニエ像が写っている場合に必ず眼が開いていると判定する手法に制限するものではなく、例えば、三次元形状モデルで特定された顔の向きが、上方向や下方向になるに従って、開眼度よりプルキニエ像が写っているか否かを優先する等の処理を行っても良い。
また、本実施形態では、運転者の顔の眼の形状を、二次元の撮像画像だけでなく、三次元の顔モデルを用いて推定(特定)しているので、撮像部201に対する垂直方向の相対的な顔の位置および顔の向きの影響を受けることが少ない。このため、本実施形態によれば、より正確に眼の形状を推定することができ、これにより、より正確に運転者の開閉眼を判定することができる。
また、本実施形態では、三次元顔モデルに撮像画像をフィッティングしているので、眼の上下左右まぶたに対して同時にフィッティングすることになり、上下左右まぶたで独立に曲線を検出する従来技術に比べて、撮像画像中のノイズに対してロバストに笑顔の検出を行うことができる。
また、本実施形態では、運転者が閉眼状態であると判定された場合には、制御部906は、運転者に警告を促す動作の一例として警報を、モニタ装置11の音声出力装置9から出力させるので、運転者の居眠り運転を防止することができる。
上述した実施形態においては、撮像画像データにプルキニエ像が写っているか否かに基づいて、運転者の眼が開いているか否かの判定を行う。このため、運転者が上下方向を向いているため、撮像画像データでは上まぶたと下まぶたの距離が短いと判定される場合でも、運転者の眼が開いているか否かをより正確に検出することができる。このように、人の眼が開いているか否かの検出を高精度で実現する。
さらに、上述した実施形態においては、撮像画像データにプルキニエ像が写っていない場合に、人が寝ていると推定して、警告を促すことで、安全性を向上させることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…車両、2…車体、2a…車室、2b…座席、3…車輪、3R…後輪、3F…前輪、4…操舵部、8…表示装置、9…音声出力装置、10…操作入力部、11…モニタ装置、12…ダッシュボード、13…操舵システム、13a…アクチュエータ、13b…トルクセンサ、14a…CPU、14b…ROM、14c…RAM、14d…表示制御部、14e…音声制御部、18…ブレーキシステム、18a…アクチュエータ、18b…ブレーキセンサ、19…舵角センサ、20…アクセルセンサ、21…シフトセンサ、22…車輪速センサ、23…車内ネットワーク、100…開閉眼判定システム、201…撮像部、203…赤外線照射器、401…入力部、402…検出部、403…開眼度演算部、404…プルキニエ像判定部、405…開閉眼判定部、406…制御部、901…入力部、902…照合部、903…形状パラメータ判定部、904…プルキニエ像判定部、905…開閉眼判定部、906…制御部。
Claims (5)
- 車両の座席に人が座った場合に、当該人の顔が存在する可能性がある第1の範囲に対して、赤外線を照射する照射部と、
前記照射部により前記赤外線が照射された、前記第1の範囲を撮像する撮像部と、
前記撮像部が撮像した前記第1の範囲に、前記照射部が照射した前記赤外線による、人の眼の角膜表面からの反射光に相当する、予め定められた閾値以上の高い輝度値が含まれているか否かに基づいて、前記座席に座っている人の眼が開いているか否かを判定する判定部と、
を備える開閉眼判定装置。 - 前記座席に座っている人の眼が開いていないと判定された場合には、前記人に対して警告を促す制御を行う制御部を、
さらに備える請求項1に記載の開閉眼判定装置。 - 被験者の三次元顔形状と、前記三次元顔形状に含まれる、被験者の眼を含む顔の特徴を表す特徴情報と、表情に応じた前記顔の特徴の形状変化を示す形状パラメータと、を対応付けた三次元顔モデルを記憶する記憶部と、
前記撮像部で撮像された前記第1の範囲から抽出された、人の顔の特徴を表す特徴情報と、前記記憶部に記憶された前記三次元顔モデルの特徴情報と、を照合して、前記第1の範囲に含まれる、人の眼の位置を特定する照合部と、
前記撮像部で撮像された撮像画像データにおける、前記照合部により位置が特定された人の眼の状態に対応する、前記三次元顔モデルの形状パラメータを特定する形状パラメータ判定部と、をさらに備え、
前記判定部は、さらに、特定された前記形状パラメータと、予め定められた閾値以上の高い輝度値が含まれているか否かと、に基づいて、前記座席に座っている人の眼が開いているか否かを判定する、
請求項1又は2に記載の開閉眼判定装置。 - 前記判定部は、さらに、前記形状パラメータに基づいて人の眼が閉じていると判定される場合でも、予め定められた閾値以上の高い輝度値が含まれている場合に、前記座席に座っている人の眼が開いていると判定する、
請求項3に記載の開閉眼判定装置。 - 開閉眼判定装置で実行される開閉眼判定方法であって、
車両の座席に人が座った場合に、当該人の顔が存在する可能性がある第1の範囲に対して、赤外線を照射し、
撮像部が、前記赤外線が照射された、前記第1の範囲を撮像し、
前記撮像部により撮像された前記第1の範囲に、照射部が照射した前記赤外線による、人の眼の角膜表面からの反射光に相当する、予め定められた閾値以上の高い輝度値が含まれているか否かに基づいて、前記座席に座っている人の眼が開いているか否かを判定する、
ことを含む開閉眼判定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014252942A JP2016115119A (ja) | 2014-12-15 | 2014-12-15 | 開閉眼判定装置、及び開閉眼判定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014252942A JP2016115119A (ja) | 2014-12-15 | 2014-12-15 | 開閉眼判定装置、及び開閉眼判定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016115119A true JP2016115119A (ja) | 2016-06-23 |
Family
ID=56141997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014252942A Pending JP2016115119A (ja) | 2014-12-15 | 2014-12-15 | 開閉眼判定装置、及び開閉眼判定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016115119A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109068294A (zh) * | 2018-07-18 | 2018-12-21 | 上海斐讯数据通信技术有限公司 | 一种公共交通工具到站提醒的方法及系统 |
CN110831490A (zh) * | 2017-07-04 | 2020-02-21 | 兴和株式会社 | 泪液层评价方法、计算机程序、装置 |
JP2021501385A (ja) * | 2017-09-01 | 2021-01-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
-
2014
- 2014-12-15 JP JP2014252942A patent/JP2016115119A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110831490A (zh) * | 2017-07-04 | 2020-02-21 | 兴和株式会社 | 泪液层评价方法、计算机程序、装置 |
US11717152B2 (en) | 2017-07-04 | 2023-08-08 | Kowa Company, Ltd. | Tear fluid layer evaluation method, computer program, and device |
JP2021501385A (ja) * | 2017-09-01 | 2021-01-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
JP2022132550A (ja) * | 2017-09-01 | 2022-09-08 | マジック リープ, インコーポレイテッド | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
JP7178403B2 (ja) | 2017-09-01 | 2022-11-25 | マジック リープ, インコーポレイテッド | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
JP7538186B2 (ja) | 2017-09-01 | 2024-08-21 | マジック リープ, インコーポレイテッド | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
CN109068294A (zh) * | 2018-07-18 | 2018-12-21 | 上海斐讯数据通信技术有限公司 | 一种公共交通工具到站提醒的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11383721B2 (en) | System and method for responding to driver state | |
CN106462027B (zh) | 控制机动车辆中的车辆系统的方法 | |
US10089543B2 (en) | System and method for detecting distraction and a downward vertical head pose in a vehicle | |
JP7290930B2 (ja) | 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム | |
JP6454368B2 (ja) | 車両の表示システム及び車両の表示システムの制御方法 | |
WO2017056401A1 (ja) | 制御装置、制御方法及びプログラム | |
US9475389B1 (en) | System and method for controlling a vehicle display based on driver behavior | |
JP2016115117A (ja) | 判定装置および判定方法 | |
JP2008243031A (ja) | 漫然運転判定装置 | |
JP2016115119A (ja) | 開閉眼判定装置、及び開閉眼判定方法 | |
JP6701951B2 (ja) | 運転支援装置 | |
JP2016115120A (ja) | 開閉眼判定装置および開閉眼判定方法 | |
JP6572538B2 (ja) | 下方視判定装置および下方視判定方法 | |
US11430231B2 (en) | Emotion estimation device and emotion estimation method | |
JP7046748B2 (ja) | 運転者状態判定装置および運転者状態判定方法 | |
JP6365438B2 (ja) | 運転者状態判定方法及びその判定装置 | |
JP2020052770A (ja) | 眼球情報検出装置、眼球情報検出方法、および乗員モニタリング装置 | |
JP2019114118A (ja) | 警告装置、自動車、警告方法、及びプログラム | |
WO2022270206A1 (ja) | 駆動機構の始動制御装置及び始動制御プログラム | |
KR20240137317A (ko) | 센서가 구비된 블랙박스를 이용한 운전자 케어 시스템 | |
WO2018185910A1 (ja) | 車両制御装置、車両制御方法、及び車両制御プログラム | |
JP2018120377A (ja) | ドライバ監視装置、車両、ドライバ監視方法およびプログラム |