JP2023181913A - 瞬き検知装置及び瞬き検知方法 - Google Patents

瞬き検知装置及び瞬き検知方法 Download PDF

Info

Publication number
JP2023181913A
JP2023181913A JP2022095309A JP2022095309A JP2023181913A JP 2023181913 A JP2023181913 A JP 2023181913A JP 2022095309 A JP2022095309 A JP 2022095309A JP 2022095309 A JP2022095309 A JP 2022095309A JP 2023181913 A JP2023181913 A JP 2023181913A
Authority
JP
Japan
Prior art keywords
person
blink
movement
blink detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022095309A
Other languages
English (en)
Inventor
靖博 堂後
Yasuhiro Dogo
和志 吉本
Kazuyuki Yoshimoto
直人 中島
Naoto Nakajima
清吾 直田
Seigo Naota
一生 向井
Kazuo Mukai
雄大 田中
Takehiro Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miraxia Edge Technology Corp
Original Assignee
Miraxia Edge Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miraxia Edge Technology Corp filed Critical Miraxia Edge Technology Corp
Priority to JP2022095309A priority Critical patent/JP2023181913A/ja
Publication of JP2023181913A publication Critical patent/JP2023181913A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】人が上又は下を向くときの動きと瞬きとを精度よく判別することができる瞬き検知装置を提供する。【解決手段】瞬き検知装置30は、人の瞼を含む画像を取得する画像取得部と、取得した画像に基づいて瞼の動きに関する情報を出力する瞬き検知部32と、瞬き検知部32が取得した瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別する判別部40とを備える。【選択図】図1

Description

本開示は、瞬き検知装置及び瞬き検知方法に関する。
従来より、運転者の目を撮像した画像から得られる瞬目の発生パターンを示す瞬目波形から、運転者の覚醒状態を判定する技術が存在する。
例えば、特許文献1には、判定対象者の目を含む領域を撮像する撮像手段と、撮像手段により撮像された画像に基づいて、目の開度を検出する開度検出手段と、開度検出手段によって検出された目の開度に基づいて、目の開度に関する標準の閾値より小さい閾値を用いて求められる群発性瞬目に関する瞬目特徴量、瞬目回数に関する瞬目特徴量、一定時間における開眼状態の長さに関する瞬目特徴量、一定時間における閉眼状態の長さに関する瞬目特徴量等から選択した複数種類の瞬目特徴量を抽出する特徴量抽出手段で構成された眠気判定装置が開示されている。
また、特許文献2には、対象者の瞬目に基づく瞬目波形データを入力する瞬目波形入力手段と、対象者が高覚醒状態である時の瞬目波形データを瞬目波形入力手段により入力し、該瞬目波形データに基づいて対象者の標準の瞬目波形特徴量を算出する標準瞬目波形特徴量算出手段と、入力した瞬目波形データに基づいて識別対象の瞬目波形特徴量を算出する識別対象瞬目波形特徴量算出手段と、標準の瞬目波形特徴量を用いて識別対象の瞬目波形特徴量を補正することにより、共通のパターンモデルに入力するための瞬目識別特徴量を算出する瞬目識別特徴量算出手段と、を備えた瞬目種別識別装置が開示されている。
特許第5210773号公報 特許第5189893号公報
しかしながら、特許文献1、2では、運転者が瞬きをした場合であっても、運転者が計器を確認する際に単に下向きに視線を移したと誤判別したり、運転者が計器を確認する際に単に下向きに視線を移した場合であっても、瞬きをしたと誤判別したりすることがある。このため、従来技術では、瞬きを精度よく判別することができないという課題がある。
そこで、本開示は、人が上又は下を向くときの動きと瞬きとを精度よく判別することができる瞬き検知装置及び瞬き検知方法を提供することを目的とする。
本開示の一態様に係る瞬き検知装置は、人の瞼を含む画像を取得する画像取得部と、取得した前記画像に基づいて瞼の動きに関する情報を取得する瞬き検知部と、前記瞬き検知部が取得した前記瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別する判別部とを備える。
本開示の瞬き検知装置及び瞬き検知方法によれば、人が上又は下を向くときの動きと瞬きとを精度よく判別することができる。
図1は、実施の形態に係る瞬き検知システムを示すブロック図である。 図2は、瞬目波形と分類と内容との関係を示す図である。 図3は、開始フレームと終了フレームと分類との関係を示す図である。 図4は、ピーク周波数と割合との関係を示す図である。 図5は、実施の形態に係る瞬き検知システムのフローチャートである。
なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
以下、実施の形態について、図面を参照しながら具体的に説明する。
(実施の形態)
<構成及び機能>
まず、瞬き検知システム1の構成及び機能について図1~図4を用いて説明する。
図1は、実施の形態に係る瞬き検知システム1を示すブロック図である。図2は、瞬目波形と分類と内容との関係を示す図である。図3は、開始フレームと終了フレームと分類との関係を示す図である。図4は、ピーク周波数と割合との関係を示す図である。
図1に示すように、瞬き検知システム1は、移動体を操縦している操縦者である人の瞼の状態から、人の覚醒状態を判定し、判定した結果を出力することができる。具体的には、瞬き検知システム1は、人が上又は下を向くときの動きと瞬きとを判別することで、人の覚醒状態を判定し、判定した結果を出力することができる。人が上又は下を向くときの動きとは、人の目線の移動(計器等の確認)に伴う瞼の微小な動きのことである。ここで、移動体は、例えば、自動車及び電車等の車両、航空機、船舶等のように、操縦者の操縦によって移動することが可能である。
瞬き検知システム1は、撮像部10と、目特徴点抽出部20と、瞬き検知装置30と、表示装置50とを備えている。
[撮像部10]
撮像部10は、移動体に設けられ、移動体の操縦席に存在する操縦者である人の目を撮像することが可能である。撮像部10は、移動体に固定され、人の目を撮像し続けることで、人の瞼を含んだ画像を取得することができる。つまり、画像には、少なくとも人の瞼が写されている。本実施の形態の画像には、人の瞼を含んだ目が写されている。撮像部10は、画像取得部の一例であってもよい。撮像部10は、取得した画像を目特徴点抽出部20に出力する。
[目特徴点抽出部20]
目特徴点抽出部20は、撮像部10が撮像した画像を取得すると、取得した画像に基づいて人の目を表す目の領域を抽出する。つまり、目特徴点抽出部20は、取得した画像に基づいて、目の輪郭を抽出する。例えば、目特徴点抽出部20は、人の瞼(上眼瞼及び下眼瞼)の特徴点、人の眼球の特徴点等の目の輪郭を抽出することで、人の瞼及び人の眼球等を特定することができる。目特徴点抽出部20は、抽出した人の目の輪郭、つまり目の特徴点を示す情報を瞬き検知装置30に出力する。目特徴点抽出部20は、画像取得部の一例であってもよい。
[瞬き検知装置30]
瞬き検知装置30は、目特徴点抽出部20から取得した目の特徴点を示す情報に基づいて、操縦者の目の瞬きを検出することで、人の覚醒状態を判別することができる。
具体的には、瞬き検知装置30は、開眼率算出部31と、瞬き検知部32と、判別部40と、指標算出部36と、覚醒判別部37とを有している。
開眼率算出部31は、人の瞼を含む画像に基づいた目の輪郭の変化から目の開眼率を算出する。ここで、目の輪郭の変化は、目の輪郭における上端、下端、左端及び右端の変化で示される。
具体的には、開眼率算出部31は、目特徴点抽出部20から目の特徴点を示す情報を取得すると、目の特徴点を示す情報に基づいて、目が開いている度合いを示す開眼率を算出する。開眼率は、目の特徴点を示す情報に示される目の輪郭における上端、下端、左端及び右端のそれぞれの座標から、閉眼時における|上端-下端|/|左端-右端|を用いて算出した値と、開眼時における|上端-下端|/|左端-右端|を用いて算出した値とを正規化することで算出される。開眼率は、人の目を一定時間サンプリングすることで得られる。開眼率算出部31は、一定時間のサンプリング後に、撮像部10が取得した画像のフレームごとに開眼率を算出する。
また、開眼率は、人の両目を用いて算出されてもよく、左目又は右目を用いて算出されてもよい。また、開眼率算出部31は、目の全開時の上眼瞼と下眼瞼との距離に対する、目の特徴点を示す情報に示された上眼瞼の特徴点と下眼瞼の特徴点との距離の割合に基づいて開眼率を算出してもよい。例えば、目が全開のときは開眼率100%となり、目が閉眼のときは開眼率0%となる。
また、撮像部10が操縦者の目を予め撮像することで、開眼率を設定しておいてもよく、メモリ等の記憶部に所定の開眼率が予め記憶されていてもよい。開眼率算出部31は、算出した開眼率を瞬き検知部32に出力する。
また、開眼率算出部31は、目特徴点抽出部20が抽出した目の特徴点を画像に重畳した情報としての目の特徴点を示す情報を目特徴点抽出部20から取得してもよい。この場合、開眼率算出部31は、画像取得部の一例であってもよい。
瞬き検知部32は、画像から得られた開眼率の変化に基づいた瞼の動きに関する情報を取得する。具体的には、瞬き検知部32は、人の瞼を含む画像に基づいた目の輪郭の変化から算出された目の開眼率によって、人の瞼に関する動作を検知する。瞬き検知部32は、検知した人の瞼に関する動作である瞼の動きに関する情報を取得するため、取得した瞼の動きに関する情報に基づいて、人の目の瞼の動きに応じた瞬目波形を生成する。例えば、瞬き検知部32は、図2に示すように、瞬きをした場合の開眼率の変化として、目を閉じ始める画像の1フレーム前の開始フレームから、目を開き切った最初の終了フレームまでの経過時間に応じた瞬目波形を生成する。また、瞬き検知部32は、人が上又は下を向くときの開眼率の変化として、人が上又は下を向き始めて瞼が上方又は下方に移動し始めた画像の1フレーム前の開始フレームから、人が上又は下を向き終えて瞼が元の位置に戻ったときの終了フレームまでの経過時間に応じた瞬目波形を生成する。瞬き検知部32は、生成した瞬目波形を判別部40に出力する。
瞬き検知部32が生成した瞬目波形は、図2及び図3のように分類することができる。具体的には、内容が瞬き(単なる瞬き)の場合では開始フレームから終了フレームまで視線が前を向いているため、瞬目波形が三角波状となり、開始フレームから終了フレームまでの期間が短い「1.瞬き」と分類できる。また、内容が移動体における計器確認の場合では視線が上又は下を向いているが、目を閉じていないため、瞬目波形が方形波状となるため、開始フレームから終了フレームまでの期間が「1.瞬き」よりも長い「2.上向き又は下向き」と分類できる。また、内容が計器確認を伴い瞬きの場合では視線が上又は下を向ける際、又は視線を戻す際に瞬きをしているため、瞬目波形が方形波状と三角波状の合成波となるため、「2.上向き又は下向き」と同様の長さの期間である「3.上向き又は下向きながらの瞬き」と分類できる。
図3で示す数値はあくまでも一例であり、図3の開示に限定されない。このため、分類「2.上向き又は下向き」は、分類「3.上向き又は下向きながらの瞬き」よりも開始フレームから終了フレームまでの期間が長い場合もあれば、期間が短い場合もあり、期間が同じ場合もある。
判別部40は、瞼の動きに関する情報に基づいて人が上又は下を向くときの動きと瞬きとを判別する。具体的には、判別部40は、瞼の動きに関する情報に基づいて瞬き検知部32が生成した瞬目波形を周波数分析した周波数分布(周波数分析で得られたスペクトル)から、人が上又は下を向くときの動きと瞬きとを判別する。周波数分布は、図4に示すように、瞬きの動きに応じたピーク周波数(又は周波数)と、ピーク周波数の割合との関係で示される。例えば、判別部40は、図4に示すように、周波数分布におけるピーク周波数上(横軸)のピーク値と、ピーク周波数上においてピーク値が占める割合(縦軸)とに基づいて、人が上又は下を向くときの動きと瞬きとを判別する。
具体的には、図1に示すように、判別部40は、周波数分析部41と、周波数分布算出部42と、瞬き分類部43とを有している。
周波数分析部41は、瞬き検知部32から瞬目波形を取得すると、FFT(Fast Fourier Transform)等を用いて、取得した瞬目波形を周波数成分に変換したFFT波形を生成して周波数分布算出部42に出力する。
周波数分布算出部42は、周波数分析部41からFFT波形を取得すると、FFT波形からピーク周波数を検出し、検出したピーク周波数をヒストグラム化した周波数分布を生成する。
このように、周波数分析部41がFFT用いて瞬目波形をFFT波形に変換し、周波数分布算出部42がFFT波形からピーク周波数を検出することで、判別部40は、図4に示すような、瞼の動きに関する情報に基づく瞬目波形を周波数分析した周波数分布を生成することができる。図4の周波数分布は、あくまでも一例である。
瞬き分類部43は、周波数分布算出部42が生成した周波数分布に基づいて、人が上又は下を向くときの動きと瞬きとを分類する。具体的には、瞬き分類部43は、周波数分布におけるピーク値と、ピーク周波数上においてピーク値が占める割合とを抽出し、人が上又は下を向くときの動きと瞬きとを分類する。
図4の破線で示した、人が瞬きをせずに上又は下を向きながら視線を移したとき(上向き又は下向き)の周波数分布と、図4の一点鎖線で示した、人が瞬きをしたときの周波数分布と、図4の実線で示した、人が上又は下を向くときに視線を移しながら瞬き(上向き又は下向きながら瞬き)をしたとき周波数分布とは、それぞれ異なっている。このため、瞬き分類部43は、周波数分布におけるピーク値の閾値(周波数閾値)と、ピーク値に対する割合の閾値(割合閾値)とを設定することで、人が上又は下を向くときの動きと瞬きとを分類する。
例えば、図4に示すように、瞬き分類部43は、周波数分布におけるピーク値が第1周波数閾値以上第2周波数閾値未満であり、かつ、割合が第1割合閾値以上第2割合閾値未満であれば、瞬き(単なる瞬き)であると分類する。瞬き分類部43が瞬きと分類すると、判別部40は、人が視線を移さずに瞬きしたと判別する。
また、瞬き分類部43は、周波数分布におけるピーク値が第3周波数閾値以上第4周波数閾値未満であり、かつ、割合が第3割合閾値以上第4割合閾値未満であれば、人が上又は下を向くときの動きである上向き又は下向きと分類する。瞬き分類部43が上向き又は下向きと分類すると、判別部40は、人が瞬きをせずに上又は下を向きながら視線を移したと判別する。つまり、人が上又は下を向くときの動きとは、人が瞬きをせずに上又は下を向きながら視線を移した動きである。
また、瞬き分類部43は、周波数分布におけるピーク値が第5周波数閾値以上第6周波数閾値未満であり、かつ、割合が第5割合閾値以上第6割合閾値未満であれば、上向き又は下向きながらの瞬きと分類する。瞬き分類部43が上向き又は下向きながらの瞬きと分類すると、判別部40は、人が上又は下を向くときに視線を移しながら瞬きしたと判別する。
単なる瞬きの場合は、開始フレームから終了フレームまでの期間が短いため、図4に示すように、周波数分布におけるピーク周波数上(横軸)のピーク値は大きくなる傾向にある。このため、第1周波数閾値及び第2周波数閾値は、第3周波数閾値、第4周波数閾値、第5周波数閾値及び第6周波数閾値よりも大きく設定され、第1割合閾値及び第2割合閾値は、第3割合閾値、第4割合閾値、第5割合閾値及び第6割合閾値よりも大きく設定されてもよい。また、第3周波数閾値及び第4周波数閾値は、第5周波数閾値及び第6周波数閾値よりも大きく設定され、第3割合閾値及び第4割合閾値は、第5割合閾値及び第6割合閾値よりも大きく設定されてもよい。
判別部40が判別した、人が上又は下を向くときの動きは、人の目線の移動(計器等の確認)に伴う瞼の微小な動きである。また、判別部40が判別した瞬きには、人が視線を移さずに瞬きすることと、人が上又は下を向くときに視線を移しながら瞬きすることとが含まれる。ここで、人が視線を移さずに瞬きするとは、人が前方を見ている場合に、人が前方を見ながら瞬きすることである。
また、判別部40は、図2の瞬目波形の特徴テーブルを図示しない記憶部に記憶しておいてもよい。瞬目波形の特徴テーブルは、予め記憶されていてもよく、判別部40が上述の判別をすることで瞬目波形の特徴テーブルを生成して記憶部に記憶してもよい。この場合、判別部40は、瞬目波形を取得すると、記憶部に記憶されている瞬目波形の特徴テーブルと照らし合わせることで、人が瞬きをせずに上又は下を向きながら視線を移した動き、単なる瞬き、人が上又は下を向くときに視線を移しながらの瞬きのいずれかを分類してもよい。
判別部40は、人が瞬きをせずに上又は下を向きながら視線を移した動き、単なる瞬き、人が上又は下を向くときに視線を移しながらの瞬きのいずれかを、瞬き分類部43が分類した結果として指標算出部36に出力する。
指標算出部36は、瞬き分類部43が分類した結果を取得すると、取得した結果に応じて、眠気レベルである人の覚醒度を検知するための指標を算出する。指標算出部36は、算出した指標を覚醒判別部37に出力する。
覚醒判別部37は、指標算出部36が算出した指標を用いて、判別部40が判別した結果に基づいた、人の覚醒状態を判別する。
具体的には、覚醒判別部37は、判別部40が判別した結果が瞬き(上向き又は下向きながらの瞬き、及び、人が視線を移さずに瞬き)であるとき、指標算出部36が算出した指標を用いて、人の覚醒状態を判別する。例えば、覚醒判別部37は、所定期間において瞬きと判別された回数、頻度等の瞬きの傾向つまり時系列に基づいて、人の覚醒状態を判別する。例えば、覚醒判別部37は、指標算出部36が算出した指標と、所定期間において瞬きと判別された回数、頻度等とを照らし合わせることで、瞬きと判別された回数、頻度等が第1規定値以上であれば、覚醒状態が低く眠気レベルが高いと判別してもよい。また、覚醒判別部37は、瞬きと判別された回数、頻度等が第1規定値未満第2規定値以上であれば、覚醒状態が中程度で眠気レベルも中程度と判別してもよい。また、覚醒判別部37は、瞬きと判別された回数、頻度等が第2規定値未満であれば、覚醒状態が高く眠気レベルが低いと判別してもよい。覚醒判別部37は、このように人の覚醒状態を判別した結果を表示装置50に出力する。
[表示装置50]
表示装置50は、覚醒判別部37が判別した結果である人の覚醒状態を示す情報を表示するモニタである。表示装置50は、覚醒判別部37が判別した結果に応じて人の覚醒状態を示す情報を表示する。これにより、操縦者の覚醒状態を報知することができる。
<処理動作>
次に、瞬き検知システム1の処理動作について図5を用いて説明する。
図5は、実施の形態に係る瞬き検知システム1のフローチャートである。
まず、図5に示すように、撮像部10は、人の目を撮像し続けることで、人の瞼を含んだ画像を取得することができる(S11)。撮像部10は、取得したこの画像を目特徴点抽出部20に出力する。
次に、目特徴点抽出部20は、撮像部10から画像を取得すると、取得した画像に基づいて人の目の輪郭を抽出する(S12)。目特徴点抽出部20は、目の特徴点を示す情報を瞬き検知装置30に出力する。
次に、瞬き検知装置30の開眼率算出部31は、人の瞼を含む画像に基づいた目の輪郭の変化から目の開眼率を算出する(S13)。開眼率算出部31は、算出した開眼率を瞬き検知部32に出力する。
次に、瞬き検知部32は、画像に基づいて算出された開眼率を開眼率算出部31から取得すると、開眼率の変化として人の瞼に関する動作を検知することで(S14)、図2に示すような、人の瞼に関する動作である瞼の動きに関する情報に基づいて、人の目の瞼の動きに応じた瞬目波形を生成する。瞬き検知部32は、生成した瞬目波形を判別部40に出力する。
次に、判別部40の周波数分析部41は、瞬き検知部32から瞬目波形を取得すると、FFT等を用いて、取得した瞬目波形を周波数成分に変換したFFT波形を生成する(S15)。周波数分析部41は、生成したFFT波形を周波数分布算出部42に出力する。
次に、周波数分布算出部42は、周波数分析部41からFFT波形を取得すると、FFT波形からピーク周波数を検出し、図4に示すように、検出したピーク周波数をヒストグラム化した周波数分布を生成する(S16)。
次に、瞬き分類部43は、周波数分布算出部42が生成した周波数分布に基づいて、人が上又は下を向くときの動きと瞬きとを分類する(S17)。つまり、瞬き分類部43は、図2に示すように、人が瞬きをせずに上又は下を向きながら視線を移した動き、単なる瞬き、人が上又は下を向くときに視線を移しながらの瞬きのいずれであるかを分類する。瞬き分類部43が分類することで、画像に応じて分類した、図3を得ることができる。瞬き分類部43は、図3のように分類した結果を指標算出部36に出力する。
次に、指標算出部36は、瞬き分類部43が分類した結果に応じて、眠気レベルである人の覚醒度を検知するための指標を算出する(S18)。指標算出部36は、算出した指標を覚醒判別部37に出力する。
次に、覚醒判別部37は、指標算出部36が算出した指標を用いて、人の覚醒状態を判別する(S19)。具体的には、覚醒判別部37は、人が瞬きをせずに上又は下を向きながら視線を移した動き、単なる瞬き、及び、人が上又は下を向くときに視線を移しながらの瞬きにおいて、人の覚醒状態を判別する。覚醒判別部37は、判別した覚醒状態の結果を表示装置50に出力する。
次に、表示装置50は、覚醒判別部37が判別した結果に応じて人の覚醒状態を示す情報を表示する(S20)。
そして、瞬き検知システム1は、図5の処理動作を終了する。
なお、図5のステップS15~S17の代わりに、瞬き検知装置30の判別部40は、瞬き検知部32から瞬目波形を取得すると、当該瞬目波形と記憶部に記憶されている瞬目波形の特徴テーブルと照らし合わせることで、人が瞬きをせずに上又は下を向きながら視線を移した動き、単なる瞬き、人が上又は下を向くときに視線を移しながらの瞬きのいずれかを分類してもよい。
<作用効果>
次に、本実施の形態における瞬き検知装置30及び瞬き検知方法の作用効果について説明する。
上述したように、本実施の形態に係る瞬き検知装置30は、人の瞼を含む画像を取得する画像取得部と、取得した画像に基づいて人の瞼の動きに関する情報を取得する瞬き検知部32と、瞬き検知部32が取得した瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別する判別部40とを備える。
これによれば、瞬き検知装置30は、判別部40が瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと、瞬きとを精度よく判別することができる。
また、本実施の形態に係る瞬き検知方法は、人の瞼を含む画像を取得することと、取得した画像に基づいて人の瞼の動きに関する情報を取得することと、取得した瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別することとを含む。
この瞬き検知方法においても、上述と同様の作用効果を奏する。
また、本実施の形態に係る瞬き検知装置30において、判別部40は、瞼の動きに関する情報に基づいて周波数分析した周波数分布から、人が上又は下を向くときの動きと瞬きとを判別する。
これによれば、瞼の動きから周波数分布を算出することができるため、算出された周波数分布から、人が上又は下を向くときの動きと瞬きとを精度よく判別することができる。
また、本実施の形態に係る瞬き検知装置30において、周波数分布は、瞬きの動きに応じたピーク周波数と、ピーク周波数の割合との関係で示される。そして、判別部40は、周波数分布におけるピーク周波数上のピーク値と、ピーク周波数上においてピーク値が占める割合とに基づいて、人が上又は下を向くときの動きと瞬きとを判別する。
これによれば、例えば、周波数分布におけるピーク値と割合との閾値を設定することで、人が上又は下を向くときの動きと瞬きとを、より精度よく判別することができる。
また、本実施の形態に係る瞬き検知装置30において、瞼の動きに関する情報には、人が上又は下を向くときの動きが含まれている。そして、判別部40は、瞼の動きに関する情報に基づいて人が上又は下を向くときの動きと判別した場合、人が瞬きをせずに上又は下を向きながら視線を移したと判別する。
これによれば、人が瞬きをせずに上又は下を向きながら視線を移したと判別したものを、瞼の動きに関する情報から除外することができる。このため、人が上又は下を向くときの動きと瞬きとを、より精度よく判別することができる。
また、本実施の形態に係る瞬き検知装置30において、判別部40が判別した瞬きには、人が視線を移さずに瞬きすることと、人が上又は下を向くときに視線を移しながら瞬きすることとを含む。
これによれば、人が視線を移さずに瞬きすることと、人が上又は下を向くときに視線を移しながら瞬きすることとを判別することができる。このため、人が上又は下を向くときの動きと、人が視線を移さずに瞬きすることと、人が上又は下を向くときに視線を移しながら瞬きすることとを、より精度よく判別することができる。
また、本実施の形態に係る瞬き検知装置30において、人が瞬きをせずに上又は下を向きながら視線を移したときの周波数分布と、人が瞬きをしたときの周波数分布と、人が上又は下を向くときに視線を移しながら瞬きをしたとき周波数分布とは、それぞれ異なっている。
これによれば、それぞれ異なる周波数分布に分けることができるため、人が上又は下を向くときの動きと、人が視線を移さずに瞬きすることと、人が上又は下を向くときに視線を移しながら瞬きすることとを、より精度よく判別することができる。
また、本実施の形態に係る瞬き検知装置30は、さらに、判別部40が判別した結果に基づいて、人の覚醒状態を判別する覚醒判別部37を備える。
これによれば、判別部40が判別した結果に応じて覚醒状態を精度よく判別することができるようになる。
また、本実施の形態に係る瞬き検知装置30において、瞬き検知部32は、人の瞼の画像に基づいた目の輪郭の変化から算出された目の開眼率によって人の瞬きを検知する。そして、目の輪郭の変化は、目の輪郭における上端、下端、左端及び右端の変化で示される。
これによれば、目の開眼率を精度よく検知することができるため、人の瞬きを精度よく検知することができる。
(その他の変形例)
以上、本開示に係る瞬き検知装置及び瞬き検知方法について、上記実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思い付く各種変形を実施の形態に施したものも、本開示の範囲に含まれてもよい。
例えば、上記各実施の形態に係る瞬き検知装置は、典型的に集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態は例示された数字に制限されない。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
また、上記各実施の形態に係る瞬き検知方法はコンピュータに実行させるためのプログラムにより実現されてもよく、瞬き検知装置は瞬き検知方法をコンピュータに実行させるためのプログラムを記憶部に有していてもよい。
以下に、上記各実施の形態に基づいて説明した瞬き検知装置及び瞬き検知方法の特徴を示す。
<技術1>
人の瞼を含む画像を取得する画像取得部と、
取得した前記画像に基づいて瞼の動きに関する情報を取得する瞬き検知部と、
前記瞬き検知部が取得した前記瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別する判別部とを備える
瞬き検知装置。
<技術2>
前記判別部は、前記瞼の動きに関する情報に基づいて周波数分析した周波数分布から、人が上又は下を向くときの動きと瞬きとを判別する
技術1に記載の瞬き検知装置。
<技術3>
前記周波数分布は、瞬きの動きに応じたピーク周波数と、前記ピーク周波数の割合との関係で示され、
前記判別部は、前記周波数分布における前記ピーク周波数上のピーク値と、前記ピーク周波数上において前記ピーク値が占める割合とに基づいて、人が上又は下を向くときの動きと瞬きとを判別する
技術2に記載の瞬き検知装置。
<技術4>
前記瞼の動きに関する情報には、人が上又は下を向くときの動きが含まれ、
前記判別部は、前記瞼の動きに関する情報に基づいて人が上又は下を向くときの動きと判別した場合、人が瞬きをせずに上又は下を向きながら視線を移したと判別する
技術2に記載の瞬き検知装置。
<技術5>
前記判別部が判別した瞬きには、人が視線を移さずに瞬きすることと、人が上又は下を向くときに視線を移しながら瞬きすることとを含む
技術2~4のいずれか1に記載の瞬き検知装置。
<技術6>
人が瞬きをせずに上又は下を向きながら視線を移したときの周波数分布と、人が瞬きをしたときの周波数分布と、人が上又は下を向くときに視線を移しながら瞬きをしたとき周波数分布とは、それぞれ異なっている
技術5に記載の瞬き検知装置。
<技術7>
さらに、前記判別部が判別した結果に基づいて、人の覚醒状態を判別する覚醒判別部を備える
技術1~6のいずれか1に記載の瞬き検知装置。
<技術8>
前記瞬き検知部は、人の瞼の前記画像に基づいた目の輪郭の変化から算出された目の開眼率によって人の瞬きを検知し
目の輪郭の変化は、目の輪郭における上端、下端、左端及び右端の変化で示される
技術1~7のいずれか1に記載の瞬き検知装置。
<技術9>
人の瞼を含む画像を取得することと、
取得した前記画像に基づいて人の瞼の動きに関する情報を取得することと、
取得した前記瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別することとを含む
瞬き検知方法。
なお、上記の実施の形態に対して当業者が思い付く各種変形を施して得られる形態や、本開示の趣旨を逸脱しない範囲で実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
本開示は、移動体を操縦する操縦者の瞬きを検出して眠気を判定する装置等に利用可能である。
10 撮像部(画像取得部)
20 目特徴点抽出部(画像取得部)
30 瞬き検知装置
31 開眼率算出部(画像取得部)
32 瞬き検知部
37 覚醒判別部
40 判別部

Claims (9)

  1. 人の瞼を含む画像を取得する画像取得部と、
    取得した前記画像に基づいて瞼の動きに関する情報を取得する瞬き検知部と、
    前記瞬き検知部が取得した前記瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別する判別部とを備える
    瞬き検知装置。
  2. 前記判別部は、前記瞼の動きに関する情報に基づいて周波数分析した周波数分布から、人が上又は下を向くときの動きと瞬きとを判別する
    請求項1に記載の瞬き検知装置。
  3. 前記周波数分布は、瞬きの動きに応じたピーク周波数と、前記ピーク周波数の割合との関係で示され、
    前記判別部は、前記周波数分布における前記ピーク周波数上のピーク値と、前記ピーク周波数上において前記ピーク値が占める割合とに基づいて、人が上又は下を向くときの動きと瞬きとを判別する
    請求項2に記載の瞬き検知装置。
  4. 前記瞼の動きに関する情報には、人が上又は下を向くときの動きが含まれ、
    前記判別部は、前記瞼の動きに関する情報に基づいて人が上又は下を向くときの動きと判別した場合、人が瞬きをせずに上又は下を向きながら視線を移したと判別する
    請求項2に記載の瞬き検知装置。
  5. 前記判別部が判別した瞬きには、人が視線を移さずに瞬きすることと、人が上又は下を向くときに視線を移しながら瞬きすることとを含む
    請求項2~4のいずれか1項に記載の瞬き検知装置。
  6. 人が瞬きをせずに上又は下を向きながら視線を移したときの周波数分布と、人が瞬きをしたときの周波数分布と、人が上又は下を向くときに視線を移しながら瞬きをしたとき周波数分布とは、それぞれ異なっている
    請求項5に記載の瞬き検知装置。
  7. さらに、前記判別部が判別した結果に基づいて、人の覚醒状態を判別する覚醒判別部を備える
    請求項1~4のいずれか1項に記載の瞬き検知装置。
  8. 前記瞬き検知部は、人の瞼の前記画像に基づいた目の輪郭の変化から算出された目の開眼率によって人の瞬きを検知し
    目の輪郭の変化は、目の輪郭における上端、下端、左端及び右端の変化で示される
    請求項1~4のいずれか1項に記載の瞬き検知装置。
  9. 人の瞼を含む画像を取得することと、
    取得した前記画像に基づいて人の瞼の動きに関する情報を取得することと、
    取得した前記瞼の動きに関する情報に基づいて、人が上又は下を向くときの動きと瞬きとを判別することとを含む
    瞬き検知方法。
JP2022095309A 2022-06-13 2022-06-13 瞬き検知装置及び瞬き検知方法 Pending JP2023181913A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022095309A JP2023181913A (ja) 2022-06-13 2022-06-13 瞬き検知装置及び瞬き検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022095309A JP2023181913A (ja) 2022-06-13 2022-06-13 瞬き検知装置及び瞬き検知方法

Publications (1)

Publication Number Publication Date
JP2023181913A true JP2023181913A (ja) 2023-12-25

Family

ID=89308998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022095309A Pending JP2023181913A (ja) 2022-06-13 2022-06-13 瞬き検知装置及び瞬き検知方法

Country Status (1)

Country Link
JP (1) JP2023181913A (ja)

Similar Documents

Publication Publication Date Title
Fridman et al. Cognitive load estimation in the wild
Wang et al. Localizing microaneurysms in fundus images through singular spectrum analysis
Ram et al. A successive clutter-rejection-based approach for early detection of diabetic retinopathy
JP5210773B2 (ja) 眠気判定装置及びプログラム
Haberman et al. The visual system discounts emotional deviants when extracting average expression
JP5270415B2 (ja) 眠気判定装置及びプログラム
CN109460703B (zh) 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法
Ghosh et al. Real time eye detection and tracking method for driver assistance system
Dror et al. Automatic assessment of Parkinson's Disease from natural hands movements using 3D depth sensor
Nakamura et al. Detection of driver's drowsy facial expression
Sacco et al. Driver fatigue monitoring system using support vector machines
Picot et al. Using retina modelling to characterize blinking: comparison between EOG and video analysis
CN112674771A (zh) 基于图像注视差异的抑郁人群鉴别方法及装置
KR20210124024A (ko) 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 방법, 장치 및 컴퓨터프로그램
Mansour et al. Identification of diabetic retinal exudates in digital color images using support vector machine
US20210085258A1 (en) System and method to predict a state of drowsiness in a subject
JP6817782B2 (ja) 脈拍検出装置及び脈拍検出方法
JP2023181913A (ja) 瞬き検知装置及び瞬き検知方法
CN111860437A (zh) 一种基于面部表情判断疲劳程度的方法及装置
JP5189893B2 (ja) 瞬目種別識別装置、瞬目種別識別方法、及び瞬目種別識別プログラム
KR101413853B1 (ko) 적외선 영상을 이용한 생체 신호 측정 방법 및 장치
KR20170028631A (ko) 정면 얼굴 영상의 복원을 통한 운전자 부주의 검출 방법 및 장치
Akram et al. Microaneurysm detection for early diagnosis of diabetic retinopathy
Yang et al. Detection of microaneurysms and hemorrhages based on improved Hessian matrix
Djanian Eye movement classification using deep learning