JP2010142345A - 眼開閉判別装置及びプログラム - Google Patents

眼開閉判別装置及びプログラム Download PDF

Info

Publication number
JP2010142345A
JP2010142345A JP2008320889A JP2008320889A JP2010142345A JP 2010142345 A JP2010142345 A JP 2010142345A JP 2008320889 A JP2008320889 A JP 2008320889A JP 2008320889 A JP2008320889 A JP 2008320889A JP 2010142345 A JP2010142345 A JP 2010142345A
Authority
JP
Japan
Prior art keywords
eye
facial expression
eye opening
cpu
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008320889A
Other languages
English (en)
Other versions
JP5208711B2 (ja
Inventor
Tsugunori Morita
貢規 森田
Takashi Hiramaki
崇 平槇
Atsushi Adachi
淳 足立
Kashu Takemae
嘉修 竹前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2008320889A priority Critical patent/JP5208711B2/ja
Priority to US13/121,125 priority patent/US8139819B2/en
Priority to EP09833325.5A priority patent/EP2368496B1/en
Priority to PCT/JP2009/070249 priority patent/WO2010071021A1/ja
Priority to CN2009801381652A priority patent/CN102164541B/zh
Publication of JP2010142345A publication Critical patent/JP2010142345A/ja
Application granted granted Critical
Publication of JP5208711B2 publication Critical patent/JP5208711B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/20Calibration, including self-calibrating arrangements
    • G08B29/24Self-calibration, e.g. compensating for environmental drift or ageing of components
    • G08B29/26Self-calibration, e.g. compensating for environmental drift or ageing of components by updating and storing reference thresholds
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Emergency Management (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Security & Cryptography (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Emergency Alarm Devices (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】被撮影者表情に基づいて被撮影者の眼の開閉状態を判別するのに好適な眼開閉判別装置を提供する。
【解決手段】コンピュータ30は、被撮影者を撮像して得られた顔画像をカメラ10から取得し、取得した顔画像から被撮影者の表情を推定し、当該顔画像から被撮影者の開眼度を求め、推定した被撮影者の表情に基づいて開眼度の閾値を設定し、当該開眼度が当該閾値を超えていると判別した場合に被撮影者の眼が開いていると判別し、当該開眼度が当該閾値を超えていないと判別した場合に被撮影者の眼が閉じていると判別する。
【選択図】図1

Description

本発明は、被撮影者の表情に基づいて被撮影者の眼の開閉状態を判別するのに好適な眼開閉判別装置及び当該眼開閉判別装置をコンピュータ上で実現するためのプログラムに関する。
現在、車両の運転者の顔画像に基づいて運転者の眼の開閉状態を判別して、運転者の居眠り状態を検出する居眠り状態検出装置が知られている。
例えば、特許文献1には、光環境の変化や運転者の個人差による顔の位置の違いに対応して運転者の居眠り状態を検出する居眠り状態検出装置が開示されている。特許文献1に開示された居眠り状態検出装置は、眼の開閉を判定する際に、眼領域に含まれるラベリングされた領域の縦方向の最大連続数から眼の開度を検出し、開閉状態を判定する。
また、特許文献2には、運転者が眩しさを感じている状況を推定し、開閉眼判定基準値を補正することで検出、警報の精度向上を図る眼の状態検出装置が開示されている。特許文献2に開示された眼の状態検出装置は、眼の開度検出回路から出力される複数回の眼の開度値の時系列の変化の中で、眼の開度の最大値、最小値を学習して開閉眼判定基準値を設定する。そして、特許文献2に開示された眼の状態検出装置は、例えば、運転者が眩しさを感じる状態にあると判定したときは、開閉眼判定基準値を小さめに補正する。これにより、運転者が眩しさで眼を細めている場合に、眼が閉じていると誤って判定することを防止する。
さらに、特許文献3には、眠気状態を判定することができる眠気判定装置が開示されている。特許文献3に開示された眠気判定装置は、眼領域の画像に基づいて開眼度を算出し、シグモイド関数に基づいて、算出された開眼度に対する重み係数を求め、この重み係数を開眼度に乗算して、重み付け開眼度を算出する。そして、特許文献3に開示された眠気判定装置は、重み付け開眼度の積算値と、あらかじめ定められた第1しきい値及び第2しきい値とを比較して、眠気レベル0、1、2のいずれかであるかを判定する。特許文献3に開示された眠気判定装置によれば、開眼度を重み付けをした上で積算するため、半眼のような状態に対して、眠気への寄与を考慮して、運転者の眠気状態を判定することができる。
また、特許文献4には、運転開始時であることが検出され且つ眼の開眼度が変化していると判別されたときに開閉眼判定基準値を再学習する基準値補正手段を備えた眼の状態検出装置が開示されている。特許文献4に開示された眼の状態検出装置は、周囲の状況などに応じた適切なタイミングで開閉眼判定基準値を再学習する。例えば、光環境の変化により運転者が眩しい状況であると判断できる場合は、開閉眼判定基準値を再学習しない。これにより、開閉眼判定基準値が必要以上に小さくなることを防ぎ、運転者が眩しくない状態で常時開眼と判定されることを防ぐことが可能となる。
特開平10−143669号公報 特開2000−198369号公報 特開2008−212298号公報 特許第3769442号公報
しかしながら、特許文献1〜4に開示された装置は、運転者の表情を考慮して運転者の眼の開閉状態を適切に判定する構成ではないため、運転者の眼の開閉状態を誤って判定してしまうことがあった。
例えば、特許文献1に開示された居眠り状態検出装置は、運転者の眼が細くなっているときは、上下瞼の距離が近いため、運転者の表情にかかわらず、眼が閉じた状態であると誤って判定してしまうことがあった。
また、特許文献2に開示された眼の状態検出装置は、眼の周りの濃度情報等からドライバーの置かれた状態を推定する装置である。このため、例えば、眼の周りが明るく映っていれば、表情に拘わらず、運転者は眩しい状態に置かれていると推定してしまうことがあった。また、逆に、眼の周りが暗ければ、運転者が眩しいと思っていても、運転者は眩しい状態に置かれていないと推定してしまうことがあった。
また、特許文献3に開示された眠気判定装置は、半眼のような状態を考慮して運転者の眠気レベルを判定できるものの、運転者の表情全体を考慮して眠気レベルを適切に判定できるものではなかった。
また、特許文献4に開示された眼の状態検出装置は、過去の状況に基づいて生成した(再学習した)開閉眼判定基準値を開閉眼判定の基準としている。このため、特許文献4に開示された眼の状態検出装置は、眼の開閉判定をする時点の運転者の表情など、眼の開閉判定をする時点の状況に対応して適切に開閉眼判定をすることができなかった。
本発明は、上記問題に鑑みてなされたものであり、被撮影者の表情に基づいて被撮影者の眼の開閉を判別するのに好適な眼開閉判別装置及び当該眼開閉判別装置をコンピュータ上で実現するためのプログラムを提供することを目的とする。
上記目的を達成するために、本発明の第1の観点に係る眼開閉判別装置は、
被撮影者の顔画像を取得する顔画像取得手段と、
前記顔画像取得手段により取得された顔画像から被撮影者の表情を推定する表情推定手段と、
前記顔画像取得手段により取得された顔画像から被撮影者の開眼度を求める開眼度取得手段と、
前記表情推定手段により推定された表情に基づいて開眼度の閾値を設定する閾値設定手段と、
前記開眼度取得手段により求められた開眼度が前記閾値設定手段により設定された閾値を超えていると判別した場合に被撮影者の眼が開いていると判別し、当該開眼度が当該閾値を超えていないと判別した場合に被撮影者の眼が閉じていると判別する眼開閉判別手段と、を備える、
ことを特徴とする。
前記閾値設定手段は、前記表情推定手段により推定された表情が、覚醒度が高いことを示す表情であると判別した場合に開眼度の閾値を低く設定し、前記表情推定手段により推定された表情が、覚醒度が低いことを示す表情であると判別した場合に開眼度の閾値を高く設定してもよい。
前記眼開閉判別手段は、前記表情推定手段により推定された表情が、覚醒度が高いことを示す表情であると判別した場合に前記開眼度取得手段により求められた開眼度にかかわらず被撮影者の眼が開いていると判別し、前記表情推定手段により推定された表情が、覚醒度が低いことを示す表情であると判別した場合に前記開眼度取得手段により求められた開眼度にかかわらず被撮影者の眼が閉じていると判別してもよい。
前記閾値設定手段は、笑っている表情、眩しい表情又は特定の方向にあるものを注視している表情を覚醒度が高いことを示す表情であると判別してもよい。
前記閾値設定手段は、眠そうな表情を覚醒度が低いことを示す表情であると判別してもよい。
前記表情推定手段により推定された表情を示す情報と、前記開眼度取得手段により求められた開眼度を示す情報とを対応付けて履歴情報として記憶する履歴情報記憶手段を備え、
前記閾値設定手段は、前記履歴情報記憶手段に記憶された履歴情報に基づいて閾値を設定してもよい。
前記履歴情報記憶手段は、前記表情推定手段により推定された表情を示す情報と、前記開眼度取得手段により求められた開眼度を示す情報と、に加え、前記眼開閉判別手段により判別された判別結果を示す情報をさらに対応付けて履歴情報として記憶し、
前記閾値設定手段は、前記履歴情報記憶手段に記憶された履歴情報に基づいて閾値を設定してもよい。
前記表情推定手段は、前記顔画像取得手段により取得された顔画像からニューラルネットワークを用いて被撮影者の表情を推定してもよい。
前記開眼度取得手段は、前記顔画像取得手段により取得された顔画像から被撮影者の眼近傍の領域を抽出し、当該抽出した領域内の画素の輝度を二値化し、当該領域内において所定の輝度の画素が縦方向に連続する最大の画素数を開眼度として求めてもよい。
上記目的を達成するために、本発明のその他の観点に係るプログラムは、
コンピュータを、
被撮影者の顔画像を取得する顔画像取得手段、
前記顔画像取得手段により取得された顔画像から被撮影者の表情を推定する表情推定手段、
前記顔画像取得手段により取得された顔画像から被撮影者の開眼度を求める開眼度取得手段、
前記表情推定手段により推定された被撮影者の表情に基づいて開眼度の閾値を設定する閾値設定手段、
前記開眼度取得手段により求められた開眼度が前記閾値設定手段により設定された閾値を超えていると判別した場合に被撮影者の眼が開いていると判別し、当該開眼度が当該閾値を超えていないと判別した場合に被撮影者の眼が閉じていると判別する眼開閉判別手段、
として機能させることを特徴とする。
本発明にかかる眼開閉判別装置及びプログラムによれば、被撮影者の表情に基づいて被撮影者の眼の開閉状態を判別することができる。
(第1の実施形態)
以下、本発明の第1の実施形態に係る眼開閉判別装置100について図面を参照して説明する。
まず、図1を参照して本発明の第1の実施形態に係る眼開閉判別装置100の構成について説明する。
図1に示すように、眼開閉判別装置100は、ドライバーの顔を撮影して顔画像を生成するカメラ10と、ドライバーの顔を照明する照明光源20と、ドライバーの眼の開閉状態を判別するコンピュータ30と、コンピュータ30に接続された表示装置40と、から構成される。
カメラ10は、ドライバーの顔の階調画像(以下、「顔画像」とする。)を一定周期(例えば、1/30秒)で取得し、取得した顔画像を順次出力する。カメラ10は、ドライバーの顔とその背景とを含む顔画像を、例えば、アナログ画像信号として出力する。カメラ10は、例えば、CCD(Charge Coupled Device)カメラ等から構成される。
表示装置40は、カメラ10により撮影された顔画像などを表示する。表示装置40は、例えば、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成される。
コンピュータ30は、カメラ10により撮影された顔画像を処理して、その眼の開閉状態を判別する装置である。コンピュータ30は、例えば、図2に示すように、A/D(Analog/Digital)変換器31と、画像メモリ32と、ROM(Read Only Memory)33と、CPU(Central Processing Unit)34と、RAM(Random Access Memory)35と、表示制御装置36と、光源制御装置37と、設定メモリ38と、操作装置39と、から構成される。
A/D変換器31は、カメラ10から供給されたアナログ画像信号をディジタル画像信号に変換して、出力する。
画像メモリ32は、A/D変換器31が出力したディジタル画像信号により表現された顔画像を記憶する。画像メモリ32は、例えば、SRAM(Static Random Access Memory)などから構成される。
ROM33は、CPU34の動作を制御するためのプログラムを記憶する。また、ROM33は、後述する画像処理を実行するための様々な固定データを記憶する。
CPU34は、コンピュータ30全体の動作を制御する。CPU34は、ROM33に記憶されたプログラムを実行することにより、カメラ10により生成された顔画像を処理してドライバーの眼の開閉状態を判別する。
RAM35は、CPU34のワークエリアとして機能する。
表示制御装置36は、CPU34の制御のもと、例えば、画像メモリ32に記憶された顔画像を表示装置40が表示可能なデータ形式に変換して、表示装置40に供給する。
光源制御装置37は、照明光源20の点灯・消灯を制御する。
設定メモリ38は、後述する表情マップやクラスタリング結果などCPU34が顔画像を処理して眼の開閉状態を判別する際に使用するデータ(以下、「設定情報」とする。)を格納する。
操作装置39は、ユーザからの操作を受け付け、操作に応じた操作信号をCPU34に供給する。
次に、図3に示すフローチャートを用いて、眼開閉判別装置100が実行する眼開閉状態判別処理について説明する。
眼開閉判別装置100の電源が投入されると、コンピュータ30内のCPU34は、定期的(例えば、1/30秒毎)に図3に示す眼開閉状態判別処理を実行する。
まず、CPU34は、眼開閉状態判別処理で使用する変数の初期化等を実行する(ステップS101)。
そして、CPU34は、ドライバーの顔画像を取得する(ステップS102)。具体的には、CPU34は、カメラ10が出力する1フレーム分のアナログ画像信号により表現される顔画像をA/D変換器31に供給し、当該A/D変換器31が出力する1フレーム分のディジタル画像信号により表現される顔画像を画像メモリ32に記憶する。
次に、CPU34は、表情推定処理を実行する(ステップS103)。CPU34が実行する表情推定処理は、顔画像から表情を推定できる処理であればどんな処理でもよい。本実施形態では、コホーネント型ニューラルネットワークによって表情を推定する処理を説明する。
なお、コホーネント型ニューラルネットワークを用いて表情を推定する場合、どのような顔画像が入力されたときにどのような表情と推定するかをあらかじめ学習する必要がある。ここでは、CPU34が、表情推定処理(ステップS103)の実行に先立って実行する学習処理について、図4に示すフローチャートを参照しながら説明する。
CPU34は、学習処理で使用する変数等を初期化する(ステップS201)。また、CPU34は、後述する表情マップを初期化、すなわち、各ユニットのネットワーク結合重みに小さな値をランダムに与えて初期化する。
次に、CPU34は、学習用の顔画像を取得する(ステップS202)。CPU34は、例えば、各表情のドライバーを撮影したカメラ10が出力する1フレーム分のアナログ画像信号により表現された顔画像をA/D変換器31に供給し、当該A/D変換器31が出力する1フレーム分のディジタル画像信号により表現された顔画像を学習用の顔画像として取得する。
ここで、学習用の顔画像について図面を参照して説明する。
図5(A)〜(F)に学習用の顔画像を例示する。図5(A)は「無表情」のドライバーを撮影した際に得られる顔画像の一例であり、図5(B)は「怒り」を感じているドライバーを撮影した際に得られるの顔画像の一例であり、図5(C)は「眩しい」と感じているドライバーを撮影した際に得られる顔画像の一例であり、図5(D)は「眠い」と感じているドライバーを撮影した際に得られる顔画像の一例であり、図5(E)は「笑い」を感じているドライバーを撮影した際に得られる顔画像の一例であり、図5(F)は「驚き」を感じているドライバーを撮影した際に得られる顔画像の一例である。
CPU34は、図5(A)〜(F)に例示するような、各表情の顔画像を取得する。なお、表情は上述した6種類の表情に限られるものではないが、理解を容易にするため、表情は上述の6種類の表情のいずれかに分類されるものとして説明する。
CPU34は、取得した学習用の顔画像を所定の形式の顔画像に正規化する(ステップS203)。例えば、CPU34は、取得した学習用の顔画像をグレースケール化し、両目の位置から顔の向き、顔の大きさをアフィン変換を用いて補正する。そして、CPU34は、鼻の位置を中心に所定の大きさ(例えば、256×256pixel)に画像を切り出した後、所定の大きさ(例えば、64×64pixel)に圧縮する。CPU34は、圧縮後の顔画像を画像メモリ32に記憶する。
次にCPU34は、表情マップを更新する(ステップS204)。具体的には、CPU34は以下の式(1)〜(4)を用いて各種の演算を実行することにより、表情マップを更新する。なお、表情マップは、取得した学習用の顔画像(以下、「入力画像」とする。)を64(k方向)×64(l方向)の画素から構成される画像として、当該入力画像と同じサイズの画像(以下、「ユニット」とする。)をk方向にi個、l方向にj個並べてできる画像である。
ここで、入力画像の各画素の輝度値をxklと表し、座標が(i,j)のユニットの各画素の輝度値(以下、「ネットワーク結合重み」とする。)をwijklと表すと、入力画像と座標が(i,j)のユニットとの類似度uijは式(1)により求めることができる。そして、CPU34は、類似度uijが最大のユニットを類似度最大ユニットとして特定する。
Figure 2010142345
そして、CPU34は、類似度最大ユニットを中心とした近傍半径d内の結合重みをxklに近づくように式(2)〜(4)を用いて修正する。ここで、w’ijklは更新後のネットワーク結合重み、wijklは更新前のネットワーク結合重み、dは近傍半径、dとdは最適整合ユニットから更新する重みまでのi方向とj方向の距離、Tは総学習回数、tは現在の学習回数、α(t)は学習係数である。
Figure 2010142345
Figure 2010142345
Figure 2010142345
なお、式(3)のようにf(X)を設定することにより、なだらかな表情変化が生じるようにしている。また、学習係数を式(3)のように設定することにより、学習が進むにつれて学習係数が小さくなるようにしている。すなわち、重みの更新量は、マップ上における類似度最大ユニットからの距離が離れるに従って減少し、かつ学習が進むにつれて減少する。
次に、CPU34は、全ての学習用の顔画像について学習したか否かを判別する(ステップS205)。CPU34は、現在の学習回数が総学習回数と一致するか否かを判別し、一致すると判別した場合(ステップS205:YES)はクラスタリング(ステップS206)に処理を移し、一致しないと判別した場合(ステップS205:NO)は顔画像取得(ステップS202)に処理を戻す。すなわち、CPU34は、現在の学習回数が総学習回数と一致すると判別するまでは、顔画像取得(ステップS202)から表情マップ更新(ステップS204)までの処理を繰り返すことにより表情マップの更新を繰り返す。
CPU34は、現在の学習回数が総学習回数と一致すると判別した場合(ステップS205:YES)はクラスタリング(ステップS206)を実行する。すなわち、CPU34は、学習後の表情マップを表情毎に領域化する。
図6は、顔画像取得(ステップS202)から表情マップ更新(ステップS204)までの処理により総学習回数分更新された表情マップを模式的に示した図である。図6に示すように、学習後の表情マップの各ユニットには表情を示すような画像が形成される。なお、学習前の表情マップ、すなわち、CPU34が初期化(ステップS201)を実行した直後の表情マップの各ユニットには、表情を示すような画像は形成されない。ネットワーク結合重みとしてランダムな値が割り当てられた直後だからである。
CPU34は、図6に示す表情マップに基づいて、各表情の類似度最大位置を求める。CPU34は、図7(A)に示すような、「無表情」の顔画像の類似度最大位置51、「怒り」の顔画像の類似度最大位置52、「眩しい」の顔画像の類似度最大位置53、「眠い」の顔画像の類似度最大位置54、「笑い」の顔画像の類似度最大位置55、「驚き」の顔画像の類似度最大位置56、を求める。CPU34は、例えば、操作装置39を介して各表情の顔画像の類似度最大位置をユーザから取得する。
そして、CPU34は、表情fの類似度最大位置をセントロイドベクトルXとしてクラスタリングを施し、図7(B)に示すように領域化する。領域化は、表情マップ上の座標(i,j)のニューロンwijに対して、式(5)により得られるdが最小になる表情fをそのニューロンwijの表情としてクラスタリングする。CPU34は、表情マップとクラスタリング結果とを設定情報として、設定メモリ38に記憶する。
Figure 2010142345
CPU34は、クラスタリング(ステップS206)を完了すると、表情マップとクラスタリング結果とを設定情報として設定メモリ38に記憶して学習処理を完了する。
CPU34は、表情推定処理を実行する前に、あらかじめ以上に示した学習処理を実行しておく。
次に、図8に示すフローチャートを用いて、眼開閉判別装置100が実行する表情推定処理について説明する。なお、眼開閉判別装置100は、類似度最大位置法を用いて表情を推定するものとして説明する。
CPU34は、画像メモリに記憶された顔画像を所定の形式の顔画像に正規化する(ステップS301)。例えば、CPU34は、画像メモリに記憶された顔画像をグレースケール化し、両目の位置から顔の向き、顔の大きさをアフィン変換を用いて補正する。そして、CPU34は、鼻の位置を中心に所定の大きさ(例えば、256×256pixel)に画像を切り出した後、所定の大きさ(例えば、64×64pixel)に圧縮する。CPU34は、圧縮後の顔画像を画像メモリ32に記憶する。
次に、CPU34は、類似度を取得する(ステップS302)。CPU34は、式(1)を用いて、画像メモリ32に記憶された圧縮後の顔画像を入力画像として、当該入力画像と、設定メモリ38に記憶された表情マップを構成する各ユニットとの類似度をそれぞれ求める。
そして、CPU34は、表情を特定する(ステップS303)。CPU34は、ステップS302で求めた類似度が最大となるユニットを求め、当該ユニットが属する領域の表情をドライバーの表情として特定する。CPU34は、特定した表情を示す情報(以下、「推定表情データ」とする。)をRAM35に記憶する。
CPU34は、表情の特定(ステップS303)を完了すると、表情推定処理(ステップS103)を完了する。
CPU34は、表情推定処理(ステップS103)を完了すると、開眼度検出処理を実行する(ステップS104)。以下、図9に示すフローチャートを参照しながら開眼度検出処理について詳細に説明する。なお、運転中のドライバーの一方の眼が開眼し、他方の眼が閉眼しているということは考えにくい。そこで、理解を容易にするため、開眼度検出処理ではいずれか一方の眼についてのみ開眼度を検出するものとして説明する。
CPU34は、まず、眼位置検出処理を実行する(ステップS401)。ここで、図10に示すフローチャートを参照しながら眼位置検出処理について詳細に説明する。ここで、図11(A)に、顔画像取得(ステップS102)で取得した顔画像の一例を示す。なお、この顔画像は、512pixel(x軸方向)×512pixel(y軸方向)、1画素について24bitのビットマップ形式であるものとして説明する。
CPU34は、選択した列を構成する各画素の輝度を検出する(ステップS501)。なお、図11(A)に示す例では、選択した列はX座標がXaの列である。CPU34は、選択した列の512個の画素の全てについて、輝度を求める。CPU34は、例えば、各画素の各色(R、G、B)の階調値(0〜255)の平均値を求め、当該平均値を当該画素の輝度とする。
次に、CPU34は、選択した列を構成する各画素の輝度の移動平均を求める(ステップS502)。CPU34は、例えば、Y軸方向に連続する10個の画素の輝度の移動平均をY座標が小さい画素から順に算出する。図11(B)に、X座標がXaの列における、輝度の移動平均と、Y座標との関係を示す。
なお、ステップS502において、輝度の移動平均を求めているのは、後述する処理において、局所的な輝度の変化の影響を小さくし、大局的な輝度の変化を捉えることを可能にするためである。
次に、CPU34は、ステップS502で求めた輝度の移動平均をY軸方向の位置を示す変数で微分する(ステップS503)。図11(C)に、X座標がXaの列における、輝度の移動平均の微分値と、Y座標との関係を示す。
次に、CPU34は、輝度が極小となる座標(以下、「輝度極小ポイント」とする。)を抽出する(ステップS504)。図11(C)に示す例では、CPU34は、まず、微分値が負から正に変化する輝度極小ポイントp1〜p3を抽出する。そして、CPU34は、当該検出した輝度極小ポイントp1〜p3のそれぞれについて、輝度がある程度大きく変化するポイントであるか否かを判別する。具体的には、CPU34は、輝度極小ポイントp1〜p3のそれぞれについて、微分値が極小となる直前のポイントq1〜q3を抽出し、当該ポイントq1〜q3のそれぞれが所定の閾値Dth以下であるか否かを判別する。
図11(C)に示す例では、閾値Dth以下のポイントは、ポイントq1とポイントq2であり、ポイントq3は閾値Dth以下ではない。このため、CPU34は、輝度極小ポイントp1〜p3のうち、輝度極小ポイントp3を除外し、輝度極小ポイントp1を輝度極小ポイントA1、輝度極小ポイントp2を輝度極小ポイントA2として抽出する。
次に、CPU34は、全ての列について輝度極小ポイントが抽出が完了したか否か、すなわち、全ての列について輝度検出(ステップS501)から輝度極小ポイント抽出(S504)までの処理が完了したか否かを判別する(ステップS505)。CPU34は、全ての列について輝度極小ポイントの抽出が完了したと判別したときは(ステップS505:YES)、輝度極小曲線群を抽出する(ステップS506)。CPU34は、全ての列については輝度極小ポイントの抽出が完了していないと判別したときは(ステップS505:NO)、輝度極小ポイントの抽出が完了していない列について、輝度検出(ステップS501)から輝度極小ポイント抽出(S504)までの処理を実行する。
CPU34は、全ての列について輝度極小ポイントの抽出が完了したと判別すると(ステップS505:YES)、輝度極小曲線群を抽出する(ステップS506)。CPU34は、各列について抽出した輝度極小ポイントを順次プロットしていき、全ての列について抽出した輝度極小ポイントをプロットする。図12に、抽出した全ての輝度極小ポイントの分布の例を示す。例えば、CPU34は、Xa列において輝度極小ポイントA1及び輝度極小ポイントA2を抽出した場合、輝度極小ポイントA1及び輝度極小ポイントA2をプロットし、他の列についても同様に抽出した輝度極小ポイントをプロットする。ここで、図12に示すように、両眉、両眼、鼻及び口付近に連続した輝度極小ポイントから構成される輝度極小曲線G1〜G6が存在する。CPU34は、これらの輝度極小曲線群を検出する。
輝度極小曲線の検出方法は任意であるが、例えば、X座標の差が1であり、Y座標の差が5以内であるポイント同士を接続した場合に、接続された輝度極小ポイント数が3以上の輝度極小ポイント群を検出し、当該輝度極小ポイント群を輝度極小曲線とみなしてもよい。図12には、G1〜6の6つの輝度極小曲線が検出された例を示している。また、CPU34は、輝度極小曲線の属性として、輝度極小曲線を構成する各ポイントの座標の他、輝度極小曲線の通し番号である曲線番号、輝度極小曲線を構成する輝度極小ポイント数である曲線長、輝度極小曲線を構成する全ての輝度極小ポイントのX座標の平均値である中心X座標、及び、輝度極小曲線を構成する全ての輝度極小ポイントのY座標の平均値である中心Y座標等をRAM35に記憶する。
次に、CPU34は、各輝度極小曲線の属性をもとにして眼の位置を検出する(ステップS507)。眼の位置を検出する方法は任意であるが、例えば、一般的な眼の特徴をもとにして、ステップS506で求めた輝度極小曲線群の中から眼の特徴をよく表している輝度極小曲線を抽出し、当該輝度極小曲線の属性から眼の位置を求める。
例えば、「眼は横に長い」、「眼は上に凸型の弓形形状である」、「眼の横方向の位置は顔の中心から離れている」、「眼は眉の下に存在する」などの条件を設定する。このような条件を設定する場合、CPU34は、「眼は横に長い」という条件に基づいて、例えば、曲線長が5以上の輝度極小曲線を抽出する。そして、CPU34は、「眼は上に凸型の弓形形状」という条件に基づいて、例えば、輝度極小曲線を構成する輝度極小ポイントのうち最もX座標が小さい輝度極小ポイントのY座標と輝度極小曲線を構成する輝度極小ポイントのうち最もX座標が大きい輝度極小ポイントのY座標とが共に中心Y座標よりも大きい輝度極小曲線を抽出する。
また、CPU34は、「眼の横方向の位置は顔の中心から離れている」という条件に基づいて、例えば、ステップS504で求めた全輝度極小ポイントの重心のX座標と中心X座標との差が10以上の曲線を抽出する。さらに、CPU34は、「眼は眉の下に存在する」という条件に基づいて、例えば、互いに中心X座標の差が5以内の輝度極小曲線が2つ存在する場合、中心Y座標が大きい方の輝度極小曲線を抽出する。
以上のようにして、CPU34は、輝度極小曲線群から眼に相当する輝度極小曲線を抽出し、眼の位置を検出する。例えば、図12に示す例では、CPU34は、右眼を表す輝度極小曲線として輝度極小曲線G3を抽出し、左眼を表す輝度極小曲線として輝度極小曲線G4を抽出する。そして、CPU34は、輝度極小曲線G3の中心X座標及び中心Y座標から構成される座標を右眼の中心位置として設定し、輝度極小曲線G4の中心X座標及び中心Y座標から構成される座標を左眼の中心位置として設定する。CPU34は、目の位置検出(ステップS507)を完了すると、眼位置検出処理を完了する。
CPU34は、眼位置検出処理(ステップS401)を完了すると、眼を含む所定範囲(以下、「眼近傍領域」とする。)を設定する(ステップS402)。CPU34は、例えば、眼位置検出処理(ステップS401)で眼に相当する輝度極小曲線として抽出した輝度極小曲線の属性に基づいて、眼近傍領域を設定する。具体的には、例えば、CPU34は、X座標が当該輝度極小曲線の中心X座標と50以内であって、Y座標が当該輝度極小曲線の中心Y座標と20以内である領域を眼近傍領域に設定する。
次に、CPU34は、二値化処理を実行する(ステップS403)。二値化処理については、図13に示すフローチャートを参照して説明する。
二値化処理では、まず、CPU34は、選択した列を構成する各画素の輝度を検出する(ステップS601)。CPU34は、選択した列の全ての画素について、各画素の各色の階調値の平均値を求め、当該平均値を当該画素の輝度とする。ここで、図14(A)は、眼近傍領域の画像の一例を示す。CPU34は、列毎に輝度検出(ステップS601)から輝度極小ポイント抽出(ステップS604)までの処理を実行する。図14(A)に示す例では、選択した列はX座標がXbの列である。
次に、CPU34は、選択した列を構成する各画素の輝度の移動平均を求める(ステップS602)。CPU34は、例えば、Y軸方向に連続する10個の画素の輝度の移動平均をY座標が小さい画素から順に算出する。図14(B)に、X座標がXbの列における、輝度の移動平均と、Y座標との関係を示す。
次に、CPU34は、ステップS602で求めた輝度の移動平均をY軸方向の位置を示す変数で微分する(ステップS603)。図14(C)に、X座標がXbの列における、輝度の移動平均の微分値と、Y座標との関係を示す。
次に、CPU34は、輝度極小ポイントを抽出する(ステップS604)。図14(C)に示す例では、CPU34は、まず、微分値が負から正に変化する輝度極小ポイントPを抽出する。そして、CPU34は、当該検出した輝度極小ポイントPについて、輝度がある程度大きく変化するポイントであるか否かを判別する。具体的には、CPU34は、輝度極小ポイントPについて、微分値が極小となる直前のポイントRと微分値が極大となる直後のポイントQとを抽出し、ポイントRが所定の閾値Dthm以下であるか否かを判別するとともに、ポイントQが所定の閾値Dthp以上であるか否かを判別する。
図14(C)に示す例では、ポイントRが所定の閾値Dthm以下であり、ポイントQが所定の閾値Dthp以上である。このため、CPU34は、輝度極小ポイントPは、輝度がある程度大きく変化するポイントであると判別し、ポイントRの移動平均NblとポイントQの移動平均NbhとをRAM35に記憶する。
次に、CPU34は、全ての列について輝度極小ポイントが抽出が完了したか否か、すなわち、全ての列について輝度検出(ステップS601)から輝度極小ポイント抽出(S604)までの処理が完了したか否かを判別する(ステップS605)。CPU34は、全ての列について輝度極小ポイントの抽出が完了したと判別したときは(ステップS605:YES)、二値化の閾値を設定する(ステップS606)。CPU34は、全ての列については輝度極小ポイントの抽出が完了していないと判別したときは(ステップS605:NO)、輝度極小ポイントの抽出が完了していない列について、輝度検出(ステップS601)から輝度極小ポイント抽出(S604)までの処理を実行する。
CPU34は、全ての列について輝度極小ポイントの抽出が完了したと判別すると(ステップS605:YES)、二値化の閾値を設定する(ステップS606)。CPU34は、各列について抽出したポイントRの移動平均N_lとポイントQの移動平均N_hとに基づいて二値化の閾値を設定する。二値化の閾値の設定方法は任意であるが、例えば以下の(a)〜(g)のように設定する方法がある。
(a)各列のポイントRの移動平均N_lの最小値を基準にして二値化の閾値を設定する。(b)各列のポイントRの移動平均N_lの最大値を基準にして二値化の閾値を設定する。(c)各列のポイントQの移動平均N_hの最小値を基準にして二値化の閾値を設定する。(d)各列のポイントQの移動平均N_hの最大値を基準にして二値化の閾値を設定する。(e)各列のポイントRの移動平均N_lの平均値を基準にして二値化の閾値を設定する。(f)各列のポイントQの移動平均N_hの平均値を基準にして二値化の閾値を設定する。(g)各列のポイントRの移動平均N_lと各列のポイントQの移動平均N_hの平均値を基準にして二値化の閾値を設定する。
次に、CPU34は、二値化閾値設定(ステップS606)で求めた閾値に基づいて、眼近傍領域の画像を二値化する(ステップS607)。CPU34は、二値化により眼近傍領域の二値化画像(黒領域と白領域とから構成される画像)を求める。CPU34は、二値化画像を生成すると、二値化処理(ステップS403)を完了する。
次に、CPU34は、二値化画像をラベリングする(ステップS404)。CPU34は、二値化処理(ステップS403)で生成した二値化画像に対して、黒領域を対象としてラベリングし、1つ以上の黒領域(以下、「ラベルデータ」とする。)を求める。
CPU34は、ラベルデータが複数存在すると判別した場合、ラベルデータを選択する(ステップS405)。ドライバーが眼鏡をかけている場合などは、ラベリングにより、眼に相当するラベルデータの他、眼鏡に相当するラベルデータなど、複数のラベルデータが検出されることがある。この場合、CPU34は、複数のラベルデータの中から眼に相当するラベルデータを選択する必要がある。
眼に相当するラベルデータを選択する方法は任意であるが、例えば、CPU34は、眼近傍領域の上端及び下端に接していないラベルデータの中で、面積が最大のラベルデータを眼に相当するラベルデータとして選択することができる。
そして、CPU34は、ラベルデータの最大連続数を検出する(ステップS406)。CPU34は、ラベルデータ選択(ステップS405)で選択したラベルデータについて、Y軸方向に最も長く黒画素が連続する最大連続数を求める。CPU34は、求めた最大連続数を眼開度として表情推定データと対応付けてRAM35に記憶する。CPU34は、ラベルデータの最大連続数の検出を完了すると開眼度検出処理(ステップS104)を完了する。
次に、CPU34は、ドライバーの表情が笑っている表情であるか否かを判別する(ステップS105)。具体的には、CPU34は、表情特定(ステップS303)において、RAM35に記憶された推定表情データに基づいてドライバーの表情が笑っている表情であるか否かを判別する。
CPU34は、ドライバーの表情が笑っている表情であると判別した場合(ステップS105:YES)、笑っている表情用の閾値を設定する(ステップS106)。
なお、CPU34は、RAM35にあらかじめ記憶された各表情用の閾値を読み出すようにしてもよいし、RAM35にあらかじめ記憶された開眼度の履歴に基づいて閾値を求めるようにしてもよい。
ドライバーが笑っている表情をしているときは、ドライバーの覚醒度は高いと推定できる。このため、笑っている表情用の閾値には小さい値を設定する。例えば、CPU34は、RAM35に記憶された開眼度の履歴のうち笑っている表情のときに検出した開眼度の平均値を求め、当該平均値の1/4の値を笑っている表情用の閾値として設定する。
一方、CPU34は、ドライバーの表情が笑っている表情ではないと判別した場合(ステップS105:NO)、ドライバーの表情が眩しい表情であるか否かを判別する(ステップS107)。
CPU34は、ドライバーの表情が眩しい表情であると判別した場合(ステップS107:YES)、眩しい表情用の閾値を設定する(ステップS108)。
ドライバーが眩しい表情をしているときは、ドライバーの覚醒度はある程度高いと推定できる。このため、眩しい表情用の閾値にはある程度小さい値を設定する。例えば、CPU34は、RAM35に記憶された開眼度の履歴のうち眩しい表情のときに検出した開眼度の平均値を求め、当該平均値の1/2の値を眩しい表情用の閾値として設定する。
また、CPU34は、ドライバーの表情が眩しい表情ではないと判別した場合(ステップS107:NO)、ドライバーの表情が眠い表情であるか否かを判別する(ステップS109)。
CPU34は、ドライバーの表情が眠い表情であると判別した場合(ステップS109:YES)、眠い表情用の閾値を設定する(ステップS110)。
ドライバーが眠い表情をしているときは、ドライバーの覚醒度は低いと推定できる。このため、眠い表情用の閾値には大きい値を設定する。例えば、CPU34は、RAM35に記憶された開眼度のうち閉眼状態と判別されたときの開眼度の平均値を求め、当該平均値とRAM35に記憶された開眼度の最大値との中間値を求め、当該中間値とRAM35に記憶された開眼度の最大値との中間値を眠い表情用の閾値として設定する。
一方、CPU34は、ドライバーの表情が眠い表情ではないと判別した場合(ステップS109:NO)、通常の表情用の眼開度の閾値を設定する(ステップS111)。
例えば、CPU34は、RAM35に記憶された開眼度のうち閉眼状態と判別されたときの開眼度の平均値を求め、当該平均値とRAM35に記憶された開眼度の最大値との中間値を通常の表情用の閾値として設定する。
CPU34は、各表情用の閾値の設定が完了すると(ステップS106、ステップS108、ステップS110、ステップS111)、眼開度が設定した閾値以上であるか否かを判別する(ステップS112)。
CPU34は、眼開度が閾値以上であると判別した場合(ステップS112:YES)、ドライバーは開眼状態であると判定し、ドライバーが開眼状態であることを示すデータを開眼度と対応付けてRAM35に記憶する(ステップS113)。一方、CPU34は、眼開度が閾値以上ではないと判別した場合(ステップS112:NO)、ドライバーは閉眼状態であると判定し、ドライバーが閉眼状態であることを示すデータを開眼度と対応付けてRAM35に記憶する(ステップS114)。CPU34は、ドライバーの眼の開閉状態の判定を完了すると(ステップS113、ステップS114)、眼開閉状態判別処理を完了する。
上述のように、本発明の第1の実施形態に係る眼開閉判別装置100は、ドライバーの表情に基づいてドライバーの眼の開閉状態を判別する。具体的には、眼開閉判別装置100は、ドライバーの表情を推定し、当該推定したドライバーの表情に基づいて眼の開閉状態を判別する際の閾値を変更する。すなわち、推定したドライバーの表情が、覚醒度が高いと考えられる表情である場合には閾値を低く設定し、覚醒度が低いと考えられる表情である場合には閾値を高く設定する。このように、眼開閉判別装置100は、ドライバーの表情に応じて変化する眼の状態の変化に対応した眼の開閉状態の判別をする。このため、ドライバーの眼の開閉状態の誤判定を減らすことが期待できる。
(第2の実施形態)
第1の実施形態に係る眼開閉判別装置100は、ドライバーの表情がどのような表情であっても、眼開度を検出するとともに眼開度の閾値を設定し、検出した眼開度が閾値以上であるか否かを判別していた。しかし、ドライバーの表情が覚醒度が高い(又は、低い)と推定できる表情である場合には、眼開度を検出することなく、開眼判定(又は、閉眼判定)するようにしても良い。
以下、図15に示すフローチャートを用いて、第2の実施形態に係る眼開閉判別装置100が実行する眼開閉状態判別処理について説明する。なお、第2の実施形態に係る眼開閉判別装置100は、第1の実施形態に係る眼開閉判別装置100と同様の構成であるため、構成の説明は省略する。
眼開閉判別装置100の電源が投入されると、コンピュータ30内のCPU34は、定期的(例えば、1/30秒毎)に図15に示す眼開閉状態判別処理を実行する。
まず、CPU34は、眼開閉状態判別処理で使用する変数の初期化等を実行する(ステップS701)。
そして、CPU34は、ドライバーの顔画像を取得する(ステップS702)。具体的には、CPU34は、カメラ10が出力する1フレーム分のアナログ画像信号により表現される顔画像をA/D変換器31に供給し、当該A/D変換器31が出力する1フレーム分のディジタル画像信号により表現される顔画像を画像メモリ32に記憶する。
次に、CPU34は、表情推定処理を実行する(ステップS703)。すなわち、眼開閉判別装置100は、図8のフローチャートに示す表情推定処理と同様の処理を実行することにより、ドライバーの表情を推定する。
CPU34は、表情推定処理(ステップS703)を完了すると、ドライバーの表情が笑っている表情であるか否かを判別する(ステップS704)。具体的には、CPU34は、表情特定(ステップS303)において、RAM35に記憶された推定表情データに基づいてドライバーの表情が笑っている表情であるか否かを判別する。
ドライバーが笑っている表情をしているときは、ドライバーの覚醒度は高いと推定できる。このため、CPU34は、ドライバーの表情が笑っている表情であると判別した場合(ステップS704:YES)、直ちに開眼判定し、ドライバーが開眼状態であることを示すデータを開眼度と対応付けてRAM35に記憶する(ステップS713)。
一方、CPU34は、ドライバーの表情が笑っている表情ではないと判別した場合(ステップS704:NO)、開眼度検出処理を実行する(ステップS706)。なお、CPU34がステップS706で実行する開眼度検出処理は、図9のフローチャートに示す開眼度検出処理と同様の処理であるため説明を省略する。
CPU34は、開眼度検出処理(ステップS706)を完了すると、ドライバーの表情が眩しい表情であるか否かを判別する(ステップS707)。
CPU34は、ドライバーの表情が眩しい表情であると判別した場合(ステップS707:YES)、眩しい表情用の眼開度の閾値を設定する(ステップS708)。
ドライバーが眩しい表情をしているときは、ドライバーの覚醒度はある程度高いと推定できる。このため、眩しい表情用の閾値にはある程度小さい値を設定する。例えば、CPU34は、RAM35に記憶された開眼度の履歴のうち眩しい表情のときに検出した開眼度の平均値を求め、当該平均値の1/2の値を眩しい表情用の閾値として設定する。
また、CPU34は、ドライバーの表情が眩しい表情ではないと判別した場合(ステップS707:NO)、ドライバーの表情が眠い表情であるか否かを判別する(ステップS709)。
CPU34は、ドライバーの表情が眠い表情であると判別した場合(ステップS709:YES)、眠い表情用の眼開度の閾値を設定する(ステップS710)。
ドライバーが眠い表情をしているときは、ドライバーの覚醒度は低いと推定できる。このため、眠い表情用の閾値には大きい値を設定する。例えば、CPU34は、RAM35に記憶された開眼度のうち閉眼状態と判別されたときの開眼度の平均値を求め、当該平均値とRAM35に記憶された開眼度の最大値との中間値を求め、当該中間値とRAM35に記憶された開眼度の最大値との中間値を眠い表情用の閾値として設定する。
一方、CPU34は、ドライバーの表情が眠い表情ではないと判別した場合(ステップS709:NO)、通常の表情用の眼開度の閾値を設定する(ステップS711)。
例えば、CPU34は、RAM35に記憶された開眼度のうち閉眼状態と判別されたときの開眼度の平均値を求め、当該平均値とRAM35に記憶された開眼度の最大値との中間値を通常の表情用の閾値として設定する。
CPU34は、各表情用の閾値の設定が完了すると(ステップS708、ステップS710、ステップS711)、眼開度が閾値以上であるか否かを判別する(ステップS712)。
CPU34は、開眼度が閾値以上であると判別した場合(ステップS712:YES)、ドライバーは開眼状態であると判定し、ドライバーが開眼状態であることを示すデータを開眼度と対応付けてRAM35に記憶する(ステップS713)。一方、CPU34は、開眼度が閾値以上ではないと判別した場合(ステップS712:NO)、ドライバーは閉眼状態であると判定し、ドライバーが閉眼状態であることを示すデータを開眼度と対応付けてRAM35に記憶する(ステップS714)。CPU34は、ドライバーの眼の開閉状態の判定を完了すると(ステップS713、ステップS714)、眼開閉状態判別処理を完了する。
上述のように、本発明の第2の実施形態に係る眼開閉判別装置100は、ドライバーの覚醒度が高いと考えられる表情であると推定した場合には、眼開度を検出することなく開眼判定する。このため、眼開閉状態判別処理の処理時間を短縮することができる。なお、本実施形態では、ドライバーの表情が笑っている表情である場合に、ドライバーの覚醒度が高いと推定した。しかし、ドライバーの覚醒度が高いと推定できる表情は、笑っている表情に限られず、例えば、眩しい表情である場合にドライバーの覚醒度が高いと推定してもよい。また、ドライバーの覚醒度が低いと推定した場合に、開眼度を検出することなく閉眼判定してもよい。
(第3の実施形態)
第1、2の実施形態に係る眼開閉判別装置100は、コホーネント型ニューラルネットワークによって表情を推定した。しかし、ドライバーの表情を推定する方法は、コホーネント型ニューラルネットワークを用いた方法に限らず、例えば、フィードフォワードニューラルネットワークを用いた方法であってもよい。
まず、図16に示すフローチャートを参照しながらフィードフォワードニューラルネットワークの学習処理について説明する。
CPU34は、学習処理で使用する変数等を初期化する(ステップS801)。また、CPU34は、後述する各係数に小さな値をランダムに与えて初期化する。
次に、CPU34は、学習用の顔画像を取得する(ステップS802)。CPU34は、例えば、カメラ10が出力する1フレーム分のアナログ画像信号により表現された顔画像をA/D変換器31に供給し、当該A/D変換器31が出力する1フレーム分のディジタル画像信号により表現された顔画像を学習用の顔画像として取得する。また、CPU34は、当該取得した顔画像の表情がどのような表情であるかを示す実表情データを取得する。CPU34は、例えば、実表情データを操作装置39を介してユーザから取得する。
CPU34は、取得した学習用の顔画像を所定の形式の顔画像に補正する(ステップS803)。例えば、CPU34は、取得した学習用の顔画像をグレースケール化し、両目の位置から顔の向き、顔の大きさをアフィン変換を用いて補正し、補正後の顔画像を画像メモリ32に記憶する。
次に、CPU34は、補正後の顔画像から特徴部分を抽出する(ステップS804)。CPU34は、ドライバーの表情により大きく変化する、眼、眉、口などの特徴部分を補正後の顔画像から抽出し、抽出した特徴部分の画像を画像メモリ32に記憶する。
そして、CPU34は、抽出した特徴部分の画像に基づいて当該特徴部分の特徴量を取得する(ステップS805)。CPU34は、例えば、眼の開度、眉の角度、口の開度などを特徴量として抽出する。
そして、CPU34は、フィードフォワードニューラルネットワークにおける各演算の係数を補正する(ステップS806)。なお、本実施形態では、フィードフォワードニューラルネットワークとして、多層パーセプトロンを採用する。ここで、フィードフォワードニューラルネットワークについて、図17を参照しながら簡単に説明する。
図17に示すように、フィードフォワードニューラルネットワークは、入力層、中間層及び出力層の3つの層から構成される。図17に示す例では、入力層は3つのノードから構成され、中間層は4つのノードから構成され、出力層は3つのノードから構成される。
ここで、入力層を構成するノードに特徴量を説明変数(独立変数)として供給すると、これらの説明変数に基づいて目的変数(従属変数)が算出され、当該目的変数が出力層を構成するノードから出力される。以下に、どのようにして、説明変数から目的変数を算出するかを説明する。
説明変数が、眼の開度X、眉の角度X、口の開度X、の3つであり、目的変数が、眠い表情との類似度Y、眩しい表情との類似度Y、笑っている表情との類似度Y、の3つである場合、例えば、以下の式(6)〜(8)に示す関係が成立するようにフィードフォワードニューラルネットワークを構成する。なお、a11、a12、a13、a21、a22、a23、a31、a32、a33、は各説明変数を重み付けする係数である。
Figure 2010142345
Figure 2010142345
Figure 2010142345
CPU34は、説明変数と、目的変数と、ステップS802でユーザから取得した実表情データとに基づいて、各係数を補正する。具体的には、CPU34は、3つの目的変数のうち実表情データにより示される表情との類似度を示す目的変数の値が大きくなるように各係数を補正する。例えば、実表情データにより示される表情が笑っている表情である場合、笑っている表情との類似度Yが大きくなるように各係数を補正する。
次に、CPU34は、全画像分学習したか否かを判別する(ステップS807)。CPU34は、現在の学習回数が総学習回数と一致するか否かを判別し、一致すると判別した場合(ステップS807:YES)は各係数を設定情報として設定メモリ38に記憶して学習処理を完了し、一致しないと判別した場合(ステップS807:NO)は顔画像取得(ステップS802)に処理を戻す。すなわち、CPU34は、現在の学習回数が総学習回数と一致すると判別するまでは、顔画像取得(ステップS802)から係数補正(ステップS806)までの処理を繰り返すことにより係数の補正を繰り返す。
CPU34は、表情推定処理を実行する前に、あらかじめ以上に示した学習処理を実行しておく。
次に、図18に示すフローチャートを用いて、本発明の第3の実施形態に係る眼開閉判別装置100が実行する表情推定処理について説明する。
CPU34は、画像メモリに記憶された顔画像を所定の形式の顔画像に補正する(ステップS901)。例えば、CPU34は、画像メモリに記憶された顔画像をグレースケール化し、両目の位置から顔の向き、顔の大きさをアフィン変換を用いて補正し、補正後の顔画像を画像メモリ32に記憶する。
次に、CPU34は、補正後の顔画像から特徴部分を抽出する(ステップS902)。CPU34は、ドライバーの表情により大きく変化する、眼、眉、口などの特徴部分を補正後の顔画像から抽出し、抽出した特徴部分の画像を画像メモリ32に記憶する。
そして、CPU34は、抽出した特徴部分の画像に基づいて当該特徴部分の特徴量を取得する(ステップS903)。CPU34は、例えば、眼の開度、眉の角度、口の開度などを特徴量として抽出する。
そして、CPU34は、表情を特定する(ステップS904)。CPU34は、ステップS903で抽出した特徴量に基づいて各表情との類似度を求め、求めた類似度が最も高い表情をドライバーの表情として特定する。CPU34は、特定した表情を示す情報を推定表情データとしてRAM35に記憶する。
CPU34は、表情の特定(ステップS904)を完了すると、表情推定処理(ステップS703)を完了する。
第3の実施形態に係る眼開閉判別装置100は、フィードフォワードニューラルネットワークを用いてドライバーの表情を推定した。この場合であっても、推定したドライバーの表情からドライバーの覚醒状態を推定することができ、ドライバーの眼の開閉状態の誤判定を減らすことが期待できる。このように、本発明に係る眼開閉判別装置100は、ドライバーの表情を推定する手法は問わない。
(変形例)
第1〜3の実施形態に係る眼開閉判別装置100は、推定した表情がどのような表情であるかにより閾値を変更した。しかし、推定した表情からドライバーの覚醒度を求め、当該覚醒度に応じた閾値を設定するようにしてもよい。例えば、第3の実施形態に係る眼開閉判別装置100は、b<0、0<b<bとして、b+b+bを覚醒度として求め、当該覚醒度に応じて閾値を設定する。
上記第1〜3の実施形態においては、眼開閉判別装置100は、ニューラルネットワークによって表情を推定した。しかし、表情を推定する手法は顔画像から表情を推定するものであれば、ニューラルネットワークによるものに限られない。
また、開眼度を求める手法も、第1の実施形態において示した手法に限られず任意の手法をとることができる。
上記第1〜3の実施形態においては、CPU34は、ドライバーを撮像して得られた顔画像をカメラ10から取得して、処理する例を示した。しかしながら、CPU34は、ドライバーを撮像して得られた顔画像があらかじめ記憶されている画像メモリ32から顔画像を取得して、処理してもよい。このように、眼開閉判別装置は、カメラを備えていなくてもよい。
上記第1の実施形態においては、ドライバーの表情が、ドライバーの覚醒度が一般的に高いと考えられる表情(例えば、笑っている表情、眩しい表情)である場合に開眼度の閾値に小さい値を設定し、ドライバーの覚醒度が一般的に低いと考えられる表情(例えば、眠い表情)である場合に開眼度の閾値に大きな値を設定した。しかしながら、ドライバーの表情がどのような表情である場合に、ドライバーの覚醒度が高い(若しくは低い)と判別するかは、任意に設定することができる。
例えば、ドライバーが特定の物(例えば、スピードメータ、タコメータ、オイルゲージなどの計器類)や人(助手席にいる人)などを注視していると考えられる表情をしている場合には、ドライバーの覚醒度が高いと判別して、開眼度の閾値を低く設定することができる。以下、図19に示すフローチャートを用いて、本変形例に係る眼開閉判別装置100が実行する眼開閉状態判別処理について説明する。なお、初期化(ステップS1001)から開眼度検出処理(ステップS1004)までの処理は、図3に示す眼開閉状態判別処理と同様であるため説明を省略する。
CPU34は、開眼度検出処理(ステップS1004)を完了すると、ドライバーの表情が車両の計器を注視している表情であるか否かを判別する(ステップS1005)。CPU34は、ドライバーの表情が車両の計器を注視している表情であると判別した場合(ステップS1005:YES)、車両の計器を注視している表情用の閾値として、比較的小さい値を閾値として設定する(ステップS1006)。一方、CPU34は、ドライバーの表情が車両の計器を注視している表情ではないと判別した場合(ステップS1005:NO)、通常の表情用の眼開度の閾値を設定する(ステップS1007)。以下、図3に示す眼開閉状態判別処理と同様に、CPU34は、ステップ1004で検出した開眼度とステップS1006又はステップS1007で設定した閾値とを比較し(ステップS1008)、開眼判定(ステップS1009)若しくは閉眼判定(ステップS1010)を実行する。
図19に示した眼開閉状態判別処理のように、ドライバーの表情が特定の物を注視している表情であると判別された場合に、開眼判定されやすい開眼度の閾値に設定することにより、ドライバーが開眼しているか否かを適切に判別することができる。なお、第2の実施形態において説明したように、ドライバーの表情が開眼度が高い表情(特定の物を注視している表情)であると判別された場合には、開眼度を検出する処理を実行することなく、開眼判定するようにしてもよい。なお、ドライバーの表情が車両の計器を注視している表情であるか否かは、ニューラルネットワークによる表情の推定により、容易に実現可能である。
なお、本発明に係る眼開閉判別装置は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、顔画像を入力可能なコンピュータに、上記動作を実行するためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read−Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これをコンピュータシステムにインストールすることにより、上述の処理を実行する眼開閉判別装置を構成しても良い。
さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。
本発明の第1乃至3の実施形態に係る眼開閉判別装置の構成図である。 図1に示すコンピュータの構成を示すブロック図である。 本発明の第1の実施形態に係る眼開閉判別装置が実行する眼開閉状態判別処理の一例を示すフローチャートである。 本発明の第1の実施形態に係る眼開閉判別装置が実行する学習処理の一例を示すフローチャートである。 (A)〜(F)は、それぞれ顔画像の一例を示す図である。 学習後の表情マップを説明するための図である。 (A)、(B)は、表情マップの領域化を説明するための図である。 図3のフローチャートに示す表情推定処理の詳細の一例を示すフローチャートである。 図3のフローチャートに示す開眼度検出処理の詳細の一例を示すフローチャートである。 図9のフローチャートに示す眼位置検出処理の詳細の一例を示すフローチャートである。 (A)〜(C)は、輝度極小ポイントを抽出する方法を説明するための図である。 輝度極小曲線群を抽出する方法を説明するための図である。 図9のフローチャートに示す二値化処理の詳細の一例を示すフローチャートである。 (A)〜(C)は、輝度極小ポイントを抽出する方法を説明するための図である。 本発明の第2の実施形態に係る眼開閉判別装置が実行する眼開閉状態判別処理の一例を示すフローチャートである。 本発明の第3の実施形態に係る眼開閉判別装置が実行する学習処理の一例を示すフローチャートである。 フィードフォワードニューラルネットワークの一例を示す模式図である。 本発明の第3の実施形態に係る眼開閉判別装置が実行する表情推定処理の一例を示すフローチャートである。 変形例に係る眼開閉判別装置が実行する眼開閉状態判別処理の一例を示すフローチャートである。
符号の説明
10 カメラ
20 照明光源
30 コンピュータ
31 A/D変換器
32 画像メモリ
33 ROM
34 CPU(顔画像取得手段、表情推定手段、開眼度取得手段、閾値設定手段、眼開閉判別手段)
35 RAM(履歴情報記憶手段)
36 表示制御装置
37 光源制御装置
38 設定メモリ
39 操作装置
40 表示装置
100 眼開閉判別装置

Claims (10)

  1. 被撮影者の顔画像を取得する顔画像取得手段と、
    前記顔画像取得手段により取得された顔画像から被撮影者の表情を推定する表情推定手段と、
    前記顔画像取得手段により取得された顔画像から被撮影者の開眼度を求める開眼度取得手段と、
    前記表情推定手段により推定された表情に基づいて開眼度の閾値を設定する閾値設定手段と、
    前記開眼度取得手段により求められた開眼度が前記閾値設定手段により設定された閾値を超えていると判別した場合に被撮影者の眼が開いていると判別し、当該開眼度が当該閾値を超えていないと判別した場合に被撮影者の眼が閉じていると判別する眼開閉判別手段と、を備える、
    ことを特徴とする眼開閉判別装置。
  2. 前記閾値設定手段は、前記表情推定手段により推定された表情が、覚醒度が高いことを示す表情であると判別した場合に開眼度の閾値を低く設定し、前記表情推定手段により推定された表情が、覚醒度が低いことを示す表情であると判別した場合に開眼度の閾値を高く設定する、
    ことを特徴とする請求項1に記載の眼開閉判別装置。
  3. 前記眼開閉判別手段は、前記表情推定手段により推定された表情が、覚醒度が高いことを示す表情であると判別した場合に前記開眼度取得手段により求められた開眼度にかかわらず被撮影者の眼が開いていると判別し、前記表情推定手段により推定された表情が、覚醒度が低いことを示す表情であると判別した場合に前記開眼度取得手段により求められた開眼度にかかわらず被撮影者の眼が閉じていると判別する、
    ことを特徴とする請求項1に記載の眼開閉判別装置。
  4. 前記閾値設定手段は、笑っている表情、眩しい表情又は特定の方向にあるものを注視している表情を覚醒度が高いことを示す表情であると判別する、
    ことを特徴とする請求項2又は3に記載の眼開閉判別装置。
  5. 前記閾値設定手段は、眠そうな表情を覚醒度が低いことを示す表情であると判別する、
    ことを特徴とする請求項2又は3に記載の眼開閉判別装置。
  6. 前記表情推定手段により推定された表情を示す情報と、前記開眼度取得手段により求められた開眼度を示す情報とを対応付けて履歴情報として記憶する履歴情報記憶手段を備え、
    前記閾値設定手段は、前記履歴情報記憶手段に記憶された履歴情報に基づいて閾値を設定する、
    ことを特徴とする請求項1に記載の眼開閉判別装置。
  7. 前記履歴情報記憶手段は、前記表情推定手段により推定された表情を示す情報と、前記開眼度取得手段により求められた開眼度を示す情報と、に加え、前記眼開閉判別手段により判別された判別結果を示す情報をさらに対応付けて履歴情報として記憶し、
    前記閾値設定手段は、前記履歴情報記憶手段に記憶された履歴情報に基づいて閾値を設定する、
    ことを特徴とする請求項6に記載の眼開閉判別装置。
  8. 前記表情推定手段は、前記顔画像取得手段により取得された顔画像からニューラルネットワークを用いて被撮影者の表情を推定する、
    ことを特徴とする請求項1に記載の眼開閉判別装置。
  9. 前記開眼度取得手段は、前記顔画像取得手段により取得された顔画像から被撮影者の眼近傍の領域を抽出し、当該抽出した領域内の画素の輝度を二値化し、当該領域内において所定の輝度の画素が縦方向に連続する最大の画素数を開眼度として求める、
    ことを特徴とする請求項1に記載の眼開閉判別装置。
  10. コンピュータを、
    被撮影者の顔画像を取得する顔画像取得手段、
    前記顔画像取得手段により取得された顔画像から被撮影者の表情を推定する表情推定手段、
    前記顔画像取得手段により取得された顔画像から被撮影者の開眼度を求める開眼度取得手段、
    前記表情推定手段により推定された被撮影者の表情に基づいて開眼度の閾値を設定する閾値設定手段、
    前記開眼度取得手段により求められた開眼度が前記閾値設定手段により設定された閾値を超えていると判別した場合に被撮影者の眼が開いていると判別し、当該開眼度が当該閾値を超えていないと判別した場合に被撮影者の眼が閉じていると判別する眼開閉判別手段、
    として機能させることを特徴とするプログラム。
JP2008320889A 2008-12-17 2008-12-17 眼開閉判別装置及びプログラム Active JP5208711B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008320889A JP5208711B2 (ja) 2008-12-17 2008-12-17 眼開閉判別装置及びプログラム
US13/121,125 US8139819B2 (en) 2008-12-17 2009-12-02 Eye open/close recognizing apparatus and recording medium
EP09833325.5A EP2368496B1 (en) 2008-12-17 2009-12-02 Opened/closed eye recognizing apparatus and program
PCT/JP2009/070249 WO2010071021A1 (ja) 2008-12-17 2009-12-02 眼開閉判別装置及びプログラム
CN2009801381652A CN102164541B (zh) 2008-12-17 2009-12-02 睁闭眼判别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008320889A JP5208711B2 (ja) 2008-12-17 2008-12-17 眼開閉判別装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010142345A true JP2010142345A (ja) 2010-07-01
JP5208711B2 JP5208711B2 (ja) 2013-06-12

Family

ID=42268694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008320889A Active JP5208711B2 (ja) 2008-12-17 2008-12-17 眼開閉判別装置及びプログラム

Country Status (5)

Country Link
US (1) US8139819B2 (ja)
EP (1) EP2368496B1 (ja)
JP (1) JP5208711B2 (ja)
CN (1) CN102164541B (ja)
WO (1) WO2010071021A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010063085A (ja) * 2008-08-07 2010-03-18 Canon Inc 撮像装置及び撮影方法、プログラム
JP2012203551A (ja) * 2011-03-24 2012-10-22 Komatsu Ltd 居眠り抑制システム及びダンプトラック
JP2014013447A (ja) * 2012-07-03 2014-01-23 Daiwa House Industry Co Ltd 顔しかめ検出システム及び顔しかめ検出方法
JP2016115117A (ja) * 2014-12-15 2016-06-23 アイシン精機株式会社 判定装置および判定方法
JP2016115120A (ja) * 2014-12-15 2016-06-23 アイシン精機株式会社 開閉眼判定装置および開閉眼判定方法
JP2019536673A (ja) * 2017-08-10 2019-12-19 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 運転状態監視方法及び装置、運転者監視システム、並びに車両
DE112019007052T5 (de) 2019-03-20 2022-01-27 Mitsubishi Electric Corporation Wachsamkeitsgrad-Einschätzungsvorrichtung, Vorrichtung zur Unterstützung eines automatischen Fahrens und Wachsamkeits-Einschätzungsverfahren
US11453401B2 (en) 2019-09-05 2022-09-27 Toyota Jidosha Kabushiki Kaisha Closed eye determination device
US11675431B2 (en) 2019-09-30 2023-06-13 Mitsubishi Electric Corporation Image display device, display control device, and display control method, and program and recording medium
JP7403729B2 (ja) 2021-11-25 2023-12-22 三菱電機株式会社 覚醒度推定装置および覚醒度推定方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102955565A (zh) * 2011-08-31 2013-03-06 德信互动科技(北京)有限公司 人机互动系统和方法
CN102831399A (zh) * 2012-07-30 2012-12-19 华为技术有限公司 确定眼睛状态的方法和装置
US9503632B2 (en) * 2012-12-04 2016-11-22 Lg Electronics Inc. Guidance based image photographing device and method thereof for high definition imaging
CN103369248A (zh) * 2013-07-20 2013-10-23 厦门美图移动科技有限公司 一种闭眼后睁开的拍照方法
US9849834B2 (en) * 2014-06-11 2017-12-26 Ford Gloabl Technologies, L.L.C. System and method for improving vehicle wrong-way detection
CN105701445A (zh) * 2014-12-15 2016-06-22 爱信精机株式会社 判定装置及判定方法
FR3032919B1 (fr) 2015-02-19 2017-02-10 Renault Sa Procede et dispositif de detection d'un changement de comportement de conducteur d'un vehicule automobile
DE102015211443A1 (de) * 2015-06-22 2016-12-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen eines Bezugsniveaus für eine Augenöffnungsweite
CN106355135B (zh) * 2015-07-14 2019-07-26 原相科技股份有限公司 眼睛状态侦测方法以及眼睛状态侦测系统
CN105354986B (zh) * 2015-11-12 2017-12-01 熊强 汽车司机驾驶状态监测系统及方法
CN105827969A (zh) * 2016-03-29 2016-08-03 乐视控股(北京)有限公司 一种智能拍照的方法、装置及移动设备
WO2017173480A1 (en) * 2016-04-07 2017-10-12 Seeing Machines Limited Method and system of distinguishing between a glance event and an eye closure event
CN107341468B (zh) * 2017-06-30 2021-05-04 北京七鑫易维信息技术有限公司 驾驶员状态识别方法、装置、存储介质及处理器
DE102017216837A1 (de) 2017-09-22 2019-03-28 Audi Ag Gestik- und Mimiksteuerung für ein Fahrzeug
JP6853159B2 (ja) * 2017-10-31 2021-03-31 トヨタ自動車株式会社 状態推定装置
JP6888542B2 (ja) * 2017-12-22 2021-06-16 トヨタ自動車株式会社 眠気推定装置及び眠気推定方法
CN110799986B (zh) 2018-04-25 2020-09-18 北京嘀嘀无限科技发展有限公司 一种基于面部特征点的眨眼动作识别的系统和方法
US10684681B2 (en) 2018-06-11 2020-06-16 Fotonation Limited Neural network image processing apparatus
EP3809310B1 (en) * 2018-07-16 2023-11-08 Honor Device Co., Ltd. Method and electronic device for detecting open and closed states of eyes
JP6992693B2 (ja) * 2018-07-23 2022-01-13 トヨタ自動車株式会社 乗員状態認識装置
US10963135B2 (en) 2019-03-15 2021-03-30 Oracle International Corporation Language-based manipulation of data visualizations
CN110263641A (zh) * 2019-05-17 2019-09-20 成都旷视金智科技有限公司 疲劳检测方法、装置及可读存储介质
JP7127661B2 (ja) * 2020-03-24 2022-08-30 トヨタ自動車株式会社 開眼度算出装置
WO2022064581A1 (ja) * 2020-09-24 2022-03-31 三菱電機株式会社 開口度算出装置および開口度算出方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000198369A (ja) * 1998-12-28 2000-07-18 Niles Parts Co Ltd 眼の状態検出装置、居眠り運転警報装置
JP2007257043A (ja) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd 乗員状態推定装置および乗員状態推定方法
JP2008257575A (ja) * 2007-04-06 2008-10-23 Fujitsu Ltd 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6443669A (en) 1987-08-12 1989-02-15 Kokuyo Kk Expansion movable stepped stand with handrail device
JP3444115B2 (ja) 1996-11-13 2003-09-08 日産自動車株式会社 居眠り状態検出装置
JP3769442B2 (ja) 2000-02-15 2006-04-26 ナイルス株式会社 眼の状態検出装置
US6927694B1 (en) * 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US7253739B2 (en) * 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method for determining eye closure state
US7301464B2 (en) * 2005-05-24 2007-11-27 Electronic Data Systems Corporation Process and method for safer vehicle navigation through facial gesture recognition and operator condition monitoring
US7692548B2 (en) * 2006-09-12 2010-04-06 Deere & Company Method and system for detecting operator alertness
US8045766B2 (en) * 2007-02-16 2011-10-25 Denso Corporation Device, program, and method for determining sleepiness
JP4743137B2 (ja) 2007-03-01 2011-08-10 株式会社豊田中央研究所 眠気判定装置及びプログラム
JP4375420B2 (ja) 2007-03-26 2009-12-02 株式会社デンソー 眠気警報装置、及びプログラム
JP4788786B2 (ja) * 2009-02-09 2011-10-05 株式会社デンソー 眠気検出装置,プログラムおよび眠気検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000198369A (ja) * 1998-12-28 2000-07-18 Niles Parts Co Ltd 眼の状態検出装置、居眠り運転警報装置
JP2007257043A (ja) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd 乗員状態推定装置および乗員状態推定方法
JP2008257575A (ja) * 2007-04-06 2008-10-23 Fujitsu Ltd 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010063085A (ja) * 2008-08-07 2010-03-18 Canon Inc 撮像装置及び撮影方法、プログラム
JP2012203551A (ja) * 2011-03-24 2012-10-22 Komatsu Ltd 居眠り抑制システム及びダンプトラック
JP2014013447A (ja) * 2012-07-03 2014-01-23 Daiwa House Industry Co Ltd 顔しかめ検出システム及び顔しかめ検出方法
JP2016115117A (ja) * 2014-12-15 2016-06-23 アイシン精機株式会社 判定装置および判定方法
JP2016115120A (ja) * 2014-12-15 2016-06-23 アイシン精機株式会社 開閉眼判定装置および開閉眼判定方法
JP2019536673A (ja) * 2017-08-10 2019-12-19 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 運転状態監視方法及び装置、運転者監視システム、並びに車両
DE112019007052T5 (de) 2019-03-20 2022-01-27 Mitsubishi Electric Corporation Wachsamkeitsgrad-Einschätzungsvorrichtung, Vorrichtung zur Unterstützung eines automatischen Fahrens und Wachsamkeits-Einschätzungsverfahren
US11453401B2 (en) 2019-09-05 2022-09-27 Toyota Jidosha Kabushiki Kaisha Closed eye determination device
US11675431B2 (en) 2019-09-30 2023-06-13 Mitsubishi Electric Corporation Image display device, display control device, and display control method, and program and recording medium
JP7403729B2 (ja) 2021-11-25 2023-12-22 三菱電機株式会社 覚醒度推定装置および覚醒度推定方法

Also Published As

Publication number Publication date
EP2368496B1 (en) 2013-11-06
US8139819B2 (en) 2012-03-20
EP2368496A4 (en) 2012-05-30
CN102164541A (zh) 2011-08-24
US20110235919A1 (en) 2011-09-29
WO2010071021A1 (ja) 2010-06-24
CN102164541B (zh) 2013-11-13
EP2368496A1 (en) 2011-09-28
JP5208711B2 (ja) 2013-06-12

Similar Documents

Publication Publication Date Title
JP5208711B2 (ja) 眼開閉判別装置及びプログラム
US7853051B2 (en) Recognizing apparatus and method, recording media, and program
US7331671B2 (en) Eye tracking method based on correlation and detected eye movement
JP4895797B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
CN106485191B (zh) 一种驾驶员疲劳状态检测方法及系统
JP5737400B2 (ja) 赤目検出装置
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP4743312B2 (ja) 画像識別装置
WO2001027875A1 (en) Modality fusion for object tracking with training system and method
JP4757787B2 (ja) 感情推定装置
JP2007257043A (ja) 乗員状態推定装置および乗員状態推定方法
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
US11453401B2 (en) Closed eye determination device
CN109711239B (zh) 基于改进混合增量动态贝叶斯网络的视觉注意力检测方法
CN113269010B (zh) 一种人脸活体检测模型的训练方法和相关装置
JP5292671B2 (ja) 覚醒度推定装置及びシステム並びに方法
JP4788319B2 (ja) 開閉眼判定装置及び方法
US20220284718A1 (en) Driving analysis device and driving analysis method
Yamauchi et al. A self-supervised learning system for pattern recognition by sensory integration
JP4471607B2 (ja) 眼の追跡装置、眼の状態判定装置及びコンピュータプログラム
JP6981553B2 (ja) 識別システム、モデル提供方法およびモデル提供プログラム
WO2024004789A1 (ja) 情報処理装置、情報処理方法、情報処理システム及び記録媒体
EP4341901A1 (en) In-cabin monitoring method and related pose pattern categorization method
KR20210059060A (ko) 검출 장치
JP2007312905A (ja) 覚醒度推定装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5208711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250