JP6731481B2 - 車両の搭乗者の少なくとも1つの目の開眼データを分類する方法および装置、および、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法および装置 - Google Patents

車両の搭乗者の少なくとも1つの目の開眼データを分類する方法および装置、および、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法および装置 Download PDF

Info

Publication number
JP6731481B2
JP6731481B2 JP2018530725A JP2018530725A JP6731481B2 JP 6731481 B2 JP6731481 B2 JP 6731481B2 JP 2018530725 A JP2018530725 A JP 2018530725A JP 2018530725 A JP2018530725 A JP 2018530725A JP 6731481 B2 JP6731481 B2 JP 6731481B2
Authority
JP
Japan
Prior art keywords
eye
opening
data set
data
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018530725A
Other languages
English (en)
Other versions
JP2018537787A (ja
Inventor
ヴルフ,フェリックス
ファンドンメル,チャールク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2018537787A publication Critical patent/JP2018537787A/ja
Application granted granted Critical
Publication of JP6731481B2 publication Critical patent/JP6731481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Ophthalmology & Optometry (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Developmental Disabilities (AREA)

Description

本発明は、独立請求項の分野に属する装置または方法を前提とする。コンピュータプログラムも本発明の対象物である。
操舵時の眠気やマイクロスリープは、しばしば危険な状況や事故につながる。現代の眠気認識システムは、運転者が何らかの眠気限界値を超えたときに警告を出力する。そして運転者の視野に、眠気限界値を超えたことを指摘するために、
たとえばコーヒーカップのような記号がフェードインされる。
現在シリーズ生産されている眠気認識システムは、たとえば運転者の疲労を運転挙動から間接的に見積る。同様に、ビデオカメラのデータから、目の現在の開度を認識することができるシステムも知られている。このことは、相応の画像処理アルゴリズムを用いて行われる。その場合、両方の目についてそれぞれ開眼レベルが検知される。
特許文献1は、事前定義されたモデル化された信号で開眼信号をフィッティングして、まばたき事象を認識し、そこから運転者の注意力に関する推定を引き出すシステムを記載している。
特許文献2は、開眼信号からまばたき事象を認識するために、「正常な」まばたき事象についてのいわゆる標準振幅を利用するシステムを記載している。
文献では、まばたき事象の特性と、眠気との間の関連性がすでに議論されている。非特許文献1を参照のこと。
国際公開第2014/031042号 国際公開第2006/092022号
Hargutt著、「作業行動時の注意力プロセス・疲労プロセスを表す指標としての眼瞼閉止挙動」、2002年
以上を背景としたうえで、ここで提案される取組みにより、車両の搭乗者の少なくとも1つの目の開眼データを分類する方法、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法、さらにはこれらの方法を適用した装置、ならびに、最後にこれらに対応するコンピュータプログラムが主請求項に基づいて提案される。従属請求項に記載されている方策により、独立請求項に記載されている装置の好ましい発展例や改良が可能である。
スライドするタイムスロットでの開眼データないし開眼信号の検出、および、これらのデータのクラスタ分析の引き続いての実行は、車両搭乗者の目のまばたき指標の認識品質の改善を可能にする。
1つの発展例では、ここで提案されるコンセプトは、AONないしEON(英語Eye Opening Niveau)と略称される、現在の開眼レベルを計算する改良された方法を含んでいる。
搭乗者の眠気検出および/またはマイクロスリープ検出のために車両の搭乗者の少なくとも1つの目の開眼データを分類する方法が提案され、この方法は次の各ステップを有する:
スライドするタイムスロットの中の第1の測定時点で第1の開眼データセットが生起され、第1の開眼データセットは第1の測定時点での搭乗者の目の第1の目開度および/または第1の目蓋運動速度および/または第1の目蓋運動加速度を表す少なくとも1つの測定点を有し;
スライドするタイムスロットの中の第2の測定時点で第2の開眼データセットが検出され、第2の開眼データセットは第2の測定時点での搭乗者の目の第2の目開度および/または第2の目蓋運動速度および/または第2の目蓋運動加速度を表す少なくとも1つの検出点を有し;
少なくとも第1の開眼データセットおよび/または第2の開眼データセットを第1のデータクラスタに割り当てて開眼データを分類するために、少なくとも1つの測定点および少なくとも1つの検出点を利用したうえでクラスタ分析が実行され、第1のデータクラスタは搭乗者の目の開放状態を表す。
開眼データは、1つの時点での目の目開度のデータ、ならびに目の目蓋の運動の速度および/または加速度のデータを含むことができる。目開度は、第1ないし第2の測定時点での搭乗者の目の上目蓋から下目蓋までの、メートルないしセンチメートルまたはミリメートルの単位で決定されるべき間隔であり得る。開眼データは、複数の測定時点を通じて信号の形態で提供することができる。開眼データの分類とは、目の状態の事前設定されたカテゴリーに開眼データを割り当てることであると理解することができる。たとえば目の状態を開、閉として区別し、あるいは開放段階または閉止段階で区別することができる。第1ないし第2の開眼データセットは、判定ないし検出された、座標系で表現可能な搭乗者の目の状態の値を表すことができる。第1の開眼データセットは、搭乗者の目の第1の目開度、第1の目蓋運動速度、および第1の目蓋運動加速度のデータからなる適当な組み合わせを含むことができる。同様のことを、第2の開眼データセットにもこれに準じて当てはめることができる。測定点は、第1の開眼データセットを表現するための座標軸上の値を形成することができる。それに応じて検出点は、第2の開眼データセットを表現するための座標軸上の値を形成することができる。第2の測定時点は、スライドするタイムスロットの中で、第1の測定時点よりも時間的に後に位置することができる。クラスタ分析とは、開眼データセットのデータストックの中で類似性構造を発見するための方法であると理解される。クラスタ分析は、たとえば密度クラスタ分析であり得る。このときデータの所与の類似性構造が、座標系におけるデータのクラスタ形成によって−すなわち座標空間内でデータがデータクラスタへとグループ化されることによって−表されていてよい。目の開放状態により、搭乗者の目がどれだけ広く開いているか、ないしは閉じているかを示すことができる。
この方法は、たとえばソフトウェアまたはハードウェアで、もしくはソフトウェアとハードウェアの混合形態で、たとえば制御機器や装置にインプリメントされていてよい。
1つの実施形態では、生起のステップで第1の開眼データセットは、測定点によって表されない第1の測定時点での搭乗者の目の第1の目開度および/または第1の目蓋運動速度および/または第1の目蓋運動加速度を表す少なくとも1つの別の測定点を有することができる。その代替または追加として、検出のステップで第2の開眼データセットは、検出点によって表されない第2の測定時点での搭乗者の目の第2の目開度および/または第2の目蓋運動速度および/または第2の目蓋運動加速度を表す少なくとも1つの別の検出点を有することができる。さらに、それに応じて実行のステップで、別の測定点および/または別の検出点を利用したうえでクラスタ分析を実行することができる。別の測定点ないし別の検出点は、搭乗者の目運動指標のロバスト性の高い認識に貢献できるという利点がある。このとき別の測定点は、搭乗者の目の目開度、第1の目蓋運動速度、および/または第1の目蓋運動加速度の各パラメータの集合に属する、測定点とは異なるパラメータを表しており、それにより第1の開眼データセットの測定点は、さまざまに異なる物理量を表す測定点に依拠することになる。これに準じて別の検出点は、搭乗者の目の目開度、目蓋運動速度、および/または目蓋運動加速度の各パラメータの集合に属する、検出点とは異なるパラメータを表しており、それにより第2の開眼データセットの検出点は、さまざまに異なる物理量を表す検出点に依拠することになる。
さらにこの方法は、第1の開眼データセットと第2の開眼データセットが第1のデータクラスタに割り当てられるときに、測定点および検出点を利用したうえで平均化をするステップを有することができる。したがって第1のデータクラスタの第1の特性量を形成することができ、測定点および検出点が目の目開度を表すとき、第1の特性量は搭乗者の目の開眼レベルについての値を表すことができる。このとき測定点および検出点は同じ物理量を表すのがよい。開眼レベルとは、スライドするタイムスロットの内部での平均的な目開度であると理解される。開眼レベルはメートルの単位で検出することができる。この実施形態では、搭乗者の眠気やマイクロスリープの認識にとって本質的である開眼レベルを、迅速かつ高いロバスト性で判定することができる。
1つの実施形態では、第1の特性量を決定するために、平均化のステップで測定点および検出点を重みづけして平均化することができる。このようにして開眼レベルをいっそう高い信頼度で決定することができる。
たとえば平均化のステップで、第1の特性量を決定するために、測定点を検出点に依存して重みづけすることができる。特に、第1の特性量を決定するために、測定点を検出点の1つの値に依存して重みづけすることができる。このとき測定点を検出点の1つの値に依存して、特に、測定値の値と検出点の値との差異に依存して、重みづけすることができる。このとき特に、このような差異の大きさを測定点および/または検出点の重みづけに利用することができる。このような種類の密度依存的な重みづけにより、測定誤差や測定不正確さが、判定されるべき開眼レベルの結果を狂わせるのを防止できるという利点がある。
1つの実施形態では、本方法は、第2の開眼データセットが第1のデータクラスタに割り当てられていないとき、第2の開眼データセットが破棄されるステップを有することができる。そのようにして、特に第2の開眼データセットが場合により測定誤差によって使い物にならないとき、本方法の計算コストを容易に節減することができる。
別の実施形態では、実行のステップで、開眼データを分類するために、第1の開眼データセットが第1のデータクラスタに割り当てられ、第2の開眼データセットが第2のデータクラスタに割り当てられ、第2のデータクラスタは搭乗者の目の別の開放状態を表す。それぞれ異なるデータクラスタへの開眼データセットの割当は、たとえば搭乗者のまばたき運動やタコメータ視認のような目運動指標の簡単でロバスト性の高い認識を可能にする。
たとえば実行のステップで、開放状態は搭乗者の開いた目を表し、別の開放状態は搭乗者の閉じた目を表す。
別の実施形態では、本方法は、スライドするタイムスロットの中の第3の測定時点で第3の開眼データセットが読み込まれるステップを含んでいる。第3の開眼データセットは、第3の測定時点での搭乗者の目の第3の目開度および/または第3の目蓋運動速度および/または第3の目蓋運動加速度を表す少なくとも1つの判定点を有することができる。それに応じて実行のステップで、少なくとも第3の開眼データセットを第3のデータクラスタに割り当てて開眼データを分類するために、第3の開眼データセットの少なくとも1つの判定点を利用したうえでクラスタ分析を実行することができる。第3のデータクラスタは、搭乗者の目の移行状態を表すことができる。判定点は、第3の開眼データセットを表現するための座標軸上の値を形成することができる。この実施形態では、異なる目運動指標の区別をさらに大幅に改良することができる。
搭乗者の目の移行状態は、目の開放段階または閉止段階を表すことができる。
さらに、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法が提案され、この方法は次の各ステップを有している:
以上に記載した各実施形態のうちの1つに基づく方法に基づいて分類された開眼データを利用したうえで眠気および/またはマイクロスリープが判定される。
さらに、ここで提案される取組みは、ここで提案される方法の1つの変化態様の各ステップを相応のデバイスで実施し、制御し、ないしは具体化するために構成された装置を提供する。
装置の形態における本発明のこのような変化実施態様によっても、本発明の根底にある課題を迅速かつ効率的に解決することができる。
そのためにこの装置は、信号またはデータを処理するための少なくとも1つの計算ユニット、信号またはデータを記憶するための少なくとも1つの記憶ユニット、センサのセンサ信号を読み込むため、またはデータ信号もしくは制御信号をアクチュエータへ出力するための、センサまたはアクチュエータへの少なくとも1つのインターフェース、および/または通信プロトコルに埋め込まれたデータを読み込むため、または出力するための少なくとも1つの通信インターフェースを有することができる。計算ユニットは、たとえば信号プロセッサ、マイクロコントローラなどであってよく、記憶ユニットはフラッシュメモリ、EPROM、または磁気メモリユニットであってよい。通信インターフェースは、データを無線式および/または有線式に読み込むため、または出力するために構成されていてよく、有線式のデータを読み込むことができる、または出力することができる通信インターフェースは、このようなデータをたとえば電気式または光学式に相応のデータ伝送回線から読み込むことができ、または相応のデータ伝送回線へ出力することができる。
装置とは、本件においては、センサ信号を処理し、それに依存して制御信号および/またはデータ信号を出力する電気機器であると理解することができる。装置は、ハードウェアおよび/またはソフトウェアとして構成されていてよいインターフェースを有することができる。ハードウェアの構成の場合、インターフェースは、たとえば装置の多種多様な機能を含むいわゆるシステムASICの一部であってよい。しかしながら、インターフェースが独自の集積回路であるか、または少なくとも部分的に離散したコンポーネントから構成されることも可能である。ソフトウェアとしての構成の場合、インターフェースは、たとえば他のソフトウェアモジュールと並んでマイクロコントローラに存在するソフトウェアモジュールであってよい。
1つの好ましい実施形態では、本装置は、眠気認識ないしマイクロスリープ認識のために開眼信号から搭乗者の少なくとも1つの目の目運動指標ないし目特徴をフィルタリング抽出するために、密度クラスタ分析を利用する。
半導体メモリ、ハードディスクメモリ、または光学メモリのような機械読取り可能な担体または記憶媒体に保存されていてよく、特にプログラム製品またはプログラムがコンピュータまたは装置で実行されたときに、上に説明した実施形態のうちの1つに基づく本方法の各ステップを実施、具体化、および/または制御するために利用される、プログラムコードを有するコンピュータプログラム製品またはコンピュータプログラムも好ましい。
本発明の実施例が図面に示されており、以下の記述において詳しく説明する。図面は次のものを示す:
1つの実施例に基づく、車両の搭乗者の眠気および/またはマイクロスリープを検出する装置を有する車両を示す模式図である。 1つの実施例に基づく、車両の搭乗者の開眼データを分類する装置のブロック図である。 1つの実施例に基づく、車両の搭乗者の開眼データを分類する方法のフローチャートである。 1つの実施例に基づく、図3の方法に基づいて作成される開眼データのデータクラスタを表現するためのグラフである。 1つの実施例に基づく、図3の方法に基づいて作成される開眼データのデータクラスタを表現するためのグラフである。 1つの実施例に基づく、図3の方法に基づいて作成される開眼データのデータクラスタを表現するためのグラフである。 1つの実施例に基づく、図3の方法に基づいて作成される開眼データのデータクラスタを表現するためのグラフである。 1つの実施例に基づく、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法のフローチャートである。 1つの実施例に基づく、車両の搭乗者の眠気および/またはマイクロスリープを監視するための総合システムのアーキテクチャを示す図である。
本発明の好都合な実施例についての以下の記述では、異なる図面に示されていて類似の作用をする部材には同一または類似の符号が使われており、そのような部材について繰り返し説明することはしない。
図1は、1つの実施例に基づく、車両102の搭乗者104の眠気および/またはマイクロスリープを検出する装置102を有する車両100の模式図を示している。車両100は乗用車である。別案として、車両100はそれ以外の道路走行車両、たとえばトラックであってもよい。搭乗者104は、ここでは車両100の運転者104である。
ここでは装置102は、運転者104の目を検出する、車両100に設置されたカメラ106と接続されている。特に、カメラ106は運転者104の目の目蓋の位置を検出し、たとえば、少なくとも一方の目の目蓋の間の間隔や、少なくとも一方の目の目蓋の運動の速度ないし加速度を検出する。これらの情報を集約して開眼データとし、ここで提案される取組みに基づいてこれを分類して、車両100の運転者104の眠気状態またはマイクロスリープを認識するために装置102で処理することができる。
図2は、1つの実施例に基づく、車両の搭乗者104の開眼データを分類する装置200のブロック図を示している。装置200により分類された開眼データを、眠気ないしマイクロスリープを認識するための図1に示す装置で利用することができる。装置200は、眠気ないしマイクロスリープを認識するための図1に示す装置の一部であるか、またはこれと結合されており、ないしは結合可能である。装置200は、搭乗者104の少なくとも1つの目202の、本例では右目202の、開眼データを分類するために構成されている。
搭乗者104の目に向けられたカメラ106が、搭乗者104の右目202の開眼信号204を受信する。開眼信号204は、複数の測定時点にわたっての目202の目蓋の運動の測定を含んでいる。それに伴って開眼信号204は、複数の時点にわたっての開眼データの推移を表す。
適当なインターフェースを介して、装置200の読込みデバイス206が、開眼信号204を形成する開眼データ208を装置200に読み込む。開眼データ208は、目202の検出中の1つの測定時点での目開度、目202の目蓋の速度ならびに加速度に関する情報を含んでいる。開眼データ208ないし開眼信号204は、スライドするタイムスロットの中でカメラ106により検出され、またはカメラ106と結合されたデバイスにより検出される。
目開度とは、測定時点における目202の上目蓋210から下目蓋212までの間隔であると理解される。目開度はメートルの単位で検出される。目蓋210,212の速度ならびに加速度は、目蓋210,212の完全もしくは不完全な開放段階ないし閉止段階で検出される。
装置200は読込みデバイス206のほかに、生起デバイス214、検出デバイス216、および実行デバイス218を有している。
生起デバイス214は、スライドするタイムスロットの中の第1の測定時点で、開眼データ208を基礎として第1の開眼データセット220を生起するために構成されている。第1の開眼データセット220は、1つの実施例では、測定点222と、別の測定点224と、第2の別の測定点226とを有する。たとえば、測定点222は第1の測定時点での目202の第1の目開度を表し、別の測定点224は第1の測定時点での搭乗者104の目蓋210,212のうち少なくとも一方の目蓋運動速度を表し、第2の別の測定点226は第1の測定時点での搭乗者104の目202の目蓋運動加速度を表す。
検出デバイス216は、スライドするタイムスロットの中の第2の測定時点で、開眼データ208を基礎として第2の開眼データセット228を検出するために構成されている。第2の開眼データセット228は、1つの実施例では、検出点230と、別の検出点232と、第2の別の検出点234とを有する。たとえば、検出点230は第2の測定時点での目202の第2の目開度を表し、別の検出点232は第2の測定時点での搭乗者104の目蓋210,212のうち少なくとも一方の目蓋運動速度を表し、第2の別の検出点234は第2の測定時点での搭乗者104の目202の目蓋運動加速度を表す。
各実施例において、それぞれ3つよりも多い、または少ない測定点222,224,226および検出点230,232,234が開眼データセット220,228の形成のために存在することができる。開眼データセット220,228は、装置200の実施例に応じて、目202の目開度、目蓋運動速度、および目蓋運動加速度のそれぞれ異なる組み合わせで形成することができる。これらの情報の一部だけが開眼データセット220,228に含まれていてもよい。
実行デバイス218は、測定点222,224,226および検出点230,232,234を利用したうえで、適当なアルゴリズムを適用して、開眼データセット220,228のクラスタ分析を実行するために構成されている。クラスタ分析の結果に応じて、実行デバイス218は第1の開眼データセット220を複数のデータクラスタのうち第1のデータクラスタ236に割り当てるとともに、第2の開眼データセット228を複数のデータクラスタのうち第2のデータクラスタ238に割り当てる。1つの実施例では、両方の開眼データセット220,228をたとえば第1のデータクラスタ236に割り当てることもできる。このことが該当するのは、たとえば第1の測定時点222と第2の測定時点224が互いに時間的に非常に近くに位置するとき、および/または第1の検出点230と第2の検出点232が互いに時間的に非常に近くに位置するときである。
別案の実施例では実行デバイス218は、第2の開眼データセット228が第1のデータクラスタ236に割り当てられないとき、第2の開眼データセット228を破棄するために構成されていてよい。
データクラスタ236,238への開眼データセット220,228の割当てをもって開眼データセット220,228が分類され、すなわち、カメラ106により検出された目202の複数の開放状態または移行状態のうちの1つに割り当てられる。たとえば第1のデータクラスタ236は、目202が開いている、目202の考えられる第1の開放状態を定義し、第2のデータクラスタ238は、目202が閉じている、目202の考えられる第2の開放状態を定義する。各実施例において、第3のデータクラスタが、目202が開放段階にある、目202の考えられる第1の移行状態を定義することができ、第4のデータクラスタが、目202が閉止段階にある、目202の考えられる第2の移行状態を定義することができる。
当然ながら、装置200は、そのデバイス206,214,216,218を利用して、2つよりも多いデータセット220,280を処理して1つまたは複数のデータクラスタ236,238に割り当てるためにも構成されていてよい。
ここで提案されるコンセプトの1つの実施例では、実行デバイス218または装置200のその他のデバイスは、−第1の開眼データセット220と第2の開眼データセット228が第1のデータクラスタ236に割り当てられるケースについて、および、測定点222と検出点230がそれぞれ目開度を表すケースについて−、測定点222,224,226および検出点230,232,234のうち少なくとも1つを利用したうえで、開眼データセット220,228を平均化プロセスにかけるために構成される。そのようにして、搭乗者104の目202の開眼レベルについて、非常にロバスト性の高い値を表す特性量240が第1のデータクラスタ236について形成される。
開眼レベル−英語の呼称“Eye Opening Niveau”を略してAONないしEON−は、1つのタイムスロットの内部における平均的な目開度についての値であり、目が完全に開いていない時点、たとえばまばたきないしまばたき事象またはタコメータ視認などは度外視される。開眼レベルはメートルの単位で検出され、図1に示す装置による眠気またはマイクロスリープのできる限り誤りのない認識にとって本質的なものである。
1つの実施例では、第1のデータクラスタ236について特性量240を決定するために装置200で実行される平均化プロセスは、重みづけされた平均化プロセスである。
上で説明した手順に準じて、装置200で既存のすべてのデータクラスタ236,238について、これらに割り当てられる特性量を計算することができる。
実行デバイス218が密度クラスタ分析を実行する一例としてのケースについては、重みづけされる平均化プロセスで、測定点222ないし別の測定点224,226を、検出点230ないし別の検出点232,234に依存して重みづけすることができる。1つまたは複数の測定点222,224,226が、特性量240を決定するために、1つまたは複数の検出点230,232,234との近さに依存して重みづけされると特別に好ましい。
当然ながら、装置200は上で説明した手順に準じて、その追加または代替として、右目202についての計算と同時に、または時間的にずらして、搭乗者104の左目242についての開眼データを分類し、それにより搭乗者104の眠気分析またはマイクロスリープ分析を準備ないしサポートすることができる。
図3は、車両の搭乗者の開眼データを分類する方法300のフローチャートの実施例を示している。方法300は、図2に示す分類をする装置ないしそのデバイスにより実施することができる。
生起302のステップで、スライドするタイムスロットの中の第1の測定時点で、少なくとも1つの測定点を有する第1の開眼データセットが生起される。検出304のステップで、スライドするタイムスロットの中の第2の測定時点で、少なくとも1つの検出点を有する第2の開眼データセットが検出される。実行306のステップで、第1の開眼データセットおよび/または第2の開眼データセットを第1のデータクラスタに割り当てて開眼データを分類するために、測定点および検出点を利用したうえでクラスタ分析が実行される。
1つの実施例では、方法300は、第1のデータクラスタの第1の特性量を形成するために、測定点および検出点を利用したうえで第1の開眼データセットおよび第2の開眼データセットを平均化308するステップを有する。
図4から7は、1つの実施例に基づく、図3の計算方法に基づいて作成される開眼データのデータクラスタを表現するためのグラフを示している。それぞれ示されているのは、計算方法に基づいて判定された複数のデータクラスタが模式的にクラウドとして表示されている座標系である。図4から7のすべてのグラフの根底にただ1つの計算があり、それぞれのグラフがこれを異なる視角から示している。
図4は、3次元のデカルト座標系を示している。横軸440に、目蓋運動速度が1秒毎のメートル(m/s)を単位としてプロットされている。縦軸402には、目開度がメートル(m)を単位としてプロットされている。垂直軸404には、目蓋運動加速度が平方秒毎のメートル(m/s)を単位としてプロットされている。図4の座標系は、計算方法に基づいて作成された、ないしは割り当てられた、車両搭乗者の開眼データの多数のデータセットを示している。開眼データセットの多くが、観察者の目によって互いに明確に区別可能であるデータクラスタとしてグループ分けされている。
各々のデータクラスタは、図4の図面ではデータクラウドの形態で、着目する車両搭乗者の目ないし目蓋の異なる状態の複数のカテゴリーの1つを表す。したがって、円によって記号で示す複数のデータセットのグループ分けから形成される、すでに図2との関連で説明した第1のデータクラスタ236は、1つの目または複数の目が開いている、車両搭乗者の1つの目または複数の目の第1の開放状態を表す。
正方形によって記号で示す複数のデータセットのグループ分けから形成される、同じくすでに図2との関連で説明した第2のデータクラスタ238は、1つの目または複数の目が閉じている、車両搭乗者の1つの目または複数の目の第2の開放状態を表す。
三角形によって記号で示す複数のデータセットのグループ分けから形成される第3のデータクラスタ406は、1つの目または複数の目が開放段階にある、車両搭乗者の1つの目または複数の目の第1の移行状態を表す。
菱形によって記号で示す複数のデータセットのグループ分けから形成される第4のデータクラスタ408は、1つの目または複数の目が閉止段階にある、車両搭乗者の1つの目または複数の目の第2の移行状態を表す。
検出された開眼データの外れ値を表すデータセット410は、バツ印によって図4の座標系に記入されている。
図4の図面に示すように、個々のデータクラスタ236,238,406,408は異なる個別の密度によって、および異なる個別の分布領域によって、座標系の中で特徴づけられる。したがってデータクラスタ236および238は特別に稠密に、かつ空間的に狭く区切られている。それに対して、データクラスタ406および408はこれよりも低い密度を有するとともに、データクラスタ236および238の場合よりも明らかに弱く区切られた比較的広い三次元空間に延びている。個々のデータクラスタ236,238,406,408は容易に互いに区別することができ、特に、外れ値410を容易に識別することができるので、誤測定によって比較的損なわれることがない眠気認識ないしマイクロスリープ認識のための、車両搭乗者の目状態ないし開眼状態のロバスト性の高い分離と割当が可能である。
図5は、一例としての計算方法で判定されたデータクラスタ236,238,406,408を、図4の座標系の横軸400と縦軸402の観点から2次元の図で示している。ここでは、データクラスタ236,238,406,408の間の空間的な分離をよく見ることができる。
図6は、一例としての計算方法で判定されたデータクラスタ236,238,406,408を、図4の座標系の横軸400と垂直軸404の観点から別の二次元の図で示している。この図面では、閉じた目を表す第2のデータクラスタ238が、ほぼ同じ大きさと同じ形状をした、開いた目を表す第1のデータクラスタ236に重なり合う。さらに、閉じつつある目を表す第4のデータクラスタ408は、開きつつある目を表す第3のデータクラスタ406よりも大幅に広い空間にばらついていることがわかる。
図7は、一例としての計算方法で判定されたデータクラスタ236,238,406,408を、図4の座標系の縦軸402と垂直軸404の観点から、別の2次元の図で示している。ここでも、データクラスタ236および238の高い密度をよく認めることができる。
図4から7に示す、ここで提案される新規の計算方法について、以下において、実施例を取り上げながら再度理解しやすくまとめる。まず、たとえば5分の時間を有するスライドするタイムスロットの中で、タイムスロットの各々の測定時点について開眼データが検出される。1つの実施例では、開眼データは後に続く図9で詳しく説明する閉眼前処理ユニットないしECPユニットで処理することができる。
次いで、上に説明したスライドするタイムスロットに属する、開眼データから形成された開眼データセットないしその測定点または検出点が、密度クラスタ分析にかけられる。このときデータセットが存在している空間が、高い密度のデータセットを有している区域がないかどうか探索される。このような区域のすべてのデータセットが、共通のクラスタ236,238,406または408に割り当てられる。密度クラスタ分析の1つの考えられる具体化は、OPTICSアルゴリズムである(Ankerst, Mihael, et al.著“OPTICS: ordering points to identify the dustering structure.” ACM Sigmond Record. Vol.28. No.2. ACM, 1999参照)。
このような複数のクラスタ236,238,406または408を識別することができ、このことは、所属するデータセットをそれぞれ異なるカテゴリーに振り分けることを可能にする。したがって第1のデータクラスタ236は、車両搭乗者の目が開いている第1のカテゴリーを特徴づける。第2のデータクラスタ238は、車両搭乗者の目が閉じている第2のカテゴリーを特徴づける。第3のデータクラスタ406は、車両搭乗者の目が開放段階にある第3のカテゴリーを特徴づける。第4のデータクラスタ408は、車両搭乗者の目が閉止段階にある第4のカテゴリーを特徴づける。測定時の外れ値410も、同じく図像で表示される。さらに別の測定点および検出点に依拠するさらに別のクラスタの表示も、当然ながら可能である。たとえば別のクラスタは、タコメータに向けた車両搭乗者の視線を特徴づけることができる。
ここで提案されるコンセプトのすでに言及した発展例では、データクラスタ236,238,406,408の各々について特性量が決定される。決定にあたっては、それぞれのデータクラスタ236,238,406,408の中心に着目することができ、それにより、クラスタ236,238,406,408の内部にあるすべてのデータセットの平均値から特性量を決定する。別案として、重心決定を基礎として特性量を判定することもできる。その場合、クラスタ236,238,406,408の内部にあるすべてのデータセットの重みづけされた平均値が基礎となる。各々のデータセットについての重みづけは、当該データセットが存在している区域の密度によって与えられる。
このような特性量は、その根底にあるデータセットと同じ3次元空間に位置するので、目開度、搭乗者の目蓋の運動速度、および運動加速度についての値に分解することができる。すなわちクラスタ236,238,406,408の特性量から目開度についての値を読み取ることができ、これを開眼レベルないしEON値として眠気認識ないしマイクロスリープ認識のために利用することができる。このようなEON値は、従来式の手法で決定されるEON値よりも明らかに安定的であり、すなわち低い変動しか付随しない。なぜならまばたき事象、タコメータ視認などが計算に取り入れられないからである。いっそうロバスト性の高いEON値のほか、ここで提案される方法のさらに別の利点は、まばたき事象、タコメータ視認などを開眼信号で見出すために、さまざまなクラスタ236,238,406,408の情報を利用できることにある。
図8は、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法800の実施例のフローチャートを示している。判定802のステップで、上に説明した開眼データを分類する方法に基づいて分類された開眼データを利用したうえで、搭乗者の眠気および/またはマイクロスリープが判定される。
図9は、1つの実施例に基づく、眠気および/またはマイクロスリープに関して車両の運転者を監視するための総合システム900のアーキテクチャの図を示している。
総合システム900は3つの主要構成要素902,904および906を有している。第1の主要構成要素902は眠気分類部と呼ばれる。第2の主要構成要素904はマイクロスリープ認識部と呼ばれる。第3の主要構成要素906は、眠気分類部902およびマイクロスリープ認識部904により共同で利用されるモジュール908と、開眼レベルないしEONを提供する装置910とを含んでいる。モジュール908は、閉眼前処理ユニットないしECPユニット(ECP;英語Eye Closure Preprocessing)908と呼ぶことができる。閉眼前処理ユニット908は、右と左の閉眼の検出部と、閉眼のフィルタリング部と、閉眼の速度検出部と、閉眼の加速度検出部と、EONを提供するための装置910と、妥当性確認部とを含んでいる。
閉眼前処理ユニット908は、現在の閉眼、閉眼速度、およびEONを出力する。
眠気分類902では、これらの値がまばたき事象検知部912で利用されて、まばたき事象がまばたき指標計算部914へ転送される。
まばたき指標計算部914はまばたき指標を、個人的なまばたき指標認識部916と眠気分類のためのモジュール918とへ出力する。モジュール918はまばたき指標認識部916から個人的なまばたき挙動を読み込んで、眠気レベルを出力する。
マイクロスリープ認識部904では、個人的な閉眼認識部920、閉眼認識部922、およびマイクロスリープ認識のためのモジュール924で値が利用される。
個人的な閉眼認識部920は、個人的な開眼レベルと個人的な閉眼レベルとを出力する。この両者が閉眼認識部922で利用されて、バイナリーの開眼値をモジュール924のために提供する。モジュール924はマイクロスリープ事象を出力する。
1つの実施例では、ここで提案されるコンセプトに基づいて判定されるロバスト性の高いEONを、眠気および/またはマイクロスリープを認識するための総合システム900へ容易に組み入れることができる。別案として、EONの計算を、閉眼前処理の枠内においてECPユニット908で行うことができる。引き続き、まばたき事象検出とまばたき指標計算の枠内においてEONが利用される。
すでに説明したとおり、EONは、開いた状態の目蓋の平均的な現在の間隔がどれだけ大きいかを表す。EONの計算にあたって重要なのは、考えられるまばたき事象、タコメータ視認などが、計算される値に入り込まないことである。そうしないと、まばたき頻度やまばたき時間などによって、計算される値が影響を受けることになるからである。その場合、まばたき事象の頻度と時間が増すにつれて、そこから得られるEONは低い結果となる。
ここで提案されるコンセプトに基づいてロバスト性が高く少ない変動しか付随しないEONの存在は、いくつもの利点をもたらす。したがって、EONに対して相対的に定義される限界値を有する、簡単でロバスト性の高いまばたき事象の検知を保証することができる。さらに、たとえばまばたき振幅のようなまばたき事象の特定の指標の簡単な計算が可能である。EONの90百分順位を最大開度として基準とするPERCLOS値のロバスト性の高い計算をする可能性も得られる。
1つの実施例が第1の構成要件と第2の構成要件の間に「および/または」結合を含んでいるとき、このことは、その実施例が1つの実施形態では第1の構成要件と第2の構成要件をいずれも有しており、別の実施形態では第1の構成要件または第2の構成要件だけを有していると読まれるべきである。
100 車両
102 装置
104 搭乗者
200 装置
202 目
208 開眼データ
220 開眼データセット
222 測定点
224 測定点
228 開眼データセット
230 検出点
232 検出点
236 データクラスタ
238 データクラスタ
240 特性量
242 目
300 方法
302 生起
304 検出
306 実行
308 平均化
406 第3のデータクラスタ
800 方法
802 判定

Claims (9)

  1. 搭乗者(104)の眠気検出および/またはマイクロスリープ検出のために車両(100)の搭乗者(104)の少なくとも1つの目(202,242)の、第1の開眼データセット(220)と第2の開眼データセット(228)とを含む開眼データ(208)を分類する方法(300)において、前記方法(300)は
    スライドするタイムスロットの中の第1の測定時点における、前記搭乗者(104)の前記目(202,242)の第1の目開度第1の目蓋運動速度第1の目蓋運動加速度とを、前記第1の開眼データセット(220)として測定する、第1のステップ(302)と、
    スライドするタイムスロットの中の第2の測定時点における、前記搭乗者(104)の前記目(202,242)の第2の目開度第2の目蓋運動速度第2の目蓋運動加速度とを、前記第2の開眼データセット(228)として測定する、第2のステップ(304)と、
    少なくとも前記第1の開眼データセット(220)および/または前記第2の開眼データセット(228)を第1のデータクラスタ(236)に割り当てるクラスタ分析を実行する、実行ステップ(306)と、を含み
    前記第1のデータクラスタ(236)は前記搭乗者(104)の前記目(202,242)の開放状態を表す方法(300)。
  2. 前記第2の開眼データセット(228)が前記第1のデータクラスタ(236)に割り当てられていないとき、前記第2の開眼データセット(228)が破棄されるステップを有することを特徴とする、請求項1に記載の方法(300)。
  3. 前記実行ステップ(306)において、前記第1の開眼データセット(220)が前記第1のデータクラスタ(236)に割り当てられ、前記第2の開眼データセット(228)が第2のデータクラスタ(238)に割り当てられ、前記第2のデータクラスタ(238)は前記搭乗者(104)の前記目(202,242)の別の開放状態を表すことを特徴とする、請求項に記載の方法(300)。
  4. 前記実行ステップ(306)において、前記開放状態は前記搭乗者(104)の開いた眼(202,242)を表し、前記別の開放状態は前記搭乗者(104)の閉じた目(202,242)を表すことを特徴とする、請求項3に記載の方法(300)。
  5. スライドするタイムスロットの中の第3の測定時点における、前記搭乗者(104)の前記目(202,242)の第3の目開度第3の目蓋運動速度第3の目蓋運動加速度とを、第3の開眼データセットとして測定する、第3のステップとを含み、
    前記実行ステップ(306)において、前記第3の開眼データセットを第3のデータクラスタ(406)に割り当てるクラスタ分析が実行され、前記第3のデータクラスタ(406)は前記搭乗者(104)の前記目(202,242)の移行状態を表すことを特徴とする、請求項に記載の方法(300)。
  6. 移行状態は前記搭乗者(104)の前記目(202,242)の開放段階または前記搭乗者(104)の前記目(202,242)の閉止段階を表すことを特徴とする、請求項5に記載の方法(300)。
  7. 車両(100)の搭乗者(104)の眠気および/またはマイクロスリープを検出する方法(800)であって、前記方法(800)は
    スライドするタイムスロットの中の第1の測定時点における、前記搭乗者(104)の前記目(202,242)の、第1の目開度と第1の目蓋運動速度と第1の目蓋運動加速度とを、前記第1の開眼データセット(220)として測定する、第1のステップ(302)と、
    スライドするタイムスロットの中の第2の測定時点における、前記搭乗者(104)の前記目(202,242)の、第2の目開度と第2の目蓋運動速度と第2の目蓋運動加速度とを、前記第2の開眼データセット(228)として測定する、第2のステップ(304)と、
    スライドするタイムスロットの中の第3の測定時点における、前記搭乗者(104)の前記目(202,242)の、第3の目開度と第3の目蓋運動速度と第3の目蓋運動加速度とを、第3の開眼データセットとして測定する、第3のステップと、
    前記第1の開眼データセット(220)を前記第1のデータクラスタ(236)に、前記第2の開眼データセット(228)を前記第2のデータクラスタ(238)に、前記第3の開眼データセットを前記第3のデータクラスタ(406)に割り当てるクラスタ分析を実行する、実行ステップ(306)と、を含み、
    前記搭乗者(104)の開いた目(202、242)を表す前記第1のデータクラスタ(236)と、
    前記搭乗者(104)の閉じた目(202、242)を表す前記第2のデータクラスタ(238)と
    前記搭乗者(104)の前記目(202,242)の開放段階または閉止段階を表す前記第3のデータクラスタと、
    を利用したうえで眠気および/またはマイクロスリープを検出する方法。
  8. 請求項1に記載の方法(300)における、
    スライドするタイムスロットの中の第1の測定時点における、前記搭乗者(104)の前記目(202,242)の、第1の目開度と第1の目蓋運動速度と第1の目蓋運動加速度とを、前記第1の開眼データセット(220)として測定する、第1のステップ(302)と、
    スライドするタイムスロットの中の第2の測定時点における、前記搭乗者(104)の前記目(202,242)の、第2の目開度と第2の目蓋運動速度と第2の目蓋運動加速度とを、前記第2の開眼データセット(228)として測定する、第2のステップ(304)と、
    少なくとも前記第1の開眼データセット(220)および/または前記第2の開眼データセット(228)を第1のデータクラスタ(236)に割り当ててクラスタ分析を実行する、実行ステップ(306)と、を実行するための装置(102;200)。
  9. コンピュータに請求項1から7のいずれか1項に記載の方法を実施させるためのプログラムが記憶されている機械読取り可能な記憶媒体。
JP2018530725A 2015-12-14 2016-11-10 車両の搭乗者の少なくとも1つの目の開眼データを分類する方法および装置、および、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法および装置 Active JP6731481B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102015225109.8 2015-12-14
DE102015225109.8A DE102015225109A1 (de) 2015-12-14 2015-12-14 Verfahren und Vorrichtung zum Klassieren von Augenöffnungsdaten zumindest eines Auges eines Insassen eines Fahrzeugs und Verfahren und Vorrichtung zum Erfassen einer Schläfrigkeit und/oder eines Sekundenschlafes eines Insassen eines Fahrzeugs
PCT/EP2016/077248 WO2017102186A1 (de) 2015-12-14 2016-11-10 Verfahren und vorrichtung zum klassieren von augenöffnungsdaten zumindest eines auges eines insassen eines fahrzeugs und verfahren und vorrichtung zum erfassen einer schläfrigkeit und/oder eines sekundenschlafes eines insassen eines fahrzeugs

Publications (2)

Publication Number Publication Date
JP2018537787A JP2018537787A (ja) 2018-12-20
JP6731481B2 true JP6731481B2 (ja) 2020-07-29

Family

ID=57286488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018530725A Active JP6731481B2 (ja) 2015-12-14 2016-11-10 車両の搭乗者の少なくとも1つの目の開眼データを分類する方法および装置、および、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法および装置

Country Status (6)

Country Link
US (1) US10891503B2 (ja)
EP (1) EP3391349B1 (ja)
JP (1) JP6731481B2 (ja)
CN (1) CN108369768B (ja)
DE (1) DE102015225109A1 (ja)
WO (1) WO2017102186A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11541886B2 (en) * 2019-08-23 2023-01-03 Hyundai Motor Company Vehicle traveling control apparatus, method and system
DE102021101208A1 (de) 2021-01-21 2022-07-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem sowie Kraftfahrzeug mit einem Fahrerassistenzsystem
WO2023105970A1 (ja) * 2021-12-10 2023-06-15 パナソニックIpマネジメント株式会社 推定装置、推定方法及びプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3143819B2 (ja) * 1994-05-20 2001-03-07 株式会社豊田中央研究所 まぶたの開度検出装置
JP3426060B2 (ja) * 1995-07-28 2003-07-14 三菱電機株式会社 顔画像処理装置
JP3183161B2 (ja) * 1996-04-12 2001-07-03 三菱自動車工業株式会社 覚醒度推定装置
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
DE19803158C1 (de) 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
CA2512854C (en) * 2002-06-28 2010-02-09 Alza Corporation A reservoir for use in electrotransport drug delivery
US7331671B2 (en) * 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
US7362885B2 (en) * 2004-04-20 2008-04-22 Delphi Technologies, Inc. Object tracking and eye state identification method
US7894637B2 (en) 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person
JP2006209582A (ja) * 2005-01-31 2006-08-10 Konica Minolta Holdings Inc 開眼度推定装置および開眼度推定方法
RU2423070C2 (ru) 2005-03-04 2011-07-10 Слип Диагностикс Пти.Лтд Измерение бдительности
US7253739B2 (en) * 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method for determining eye closure state
EP2032034B1 (en) * 2006-06-11 2020-04-01 Volvo Truck Corporation Method for determining and analyzing a location of visual interest
JP2008099884A (ja) 2006-10-19 2008-05-01 Toyota Motor Corp 状態推定装置
US8102417B2 (en) * 2006-10-25 2012-01-24 Delphi Technologies, Inc. Eye closure recognition system and method
WO2008088070A1 (ja) * 2007-01-19 2008-07-24 Asahi Kasei Kabushiki Kaisha 覚醒状態判定モデル生成装置、覚醒状態判定装置及び警告装置
JP4259585B2 (ja) * 2007-03-08 2009-04-30 株式会社デンソー 眠気判定装置,プログラムおよび眠気判定方法
JP4375420B2 (ja) * 2007-03-26 2009-12-02 株式会社デンソー 眠気警報装置、及びプログラム
JP5262243B2 (ja) 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
JP4727688B2 (ja) * 2008-04-23 2011-07-20 トヨタ自動車株式会社 覚醒度推定装置
JP4888838B2 (ja) * 2008-05-12 2012-02-29 トヨタ自動車株式会社 運転者撮像装置および運転者撮像方法
JP5210773B2 (ja) * 2008-09-16 2013-06-12 トヨタ自動車株式会社 眠気判定装置及びプログラム
WO2010092860A1 (ja) * 2009-02-13 2010-08-19 トヨタ自動車株式会社 生体状態推定装置及び車両制御装置
JP5262819B2 (ja) 2009-02-20 2013-08-14 日産自動車株式会社 覚醒度推定装置
CN101872171B (zh) * 2009-04-24 2012-06-27 中国农业大学 基于信息融合的驾驶员疲劳状态识别方法和系统
CN101593425B (zh) * 2009-05-06 2011-01-12 深圳市汉华安道科技有限责任公司 一种基于机器视觉的疲劳驾驶监控方法及系统
JP5444898B2 (ja) 2009-07-09 2014-03-19 アイシン精機株式会社 状態検出装置、状態検出方法及びプログラム
CN101692980B (zh) * 2009-10-30 2011-06-08 深圳市汉华安道科技有限责任公司 疲劳驾驶检测方法及装置
US9298985B2 (en) * 2011-05-16 2016-03-29 Wesley W. O. Krueger Physiological biosensor system and method for controlling a vehicle or powered equipment
JP5737400B2 (ja) * 2011-07-11 2015-06-17 トヨタ自動車株式会社 赤目検出装置
JP2013257691A (ja) 2012-06-12 2013-12-26 Panasonic Corp 居眠り状態判定装置及び居眠り状態判定方法
EP2885150B1 (en) 2012-08-20 2019-01-02 Veoneer Sweden AB Eyelid movement processing for detection of drowsiness
CN104424752B (zh) * 2013-08-20 2018-10-19 径卫视觉科技(上海)有限公司 车辆疲劳驾驶预警方法及系统
JP6056746B2 (ja) * 2013-12-18 2017-01-11 株式会社デンソー 顔画像撮影装置、および運転者状態判定装置
DE102014207807A1 (de) * 2014-04-25 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Personenbezogene Fahrerunterstützung
US20160140390A1 (en) * 2014-11-13 2016-05-19 Intel Corporation Liveness detection using progressive eyelid tracking

Also Published As

Publication number Publication date
DE102015225109A1 (de) 2017-06-14
US20200265251A1 (en) 2020-08-20
CN108369768A (zh) 2018-08-03
WO2017102186A1 (de) 2017-06-22
EP3391349A1 (de) 2018-10-24
JP2018537787A (ja) 2018-12-20
CN108369768B (zh) 2021-04-20
US10891503B2 (en) 2021-01-12
EP3391349B1 (de) 2024-07-10

Similar Documents

Publication Publication Date Title
US11688203B2 (en) Systems and methods for providing visual allocation management
CN112590794B (zh) 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置
JP7216672B2 (ja) 統合撮像装置を使用しての視覚的データ、深さデータ、および微小振動データの抽出
US10235768B2 (en) Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
Alioua et al. Driver’s fatigue detection based on yawning extraction
US9694680B2 (en) System and method for determining drowsy state of driver
CN104200192B (zh) 驾驶员注视检测系统
JP6731481B2 (ja) 車両の搭乗者の少なくとも1つの目の開眼データを分類する方法および装置、および、車両の搭乗者の眠気および/またはマイクロスリープを検出する方法および装置
KR101473957B1 (ko) 운전 패턴 인식에 기반하여 보험료를 결정하는 장치 및 방법
Kulkarni et al. A review paper on monitoring driver distraction in real time using computer vision system
JP2022033805A (ja) 無人車内の乗客状態の識別方法、装置、機器及び記憶媒体
EP3440592A1 (en) Method and system of distinguishing between a glance event and an eye closure event
JP6459856B2 (ja) 車両運転支援装置、車両運転支援方法、およびプログラム
KR102401607B1 (ko) 운전자의 운행 집중도 레벨 분석방법
JP6689470B1 (ja) 情報処理装置、プログラム及び情報処理方法
Kashevnik et al. Dangerous situations determination by smartphone in vehicle cabin: Classification and algorithms
JP6772775B2 (ja) 運転支援装置および運転支援方法
Draz et al. An Embedded Solution of Gaze Estimation for Driver Assistance Using Computer Vision
JP6406041B2 (ja) 情報処理装置、判定方法、及びプログラム
Chinta et al. Driver Distraction Detection and Recognition
Kaur et al. Driver’s Drowsiness Detection System Using Machine Learning
Zajic et al. Video-based assistance for autonomous driving
Ito et al. A Study of Safety Driving Support System focusing on Driver's Head Posture Categorization
Irsan et al. A Framework for Driver Drowsiness Monitoring Using a Convolutional Neural Network and the Internet of Things.
KR20240084221A (ko) 운전자의 뇌졸증 전조증상을 검출하기 위한 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R150 Certificate of patent or registration of utility model

Ref document number: 6731481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250