JP6482746B2 - 瞼検出装置、居眠り判定装置、および瞼検出方法 - Google Patents

瞼検出装置、居眠り判定装置、および瞼検出方法 Download PDF

Info

Publication number
JP6482746B2
JP6482746B2 JP2018562277A JP2018562277A JP6482746B2 JP 6482746 B2 JP6482746 B2 JP 6482746B2 JP 2018562277 A JP2018562277 A JP 2018562277A JP 2018562277 A JP2018562277 A JP 2018562277A JP 6482746 B2 JP6482746 B2 JP 6482746B2
Authority
JP
Japan
Prior art keywords
detection unit
upper eyelid
region
eyelid
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018562277A
Other languages
English (en)
Other versions
JPWO2018134875A1 (ja
Inventor
奈津季 田原
奈津季 田原
雄大 中村
雄大 中村
敬 平野
敬 平野
政信 大沢
政信 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6482746B2 publication Critical patent/JP6482746B2/ja
Publication of JPWO2018134875A1 publication Critical patent/JPWO2018134875A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Psychology (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、瞼を検出する瞼検出装置および瞼検出方法、ならびに検出した瞼をもとに居眠りを判定する居眠り判定装置に関するものである。
車両運転者の眼の開き度合(以下、「開眼度」と称する)を検出するドライバモニタリング装置がある。従来のドライバモニタリング装置は、運転者の顔を撮像した画像から眼部領域を抽出し、眼部領域の画像に対してエッジ検出および曲線検出を実施することで、上下瞼を検出していた(例えば、特許文献1参照)。
特開2000−137792号公報
従来のドライバモニタリング装置は以上のように構成されているので、太いアイラインまたは濃いアイシャドウなど、瞼に濃い化粧を施している運転者を撮像した画像から、化粧領域と非化粧領域との境界を検出し、この境界を上瞼と誤検出してしまうという課題があった。
また、ドライバモニタリング装置は、顔の彫が深く目元に影ができやすい運転者を撮像した画像から、影領域と非影領域との境界を検出し、この境界を上瞼と誤検出してしまうという課題があった。
上瞼を誤検出した場合、ドライバモニタリング装置は運転者が閉眼中であっても開眼と誤判定し、正しい開眼度を算出できず、居眠り判定処理が正常に動作しない。
この発明は、上記のような課題を解決するためになされたもので、目元に化粧または影がある人物の上瞼を精度よく検出することを目的とする。
この発明に係る瞼検出装置は、撮像画像から目尻および目頭を顔特徴点として検出する顔特徴点検出部と、顔特徴点に基づいて撮像画像から上瞼領域および眼領域を含む眼部領域を検出する眼部領域検出部と、眼部領域を複数に分割した分割領域ごとに、分割領域内に並ぶ画素の輝度値の配置パターンに基づいて上瞼領域と眼領域との境界を検出し、分割領域ごとに検出した境界をつなげて上瞼とする上瞼検出部とを備え、上瞼検出部は、1つの分割領域において、第一の閾値および第一の閾値より値が大きい第二の閾値を用いて、第一の閾値以上かつ第二の閾値未満の輝度値をもつ画素が連続して並ぶ配置パターンを上瞼領域とし、第一の閾値未満の輝度値をもつ画素と第二の閾値以上の輝度値をもつ画素とが連続して並ぶか、第一の閾値未満の輝度値をもつ画素が連続して並ぶか、第二の閾値以上の輝度値をもつ画素が連続して並ぶ配置パターンを眼領域とするものである。
この発明によれば、眼部領域を複数に分割した分割領域ごとに、分割領域内に並ぶ画素の輝度値の配置パターンに基づいて上瞼領域と眼領域との境界を検出し、分割領域ごとに検出した境界をつなげて上瞼とするようにしたので、目元に化粧または影がある人物の上瞼を精度よく検出することができる。
この発明の実施の形態1に係る瞼検出装置の構成例を示すブロック図である。 図2Aおよび図2Bは、この発明の実施の形態1に係る瞼検出装置のハードウェア構成例を示す図である。 この発明の実施の形態1に係る瞼検出装置の動作例を示すフローチャートである。 図3のステップST15における処理の詳細なフローチャートである。 この発明の実施の形態1に係る瞼検出装置の眼部領域検出部により検出された眼部領域の画像例である。 図6Aおよび図6Bは、この発明の実施の形態1に係る瞼検出装置の上瞼検出部による配置パターンの判定方法を説明する図である。 図7A、図7Bおよび図7Cは、この発明の実施の形態1に係る瞼検出装置の上瞼検出部による上瞼領域と眼領域との境界検出方法を説明する図である。 図5の眼部領域における配置パターンおよび境界を示す図である。 図5の眼部領域における上瞼を示す図である。 この発明の実施の形態2に係る瞼検出装置の構成例を示すブロック図である。 この発明の実施の形態2に係る瞼検出装置の動作例を示すフローチャートである。 図12A、図12Bおよび図12Cは、この発明の実施の形態2に係る瞼検出装置による上瞼検出方法を説明する図である。 この発明の実施の形態3に係る瞼検出装置の構成例を示すブロック図である。 この発明の実施の形態3に係る瞼検出装置の動作例を示すフローチャートである。 この発明の実施の形態3に係る瞼検出装置の上下瞼検出部による上下瞼検出方法を説明する図である。 図16A、図16Bおよび図16Cは、この発明の実施の形態3に係る瞼検出装置の開眼度算出部による開眼度算出方法を説明する図である。 この発明の実施の形態4に係る居眠り判定装置の構成例を示すブロック図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る瞼検出装置10の構成例を示すブロック図である。図1に示す瞼検出装置10は、画像取得部11、顔検出部12、顔特徴点検出部13、眼部領域検出部14、上瞼検出部15、および制御部16を備える。また、瞼検出装置10は、撮像部1と接続される。以下では、瞼検出装置10が車両に搭載され、運転者の瞼を検出する場合を例示する。瞼検出装置10は、瞼に濃い化粧を施している運転者、および顔の彫が深く目元に影ができやすい運転者の上瞼を高精度に検出するものである。
撮像部1は、車室内に設置された単数または複数のカメラを備える。撮像部1には、可視光領域の感度を持つカメラを用いてもよいし、赤外線カメラなどの非可視光領域の感度を持つカメラを用いてもよい。撮像部1が赤外線カメラなどを用いる場合、赤外線などの非可視光を照射するLED(Light Emitting Diode)などの照明装置を、車室内に設置して運転者に照射する。この撮像部1は、制御部16の制御下で運転者の顔を撮像し、撮像画像を画像取得部11へ出力する。
画像取得部11は、撮像部1から撮像画像を取得し、制御部16へ出力する。
顔検出部12は、画像取得部11が撮像部1から取得した撮像画像を、制御部16から受け取る。顔検出部12は、撮像画像から運転者の顔を検出し、顔検出結果を制御部16へ出力する。
顔検出部12は、例えば、Haar−like検出器と、AdaboostおよびCascadeを組み合わせた一般的なアルゴリズムとを用いて作成した識別器である。なお、瞼検出装置10が顔検出部12を備える構成ではなく、撮像部1などの外部装置が顔検出部12を備える構成であってもよい。外部装置が顔検出部12を備える構成である場合、画像取得部11は、外部装置の顔検出部12から撮像画像と顔検出結果とを取得して制御部16へ出力する。
顔特徴点検出部13は、画像取得部11が撮像部1から取得した撮像画像と、顔検出部12が検出した顔検出結果とを、制御部16から受け取る。顔特徴点検出部13は、顔検出結果に基づいて、撮像画像上の顔の位置から目尻および目頭を顔特徴点として検出し、顔特徴点検出結果を制御部16へ出力する。
顔特徴点検出部13は、例えば、モデルフィッティングまたはElastic Bunch Graph Matchingと呼ばれる手法など、一般的なアルゴリズムを用いて作成した検出器である。なお、瞼検出装置10が顔特徴点検出部13を備える構成ではなく、撮像部1などの外部装置が顔特徴点検出部13を備える構成であってもよい。外部装置が顔特徴点検出部13を備える構成である場合、画像取得部11は、外部装置の顔特徴点検出部13から撮像画像と顔特徴点検出結果とを取得して制御部16へ出力する。
眼部領域検出部14は、画像取得部11が撮像部1から取得した撮像画像と、顔特徴点検出部13が検出した顔特徴点検出結果とを、制御部16から受け取る。眼部領域検出部14は、顔特徴点検出結果の目尻および目頭の位置に基づいて、撮像画像から眼部領域を検出し、眼部領域画像を制御部16へ出力する。眼部領域は、上瞼領域および眼領域を含む。眼領域は、白目および黒目の領域を含む。目尻および目頭の位置に基づく眼部領域の検出方法には周知の技術を用いればよいため、説明は省略する。
上瞼検出部15は、眼部領域検出部14が検出した眼部領域の画像を、制御部16から受け取る。上瞼検出部15は、眼部領域を複数の領域に分割し、分割領域ごとに、分割領域内に並ぶ画素の輝度値の配置パターンに基づいて上瞼領域と眼領域との境界を検出する。そして、上瞼検出部15は、分割領域ごとに検出した境界をつなげて上瞼のラインとし、制御部16へ出力する。
制御部16は、撮像部1および瞼検出装置10の動作を制御する。具体的には、制御部16は、撮像部1に指示して運転者を撮像させる。また、制御部16は、瞼検出装置10における画像取得部11、顔検出部12、顔特徴点検出部13、眼部領域検出部14、および上瞼検出部15に指示して動作のタイミングを制御したり、情報の授受を制御したりする。
図2Aおよび図2Bは、この発明の実施の形態1に係る瞼検出装置10のハードウェア構成例を示す図である。撮像部1はカメラ100である。瞼検出装置10における画像取得部11、顔検出部12、顔特徴点検出部13、眼部領域検出部14、上瞼検出部15、および制御部16の各機能は、処理回路により実現される。即ち、瞼検出装置10は、上記各機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路101であってもよいし、メモリ103に格納されるプログラムを実行するプロセッサ102であってもよい。
図2Aに示すように、処理回路が専用のハードウェアである場合、処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。画像取得部11、顔検出部12、顔特徴点検出部13、眼部領域検出部14、上瞼検出部15、および制御部16の機能を複数の処理回路101で実現してもよいし、各部の機能をまとめて1つの処理回路101で実現してもよい。
カメラ100および処理回路101は、バス等により接続され、情報の授受が可能である。
図2Bに示すように、処理回路がプロセッサ102である場合、画像取得部11、顔検出部12、顔特徴点検出部13、眼部領域検出部14、上瞼検出部15、および制御部16の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ103に格納される。プロセッサ102は、メモリ103に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、瞼検出装置10は、プロセッサ102により実行されるときに、後述する図3等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ103を備える。また、このプログラムは、画像取得部11、顔検出部12、顔特徴点検出部13、眼部領域検出部14、上瞼検出部15、および制御部16の手順または方法をコンピュータに実行させるものであるとも言える。
ここで、プロセッサ102とは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、またはマイクロコンピュータ等のことである。
メモリ103は、RAM(Random Access Memory)、ROM(Read Only Memory)、FPROM(Erasable Programmable ROM)、またはフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスクまたはフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)またはDVD(Digital Versatile Disc)等の光ディスクであってもよい。
カメラ100、プロセッサ102およびメモリ103は、バス等により接続され、情報の授受が可能である。
なお、画像取得部11、顔検出部12、顔特徴点検出部13、眼部領域検出部14、上瞼検出部15、および制御部16の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、瞼検出装置10における処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
図3は、この発明の実施の形態1に係る瞼検出装置10の動作例を示すフローチャートである。瞼検出装置10は、図3に示されるフローチャートの処理を繰り返し実施する。なお、以下の説明では、制御部16の動作の説明を省略する。
ステップST11において、画像取得部11は、撮像部1によって撮像された車両の運転者の撮像画像を取得する。
ステップST12において、顔検出部12は、撮像画像から顔の位置を検出する。
ステップST13において、顔特徴点検出部13は、撮像画像上の顔検出位置から、目尻および目頭の位置を検出する。
ステップST14において、眼部領域検出部14は、目尻および目頭の位置に基づいて、撮像画像から上瞼領域および眼領域を含む眼部領域を検出する。
ステップST15において、上瞼検出部15は、眼部領域の中から上瞼領域と眼領域との境界である上瞼を検出する。
ただし、上述のように外部装置が顔検出部12および顔特徴点検出部13を備える場合、ステップST11〜ST13は不要である。
図4は、図3のステップST15における処理の詳細なフローチャートである。
ステップST151において、上瞼検出部15は、眼部領域を複数の分割領域に分割する。そして、上瞼検出部15は、眼部領域内の全ての画素の輝度値を探索する。
図5は、眼部領域検出部14により検出された眼部領域201の画像例である。この例では、上瞼検出部15は、眼部領域201の一番上かつ一番左の画素を輝度値探索開始位置202とし、輝度値探索開始位置202から水平方向へ、各画素の輝度値を探索する。その後、上瞼検出部15は、一列下の一番左の輝度値探索開始位置203から水平方向へ、各画素の輝度値を検索する。このようにして、上瞼検出部15は、眼部領域201のすべての列のすべての画素について輝度値を探索する。ここでは、輝度値探索開始位置202を含む水平方向一列の画素が1つの分割領域であり、輝度値探索開始位置203を含む水平方向一列の画素が1つの分割領域である。
なお、上瞼検出部15は、眼部領域201を水平方向に分割したが、これに限定されるものではなく、垂直方向または円弧方向などに分割してもよい。例えば眼部領域201が水平方向に沿って分割された場合、1つの分割領域は、眼部領域201の右端の画素から左端の画素までを結ぶ水平方向の領域である。また、例えば眼部領域201が垂直方向に沿って分割された場合、1つの分割領域は、眼部領域201の上端の画素から下端の画素までを結ぶ垂直方向の領域である。また、例えば眼部領域201が上に凸の円弧方向に沿って分割された場合、1つの分割領域は、眼部領域201の右端の画素から左端の画素までを結ぶ円弧方向の領域である。このように、分割領域は、眼部領域201の一端から反対側の一端までを結ぶ領域である。
ステップST152において、上瞼検出部15は、各画素の輝度値を、水平方向において隣接する画素の輝度値と比較し、輝度値の配置パターンを判定する。上瞼検出部15は、配置パターンの判定に、第一の閾値および第二の閾値を用いる。
例えば、瞼検出装置10が自身のキャリブレーション中にHough変換などの一般的なアルゴリズムを用いて撮像画像から黒目を検出し、黒目の画素の輝度値に基づいて第一の閾値および第二の閾値を設定する。第一の閾値は黒目を判定するための値であり、第一の閾値未満の輝度値をもつ画素は黒目である可能性が高い。第二の閾値は白目を判定するための値であり、第二の閾値以上の輝度値をもつ画素は白目である可能性が高い。第一の閾値以上かつ第二の閾値未満の輝度値をもつ画素は、黒目および白目ではなく、化粧または影である可能性が高い。第二の閾値は、第一の閾値より大きい値である。
瞼検出装置10がキャリブレーションを実施するタイミングは問わない。瞼検出装置10は、例えば、車両のエンジンが始動した直後の、運転者が座席に座って顔を特定の方向に向けている数秒間に、キャリブレーションを実施する。このタイミングでキャリブレーションを実施することで、通常状態の運転者の目の情報を取得できる。
図6Aおよび図6Bは、上瞼検出部15による配置パターンa,bの判定方法を説明する図である。配置パターンaは、第一の閾値以上かつ第二の閾値未満の輝度値をもつ画素が連続して並ぶ配置パターンである。この配置パターンaは、眼部領域201内の上瞼領域を判定するためのものである。
配置パターンbは、第一の閾値未満の輝度値をもつ画素と第二の閾値以上の輝度値をもつ画素とが連続して並ぶ配置パターン、第一の閾値未満の輝度値をもつ画素が連続して並ぶ配置パターン、および、第二の閾値以上の輝度値をもつ画素が連続して並ぶ配置パターンである。配置パターンbは、眼部領域201内の眼領域を判定するためのものである。
図6Aの紙面左側において、3つ連続して並ぶ画素は、輝度値が「53」、「52」、「56」であり、全ての輝度値は第一の閾値以上かつ第二の閾値未満である。そのため、上瞼検出部15は、これら3つの画素を配置パターンaと判定する。
同様に、図6Aの紙面右側において、3つ連続して並ぶ画素は、輝度値が「46」、「43」、「49」であり、全ての輝度値は第一の閾値以上かつ第二の閾値未満である。そのため、上瞼検出部15は、これら3つの画素を配置パターンaと判定する。
図6Bの紙面左側において、3つ連続して並ぶ画素は、輝度値が「254」、「2」、「1」であり、輝度値「254」は第二の閾値以上であり、輝度値「2」と「1」は第一の閾値未満である。そのため、上瞼検出部15は、これら3つの画素を配置パターンbと判定する。
図6Bの紙面中央において、3つ連続して並ぶ画素は、輝度値が「0」、「1」、「3」であり、全ての輝度値は第一の閾値未満である。そのため、上瞼検出部15は、これら3つの画素を配置パターンbと判定する。
図6Bの紙面右側において、3つ連続して並ぶ画素は、輝度値が「254」、「255」、「253」であり、全ての輝度値は第二の閾値以上である。そのため、上瞼検出部15は、これら3つの画素を配置パターンbと判定する。
なお、上瞼検出部15は、眼部領域201を水平方向に分割したので水平方向の配置パターンを判定するが、水平方向以外の方向に分割した場合には分割した方向の配置パターンを判定すればよい。また、上瞼検出部15は、水平方向に隣接して並ぶ3画素を対象にして配置パターンa,bを判定したが、対象とする画素数はこれに限定されるものではなく、4画素以上に増やしてもよい。
ステップST153において、上瞼検出部15は、眼部領域201内の全ての画素について輝度値の探索と配置パターンの判定とを終えた場合(ステップST153“YES”)、ステップST154へ進む。一方、上瞼検出部15は、輝度値の探索と配置パターンの判定とを終えていない画素が残っている場合(ステップST153“NO”)、ステップST151へ戻る。
ステップST154において、上瞼検出部15は、分割領域ごとに、分割領域内の配置パターンに基づいて上瞼領域と眼領域との境界を検出する。
図7A、図7Bおよび図7Cは、上瞼検出部15による上瞼領域と眼領域との境界検出方法を説明する図である。上瞼検出部15は、各分割領域を、分割領域A,B,Cに分類する。分割領域Aには、図7Aのように配置パターンaのみが存在する。分割領域Bには、図7Bのように配置パターンbのみが存在する。分割領域Cには、図7Cのように配置パターンaと配置パターンbとが混在する。続いて、上瞼検出部15は、分割領域Cにおいて配置パターンaと配置パターンbとの境界204,205を検出する。配置パターンaと配置パターンbとの境界204,205は、上瞼領域と眼領域との境界である。他方、分割領域A,Bには境界がないため、上瞼検出部15は分割領域A,Bの境界検出処理を行わない。
図8は、図5の眼部領域201における配置パターンa,bおよび境界231〜236を示す図である。眼部領域201を水平方向に分割した分割領域211〜224のうちの分割領域215〜217は、配置パターンa,bが混在する分割領域Cである。上瞼検出部15は、分割領域215〜217から境界231〜236を検出する。
ステップT155において、上瞼検出部15は、全ての分割領域について境界の検出を終えた場合(ステップST155“YES”)、ステップST156へ進む。一方、上瞼検出部15は、境界の検出を終えていない分割領域が残っている場合(ステップST155“NO”)、ステップST154へ戻る。
ステップST156において、上瞼検出部15は、分割領域ごとに検出した境界をつなげて上瞼を決定する。
図9は、図5の眼部領域201における上瞼241を示す図である。上瞼検出部15は、図8の分割領域215〜217から検出した境界231〜236をつなげて上瞼241にする。その際、上瞼検出部15は、例えば、境界231〜236の位置と、顔特徴点検出部13が検出した目尻および目頭の位置とを用いたカーブフィッティングにより上瞼241のラインを決定する。ちなみに、上瞼241のラインより上の領域、つまり図8における分割領域Aは、化粧または影である。先に説明した従来技術では二重線で示すライン、つまり化粧または影の上側ラインを上瞼242として誤検出してしまうが、実施の形態1では化粧または影の上側ラインを上瞼として誤検出することはない。
以上のように、実施の形態1に係る瞼検出装置10は、撮像画像から目尻および目頭を顔特徴点として検出する顔特徴点検出部13と、顔特徴点に基づいて撮像画像から上瞼領域および眼領域を含む眼部領域を検出する眼部領域検出部14と、眼部領域を複数の領域に分割した分割領域ごとに、分割領域内に並ぶ画素の輝度値の配置パターンに基づいて上瞼領域と眼領域との境界を検出し、分割領域ごとに検出した上瞼領域と眼領域との境界をつなげて上瞼とする上瞼検出部15とを備える構成である。これにより、目元に化粧または影がある人物の上瞼を精度よく検出することができる。
また、実施の形態1の上瞼検出部15は、1つの分割領域において、第一の閾値および第一の閾値より値が大きい第二の閾値を用いて、第一の閾値以上かつ第二の閾値未満の輝度値をもつ画素が連続して並ぶ配置パターンaを上瞼領域とし、第一の閾値未満の輝度値をもつ画素と第二の閾値以上の輝度値をもつ画素とが連続して並ぶか、第一の閾値未満の輝度値をもつ画素が連続して並ぶか、第二の閾値以上の輝度値をもつ画素が連続して並ぶ配置パターンbを眼領域とする構成である。これにより、上瞼を簡素かつ精度よく検出できる。
実施の形態2.
上記実施の形態1では、上瞼検出部15によって検出される上瞼は1つであることが前提であった。しかし、瞼上にアイシャドウが濃淡がはっきりわかるように施されている場合、アイラインが複数施されている場合、または目元に複数の影が入る場合、実施の形態1の方式では上瞼のラインが複数検出される可能性がある。これに対し、実施の形態2では、上瞼検出部15は、複数の上瞼を検出した場合に、複数の上瞼のうち、輝度値の変化度合が最も大きい上瞼を、真の上瞼と決定する。以下では、上瞼の輝度値の変化度合を、エッジ強度と称する。
図10は、この発明の実施の形態2に係る瞼検出装置10の構成例を示すフローチャートである。実施の形態2に係る瞼検出装置10は、図1に示した実施の形態1の瞼検出装置10に対してエッジ強度検出部21が追加された構成である。図10において図1と同一または相当する部分は、同一の符号を付し説明を省略する。
エッジ強度検出部21は、図2Aに示した処理回路101により実現される。または、エッジ強度検出部21は、図2Bに示したプロセッサ102がメモリ103に格納されているプログラムを実行することにより実現される。
図11は、この発明の実施の形態2に係る瞼検出装置10の動作例を示すフローチャートである。図11のステップST151〜ST156の処理は、図4のステップST151〜ST156の処理と同様であるため、説明を省略する。
ステップST21において、上瞼検出部15は、複数の上瞼を検出した場合(ステップST21“YES”)、制御部16を介してエッジ強度検出部21へ上瞼の検出結果を出力し、ステップST22へ進む。一方、上瞼検出部15は、1つの上瞼を検出した場合(ステップST21“NO”)、ステップST156へ進む。
ステップST22において、エッジ強度検出部21は、制御部16を介して、上瞼検出部15から上瞼の検出結果を受け取る。エッジ強度検出部21は、複数の上瞼のそれぞれについてエッジ強度を検出する。エッジ強度検出部21は、制御部16を介して上瞼検出部15へエッジ強度の検出結果を出力する。
ステップST22に続くステップST156において、上瞼検出部15は、制御部16を介して、エッジ強度検出部21からエッジ強度の検出結果を受け取る。アイシャドウもしくはアイラインなどの化粧、または目元の影によって発生するエッジに比べて、上瞼のエッジの方がエッジ強度が強くなる。そのため、上瞼検出部15は、エッジ強度の検出結果に基づいて、複数の上瞼のうち、エッジ強度が一番強い上瞼を真の上瞼に決定する。
図12A、図12Bおよび図12Cは、この発明の実施の形態2に係る瞼検出装置10による上瞼検出方法を説明する図である。図12Aに示す眼部領域250の画像例では、上瞼に、濃淡のはっきりしたアイシャドウが施されている。図12Bに示すように、上瞼検出部15は、眼部領域250から2つの上瞼251,252を検出する。エッジ強度検出部21は、上瞼251とその周辺の各画素の輝度値に基づいてエッジ強度を検出する。同様に、エッジ強度検出部21は、上瞼252とその周辺の各画素の輝度値に基づいてエッジ強度を検出する。上瞼251のエッジ強度に比べて、上瞼252のエッジ強度の方が強い。そのため、図12Cに示すように、上瞼検出部15は、上瞼252を真の上瞼に決定する。
以上のように、実施の形態2に係る瞼検出装置10は、上瞼検出部15により複数の上瞼が検出された場合、複数の上瞼それぞれの輝度値の変化度合を検出するエッジ強度検出部21を備える構成である。上瞼検出部15は、複数の上瞼のうち、エッジ強度検出部21により検出された輝度値の変化度合が最も大きい上瞼を真の上瞼に決定する構成である。この構成により、濃淡のはっきりしたアイシャドウもしくは複数のアイラインといった特殊な化粧を施した人物、または目元に複数の影がある人物の上瞼をさらに精度よく検出することができる。
実施の形態3.
実施の形態3では、瞼検出装置10が上瞼に加えて下瞼も検出する。また、瞼検出装置10が開眼度を算出する。
図13は、この発明の実施の形態3に係る瞼検出装置10の構成例を示すブロック図である。実施の形態3に係る瞼検出装置10は、図1に示した実施の形態1の瞼検出装置10に対して上下瞼検出部31および開眼度算出部32が追加された構成である。図13において図1と同一または相当する部分は、同一の符号を付し説明を省略する。
上下瞼検出部31および開眼度算出部32は、図2Aに示した処理回路101により実現される。または、上下瞼検出部31および開眼度算出部32は、図2Bに示したプロセッサ102がメモリ103に格納されているプログラムを実行することにより実現される。
図14は、この発明の実施の形態3に係る瞼検出装置10の動作例を示すフローチャートである。図14のステップST11〜ST15の処理は、図3のステップST11〜ST15の処理と同様であるため、説明を省略する。
ステップST31において、上下瞼検出部31は、顔特徴点検出部13が検出した顔特徴点検出結果と、眼部領域検出部14が検出した眼部領域の画像とを、制御部16から受け取る。上下瞼検出部31は、顔特徴点検出結果の目尻および目頭の位置に基づいて、眼部領域から仮の上瞼と下瞼を検出する。上下瞼検出部31は、仮の上瞼と下瞼の検出結果を制御部16へ出力する。
上下瞼検出部31は、例えば、SobelフィルタまたはLaplacianフィルタといった一般的な画像処理フィルタを用いて、眼部領域からエッジを検出する。続いて、上下瞼検出部31は、目尻および目頭の位置と、エッジ検出の結果とを用いて、曲線を検出する。検出された曲線2本が、仮の上瞼と下瞼のラインとなる。曲線検出には、Hough変換などの一般的なアルゴリズムを用いる。
ステップST32において、開眼度算出部32は、上下瞼検出部31による仮の上瞼と下瞼の検出結果を、制御部16から受け取る。開眼度算出部32は、仮の上瞼と下瞼とが一致する場合(ステップST32“YES”)、ステップST33へ進む。一方、開眼度算出部32は、仮の上瞼と下瞼とが一致しない場合(ステップST32“NO”)、その旨を制御部16に通知する。制御部16は、その通知を受け取るとステップST15およびステップST34へ進む。
ステップST33において、開眼度算出部32は、上下瞼検出部31が検出した仮の上瞼と下瞼とが一致しているため、運転者が閉眼していると判定する。開眼度算出部32は、開眼度を0%と算出する。
ちなみに、仮の上瞼と下瞼とが一致している場合、眼部領域内に図7Aで示した分割領域Aのみが存在する。
ステップST15に続くステップST34において、開眼度算出部32は、上下瞼検出部31が検出した仮の上瞼と下瞼とが一致していないため、運転者が開眼していると判定し、開眼度を算出する。開眼度算出時、開眼度算出部32は、運転者の目元に濃い化粧が施されている場合または影がある場合を想定して、ステップST15で検出された上瞼を用いる。
図15は、上下瞼検出部31による上下瞼検出方法を説明する図である。図15に示す眼部領域260の画像例では、真の上瞼263および下瞼262が検出対象である。しかし、真の上瞼263より上に化粧または影の領域がある。そのため、上下瞼検出部31がエッジ検出と曲線検出とを実施した場合、化粧または影の領域のエッジを仮の上瞼261として誤検出してしまう。そこで、開眼度算出部32は、上下瞼検出部31が検出した仮の上瞼261ではなく、上瞼検出部15が検出した真の上瞼263を用いて開眼度を算出する。
例えば、開眼度算出部32は、瞼検出装置10が自身のキャリブレーション中に取得した通常状態の運転者の目の情報を用いて、通常状態の眼領域の縦方向の距離を算出し、この距離を開眼度100%の基準距離とする。
開眼度算出部32は、上下瞼検出部31による下瞼の検出結果と、上瞼検出部15による上瞼の検出結果とを、制御部16を介して受け取る。開眼度算出部32は、下瞼と上瞼との間の距離を算出し、算出した距離と基準距離とを比較して開眼度を算出する。ステップST34では、開眼度算出部32が1%〜100%の開眼度を算出するものとする。
ちなみに、開眼度が1%〜99%である場合、眼部領域内に図7A、図7Bおよび図7Cで示した分割領域A,B,Cのすべてが存在する。他方、開眼度が100%である場合、眼部領域内に図7Bで示した分割領域Bのみが存在する。
図16A、図16Bおよび図16Cは、開眼度算出部32による開眼度算出方法を説明する図である。図16Aのように、眼部領域260に図7A、図7Bおよび図7Cで示した分割領域A,B,Cのすべてが存在する場合、上瞼検出部15は、分割領域Bの配置パターンa,bの境界を真の上瞼263として検出する。開眼度算出部32は、基準距離Hと、真の上瞼263および下瞼262間の距離とに基づいて開眼度を算出する。図16Aでは開眼度は65%である。
図16Bのように、基準距離Hと、真の上瞼263および下瞼262間の距離とが等しい場合、開眼度算出部32は、開眼度を100%と算出する。なお、開眼度算出部32は、基準距離Hと真の上瞼263および下瞼262間の距離とが等しい場合に開眼度を100%と算出する代わりに、眼部領域260に分割領域Bのみが存在する場合に開眼度を100%と算出してもよい。
図16Cのように、仮の上瞼261と下瞼262とが一致する場合、開眼度算出部32は、開眼度を0%と算出する。なお、開眼度算出部32は、仮の上瞼261と下瞼262とが一致する場合に開眼度を0%と算出する代わりに、眼部領域260に分割領域Aのみが存在する場合に開眼度を0%と算出してもよい。
以上のように、実施の形態3に係る瞼検出装置10は、顔特徴点に基づいて眼部領域から仮の上瞼と下瞼とを検出する上下瞼検出部31を備える構成である。上瞼検出部15は、上下瞼検出部31により検出された仮の上瞼と下瞼とが一致しない場合、上瞼検出部15が検出した上瞼を真の上瞼に決定する構成である。これにより、通常の目元の人物は勿論、目元に化粧または影がある人物についても、上瞼を精度よく検出することができる。
また、実施の形態3に係る瞼検出装置10は、上瞼検出部15により検出された真の上瞼、および上下瞼検出部31により検出された下瞼を用いて開眼度を算出する開眼度算出部32を備える構成である。これにより、目元に化粧または影がある人物の上瞼を精度よく検出できるので、当該人物の開眼度も精度よく算出することができる。
なお、実施の形態3に係る瞼検出装置10は、実施の形態2におけるエッジ強度検出部21を備えてもよい。この構成により、通常の目元の人物は勿論、濃淡のはっきりしたアイシャドウもしくは複数のアイラインといった特殊な化粧を施した人物、または目元に複数の影がある人物についても、上瞼を精度よく検出することができる。また、当該人物の開眼度も精度よく算出することができる。
実施の形態4.
実施の形態4では、開眼度の算出結果を用いて居眠りを判定する。
図17は、この発明の実施の形態4に係る居眠り判定装置40の構成例を示すブロック図である。図17に示す居眠り判定装置40は、実施の形態3に係る瞼検出装置10と、居眠り判定部41とを備える。
居眠り判定部41は、図2Aに示した処理回路101により実現される。または、居眠り判定部41は、図2Bに示したプロセッサ102がメモリ103に格納されているプログラムを実行することにより実現される。
居眠り判定部41は、実施の形態3に係る瞼検出装置10の開眼度算出部32から、開眼度算出結果を受け取る。居眠り判定部41は、開眼度算出結果に基づいて運転者が居眠りしているか否かを判定する。居眠り判定部41は、例えば、閉眼状態が予め定められた期間(例えば、数秒)連続した場合に運転者が居眠りしていると判定する。
以上のように、実施の形態4に係る居眠り判定装置40は、実施の形態3の瞼検出装置10と、瞼検出装置10により算出された開眼度に基づいて居眠り状態を判定する居眠り判定部41とを備える構成である。この構成により、目元に化粧または影がある人物の上瞼および開眼度を精度よく検出できるので、当該人物の居眠りを精度よく判定することができる。
上記実施の形態1〜4では、撮像部1、瞼検出装置10および居眠り判定装置40が車両に搭載される例を示したが、これに限定されるものではなく、例えば撮像部1のみ車両に搭載され、瞼検出装置10および居眠り判定装置40が車両外に設けられてもよい。その場合、例えば、車内の撮像部1と車外の瞼検出装置10および居眠り判定装置40とは無線通信により情報を授受可能である。瞼検出装置10および居眠り判定装置40は、撮像部1が撮像した画像を無線通信により受信し、上瞼を検出したり、開眼度を算出したり、居眠りを判定したりし、その結果を無線通信によりドライバモニタリング装置などの車載装置へ送信する。
なお、この発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
また、この発明の各実施の形態において説明した瞼検出装置10および居眠り判定装置40が対象とする人物は、車両の運転者に限定されるものではなく、鉄道、船舶または航空機等を含む移動体の運転者であってもよい。瞼検出装置10および居眠り判定装置40をドライバモニタリング装置に適用することで、性別および人種といった運転者の多彩なユースケースに対してドライバモニタリング装置の正常な動作が期待できる。
この発明に係る瞼検出装置および居眠り判定装置は、上瞼を精度よく検出するようにしたので、運転者の状態を監視するドライバモニタリング装置などに用いるのに適している。
1 撮像部、10 瞼検出装置、11 画像取得部、12 顔検出部、13 顔特徴点検出部、14 眼部領域検出部、15 上瞼検出部、16 制御部、21 エッジ強度検出部、31 上下瞼検出部、32 開眼度算出部、40 居眠り判定装置、41 居眠り判定部、100 カメラ、101 処理回路、102 プロセッサ、103 メモリ、201,250,260 眼部領域、202,203 輝度値探索開始位置、204,205,231〜236 境界、211〜224 分割領域、241,251,252 上瞼、242 誤検出された上瞼、261 仮の上瞼、262 下瞼、263 真の上瞼。

Claims (7)

  1. 撮像画像から目尻および目頭を顔特徴点として検出する顔特徴点検出部と、
    前記顔特徴点に基づいて前記撮像画像から上瞼領域および眼領域を含む眼部領域を検出する眼部領域検出部と、
    前記眼部領域を複数の領域に分割した分割領域ごとに、分割領域内に並ぶ画素の輝度値の配置パターンに基づいて上瞼領域と眼領域との境界を検出し、前記分割領域ごとに検出した前記境界をつなげて上瞼とする上瞼検出部とを備え
    前記上瞼検出部は、1つの前記分割領域において、第一の閾値および前記第一の閾値より値が大きい第二の閾値を用いて、前記第一の閾値以上かつ前記第二の閾値未満の輝度値をもつ画素が連続して並ぶ配置パターンを前記上瞼領域とし、前記第一の閾値未満の輝度値をもつ画素と前記第二の閾値以上の輝度値をもつ画素とが連続して並ぶか、前記第一の閾値未満の輝度値をもつ画素が連続して並ぶか、前記第二の閾値以上の輝度値をもつ画素が連続して並ぶ配置パターンを前記眼領域とする瞼検出装置。
  2. 撮像画像から目尻および目頭を顔特徴点として検出する顔特徴点検出部と、
    前記顔特徴点に基づいて前記撮像画像から上瞼領域および眼領域を含む眼部領域を検出する眼部領域検出部と、
    前記眼部領域を複数の領域に分割した分割領域ごとに、分割領域内に並ぶ画素の輝度値の配置パターンに基づいて上瞼領域と眼領域との境界を検出し、前記分割領域ごとに検出した前記境界をつなげて上瞼とする上瞼検出部と
    前記顔特徴点に基づいて前記眼部領域から仮の上瞼と下瞼とを検出する上下瞼検出部とを備え、
    前記上瞼検出部は、前記上下瞼検出部により検出された前記仮の上瞼と前記下瞼とが一致しない場合、前記上瞼検出部が検出した前記上瞼を真の上瞼に決定する瞼検出装置。
  3. 前記上瞼検出部により検出された前記真の上瞼、および前記上下瞼検出部により検出された前記下瞼を用いて開眼度を算出する開眼度算出部を備える請求項記載の瞼検出装置。
  4. 前記分割領域は、前記眼部領域の一端から反対側の一端までを結ぶ領域であることを特徴とする請求項1から請求項3のうちいずれか1項に記載の瞼検出装置。
  5. 前記上瞼検出部により複数の上瞼が検出された場合、前記複数の上瞼それぞれの輝度値の変化度合を検出するエッジ強度検出部を備え、
    前記上瞼検出部は、前記複数の上瞼のうち、前記エッジ強度検出部により検出された輝度値の変化度合が最も大きい上瞼を真の上瞼に決定することを特徴とする請求項1から請求項4のうちいずれか1項に記載の瞼検出装置。
  6. 請求項記載の瞼検出装置と、
    前記瞼検出装置により算出された開眼度に基づいて居眠り状態を判定する居眠り判定部とを備える居眠り判定装置。
  7. 顔特徴点検出部が、撮像画像から目尻および目頭を顔特徴点として検出するステップと、
    眼部領域検出部が、前記顔特徴点に基づいて前記撮像画像から上瞼領域および眼領域を含む眼部領域を検出するステップと、
    上瞼検出部が、前記眼部領域を複数の領域に分割した分割領域ごとに、分割領域内に並ぶ画素の輝度値の配置パターンに基づいて上瞼領域と眼領域との境界を検出し、前記分割領域ごとに検出した前記境界をつなげて上瞼とするステップと、
    前記上瞼検出部が、1つの前記分割領域において、第一の閾値および前記第一の閾値より値が大きい第二の閾値を用いて、前記第一の閾値以上かつ前記第二の閾値未満の輝度値をもつ画素が連続して並ぶ配置パターンを前記上瞼領域とし、前記第一の閾値未満の輝度値をもつ画素と前記第二の閾値以上の輝度値をもつ画素とが連続して並ぶか、前記第一の閾値未満の輝度値をもつ画素が連続して並ぶか、前記第二の閾値以上の輝度値をもつ画素が連続して並ぶ配置パターンを前記眼領域とするステップとを備える瞼検出方法。
JP2018562277A 2017-01-17 2017-01-17 瞼検出装置、居眠り判定装置、および瞼検出方法 Active JP6482746B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/001361 WO2018134875A1 (ja) 2017-01-17 2017-01-17 瞼検出装置、居眠り判定装置、および瞼検出方法

Publications (2)

Publication Number Publication Date
JP6482746B2 true JP6482746B2 (ja) 2019-03-13
JPWO2018134875A1 JPWO2018134875A1 (ja) 2019-03-28

Family

ID=62907799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018562277A Active JP6482746B2 (ja) 2017-01-17 2017-01-17 瞼検出装置、居眠り判定装置、および瞼検出方法

Country Status (5)

Country Link
US (1) US10624538B2 (ja)
JP (1) JP6482746B2 (ja)
CN (1) CN110168610B (ja)
DE (1) DE112017005233B4 (ja)
WO (1) WO2018134875A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020015145A1 (zh) * 2018-07-16 2020-01-23 华为技术有限公司 一种检测眼睛睁闭状态的方法及电子设备
CN109496309B (zh) * 2018-08-07 2022-05-03 深圳市汇顶科技股份有限公司 疲劳状态的检测方法、装置及设备
CN113168680A (zh) * 2018-12-12 2021-07-23 三菱电机株式会社 状态判定装置、状态判定方法以及状态判定程序
JP2021019943A (ja) * 2019-07-29 2021-02-18 株式会社デンソー サッカード検出装置、サッカード検出方法、サッカード検出プログラム
WO2024057356A1 (ja) * 2022-09-12 2024-03-21 三菱電機株式会社 開瞼度検出装置、開瞼度検出方法、および眠気判定システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008226031A (ja) * 2007-03-14 2008-09-25 Toyota Central R&D Labs Inc まぶた検出装置及びプログラム
JP2009219555A (ja) * 2008-03-13 2009-10-01 Toyota Motor Corp 眠気検知装置、運転支援装置、眠気検知方法
JP2009240519A (ja) * 2008-03-31 2009-10-22 Aisin Seiki Co Ltd 眼開閉判別装置、及びプログラム
JP2010146159A (ja) * 2008-12-17 2010-07-01 Aisin Seiki Co Ltd 瞼検出装置、瞼検出方法及びプログラム
WO2012144020A1 (ja) * 2011-04-19 2012-10-26 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5859686A (en) * 1997-05-19 1999-01-12 Northrop Grumman Corporation Eye finding and tracking system
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
JP4895797B2 (ja) * 2006-12-26 2012-03-14 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP5078815B2 (ja) * 2008-09-12 2012-11-21 株式会社豊田中央研究所 開眼度推定装置
JP5270415B2 (ja) * 2009-03-19 2013-08-21 トヨタ自動車株式会社 眠気判定装置及びプログラム
CN102667861A (zh) * 2010-02-22 2012-09-12 丰田自动车株式会社 图像处理装置以及睡意判断装置
JP5454737B2 (ja) * 2011-04-15 2014-03-26 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
DE112011105435B4 (de) * 2011-07-11 2022-07-07 Toyota Jidosha Kabushiki Kaisha Augenliderfassungsvorrichtung
WO2013035704A1 (ja) * 2011-09-05 2013-03-14 富山県 居眠り検出方法と装置
JP5935849B2 (ja) * 2013-10-04 2016-06-15 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6234762B2 (ja) * 2013-10-09 2017-11-22 アイシン精機株式会社 眼部検出装置、方法、およびプログラム
CN105701445A (zh) * 2014-12-15 2016-06-22 爱信精机株式会社 判定装置及判定方法
CN105138950B (zh) * 2015-07-03 2019-04-23 Oppo广东移动通信有限公司 一种拍照方法及用户终端
DE102015218306A1 (de) * 2015-09-23 2017-03-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines Schläfrigkeitszustands eines Fahrers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008226031A (ja) * 2007-03-14 2008-09-25 Toyota Central R&D Labs Inc まぶた検出装置及びプログラム
JP2009219555A (ja) * 2008-03-13 2009-10-01 Toyota Motor Corp 眠気検知装置、運転支援装置、眠気検知方法
JP2009240519A (ja) * 2008-03-31 2009-10-22 Aisin Seiki Co Ltd 眼開閉判別装置、及びプログラム
JP2010146159A (ja) * 2008-12-17 2010-07-01 Aisin Seiki Co Ltd 瞼検出装置、瞼検出方法及びプログラム
WO2012144020A1 (ja) * 2011-04-19 2012-10-26 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム

Also Published As

Publication number Publication date
CN110168610A (zh) 2019-08-23
DE112017005233B4 (de) 2021-08-26
JPWO2018134875A1 (ja) 2019-03-28
CN110168610B (zh) 2023-07-21
WO2018134875A1 (ja) 2018-07-26
US10624538B2 (en) 2020-04-21
US20190320890A1 (en) 2019-10-24
DE112017005233T5 (de) 2019-07-11

Similar Documents

Publication Publication Date Title
JP6482746B2 (ja) 瞼検出装置、居眠り判定装置、および瞼検出方法
JP7004522B2 (ja) ライブネス検査方法及び装置
JP6650946B2 (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
US9971920B2 (en) Spoof detection for biometric authentication
US7801335B2 (en) Apparatus and methods for detecting the presence of a human eye
JP6577454B2 (ja) 軸上視線追跡システム及び方法
JP5107045B2 (ja) 目に関して取得される画像中の虹彩を表す画素を特定する方法
US7689008B2 (en) System and method for detecting an eye
KR20180053108A (ko) 홍채 영역 추출 방법 및 장치
KR102415509B1 (ko) 얼굴 인증 방법 및 장치
US20070160266A1 (en) Method for extracting features of irises in images using difference of sum filters
US20100054548A1 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP6234762B2 (ja) 眼部検出装置、方法、およびプログラム
JP2007188504A (ja) 画像中の画素強度をフィルタリングする方法
JP2011509584A (ja) 視線測定のための方法及び装置
US10902258B2 (en) Iris recognition system, iris recognition method, and storage medium
JP2010244156A (ja) 画像特徴量検出装置及びこれを用いた視線方向検出装置
WO2019215879A1 (ja) 乗員監視装置及び乗員監視方法
JP2015088040A (ja) 認証装置、認証方法、及びプログラム
US11017226B2 (en) Image processing system, image processing method, and storage medium
JP2009080706A (ja) 個人認証装置
US9082002B2 (en) Detection device and detection method
WO2015064706A1 (ja) 認証装置、認証方法、及びプログラム
KR20170087755A (ko) 퍼지 추론 기반 지정맥 영상 추출 방법 및 그 장치
JP6866182B2 (ja) ベッド位置特定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181127

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190212

R150 Certificate of patent or registration of utility model

Ref document number: 6482746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250