JPWO2014073645A1 - 生体情報計測装置及びそれを用いた入力装置 - Google Patents

生体情報計測装置及びそれを用いた入力装置 Download PDF

Info

Publication number
JPWO2014073645A1
JPWO2014073645A1 JP2014545770A JP2014545770A JPWO2014073645A1 JP WO2014073645 A1 JPWO2014073645 A1 JP WO2014073645A1 JP 2014545770 A JP2014545770 A JP 2014545770A JP 2014545770 A JP2014545770 A JP 2014545770A JP WO2014073645 A1 JPWO2014073645 A1 JP WO2014073645A1
Authority
JP
Japan
Prior art keywords
pupil
biological information
image
information measuring
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014545770A
Other languages
English (en)
Other versions
JP5923180B2 (ja
Inventor
山下 龍麿
龍麿 山下
智也 鎌田
智也 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Application granted granted Critical
Publication of JP5923180B2 publication Critical patent/JP5923180B2/ja
Publication of JPWO2014073645A1 publication Critical patent/JPWO2014073645A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0255Recording instruments specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

生体情報計測装置10は、対象者の瞳孔を検出することが可能な近赤外線カメラ2a,2bと、近赤外線カメラ2a,2bにより得られた画像データから瞳孔領域を検出することが可能な検出部11と、瞳孔領域の周囲の少なくとも一部の肌領域の輝度を取得する輝度取得部12と、輝度から対象者の生体情報を計測する生体計測部13と、を有することを特徴とする。

Description

本発明は、生体情報を計測することが可能な生体情報計測装置に関する。
下記特許文献1には、眉間や額等の特定領域の平均輝度を検出し、平均輝度に基づいて被験者の脈拍等の生体情報を得ることが可能な生体活動計測装置に関する発明が開示されている。
特開2011−130996号公報
特許文献1記載の発明では、眉間を特定するために、顔画像上全体の二次元座標あるいは三次元座標を取得し、座標上の3つの特徴点により、眉間を特定している。
しかしながら、特許文献1の手法では顔画像全体から眉間算出を行うため制御部への負担が非常に大きくなると考えられる。また、3つの特徴点から眉間を検出するが、対象者によっては特徴点が表れにくい人もいると考えられ、かかる場合には、眉間検出が困難となり、ひいては生体情報の計測誤差や計測エラーに繋がる。
そこで本発明は上記従来の課題を解決するものであり、特に、従来に比べて高精度にかつ安定して生体情報を計測できる生体情報計測装置及びそれを用いた入力装置を提供することを目的としている。
本発明における入力装置は、対象者の瞳孔を検出することが可能な撮像部と、
前記撮像部により得られた画像データから瞳孔領域を検出することが可能な検出部と、前記瞳孔領域の周囲の少なくとも一部の肌領域の輝度を取得する輝度取得部と、前記肌領域の輝度から前記対象者の生体情報を計測する生体計測部と、を有することを特徴とするものである。
本発明では、瞳孔領域を基準として輝度検知に供される肌領域を特定するため、肌領域を安定して得ることができ、それに伴い、肌領域の輝度を高精度にかつ安定して得ることができる。したがって、肌領域の輝度に基づいて得られる生体情報も高精度でかつ安定して得ることができる。瞳孔は対象者の顔の他の部位と違って必ず正確に検出できるから、逆に瞳孔が検出できない場合は、対象者が横を向いているか、居眠りしていると断定できる。したがって瞳孔が検出できない場合には警告を発するなどして対象者の姿勢を正すこともできる。
また本発明によれば特許文献1に記載されているような顔画像全体から3次元データを構築するといったことが必要ではない。したがって従来に比べて装置に対する制御負担(算出負担)を低減でき、スムースに生体情報の計測まで行うことができる。
本発明では、前記撮像部は、撮像素子と、前記対象者に向けて光を照射可能な発光素子と、を有して構成されることが好ましい。これにより適切に対象者の瞳孔を検出することができる。
また本発明では、前記撮像素子は、複数設けられることが好ましい。これにより、三角法に基づいて前記撮像部と対象者との距離を求めることができる。
また本発明では、前記発光素子は、第1の波長を有する赤外線を照射する第1の発光素子と、前記第1の波長よりも長い第2の波長を有する赤外線を照射する第2の発光素子と、を有し、前記第1の波長を有する赤外線を照射した条件で明瞳孔画像が撮像され、前記第2の波長を有する赤外線を照射して、あるいは前記赤外線を照射せずに暗瞳孔画像が撮像され、前記検出部では、前記明瞳孔画像と前記暗瞳孔画像との差分画像により前記瞳孔領域を検出することが好ましい。上記により簡単かつ安定して瞳孔領域を検出することができる。また例えば暗瞳孔画像を、肌領域を特定するための画像として用いることも可能である。また赤外線を用いたことで夜間でも生体情報検出が可能になる。
また本発明では、前記検出部では、角膜反射像を検出可能であることが好ましい。光を照射した状態で得られた顔画像には角膜反射像も写し出されているので、適切かつ簡単に角膜反射像を得ることができる。そして角膜反射像を用いて対象者の視線等を検知することが可能になる。
また、前記輝度取得部では、複数の前記撮像素子、あるいは、異なる波長で撮影された前記肌領域の輝度の平均値を取得して、前記生体計測部に入力することが好ましい。このように肌領域の輝度の平均値を取得して、生体情報の計測に供することで、精度よく生体情報の計測を実行することができる。
また、前記検出部では、瞳孔追跡が実行されることが好ましい。瞳孔追跡を行うことで対象者の視線等の測定を精度よく行うことができる。
また、前記検出部では、前記対象者の視線を検出することができる。
また、前記検出部では、前記対象者の顔の向きを検出することができる。
また、前記輝度取得部では、前記瞳孔領域の下側に位置する前記肌領域の輝度を取得することが好ましい。瞳孔領域の下側に位置する肌領域は、瞳孔領域の上側と違って、瞬きによる肌領域の変化が起こりにくく、輝度を安定して取得できる。
また本発明では、前記対象者の両目の前記瞳孔領域を取得した際に、前記輝度取得部が前記肌領域の輝度を取得することが好ましい。片目の瞳孔領域しか得られない場合には、対象者が前方(撮像部側)を向いていないと判断でき、かかる場合には、よそ見をしていると注意を喚起するなどできる。両目の瞳孔領域が得られた場合は、対象者が前方を向いた状態であり、かかる場合に、肌領域の輝度を取得し、生体情報を計測するようにすることで、対象者の姿勢を正すとともに、安定して生体情報の計測を行うことができる。
また本発明では、前記生体情報計測装置が車両内に配置される構成にできる。このように生体情報計測装置を、車両内に配置することで例えば運転中に運転者の生体情報を得ることができ、それに基づいて運転支援等を行うことが可能である。
また本発明における入力装置は、上記に記載の生体情報計測装置と、入力操作部と、を有し、前記生体情報計測装置からの情報に基づいて、所定の入力操作あるいは所定の情報発信が実行されることを特徴とするものである。
本発明では、前記入力操作は、前記対象者の行動を予測して実行されることが好ましい。
また、前記入力操作は運転支援に供されることが好ましい。
本発明では、生体情報計測装置からの情報(生体情報や瞳孔情報、視線情報など)に基づいて、対象者の行動を予測し、この予測をもとに、所定の入力操作を発揮させることができる。これにより、手などの操作体が直接、操作部に触れなくても、スピーディに入力操作を実行できる。例えば本発明の生体情報計測装置が車両内に配置される構成であれば、瞳孔の大きさから周囲の明るさを判断して、オートライトの応答を早めることができる。また、居眠りをしているか否かを判断でき、居眠りをしていると判断された場合には、音声で注意を促すこと等ができ安全性を高めることができる。
本発明によれば、瞳孔領域を基準として輝度検知に供される肌領域を特定するため、肌領域を安定して得ることができ、肌領域の輝度を高精度にかつ安定して得ることができる。したがって、肌領域の輝度に基づいて得られる生体情報も高精度でかつ安定して得ることができる。瞳孔は対象者の顔の他の部位と違って必ず正確に検出できるから、逆に瞳孔が検出できない場合は、対象者が横を向いているとか、居眠りしていると断定できる。したがって瞳孔が検出できない場合には警告を発するなどして対象者の姿勢を正すこともできる。
また本発明によれば特許文献1に記載されているような顔画全体から3次元データを構築するといったことが必要ではない。したがって従来に比べて装置に対する制御負担(算出負担)を低減でき、スムースに生体情報の計測まで行うことができる。
図1は、近赤外線カメラ(撮像部)により運転者(対象者)を撮像している状態を示す模式図である。 図2(a)は、本実施形態における近赤外線カメラ(撮像部)の正面図であり、図2(b)は近赤外線カメラの内部構造を示す側面図である。 図3(a)は、明瞳孔画像であり、図3(b)は、暗瞳孔画像であり、図3(c)は、明瞳孔画像と暗瞳孔画像との差分画像を示す模式図である。 図4(a)は、瞳孔領域の周囲領域を、輝度を測定するための肌領域として特定した模式図であり、図4(b)は、図4(a)に示す肌領域のうち、瞳孔領域の下側に位置する領域のみを、輝度を測定するための肌領域として特定した模式図である。 図5は、本実施形態における生体情報計測装置、及びそれを用いた入力装置のブロック図である。 図6(a)は、明瞳孔画像及び暗瞳孔画像の取得から所定の入力操作を起動させるまでのフローチャート図であり、図6(b)は、瞳孔追跡から視線ベクトルの算出までのフローチャート図であり、図6(c)は、鼻孔検出から顔向き検出までのフローチャート図である。 図7は、瞳孔画像、角膜反射像、及び視線演算の関係を示す関係図である。 図8は、角膜反射像を示す模式図である。 図9は(a)〜(d−3)は、視線演算のアルゴリズムを説明するための説明図であり、図9(e)は、瞳孔中心と角膜反射との間の距離rと、カメラ瞳孔ベクトルと視線ベクトルとの間の角度θとの関係を示すグラフである。 図10は、顔の向きを測定するための手法を説明するための模式図である。 図11は、2台の近赤外線カメラと、視点との関係を示す模式図である。 図12は、別の実施形態(第2の発明)における生体情報計測装置を用いた入力装置のフローチャート図である。 図13は、角膜反射像の周囲領域を、輝度を測定するための肌領域を特定した模式図である。
図1は、近赤外線カメラ(撮像部)により運転者(対象者)を撮像している状態を示す模式図である。本実施形態では図1に示すように近赤外線カメラ2を用いて、車両の運転席に座席した運転者1を撮像し、その画像データを用いて、運転者1の瞳孔を検出する。
近赤外線カメラ2は、運転席正面に配置されており、例えば、インストルメント・パネルに配置されている。あるいは、ステアリング支持部3の部分に設置されていてもよい。
図2(a)に示すように近赤外線カメラ2a,2bは2台、設けられている。図2(a)(b)に示すように、近赤外線カメラ2a,2bはそれぞれ、レンズ4と、複数の第1の発光素子5と、複数の第2の発光素子6と、レンズ4の後方に位置する撮像素子(センサ基板)7と、レンズ4、各発光素子5,6及び撮像素子7を支持するシャーシ8とを有して構成される。
ここで第1の発光素子5は、870nmLEDであり、第2の発光素子6は940nmLEDである。なお波長については一例であり、これ以外の波長であってもよい。
各発光素子5,6は基板9に設置されており、基板9上に発光素子5,6が配置されたLED基板と撮像素子7とは平行に配置されている。また、2台の近赤外線カメラ2a,2bを同期させて用いる。
図5のブロック図に示すように、本実施形態における生体情報計測装置10は、近赤外線カメラ2a,2bと、検出部11と、輝度取得部12と、生体計測部13と、モニタ14とを有して構成される。また検出部11、輝度取得部12、生体計測部13を合わせて制御部15が構成される。
図5に示すように検出部11には、瞳孔検出部16、肌領域検出部17、及び視線検出部23が設けられる。
瞳孔検出部16では、明瞳孔画像と暗瞳孔画像との差分画像を作成する。明瞳孔画像、及び暗瞳孔画像について以下に説明する。
図3(a)は、運転者(対象者)1の明瞳孔画像18であり、図3(b)は、運転者(対象者)1の暗瞳孔画像19である。
まず第1の発光素子5により波長870nmの近赤外線を運転者1の顔に照射した状態で撮像素子7により顔画像を撮影する。このようにして撮影された顔画像では、図3(a)に示すように瞳孔20が他の部位よりも特に明るく撮影された明瞳孔画像18が得られる。一方、第2の発光素子6により波長940nmの近赤外線を運転者1の顔に照射した状態で撮像素子7により顔画像を撮影する。このようにして撮影された顔画像では、図3(b)に示すように瞳孔20が図3(a)の明瞳孔画像18に比べて暗く撮影された暗瞳孔画像19が得られる。発光素子の波長については、明瞳孔及び暗瞳孔が得られる波長とされる。
明瞳孔画像18の撮影と、暗瞳孔画像19の撮影とは時分割で行われる。また本実施形態では、近赤外線カメラ2a,2bは2台あるので、近赤外線カメラ2a及び近赤外線カメラ2bのそれぞれにて、明瞳孔画像18及び暗瞳孔画像19を取得する。
図5に示す瞳孔検出部16では、明瞳孔画像18と暗瞳孔画像19との差分画像を作成する。差分画像21が図3(c)に示されている。差分画像21は、例えば、明瞳孔画像18の各画素の輝度値から暗瞳孔画像19の各画素の輝度値を減算することで得ることができる。
図3(c)に示すように、差分画像21では運転者(対象者)1の瞳孔20が周囲に比べて明るい画像として残される。図3(c)に示す明るい部分を瞳孔領域22と特定する。ここで図3(c)に示すように瞳孔領域22を、2つ取得できる。上記してきた明瞳孔画像、及び暗瞳孔画像については、特開2008−125619号公報に類似した手法を用いて説明したものである。上記した手法で瞳孔領域を得た結果、仮にひとつの瞳孔領域22しか得られない場合は、片目の瞳孔領域しか取得できない状態であり、運転者1が前方(撮像部側)を向いていないと判断でき、かかる場合には、よそ見をしていると注意を喚起するなどできる。両目の瞳孔領域22を取得できて初めて、生体情報の計測を行うように制御できる。
上記では、差分画像21を得るのに使用する暗瞳孔画像19を、波長940nmの近赤外線を照射して撮影した顔画像としたが、例えば、赤外線などの光を照射せずに撮影した顔画像を暗瞳孔画像19とすることもできる。
次に肌領域検出部17では、瞳孔領域22に基づいて、生体情報の測定に供するための肌領域を取得する。
図4(a)は、例えば、暗瞳孔画像19に示される目の付近を拡大した模式図である。図3(c)により瞳孔領域22が特定されたので、その瞳孔領域22の周囲に、輝度を取得するための肌領域24を特定する。肌領域24は、瞳孔領域22から外側に所定距離だけ離れた位置に特定する。
また瞳孔領域22から瞳(黒目部分)の領域25を特定し、瞳の領域25から輝度を取得するための肌領域24を特定してもよい。
瞳孔領域22を特定できれば、瞳孔領域22の周囲の画像の輝度等によって目の領域を推測でき、したがって瞳孔領域22から離れた肌領域24を検出するのに検出部11の負担を小さく抑えることができる。
なお検出部11では、二値化処理、ラベリング処理、ふるいがけ処理等が適宜実行される。
図5に示す輝度取得部12では、肌領域24の輝度を取得する。このとき、例えば、近赤外線カメラ2aと近赤外線カメラ2bのそれぞれにて撮影した画像から、あるいは異なる波長で撮影した画像から得られた輝度の平均値を連続的に取得する。また、この際、肌領域24の全画素の輝度を取得しなくてもよい。このように肌領域24の一部分から輝度を取得する場合には、図4(b)に示すように、瞳孔領域22よりも下側に位置する肌領域26の輝度を取得することが好ましい。瞳孔領域22の上側は瞼側であり、瞬きにより安定した輝度を得にくいため、瞳孔領域22の下側に位置する涙袋側の肌領域26の輝度を取得することで輝度を安定して取得することができる。
図5に示す生体計測部13では、輝度取得部12より得られた肌領域の輝度から運転者(対象者)1の生体情報を計測する。この生体情報の計測は、一定時間における肌領域の輝度変化値を用意する。次に、体の動きなどによる低周波雑音を取り除き、独立成分分析法により独立信号を取り出す。この独立信号のパワースペクトルを算出し、心拍や呼吸数付近の周波数ピークを持つ信号を取得することで、これを出力信号する手法がある。しかし、ここで生体情報やその計測方法について特に限定するものではない。
図5に示すように入力装置30は、生体情報計測装置10と、入力操作部31とを有して構成される。ここで、入力操作部31はモニタ14を兼ねていてもよい。よって、生体情報計測装置10の構成要素としてモニタ14はあってもなくてもよい。
入力操作部31に生体計測部13から生体情報が送信される。あるいは、図5に示す検出部11からの情報(瞳孔情報や視線情報など)が送信される。入力操作部31では、生体情報計測装置10から送信されるこれらの情報に基づいて、所定の入力操作や所定の情報発信が実行される。どのような入力操作や情報発信がされるのかについては後述する。
入力操作部31では、運転者(対象者)1の行動を予測して入力操作を実行することができる。例えば運転者1の視線に着目して、視線の方向に基づいて行動予測をし、その行動予測に基づく入力操作を実行する。
本実施形態における図5に示す入力装置30は、車両内に搭載されるものであり、図5に示す生体情報計測装置10からの情報に基づく入力操作は、運転支援に供されるものであることが好適である。例えば運転者1の瞳孔の大きさから判断して、オートライトの応答を早めるがごとくである。
本実施形態では肌領域24,26を特定するために瞳孔領域22を基準としているため、肌領域24,26を安定して得ることができ、肌領域24,26の輝度を高精度にかつ安定して得ることができる。したがって、輝度に基づいて得られる生体情報も高精度でかつ安定して得ることができる。瞳孔は対象者の顔の他の部位と違って必ず正確に検出できるから、逆に瞳孔が検出できない場合は、対象者が横を向いているか、居眠りしていると断定できる。したがって瞳孔が検出できない場合には対象者に目を開いて前方(近赤外線カメラ2側)を向くように注意を促すこともできる。
また本実施形態によれば特許文献1に記載されているような顔画全体から3次元データを構築するといったことが必要ではない。したがって従来に比べて装置に対する制御負担(算出負担)を低減でき、スムースに生体情報の計測まで行うことができる。
次に図6に示すフローチャートを用いて、画像の取得から入力操作の起動までのステップを説明する。
図6(a)のステップST1では、明瞳孔画像18及び暗瞳孔画像19を取得する(図3(a)(b)参照)。図7にも示すように、第1の発光素子5により波長870nmの近赤外線を照射した条件で撮影することで明瞳孔画像18を得ることができる。また第2の発光素子6により波長940nmの近赤外線を照射した条件で撮影することで暗瞳孔画像19を得ることができる。なお暗瞳孔画像19は、発光素子から光を照射しないで撮影したものであってもよい。
次に図6(a)のステップST2では、図3(a)の明瞳孔画像18と図3(b)の暗瞳孔画像19との差分画像21により瞳孔領域22を特定する。
次に図6(a)に示すようにステップST3で、角膜反射像を取得する。図7に示すように角膜反射像を例えば、波長940nmの近赤外線を照射した条件にて撮影された暗瞳孔画像19により取得することができる。
図8には、角膜反射像35が示されている。図8は暗瞳孔画像の瞳孔部分を拡大して示したものである。暗瞳孔画像に示すように暗く映る瞳孔36よりも明るい角膜反射像35が映し出されていることがわかる。角膜反射像35は、運転者1の角膜で反射した光源の反射像である。
続いて図6(a)に示すステップST4で視線演算を行う。視線演算は図7に示すように瞳孔領域と角膜反射像とを用いて行うことが可能である。視線演算のアルゴリズムについて図9を用いて説明する。ここで、図9に示す視線演算のアルゴリズムはWO2012−20760号に類似した手法を用いて説明する。
図9(a)に示すように、運転者(対象者)1の前方に視対象平面40があるとする。この視対象平面40は例えばディスプレイである。この視対象平面40はXY平面に平行な面であるとする。符号Pは運転者(対象者)1の瞳孔中心であり、PTが視線ベクトルである。Qが注視点である。
近赤外線カメラ2はX´Y´平面と平行な面である仮想視点平面41と平行に設置される。すなわち仮想視点平面41の直交方向がカメラの光軸方向である。Tは仮想視点平面41上の注視点である。PT´はカメラ瞳孔ベクトルである。
図9(a)に示すように、視線ベクトルPTとカメラ瞳孔ベクトルPT´との間の角度はθである。また、カメラ中心から仮想視点平面41上の注視点Tへの方向とX´軸との間の角度はφである。
図9(b)は瞳孔周辺画像の模式図である。Gは角膜反射像である。角膜反射像Gと瞳孔中心Pとを直線状に結んだ線とX軸との間の角度はφ´である。
図9(c−1)〜(c−3)に示すEは運転者(対象者)1の眼球を模式図的に示したものである。図9(c−1)〜(c−3)では眼球の向きが異なっている。図9(c−1)では、視線ベクトルPTとカメラ瞳孔ベクトルPT´との方向が一致している。すなわち図9(a)に示すθはゼロである。このとき図9(d−1)の画像では、瞳孔中心Pと角膜反射像Gとが一致している。すなわち、瞳孔中心Pと角膜反射像Gとの間隔|r|=0である。
次に、図9(c−2)では、視線ベクトルPTとカメラ瞳孔ベクトルPT´とが一致せず、視線ベクトルPTとカメラ瞳孔ベクトルPT´との間に角度θが生じている。このとき図9(d−2)の画像では、瞳孔中心Pと角膜反射像Gとの間に、間隔|r|が生じている。
また、図9(c−3)では、視線ベクトルPTとカメラ瞳孔ベクトルPT´との間の角度θが、図9(c−2)よりも大きくなっている。このとき図9(d−3)の画像では、瞳孔中心Pと角膜反射像Gとの間に、間隔|r|が生じ、この間隔|r|は、図9(d−2)に示す間隔|r|よりも大きくなっている。
ここで図9(a)(c)に示す(θ,φ)と、図9(b)(d)に示す(|r|,φ´)との関係は一対一に対応している。
すなわち視線がカメラ光軸から離れるほど(θが大きくなるほど)、瞳孔中心Pと角膜反射像Gとの間の間隔(距離)|r|は大きくなる。したがって、θと|r|との間には図9(e)に示す関係がある。この関係に基づいて視線を推定することができる。
具体的には、図6(b)(図1(a)のステップST4の具体的ステップ)に示すステップST10で、角膜反射像のずれ量の算出を行う。角膜反射像のずれ量は、図9(d−1)〜(d−3)に示す瞳孔中心Pと角膜反射像Gとの間の間隔(距離)|r|として示される。
なお高分解能化による瞳孔追跡を実行して瞳孔中心Pを決定することができる(ステップST11)。
また図6(b)のステップST12では、瞳孔中心P、角膜反射像GをXY座標系に変換する。続いて、図6(b)に示すステップST13では、瞳孔中心P−角膜反射像Gのベクトルを算出し、図9(a)(b)の関係図に示すように三角法に基づいて、仮想視点平面41上の注視点Tを算出する(ステップST14)。そしてステップST15にて視線ベクトルPTを算出する。
また図6(a)のステップST4では、顔向きを推定することも可能である。図10は、運転者(対象者)1の顔を斜め前方から見た斜視図である。図6(a)のステップST1,ST2により検出された瞳孔45の位置から鼻孔の存在範囲を推定し、その存在範囲(領域)から左右の鼻孔47,48を検出する(図6(c)のステップST20)。このとき、片方の鼻孔のみを検出してもよい。なお前画像(前フレーム)で鼻孔を検出したら、その次の画像についても、前画像の鼻孔位置から推定して鼻孔位置を追跡する。また前画像で鼻孔を検出していないときは、画像全体から鼻孔の探索を実行する。
さて鼻孔47,48の検出であるが、瞳孔45の位置から鼻孔の存在範囲を大凡、決めることができ、その範囲内での輝度測定により鼻孔を確定することができる。また画像に対して2値化処理を行うことで鼻孔が検出しやすくなる。
続いて、鼻孔47,48を結ぶ中点43と中点瞳孔45との3次元座標をステレオ計算により算出する(図6(c)に示すステップST21)。
そして図10に示すように、左右両側の瞳孔45,40と中点43とを結ぶ三角形の法線44を求め、この法線44を顔の向きとして推定する(図6(c)のステップST22)。
続いて、図6(a)のステップST5では、瞳孔領域22周辺の肌領域24を特定する(図4参照)。図4(b)に示すように、肌領域26は瞳孔領域22の周囲の一部であってもよく、その場合は、瞳孔領域22の下側の位置の肌領域26を選択することが好適である。そして、図6(a)のステップST6では、肌領域24,26の輝度を取得する。輝度は平均値であることが好適である。輝度の平均値は、複数の撮像素子で撮影された肌領域の輝度の平均、あるいは異なる波長で撮影された肌領域の輝度の平均で求めることができる。そして、ステップST7では、肌領域の輝度に基づいて生体情報を計測する。本実施形態によれば、心拍、呼吸数、脈拍等の生体情報を得ることが可能である。
そして図6(a)に示すステップST8では、生体情報がモニタ14に送られ、モニタ14に表示がなされる。モニタ14は例えば、図2(a)に示す近赤外線カメラ2a,2bの中間部に設けられている。あるいは、モニタ14は、入力装置30を構成する操作パネル等であってもよい。操作パネルとしては、センターコンソールに配置されるカーナビゲーション装置のタッチパネル等が該当する。
また図6(a)のステップST9に示すように、生体情報は、入力装置30を構成する入力操作部31に送信される。また、ステップST1で取得した顔画像(明瞳孔画像、暗瞳孔画像)、ステップST2で取得した瞳孔領域、ステップST3で取得した角膜反射像、及びステップST4で取得した視線方向や図6(c)での顔向き等の情報が入力操作部31に送信される。入力操作部31に送信される情報は1つであってもよいし複数であってもよい。
入力操作部31では、生体情報計測装置10からの情報に基づいて、所定の入力操作あるいは所定の情報発信が実行される。以下、具体例を示す。
まず、図6(a)のステップST4で得られた視線方向に基づいて、入力補助(運転支援)を行うことができる。例えば、視線検知による入力として、ステアリングスイッチを押している間は、視線で音量などを設定可能とする。また視線による選択として、視線で制御機器を選択などできるようにする。また、方向指示器補助として、例えば、サイドミラーを見たらウインカーを出し、また左後方画面をモニタに映す。またサイドミラーを見ずにウインカーを出したら警告音を出す。またモニタに警告表示をした後、運転者1がそれを見たらアラート解除を実行する。また周囲を見る頻度が少なくなったら、「周囲に注意してください」、「休憩してください」などの警告を発したり、シートを震わせるなどの処置をとることができる。
また瞳孔検知による入力として、瞳孔サイズから周囲の明るさを判断し、オートライトの応答を早める。また瞳孔サイズでミラー角度をコントロールする。また瞳孔サイズでフロントガラスの透過率を調整する。
また瞳孔が確認できない場合には居眠りをしている恐れがあるので、メータ等に警告を表示した後、その表示を見たかどうかをその後の瞳孔検出により確認できる。
また、瞳孔の位置から口唇を検出し、口唇の動きにより音声入力制度を向上させることもできる。
また片目の瞳孔しか確認できない場合等、よそ見、わき見を検知したら、安全性を高めるために、警告音を発したり、視線ナビゲートを実行する。
またそのほかに、視線方向に基づいて、メータ等の表示高さを調整したり、座席高さやハンドル高さの調整等が自動で行われるようにできる。また左右瞳孔間の距離や鼻孔との距離、鼻孔の形などで個人認証を実行することもできる。
本実施形態では、近赤外線カメラ2a,2bが2台、設けられている。本実施形態では、近赤外線カメラを1台としてもよいが、近赤外線カメラ2a,2bを複数(最低2台)、設置することで、三角法により、運転者(対象者)1との距離を求めることができる。図11に示すように近赤外線カメラ2aにより対象物Rを映した画像50による見え方と、近赤外線カメラ2bにより対象物Rを映した画像51による見え方とは異なっている。この見え方のずれから三角法により対象物Rの位置を特定できる。したがって本実施形態においても近赤外線カメラ2a,2bにより撮影された画像から三角法を用いて運転者(対象者)1との距離を求めることが可能である。
また図6(a)の実施形態において、ステップST3,4,8,9は必須でなく選択的なステップである。
上記した実施形態(第1の実施形態)では、図6(a)のステップST2で瞳孔領域を特定し、この瞳孔領域に基づいて輝度を測定するための肌領域を特定した。
これに対して図12に示す第2の実施形態では、ステップST30で角膜反射像35を取得し、ステップST31で、角膜反射像35に基づいて肌領域24を特定している。角膜反射像35は図7に示す通り、例えば暗瞳孔画像19により得ることができる。
この第2の実施形態では、第1の実施形態と異なって、瞳孔領域22の取得を必須とはしていないが、その代わりに角膜反射像35の取得を必須とする。そして図13に示すように、角膜反射像35の周囲に肌領域24を特定する。肌領域24は角膜反射像35から所定距離離れた位置に設定される。角膜反射像35から対象者の目の領域を画像の輝度等により特定でき、特定された目の周りに肌領域24を設定することができる。
図12に示すステップST32は図6(a)のステップST6に該当し、図12のステップST33は、図6(a)のステップST7に該当し、図12のステップST34は、図6(a)のステップST8に該当し、図12のステップST35は、図6(a)のステップST9に該当する。
なお図12に示す第2実施形態においても、図6(a)のステップST1,ST2に示すように、明瞳孔画像18と暗瞳孔画像19との差分画像により瞳孔領域22を特定することができる。かかる場合には図7に示すように視線演算等を行うことが可能になる。
本実施形態の生体情報計測装置10及びそれを用いた入力装置30は、車両用に限定するものでないが、車両用として使用することで、運転中に運転者の生体情報を得ることができ、それに基づいて運転支援等を行うことができる。
行動予測は、例えば瞳孔を追跡し、その追跡結果に基づいて判断することができる。
また、生体情報計測装置10から得られる情報(瞳孔情報、視線情報、生体情報等)に基づいて、例えば居眠りをしているか否かの判断ができ、かかる場合、早めに音声等で注意を喚起でき、また運転者(対象者)の行動を予測して、所定の入力操作を実行することも可能である。
上記の実施形態では、運転者を、生体情報を計測する対象者としたが、運転者に限るものでなく、助手席の乗員等を対象者としてもよい。
G、35 角膜反射像
P 瞳孔中心
PT 視線ベクトル
1 運転者
2、2a、2b 近赤外線カメラ
5 第1の発光素子
6 第2の発光素子
7 撮像素子
10 生体情報計測装置
11 検出部
12 輝度取得部
13 生体計測部
14 モニタ
16 瞳孔検出部
17 肌領域検出部
18 明瞳孔画像
19 暗瞳孔画像
20、45 瞳孔
21 差分画像
22 瞳孔領域
24、26 肌領域
30 入力装置
31 入力操作部
47、48 鼻孔
図1は、近赤外線カメラ(撮像部)により運転者(対象者)を撮像している状態を示す模式図である。 図2(a)は、本実施形態における近赤外線カメラ(撮像部)の正面図であり、図2(b)は近赤外線カメラの内部構造を示す側面図である。 図3(a)は、明瞳孔画像であり、図3(b)は、暗瞳孔画像であり、図3(c)は、明瞳孔画像と暗瞳孔画像との差分画像を示す模式図である。 図4(a)は、瞳孔領域の周囲領域を、輝度を測定するための肌領域として特定した模式図であり、図4(b)は、図4(a)に示す肌領域のうち、瞳孔領域の下側に位置する領域のみを、輝度を測定するための肌領域として特定した模式図である。 図5は、本実施形態における生体情報計測装置、及びそれを用いた入力装置のブロック図である。 図6(a)は、明瞳孔画像及び暗瞳孔画像の取得から所定の入力操作を起動させるまでのフローチャート図であり、図6(b)は、瞳孔追跡から視線ベクトルの算出までのフローチャート図であり、図6(c)は、鼻孔検出から顔向き検出までのフローチャート図である。 図7は、瞳孔画像、角膜反射像、及び視線演算の関係を示す関係図である。 図8は、角膜反射像を示す模式図である。 図9は(a)〜(d−3)は、視線演算のアルゴリズムを説明するための説明図であり、図9(e)は、瞳孔中心と角膜反射との間の距離rと、カメラ瞳孔ベクトルと視線ベクトルとの間の角度θとの関係を示すグラフである。 図10は、顔の向きを測定するための手法を説明するための模式図である。 図11は、2台の近赤外線カメラと、視点との関係を示す模式図である。 図12は、別の実施形態(第2の発明)における生体情報計測装置を用いた入力装置のフローチャート図である。 図13は、角膜反射像の周囲領域を、輝度を測定するための肌領域として特定した模式図である。
具体的には、図6(b)(図(a)のステップST4の具体的ステップ)に示すステップST10で、角膜反射像のずれ量の算出を行う。角膜反射像のずれ量は、図9(d−1)〜(d−3)に示す瞳孔中心Pと角膜反射像Gとの間の間隔(距離)|r|として示される。
そして図10に示すように、左右両側の瞳孔45,45と中点43とを結ぶ三角形の法線44を求め、この法線44を顔の向きとして推定する(図6(c)のステップST22)。
また、瞳孔の位置から口唇を検出し、口唇の動きにより音声入力精度を向上させることもできる。

Claims (15)

  1. 対象者の瞳孔を検出することが可能な撮像部と、
    前記撮像部により得られた画像データから瞳孔領域を検出することが可能な検出部と、
    前記瞳孔領域の周囲の少なくとも一部の肌領域の輝度を取得する輝度取得部と、
    前記肌領域の輝度から前記対象者の生体情報を計測する生体計測部と、
    を有することを特徴とする生体情報計測装置。
  2. 前記撮像部は、撮像素子と、前記対象者に向けて光を照射可能な発光素子と、を有して構成される請求項1記載の生体情報計測装置。
  3. 前記撮像素子は、複数設けられる請求項2記載の生体情報計測装置。
  4. 前記発光素子は、第1の波長を有する赤外線を照射する第1の発光素子と、前記第1の波長よりも長い第2の波長を有する赤外線を照射する第2の発光素子と、を有し、
    前記第1の波長を有する赤外線を照射した条件で明瞳孔画像が撮像され、前記第2の波長を有する赤外線を照射して、あるいは前記赤外線を照射せずに暗瞳孔画像が撮像され、
    前記検出部では、前記明瞳孔画像と前記暗瞳孔画像との差分画像により前記瞳孔領域を検出する請求項2に記載の生体情報計測装置。
  5. 前記検出部では、角膜反射像を検出可能である請求項2に記載の生体情報計測装置。
  6. 前記輝度取得部では、複数の前記撮像素子、あるいは、異なる波長で撮影された前記肌領域の輝度の平均値を取得して、前記生体計測部に入力する請求項1に記載の生体情報計測装置。
  7. 前記検出部では、瞳孔追跡が実行される請求項1に記載の生体情報計測装置。
  8. 前記検出部では、前記対象者の視線が検出される請求項1に記載の生体情報計測装置。
  9. 前記検出部では、前記対象者の顔の向きが検出される請求項1に記載の生体情報計測装置。
  10. 前記輝度取得部では、前記瞳孔領域の下側に位置する前記肌領域の輝度を取得する請求項1に記載の生体情報計測装置。
  11. 前記対象者の両目の前記瞳孔領域を取得した際に、前記輝度取得部が前記肌領域の輝度を取得する請求項1に記載の生体情報計測装置。
  12. 前記生体情報計測装置が車両内に配置される請求項1に記載の生体情報計測装置。
  13. 請求項1の生体情報計測装置と、入力操作部と、を有し、
    前記生体情報計測装置からの情報に基づいて、所定の入力操作あるいは所定の情報発信が実行されることを特徴とする入力装置。
  14. 前記入力操作は、前記対象者の行動を予測して実行される請求項13記載の入力装置。
  15. 前記入力操作は運転支援に供される請求項13記載の入力装置。
JP2014545770A 2012-11-12 2013-11-08 生体情報計測装置及びそれを用いた入力装置 Expired - Fee Related JP5923180B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012247983 2012-11-12
JP2012247983 2012-11-12
PCT/JP2013/080265 WO2014073645A1 (ja) 2012-11-12 2013-11-08 生体情報計測装置及びそれを用いた入力装置

Publications (2)

Publication Number Publication Date
JP5923180B2 JP5923180B2 (ja) 2016-05-24
JPWO2014073645A1 true JPWO2014073645A1 (ja) 2016-09-08

Family

ID=50684738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014545770A Expired - Fee Related JP5923180B2 (ja) 2012-11-12 2013-11-08 生体情報計測装置及びそれを用いた入力装置

Country Status (5)

Country Link
US (1) US20150238087A1 (ja)
EP (1) EP2918225A4 (ja)
JP (1) JP5923180B2 (ja)
CN (1) CN104780834B (ja)
WO (1) WO2014073645A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104780834B (zh) * 2012-11-12 2016-12-28 阿尔卑斯电气株式会社 生物体信息计测装置及使用该装置的输入装置
DE112014000934T5 (de) * 2013-02-21 2016-01-07 Iee International Electronics & Engineering S.A. Bildgebungsgestütztes Insassenüberwachungssystem mit breit gefächerter Funktionsunterstützung
US10417782B2 (en) 2014-08-22 2019-09-17 National University Corporation Shizuoka University Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
JP6468755B2 (ja) * 2014-08-22 2019-02-13 国立大学法人静岡大学 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
KR101610525B1 (ko) * 2014-10-20 2016-04-07 현대자동차주식회사 조도를 고려한 동공 검출 장치 및 그 방법
US10212355B2 (en) * 2015-03-13 2019-02-19 Thales Defense & Security, Inc. Dual-mode illuminator for imaging under different lighting conditions
CN104873184B (zh) * 2015-05-08 2017-09-29 上海与德通讯技术有限公司 一种测量心率的方法及系统
DE102015110456B4 (de) * 2015-06-29 2017-02-09 Hochschule Für Technik Und Wirtschaft Des Saarlandes Purkinjemeter und Verfahren zur automatischen Auswertung
JP6614547B2 (ja) * 2015-08-17 2019-12-04 パナソニックIpマネジメント株式会社 視聴状態検出装置、視聴状態検出システムおよび視聴状態検出方法
JP6526527B2 (ja) * 2015-09-09 2019-06-05 株式会社東芝 識別装置及び認証システム
US10733426B2 (en) * 2015-10-15 2020-08-04 Daikin Industries, Ltd. Driver state determination device and driver state determination method
JP6971686B2 (ja) * 2017-08-02 2021-11-24 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
US10956737B1 (en) * 2017-10-24 2021-03-23 Wells Fargo Bank, N.A. System and apparatus for improved eye tracking using a mobile device
CN112449580A (zh) * 2018-07-23 2021-03-05 新唐科技日本株式会社 活体状态检测装置以及活体状态检测方法
CN109213324A (zh) * 2018-09-06 2019-01-15 京东方科技集团股份有限公司 显示参数调节方法及装置、显示装置
EP3666169A1 (en) * 2018-12-11 2020-06-17 Aptiv Technologies Limited Driver monitoring system
CN113557519A (zh) * 2019-03-14 2021-10-26 日本电气株式会社 信息处理设备、信息处理系统、信息处理方法以及记录介质
WO2020213022A1 (ja) * 2019-04-15 2020-10-22 三菱電機株式会社 視線監視装置および視線監視方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09262213A (ja) * 1996-03-28 1997-10-07 Toyota Central Res & Dev Lab Inc 生体情報検出装置
US6116736A (en) * 1999-04-23 2000-09-12 Neuroptics, Inc. Pupilometer with pupil irregularity detection capability
US20070066916A1 (en) * 2005-09-16 2007-03-22 Imotions Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
JP5228305B2 (ja) * 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2008125619A (ja) * 2006-11-17 2008-06-05 National Univ Corp Shizuoka Univ 瞳孔検出装置及び瞳孔検出方法
JP5067024B2 (ja) * 2007-06-06 2012-11-07 ソニー株式会社 生体情報取得装置および生体情報取得方法
JP2009201653A (ja) * 2008-02-27 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> 知的活動評価システム、並びにその学習方法及びラベル付与方法
JP5332406B2 (ja) * 2008-08-28 2013-11-06 富士通株式会社 脈拍計測装置、脈拍計測方法および脈拍計測プログラム
DE102009041187A1 (de) * 2009-08-13 2011-02-17 Volkswagen Ag Verfahren und Vorrichtung zur Adaption von Parametern eines Fahrerassistenzsystems
JP5195741B2 (ja) 2009-12-25 2013-05-15 株式会社デンソー 生体活動計測装置
WO2012020760A1 (ja) 2010-08-09 2012-02-16 国立大学法人静岡大学 注視点検出方法及び注視点検出装置
CN104780834B (zh) * 2012-11-12 2016-12-28 阿尔卑斯电气株式会社 生物体信息计测装置及使用该装置的输入装置

Also Published As

Publication number Publication date
CN104780834A (zh) 2015-07-15
EP2918225A4 (en) 2016-04-20
US20150238087A1 (en) 2015-08-27
CN104780834B (zh) 2016-12-28
WO2014073645A1 (ja) 2014-05-15
EP2918225A1 (en) 2015-09-16
JP5923180B2 (ja) 2016-05-24

Similar Documents

Publication Publication Date Title
JP5923180B2 (ja) 生体情報計測装置及びそれを用いた入力装置
US8724858B2 (en) Driver imaging apparatus and driver imaging method
JP6617662B2 (ja) 視線検出装置、視線検出方法、及びコンピュータプログラム
JP6210023B2 (ja) 視線検出支援装置および視線検出支援方法
CN105193402A (zh) 用于求取车辆的驾驶员的心率的方法
JP2013203103A (ja) 車両用表示装置、その制御方法及びプログラム
CN107960989B (zh) 脉搏波计测装置以及脉搏波计测方法
CN108140244B (zh) 视线检测装置以及视线检测方法
JP6201956B2 (ja) 視線検出装置および視線検出方法
EP3912149A2 (en) Method and system for monitoring a person using infrared and visible light
JP6900994B2 (ja) 視線検出装置及び視線検出方法
JP6245093B2 (ja) 診断支援装置および診断支援方法
JP6747172B2 (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
JP6587254B2 (ja) 輝度制御装置、輝度制御システム及び輝度制御方法
JP6593133B2 (ja) 診断支援装置および診断支援方法
JP2012055428A (ja) 視線検出装置
JP7057483B2 (ja) 評価装置、評価方法、及び評価プログラム
US20190391643A1 (en) Line-of-sight detection device, line-of-sight detection method, and medium
JP2020024750A (ja) 視線検出装置、視線検出方法、及びコンピュータプログラム
JP6269177B2 (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
JP6909391B2 (ja) 視線検出装置及び視線検出方法
WO2023187949A1 (ja) 乗り物酔い抑制装置及び乗り物酔い抑制方法
JP2019095892A (ja) 車両用運転支援装置、および車両用運転支援プログラム
JP5144412B2 (ja) 車両用物体判定装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160415

R150 Certificate of patent or registration of utility model

Ref document number: 5923180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees