JP7449226B2 - 生体状態検出装置および生体状態検出方法 - Google Patents

生体状態検出装置および生体状態検出方法 Download PDF

Info

Publication number
JP7449226B2
JP7449226B2 JP2020532205A JP2020532205A JP7449226B2 JP 7449226 B2 JP7449226 B2 JP 7449226B2 JP 2020532205 A JP2020532205 A JP 2020532205A JP 2020532205 A JP2020532205 A JP 2020532205A JP 7449226 B2 JP7449226 B2 JP 7449226B2
Authority
JP
Japan
Prior art keywords
image
light source
light
biological condition
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020532205A
Other languages
English (en)
Other versions
JPWO2020021886A1 (ja
Inventor
誠 阿閉
朋史 永田
規貴 清水
一晃 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nuvoton Technology Corp Japan
Original Assignee
Nuvoton Technology Corp Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nuvoton Technology Corp Japan filed Critical Nuvoton Technology Corp Japan
Publication of JPWO2020021886A1 publication Critical patent/JPWO2020021886A1/ja
Application granted granted Critical
Publication of JP7449226B2 publication Critical patent/JP7449226B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • A61B5/02427Details of sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • A61B5/02427Details of sensor
    • A61B5/02433Details of sensor for infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Vascular Medicine (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)

Description

本発明は、生体状態検出装置および生体状態検出方法に関し、特に、対象者に対して非接触方式で生体状態を検出する生体状態検出装置および生体状態検出方法に関する。
作業環境において対象者の生体状態を取得することで、対象者が作業に適した状態にあるか否かを判断する需要がある。この際、作業者の生体状態を検出するには、作業の妨げとならないよう検出器は非接触方式であることが望ましい(たとえば、特許文献1参照)。
特許文献1に開示された技術は非接触検出による生体状態の検出技術の一つであり、当該開示における脈波検出装置によれば、体の動きによる影響を少なくして、検出精度の高い光学式の脈波検出が可能となる。
特開2017-140202号公報
しかしながら、特許文献1に記載の脈波検出装置は、画像をもとに脈波を検出するのみにとどまり、生体状態を総合的に判断するには情報量としては乏しいという問題がある。
そこで本発明は、上記問題を解決するためになされたものであり、画像を用いながらも、従来よりも多くの生体情報を生成できる生体状態検出装置および生体状態検出方法を提供することを目的とする。
上記目的を達成するために、本発明に係る生体状態検出装置の一形態は、人の生体状態を検出する生体状態検出装置であって、第1波長の光を出射する第1光源と、前記第1波長とは異なる第2波長の光を出射する第2光源と、前記第1光源および前記第2光源から出射された光による前記人からの反射光を受光する複数の素子で構成される撮像素子と、前記第1光源および前記第2光源が交互に光を出射するように前記第1光源および前記第2光源を制御する制御部と、前記第1光源からの反射光を受光することで得られた第1画像、および前記第2光源からの反射光を受光することで得られた第2画像を前記撮像素子から読み出し、読み出した前記第1画像および前記第2画像を演算することで第3画像を生成する演算部と、前記演算部で生成された前記第3画像に基づいて、前記人の生体状態を示す生体情報を生成して出力する状態推定部とを備え、前記演算部は、さらに、前記第1画像および前記第2画像の少なくとも一つに基づいて、距離像を生成する。
また上記目的を達成するために、本発明に係る生体状態検出方法の一形態は、人の生体状態を検出する生体状態検出方法であって、第1波長の光を出射する第1光源、および、前記第1波長とは異なる第2波長の光を出射する第2光源に対して、前記第1光源および前記第2光源が交互に光を出射するように制御する制御ステップと、前記第1光源および前記第2光源から出射された光による前記人からの反射光を受光する複数の素子で構成される撮像素子から、前記第1光源からの反射光を受光することで得られた第1画像、および前記第2光源からの反射光を受光することで得られた第2画像を読み出し、読み出した前記第1画像および前記第2画像を演算することで第3画像を生成する演算ステップと、前記演算ステップで生成された前記第3画像に基づいて、前記人の生体状態を示す生体情報を生成する状態推定ステップとを含み、前記演算ステップでは、さらに、前記第1画像および前記第2画像の少なくとも一つに基づいて、距離像を生成する。
なお、本発明は、生体状態検出装置および生体状態検出方法として実現できるだけでなく、生体状態検出方法を含まれるステップをコンピュータに実行させるプログラムとして実現したり、そのプログラムを記録したコンピュータ読み取り可能なCD-ROMなどの記録媒体として実現したり、そのプログラムを示す情報、データ又は信号として実現したりすることもできる。そして、それらプログラム、情報、データおよび信号は、インターネット等の通信ネットワークを介して配信してもよい。
本発明に係る生体状態検出装置および生体状態検出方法により、画像を用いながらも、従来よりも多くの生体情報を生成できる。
図1は実施の形態における生体状態検出装置の機能ブロック図である。 図2は実施の形態における生体状態検出装置が備えるレンズを透過して撮像素子上に結像される投影像を説明する図である。 図3は実施の形態における生体状態検出装置が備える光源部と撮像素子との配置関係を説明する図である。 図4は実施の別形態における生体状態検出装置が備える光源部と撮像素子との配置関係を説明する図である。 図5は実施の形態における生体状態検出装置が備える撮像素子を構成する単位素子の拡大図である。 図6は実施の形態における生体状態検出装置の動作全体を示すフローチャートである。 図7は本実施の形態における生体状態検出装置による検出領域の特定と脈拍検出について説明する図である。 図8は実施の形態における生体状態検出装置が備える光源部と撮像素子の制御におけるタイミングチャートである。 図9は実施の形態における生体状態検出装置による画像処理について説明する図である。 図10は実施の形態における生体状態検出装置が備える演算部による画像処理を説明する図である。 図11は実施の形態における生体状態検出装置が備える状態推定部の動作全体を示すフローチャートである。 図12は自動車内に設置された実施の形態における生体状態検出装置の警報表示の一例を説明する図である。
以下、本発明の実施の一形態について、図面を用いて詳細に説明する。なお以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示す。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、動作の順序等は、一例であり、本発明を限定する主旨ではない。また以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、より好ましい形態を構成する任意の構成要素として説明する。
はじめに図1を用いて実施の形態における構成要素について説明する。
図1は実施の形態における生体状態検出装置1の機能ブロック図である。なお、図1には生体状態検出装置1に加え、生体情報を検出する対象者である人9も図示されている。また光源部2からの出射光、および人9で反射された反射光について、第1光源21の出射光21a、および反射光21bは、進行方向に向かう一点鎖線矢印で図示され、第2光源22の出射光22a、および反射光22bは、進行方向に向かう二点鎖線矢印で図示されている。また背景光源10から生体状態検出装置1の撮像素子3に照射される背景光10aは、進行方向に向かう破線矢印で図示されている。
この生体状態検出装置1は、人9の生体状態を検出する装置であり、例えば、自動車運転中の運転手、工場作業オペレータ、オフィスワーカー、学習中の生徒など、あらゆる環境における検出対象の人9について体調モニタ等に使用される。この生体状態検出装置1は光源部2と、撮像素子3と、制御部4と、演算部5と、状態推定部6と、記憶部7と、表示装置8とを備える。
光源部2は、第1波長の出射光21aを出射する第1光源21と、第1波長とは異なる第2波長の出射光22aを出射する第2光源22から構成されている。第1光源21、および第2光源22はそれぞれ独立した光源(例えば、半導体レーザー等)によって実現され、どちらもあらかじめ定められた単色光を出射する。
また撮像素子3は、第1光源21、および第2光源22から出射された光による、人9からの反射光を受光する複数の素子で構成される。具体的には、撮像素子3はフォトダイオード等によって実現される光電変換素子を有するCMOS(Complementary metal oxide semiconductor)又はCCD(Charge Coupled Device)等のイメージセンサーであり、受光した光を光量に応じた電気信号へと変換する。本実施の形態において撮像素子3は、反射光21bに対応する(つまり、反射光21bを受光するのに用いられる)第1素子31、および反射光22bに対応する(つまり、反射光22bを受光するのに用いられる)第2素子32から構成される。
第1光源21から出射された第1波長の出射光21aは人9およびその他の撮像空間内の物体によって反射され、第1波長の反射光21bとなって、少なくとも第1素子31に入射する。第2光源22から出射された第2波長の出射光22aも同様に人9およびその他の撮像空間内の物体によって反射され、第2波長の反射光22bとなって、少なくとも第2素子32に入射する。第1素子31、および第2素子32はそれぞれ対応する光源の出射に連動して露光を行い、太陽光などの外光である背景光源10から照射された背景光10aとともに反射光21b、22bを受光し、光電変換による電荷生成ののち電気信号として出力する。
また制御部4は、第1光源21および第2光源22が交互に光を出射するように第1光源21、および第2光源22を制御する処理部である。制御部4はさらに、第1素子31、および第2素子32について、対応する光源の出射に連動して露光を行うよう撮像素子3の制御も併せて行う。より具体的には、制御部4は制御プログラムが格納されたROM、RAM、および制御プログラムを実行するCPU等によって実現される。また生体状態検出装置1は、使用者からの指示を受け付ける入力部を備え、制御部4が入力部を介して使用者の指示を受信してもよい。
演算部5は、第1光源21からの反射光21bを受光することで得られた第1画像、および反射光22bを受光することで得られた第2画像を撮像素子3から読み出し、読み出した第1画像および第2画像を演算することで第3画像を生成する処理部である。具体的には、演算部5は演算プログラムが格納されたROM、RAM、および演算プログラムを実行するCPU等によって実現される。これらのROM、RAM、CPU等のハードウェアは、制御部4を実現するハードウェアと共用されてもよい。
演算部5はまた、第1画像、または第2画像、もしくはその両方に基づいて明度像、および距離像を生成する処理部でもある。明度像とは、明度(つまり、輝度)を示す画素値の集まりで構成される画像である。距離像とは、距離を示す画素値の集まりで構成される画像である。
状態推定部6は、演算部5で生成された第3画像に基づいて、人9の生体状態を示す生体情報を生成する処理部であり、より詳しくは、状態推定部6は推定プログラムが格納されたROM、RAM、および推定プログラムを実行するCPU等によって実現される。これらのROM、RAM、CPU等のハードウェアは、制御部4を実現するハードウェアと共用されてもよい。
状態推定部6はさらに、第3画像のうち、生体情報の生成に用いる領域である検出領域を特定する検出領域特定部61を有し、検出領域特定部61で特定された検出領域を用いて生体情報を生成する。
また記憶部7は、生体情報の生成に必要となる顔検知のための顔検知ライブラリや、距離像生成に用いる距離基準値や距離校正値、および生体情報の比較のための閾値などを含む各種設定値などが格納されている記憶装置であり、不揮発性メモリや磁気ディスク等によって実現される。さらに、記憶部7は、状態推定部6での処理に際し、生成される画像情報等を一時的に格納するための揮発性の記憶領域も兼ね備える。
また表示装置8は、状態推定部6において推定された人9の状態を、人9、または人9を管理する立場にある管理者、もしくはその両方に対して提示する装置であり、例えば、液晶ディスプレイ等によって構成される。なお通知する内容が、人9の状態の良し悪しのみであるなど簡易な場合においては、表示装置8に代えて、警告灯などの簡易な装置によって構成されてもよい。さらに、図示しないが、状態推定部6の出力する推定結果を人9に対して知らせるため、ブザー音を鳴らす、または音声案内を行うような発音装置を、あるいは振動によって知らせるための発振装置を、表示装置8に加えて、あるいは、表示装置8に代えて、別途備えてもよい。
なお、上述したすべての構成要素はひとつの筐体に搭載されてもよいし、光源部2、および撮像素子3をひとつの筐体に搭載し、その他は筐体と有線、または無線接続されたコンピュータ上において実現してもよい。さらに表示装置8は通知対象となる人物への視認性が向上する位置に設置可能なように、別途有線、または無線で状態推定部6と接続されてもよい。
また図示しないが、生体状態検出装置1は、第1光源21および第2光源22から出射された光による人9からの反射光21b、22bを撮像素子3に集光させるレンズを備える。
ここで本レンズの特徴について、図2を用いて説明する。
図2は実施の形態における生体状態検出装置1が備えるレンズを透過して撮像素子3上に結像される投影像を説明する図である。
図2の(a)は一般的な球面あるいは非球面レンズを用いた場合に撮像素子3上に結像される投影像3aを示し、また図2の(b)は光学的に調整された部分拡大レンズ(つまり、自由曲面レンズ)を用いた場合に撮像素子3上に結像される投影像3bを示している。なお、投影像3a、3bには例として撮像空間内に存在する人9が映り込んでいる。
投影像3aにおいては、撮像空間内を見たままに撮像素子3の素子面上に再現しており、破線四角枠で囲んだ顔部分エリアA1と顔部分エリアA1の外側とは同じ倍率で結像される。一方、投影像3bにおいては、撮像素子3に結像された像が人9の上半身に対応する像である場合に、レンズのうち顔部分エリアA1zに対応する箇所が拡大されるよう光学的に調整されている。このため投影像3bにおいては、顔部分エリアA1zと顔部分エリアA1zの外側とは拡大倍率が異なる(つまり、解像度が異なる)。
本実施の形態における生体状態検出装置1は投影像3aに示すようなレンズを備えてもよいが、顔部分を重視するような用途を想定する場合には投影像3bに示すようなレンズを備えてもよい。
次に図3~図5を用いて光源部2、および撮像素子3の配置についてより詳細に説明する。
図3は本実施の形態における生体状態検出装置1が備える光源部2と撮像素子3との配置関係を説明する図である。
図3の上図は生体状態検出装置1の光源部2、および撮像素子3を備える一面を平面視した図である。また図3の下図は撮像素子3を拡大した図であり、撮像素子3を構成する単位素子が格子状に配列されていることが示されている。なお、上図と下図とは対応する角どうしが破線でつながれて示され、下図では単位素子が形成する格子面が、便宜上、途中で破断されている。
上図の生体状態検出装置1の撮像素子3をはさむ両端部には、光源部2を構成する第1光源21、および第2光源22が配置されている。光源部2を構成する第1光源21、および第2光源22は撮像素子3と同一平面上に配置されている。この際、光源から物体までの出射光、および物体から撮像素子3までの反射光が通過する光路長について、第1光源21と第2光源22との間の差を最小にするため、第1光源21、および第2光源22は、撮像素子3を中心とする円周c上に配置されている。また、反射物に対する出射角の差を最小とするため、第1光源21、および第2光源22は、実装可能な限り隣接する配置が望ましい。なお一対の第1光源21、および第2光源22が、撮像素子3を中点とする円周c上に配置されている限り、光源を追加して出射光の光量を増加させることも可能である。
撮像素子3は各光源に対応した第1素子31、および第2素子32の配置に偏りが生じないよう、撮像素子3を平面視した際に、第1素子31と第2素子32とは上下左右方向のうち少なくとも一方向に隣り合う配置であることが望ましい。本実施の形態においては、撮像素子3を平面視した際に第1素子31を配列した横方向の行と垂直の縦方向の列において、第1素子31、および第2素子32が交互に配置された横縞型の配置の例を示している。
ここで、図4を用いて光源部2と撮像素子3との配置関係の別の形態について説明する。
図4は実施の別形態における生体状態検出装置1が備える光源部2bと撮像素子3bとの配置関係の別の形態を説明する図である。
図4の上図は生体状態検出装置1の別形態における光源部2b、および撮像素子3bを備える一面を平面視した図である。また図4の下図は撮像素子3bを拡大した図であり、撮像素子3bを構成する単位素子が格子状に配列されていることが示されている。なお、上図と下図とは対応する角どうしが破線でつながれて示され、下図では単位素子が形成する格子面が、便宜上、途中で破断されている。
図3に対して、光源部2bは図に向かって右側に光源が集中した配置となっており、左側には光源は存在しない。さらに、第1光源21x、および第2光源22xは、図3の実施例における光源の配置よりも撮像素子3に近い位置となっているが、これらの一対の光源(第1光源21x、および第2光源22x)が撮像素子3bを中心とする円周cx上に配置されているため、これらの一対の光源だけで生体状態を検出することが可能である。また、第1光源21y、および第2光源22yは、図3の実施例に対し、各光源が入れ替わった配置となっているが、これらの一対の光源(第1光源21y、および第2光源22y)が撮像素子3bを中心とする円周cy上に配置されているため、これらの一対の光源だけで生体状態を検出することが可能である。なお、第1光源21z、および第2光源22zは図3の実施例における光源の配置よりも撮像素子3から遠い位置となっており、図に向かって下方に光源が偏っているが、これらの一対の光源(第1光源21z、および第2光源22z)が撮像素子3bを中点とする円周cz上に配置されているため、これらの一対の光源だけで生体状態を検出することが可能である。
撮像素子3bは図3の撮像素子3と比べ、縦方向、横方向ともに第1素子31、および第2素子32が交互に配置された千鳥格子型の配置の例を示している。本形態において、第1素子31と第2素子32は上下左右方向のうちすべての方向に隣り合う配置となっている。なお、この場合、個々の単位素子の受光を個別に制御する必要があり、個体撮像素子としてCMOSイメージセンサーを用いることが想定される。
ここでさらに、図5を用いて第1素子31、および第2素子32についてより詳細に説明する。
図5は実施の形態における生体状態検出装置1が備える撮像素子3を構成する単位素子の拡大図である。
図5の下図には、図3の下図と同様の撮像素子3を示してあり、上図には、下図に示した撮像素子3のうち、上から4行、左から6列の24個の単位素子をさらに拡大して示している。なお本実施の形態において、撮像素子3の露光は複数のタイミングに分けることができ、ここでは特に各露光タイミングの各々において発生する電荷を蓄積する、撮像素子3が備える素子に着目して図示している。また、図5の下図には上図に対応する単位素子を四角枠で囲んで示し、対応する角どうしを破線でつないでいる。
第1素子31の単位素子はさらに、背景光10aとともに反射光21bを受光し、図5には図示しないが光電変換による電荷生成を行う第1受光素子と、第1露光タイミングにおいて発生した電荷の蓄積を行う素子311、第2露光タイミングにおいて発生した電荷の蓄積を行う素子312、第3露光タイミングにおいて発生した電荷の蓄積を行う素子313の4つの素子から構成される。第2素子32の単位素子についても同様に、第2受光素子、素子321、素子322、素子323から構成される。第1素子31の素子311~313は対応する第1光源21の出射に伴い順次発生した電荷を蓄積し、それぞれの露光タイミングで第1素子31が受光した光量に応じた電気信号を出力する。また、第2素子32の素子321~323も同様に対応する第2光源22の出射に伴い順次発生した電荷を蓄積し、それぞれの露光タイミングで第2素子32が受光した光量に応じた電気信号を出力する。次に、以上のように構成された本実施の形態における生体状態検出装置1の動作について図6~図12を用いて説明する。
はじめに図6、および図7を用いて本実施の形態における生体状態検出装置1全体の動作と、状態推定部6における画像を用いた脈拍検出について説明する。
図6は実施の形態における生体状態検出装置1の動作全体(つまり、生体状態検出方法)を示すフローチャートである。また、図7は実施の形態における生体状態検出装置1による検出領域の特定と脈拍検出について説明する図である。
まず生体状態検出装置1の使用者は、生体状態検出装置1の撮像空間内に検出対象となる人9が入る位置に、生体状態検出装置1を設置して動作を開始させる。
すると、生体状態検出装置1は事前に設定された設定値、または動作開始の際に使用者によって設定された設定値に基づき、人9の生体状態を示す生体情報の生成を開始する。まず生体状態検出装置1の制御部4は、第1光源21からの出射光21a、および第2光源22からの出射光22aを交互に出射させる制御を行う(制御ステップS101)。出射光21aおよび22aは、人9を含む、撮像空間内に存在する物体に反射され、反射光21bおよび22bとして、第1素子31、および第2素子32において受光される(S102)。この際受光した光には背景光源10から照射された背景光10aを含む。演算部5は、第1素子31および第2素子32から読み出した第1画像および第2画像を演算することによって第3画像37、明度像38、および距離像39を生成する(演算ステップS103)。状態推定部6の検出領域特定部61は生成された明度像38、距離像39をもとに、第3画像37のうち生体情報の生成に用いる箇所を決定するための検出領域62を特定する(状態推定ステップS104)。
より具体的には図7に示すように、状態推定部6が有する検出領域特定部61は、演算部5が生成した明度像38、および距離像39を取得する。ここで、明度像38、および距離像39は、明度像38の画像例38a、および距離像39の画像例39aに示すように、人9の顔部分を含む空間を撮影した明度、および距離を示す画像である。検出領域特定部61は取得した明度像38について、人9の顔部分に位置する箇所の画素を輪郭抽出および外接矩形の生成等によって顔検知エリア38bとして検出する。画像例38aにおいて、顔部分と検知された顔検知エリア38bを、角強調の破線四角枠によって囲んで例示している。
次に検出領域特定部61は、先に明度像38において検知した、顔部分に位置する箇所の画素と対応する画素を距離像39上から選択する。距離像39上において選択した、顔検知エリア38bに対応する画素のうち、距離像39の中央の画素からの距離が略等しい距離にある画素(つまり、等距離範囲)を検出領域例62bとして選択する。言い換えると、距離像39の顔部分外の背景を除去した領域を、検出領域例62bとして選択する。距離像39において、明度像38で検知された顔部分に対応する画素は、顔の距離を反映しているため、およそ距離が等しくなっているからである。検出領域62の画像例62aには、画像例39aに顔検知エリア38bを重ね合わせ、さらに顔検知エリア38bのうち、距離情報がおよそ等しい範囲を検出領域例62bとして図示している。
図6において検出領域62を特定したのち、状態推定部6は、特定した検出領域62に基づいて、演算部5から出力された第3画像37を処理し、検出領域62に対応する箇所の情報のみを持つ処理後の第3画像63を生成する(S105)。
図7に示す第3画像37の画像例37aも、画像例38a、39aと同一のフレームにおいて得られた、人9の顔部分を含む空間を撮影した画像である。状態推定部6は、第3画像37に対して、同一フレームにおいて先に得られた検出領域62を重ね合わせ、重複のない箇所の画像情報を第3画像37上から削除する。状態推定部6は、この処理によって得られた処理後の第3画像63を記憶部7に一時的に格納する。なお、処理後の第3画像63の画像例63aにおいては、画像例37aに対して、検出領域例62bを重ね合わせて示している。
状態推定部6は、処理後の第3画像63を生成したのち、記憶部7に蓄積された複数フレーム分の処理後の第3画像63、明度像38、および距離像39から、人9の脈拍や呼吸、姿勢などの生体情報を生成する(S106)。
生体情報の生成処理について、以下、処理後の第3画像63を一例に図7を用いて詳しく説明する。
演算部5によって順次得られるフレームの第3画像37すべてについて、検出領域特定部61による上述の一連の処理を適用していくことで、記憶部7には各フレームによって得られた処理後の第3画像63が蓄積される。蓄積された一連の、処理後の第3画像63は、時間変化に対する処理後の第3画像63の変化を表している。すなわち、これら一連の蓄積された処理後の第3画像63は、第3画像37のうち顔部分の時間変化を示す第3画像動画63bである。
ここで、血管の拡張、すなわち血流量は、ヘモグロビンの量と相関があり、ヘモグロビンに対する反射性の高い波長の光を用いれば、光を照射した単位時間あたりのヘモグロビン量に相当する反射光が得られる。なお、ヘモグロビンに対する反射性の高い波長とは、体組織中で吸収されにくく、かつヘモグロビンにおいて、入射された光のうち少なくとも一部が反射される光の波長を指す。この反射光を利用すれば、血管の拡張を非侵襲的に観測することが可能である。また血管の拡張を時間変化に対してプロットすることで脈拍を推定することができる。すなわち画像を用いた非侵襲的な脈拍推定が可能となる。
先に得た第3画像動画63bは、顔部分に照射した任意の波長の光が反射された反射光を、時間変化に対して並べた動画であり、任意の波長を、ヘモグロビンに対する反射性の高い波長とすることで人9の脈拍を推定することができる。よって状態推定部6は、第3画像動画63bを解析することで人9の脈拍を推定し、推定脈拍図63cを生成するとともに、生体情報としての推定脈拍値を生成する。
明度像38、および距離像39についても、状態推定部6は、明度像動画、および距離像動画として解析することにより、様々な生体情報を生成することができる。
図6において、生体情報を生成したのち、状態推定部6は、生成した生体情報のうち、あらかじめ設定された基準値から外れる値を示すものがないかを判断し(S107)、該当するものがない場合には(S107でNo)表示装置8に現在得られている生体情報の一覧、または一部を表示させる(S108)。一方、あらかじめ設定された基準値から外れる値を示すものがあった場合には(S107でYes)、状態推定部6は表示装置8に警報を表示させることで異常値の存在を通知する(S109)。その後、状態推定部6はさらに異常値のあった情報を含む生体情報の一覧、または一部を表示させる(S108)。
次に、図6および図7に示された生体状態検出装置1の全体動作における個々の動作についてより詳細に説明する。
まず光源部2の出射、および撮像素子3の受光の処理について、図8を用いて詳細に説明する。ここでの説明は、図6のフローチャートにおけるステップS101、およびステップS102に対応している。
図8は実施の形態における生体状態検出装置1が備える光源部2、および撮像素子3の制御を示すタイミングチャートである。
図8では、横軸は時間経過を、縦軸は光源の出射、または撮像素子3の露光のON、およびOFFを示している。ここでは縦軸の上側がON制御であり、縦軸の下側がOFF制御である。また各素子について2つまたは3つの異なる露光タイミングにおいて受光が行われるため、図5に示した素子311および321と、素子312および322と、素子313および323とを用いて説明する。なお、2つの異なる露光タイミングにおいて受光が行われる場合においては、第1素子31および第2素子32が素子312および322を有しない構成としてもよい。
図8の(a)は、第1光源21の出射(第1タイミングチャートp101)、および第1素子31の受光(第2タイミングチャートp102)、ならびに第2光源22の出射(第3タイミングチャートp103)、および第2素子32の受光(第4タイミングチャートp104)、ならびに第1素子31、および第2素子32における背景光10aの受光(第5タイミングチャートp105)を1フレーム時間内に1回行う制御を示すタイミングチャートである。ここでは2つの異なるタイミングにおいて受光が行われるため、図5の素子311および321と、素子313および323とを用いて説明する。
まず第1光源21の出射に対応する第1タイミングチャートp101において、第1光源21の出射が開始され、第1パルス幅w1の時間が経過したのち出射が停止される。
第1素子31の受光に対応する第2タイミングチャートp102において、第1光源21の出射開始と同時に素子311の電荷蓄積が開始され、第2パルス幅w2の時間が経過したのち電荷蓄積が停止され、第1画像に相当する電気信号が取得される。
また第2光源22の出射に対応する第3タイミングチャートp103において、素子311の電荷蓄積停止から第1間隔w3の時間が経過したのち、第2光源22の出射が開始され、第1パルス幅w1の時間が経過したのち出射が停止される。
第2素子32の受光に対応する第4タイミングチャートp104において、第2光源22の出射開始と同時に素子321の電荷蓄積が開始され、第2パルス幅w2の時間が経過したのち電荷蓄積が停止され、第2画像に相当する電気信号が取得される。
さらに第1素子31、および第2素子32における背景光10aの受光に対応する第5タイミングチャートp105において、素子321の電荷蓄積停止から第2間隔w4の時間が経過したのち、素子313および323の電荷蓄積が開始され、第2パルス幅w2の時間が経過したのち電荷蓄積が停止され、第4画像に相当する電気信号が取得される。
以上を1制御セットとして1フレーム時間内に1セット行う。このタイミングチャートでは2つの波長において撮影された第1画像、および第2画像に加えて第4画像が取得でき、演算部5により、背景光を除去した差分の第1画像、および差分の第2画像の生成が可能となる。
また図8の(b)は、図8の(a)の1制御セットを1フレーム時間内で複数回に分けて行う制御を示すチャートである。さらに図8の(b)では、第1光源21の出射(第6タイミングチャートp201)、および第1素子31の受光(第7タイミングチャートp202)の直後に、第1素子31における背景光10aの受光(第8タイミングチャートp203)を行う。続いて、第2光源22の出射(第9タイミングチャートp204)、および第2素子32の受光(第10タイミングチャートp205)の直後に、第2素子32における背景光10aの受光(第11タイミングチャートp206)を行う。ここでは2つの異なるタイミングにおいて受光が行われるため、図5の素子311および321と、素子313および323とを用いて説明する。
まず第1光源21の出射に対応する第6タイミングチャートp201において、第1光源21の出射が開始され、第3パルス幅w5の時間が経過したのち出射が停止される。
第1素子31の受光に対応する第7タイミングチャートp202において、第1光源21の出射開始と同時に素子311の電荷蓄積が開始され、第4パルス幅w6の時間が経過したのち電荷蓄積が停止される。
続いて第1素子31における背景光10aの受光に対応する第8タイミングチャートp203において、素子311の電荷蓄積停止から第3間隔w7の時間が経過したのち、素子313の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
また第2光源22の出射に対応する第9タイミングチャートp204において、素子313の電荷蓄積停止から第4間隔w8の時間が経過したのち、第2光源22の出射が開始され、第3パルス幅w5の時間が経過したのち出射が停止される。
第2素子32の受光に対応する第10タイミングチャートp205において、第2光源22の出射開始と同時に素子321の電荷蓄積が開始され、第4パルス幅w6の時間が経過したのち電荷蓄積が停止される。
続いて第2素子32における背景光10aの受光に対応する第11タイミングチャートp206において、素子321の電荷蓄積停止から第3間隔w7の時間が経過したのち、素子323の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
以上を1制御セットとして1フレーム時間内に複数セット出射と受光を繰り返し、各素子において蓄積する電荷を積算する。このタイミングチャートでも、1フレーム時間で、2つの波長において撮影された第1画像、および第2画像に加えて第4画像が取得でき、演算部5により、背景光を除去した差分の第1画像、および差分の第2画像の生成が可能となる。このタイミングチャートでは出射と受光を複数回にわたって行うため、1フレーム時間内に生じる変化をより正確にとらえた撮影が可能となる。また素子311および素子313の電荷蓄積タイミングの差と、素子321および素子323の電荷蓄積タイミングの差とが同一になるため、2つの光源における撮影の差を少なくすることができる。
さらに図8の(c)は、図8の(b)に加えて、TOF(Time of Flight)方式による撮影ができるよう第1素子31、および第2素子32における受光が時間軸上2つのタイミングに分割されている。ここでは3つの異なるタイミングにおいて受光が行われるため、図5の素子311および321と、素子312および322と、素子313および323を用いて説明する。
まず第1光源21の出射に対応する第12タイミングチャートp301において、第1光源21の出射が開始され、第3パルス幅w5の時間が経過したのち出射が停止される。
素子311の電荷蓄積に対応する第13タイミングチャートp302において、第1光源21の出射開始と同時に素子311の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
また素子312の電荷蓄積に対応する第14タイミングチャートp303において、素子311の電荷蓄積停止と同時に素子312の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
続いて第1素子31における背景光10aの受光に対応する第15タイミングチャートp304において、素子312の電荷蓄積停止から第5間隔w9の時間が経過したのち、素子313の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
また第2光源22の出射に対応する第16タイミングチャートp305において、素子313の電荷蓄積停止から第6間隔w10の時間が経過したのち、第2光源22の出射が開始され、第3パルス幅w5の時間が経過したのち出射が停止される。
素子321の受光に対応する第17タイミングチャートp306において、第2光源22の出射開始と同時に素子321の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
また素子322の電荷蓄積に対応する第18タイミングチャートp307において、素子321の電荷蓄積停止と同時に素子322の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
続いて第2素子32における背景光10aの受光に対応する第19タイミングチャートp308において、素子322の電荷蓄積停止から第5間隔w9の時間が経過したのち、素子323の電荷蓄積が開始され、第3パルス幅w5の時間が経過したのち電荷蓄積が停止される。
以上を1制御セットとして1フレーム時間内に複数セット出射と受光を繰り返し、各素子において蓄積する電荷を積算する。このタイミングチャートではTOF方式による分析が可能となるため撮像素子3と撮像空間内に存在する物体との距離を算出することが可能となる。
なお、本実施の形態における説明については図8の(c)にあたる出射と受光を行っているものとし、演算部5においてTOF方式による距離像の取得が可能である。
ここでTOF方式における距離の計算方法について、以下の式(1)を用いて説明する。
Figure 0007449226000001
式(1)は第1波長における、撮像空間内に存在する物体から撮像素子3までの距離を計算する計算式である。ただしLは、撮像空間内に存在する物体から撮像素子3までの距離であり、cは光の速度を、Tは第1波長の光の照射パルス幅を、t1は第1露光タイミングにおいて得られた受光量を、t2は第2露光タイミングにおいて得られた受光量を、tOは第3露光タイミングにおいて得られた受光量をそれぞれ表している。より具体的には、cには3.00×10を、Tには第3パルス幅w5を、t1には素子311の電荷量を、t2には素子312の電荷量を、tOには素子313の電荷量を代入して計算する。
また第2波長における撮像空間内に存在する物体から撮像素子3までの距離も同式を用いて計算する。より具体的には、cには3.00×10を、Tには第3パルス幅w5を、t1には素子321の電荷量を、t2には素子322の電荷量を、tOには素子323の電荷量を代入して計算する。
次に以上のように撮像素子3に蓄積された電気信号から生体情報を生成するまでの処理について図9を用いて説明する。ここでの説明は、図6のフローチャートにおけるステップS103~S108に対応している。
図9は実施の形態における生体状態検出装置1による画像処理について説明する図である。
図9には撮像素子3から演算部5が画像を読み出して処理し、演算部5が処理した画像を状態推定部6がさらに処理することで生体状態を推定するまでの、一連の画像処理の流れを示している。また図9には、状態推定部6における画像の処理において一時的に記憶部7に画像を格納すること、推定結果を表示装置8へ出力することも併せて示している。
まず演算部5は、撮像素子3において取得した画像情報を読み出し、各画像情報について、差分をとることや合成を行う処理によって3種の画像情報を生成する。具体的には演算部5は、撮像素子3から第1波長の光源出射時において得られた第1画像51、および第2波長の光源出射時において得られた第2画像52を第1素子31および第2素子32から読み出す。また同時に、演算部5は第1素子31、および第2素子32において、光源の照射されない背景光10aのみの環境下において撮影された第4画像53aおよび53bを撮像素子3から読み出す。演算部5は、撮像素子3から読み出した第1画像51および第4画像53aの差分をとることで背景光10aの除去を行い、差分の第1画像51aを出力する。また演算部5は同様に、撮像素子3から読み出した第2画像52および第4画像53bの差分をとることで背景光10aの除去を行い、差分の第2画像52aを出力する。
ここで、差分の第1画像51aは第1明度像33、および第1距離像35を含んでいる。また差分の第2画像52aは第2明度像34、および第2距離像36を含んでいる。演算部5は、生体情報の生成用として、第1明度像33、および第2明度像34の差分をとることで第3画像37を生成する。また演算部5は、検出領域62の特定に用いる、第1明度像33、および第2明度像34を合成することで明度像38を生成する。さらに演算部5は、検出領域62の特定に用いる、第1距離像35、および第2距離像36を合成することで距離像39を生成する。
演算部5はさらに生成した明度像38、および距離像39を記憶部7に格納する。演算部5は順次取得されるフレームについて、以上のように記憶部7に画像を格納して蓄積することにより明度像動画71、および距離像動画72を生成する。
次に状態推定部6の検出領域特定部61は、演算部5が生成した明度像38および距離像39を用いて、生体情報を検出する際に用いる検出領域62を特定する。
状態推定部6は、演算部5が生成した第3画像37に対して、検出領域62を用いて、検出領域62に対応する部分のみを含む画像情報である処理後の第3画像63を生成し、記憶部7に格納する。状態推定部6は順次取得されるフレームについて、以上の処理を適用して第3画像動画63bを生成する。
状態推定部6は記憶部7に格納された明度像動画71、距離像動画72、および第3画像動画63bを用いて人9の生体情報を生成する。状態推定部6は以上のようにして生成した生体情報を表示装置8に表示させる。
次に、本実施の形態において演算部5で行われる画像の処理について図10を用いて、より詳しく説明する。ここでの説明は、図6のフローチャートにおけるステップS103に対応している。
図10は実施の形態における生体状態検出装置1が備える演算部5による画像処理を説明する図である。
図10には、撮像素子3と、撮像素子3の単位素子に対応する画素が単位素子の配列と対応するよう並べられた画像情報とを図示している。また撮像素子3および各画像情報は、右端部、および下端部が便宜上破断されている。撮像素子3は、縦方向にN行、横方向にM列の単位素子配列によって構成されており(N、Mは2以上の整数)、縦方向のうち奇数行には第1素子31が、偶数行には第2素子32が交互に並ぶように配置されている。
ここで、第1素子31によって撮影された第1画像51は、第1画像51を構成する各画素に受光した光量である明度情報と、TOF方式によって取得された撮像空間内における物体と撮像素子3との距離を示す距離情報とを含んでいる。また第2素子32によって撮影された第2画像52についても同様である。図10には、第1画像51のうち明度情報を示す画像を第1明度像33として、距離情報を示す画像を第1距離像35として図示しており、また第2画像52のうち明度情報を示す画像を第2明度像34として、距離情報を示す画像を第2距離像36として図示している。さらに図10には演算部5において処理されることで得られる第3画像37、明度像38、および距離像39も併せて図示している。
演算部5は撮像素子3による撮影が完了すると、撮像素子3の素子311および321と、素子312および322に蓄積された、画像情報を示す電気信号を読み出す。この際、奇数行に配置された第1素子31の受光量を抽出する処理により第1画像51を得、偶数行に配置された第2素子32の受光量を抽出する処理により第2画像52を得る。すなわち、元の撮像素子3に配列されたN行M列の単位素子から、縦方向の情報量が半数となるN/2行M列の画素を有する画像情報が2枚生成される。また演算部5は素子313および323から背景光10aのみが照射された環境において撮影された第4画像53aおよび53bを読み出す。演算部5はまず第1画像51、および第2画像52それぞれから、対応する素子から読み出した第4画像53aおよび53bを差し引くことにより、背景光10a照射による受光分を除去した差分の第1画像51a、および差分の第2画像52aを生成する。
ここで演算部5は、第1画像51、および第2画像52から第4画像53aおよび53bを差し引くと同時に各画素中に含まれる明度情報、および距離情報を別個に演算し、第1明度像33、および第1距離像35、ならびに第2明度像34、および第2距離像36を得る。
具体的には、演算部5は、素子311および321の電荷量と、素子312および322の電荷量とを加算し、素子313および323の電荷量の2倍分を差し引き、撮像素子上の対応する配置に画素を並べることで第1明度像33、および第2明度像34を得る。また演算部5は、素子311および321の電荷量と、素子312および322の電荷量と、素子313および323の電荷量とを、上記式(1)を用いて演算することにより第1距離像35、および第2距離像36を得る。
ここまでの処理によって、演算部5は1フレーム時間内に撮像素子3に蓄積された電気信号から、上記の4つの画像情報(第1明度像33、第2明度像34、第1距離像35、第2距離像36)を得る。
演算部5はさらに第1明度像33、および第2明度像34の差分を演算することにより、第3画像37を得る。第3画像37の演算においては第1明度像33、および第2明度像34における同じ位置の各画素について差分を計算するため、各画素の示す値は変化するが、処理の前後において画像の画素数には変化はなく、N/2行M列の画素を有する画像情報が得られる。
なお、本実施の形態においては、演算部5は、第3画像37を、第1明度像33、および第2明度像34の差分によって生成したが、2つの画像の比率をとって生成してもよい。
演算部5はまた、第1明度像33、および第2明度像34を合成することにより、明度像38を得る。具体的には第1明度像33の1行目の下に第2明度像35の1行目を挿入し、第1明度像33の2行目の下に第2明度像34の2行目を挿入していく処理をN/2行目まで繰り返すことで、元の撮像素子3上の対応する単位素子の配列を再現する合成を行う。この処理によって得られる画像は、各画素の示す値は変化しないが、処理の前後において画像の画素数が変化し、N行M列の画素を有する画像情報が得られる。
ここで第1明度像33、および第2明度像34は、それぞれ異なる波長の光を出射して得られた画像である。2つの波長間において撮像空間内の物体に対する反射率の差や、第1素子31、および第2素子32の感度の差によって、得られる第1明度像33、および第2明度像34の明度(つまり、輝度)には差が生じる場合がある。そこで上記明度像38の合成においては光量の差を補正するための処理も同時に行ってもよい。具体的には、得られた画像のうち基準となる画素を決定し、この基準となる画素について、受光量の多い一方の画像に対する、受光量の少ない他方の画像の受光量比を算出する。受光量の多い一方の画像の撮影において出射されていた光源について、受光量比を用いて輝度を調整し、次フレームの撮影において基準となる画素の受光量がそろった状態を作出して合成に用いる。なお、受光量の多い一方の画像におけるすべての画素に対して、画像情報上で受光量比を用いて補正を行い、基準となる画素の受光量がそろった状態を作出して合成に用いてもよい。
演算部5はまた、第1距離像35、および第2距離像36を合成することにより、距離像39を得る。具体的には第1距離像35の1行目の下に第2距離像36の1行目を挿入し、第1距離像35の2行目の下に第2距離像36の2行目を挿入していく処理をN/2行目まで繰り返すことで、元の撮像素子3上の対応する単位素子の配列を再現する合成を行う。この処理によって得られる画像は、各画素の示す値は変化しないが、処理の前後において画像の画素数が変化し、N行M列の画素を有する画像情報が得られる。
以上により得られる第3画像37、明度像38、および距離像39は、それぞれ縦方向の画素数が2/N行、N行、およびN行となっているため、これらの画像を同時に用いて比較する際には第3画像37の縦方向の画素を2倍に引き伸ばす処理を行う。なお、明度像38、および距離像39の縦方向の画素を1/2倍に縮小する処理を行ってもよい。
さらに本実施の形態における状態推定部6の処理について図11を用いて説明する。ここでの説明は、図6のフローチャートにおけるステップS104~S109に対応している。また図12を用いて、警告表示の一例として眠気情報を検知した際の生体状態検出装置1の動作についても説明する。
図11は実施の形態における生体状態検出装置1が備える状態推定部6の動作全体を説明するフローチャートである。
まず状態推定部6は、図6において説明したように検出領域特定部61において演算部5が生成した明度像38、および距離像39を取得する。状態推定部6の検出領域特定部61は、距離像39、および明度像38を用いて画像処理を行い、画像情報からの脈拍検出に用いる領域を限定するための検出領域62を特定する(S201)。
続いて状態推定部6は、演算部5が生成した第3画像37を取得し、検出領域62に基づいて第3画像37を処理する(S202)。より具体的には、状態推定部6は第3画像37のうち検出領域62の範囲外の画像情報を削除し、検出領域62の領域内の情報だけをもった処理後の第3画像63を生成する。
状態推定部6はさらに、処理後の第3画像63を記憶部7に格納し、同様の処理により複数フレームにおける処理後の第3画像63を蓄積する。蓄積された処理後の第3画像63は、検出領域62の領域内に位置する、人9の顔部分における画像情報の経時変化を示す第3画像動画63bとなる。状態推定部6は第3画像動画63bの解析により人9の生体情報である脈拍を推定する(S203)とともに、推定脈拍図63cを生成する。
状態推定部6はまた、記憶部7に蓄積された距離像39が示す、距離像39の経時変化である距離像動画72を解析することにより、人9の生体情報である、姿勢情報、行動情報、および動作に関する情報を生成する(S204)。
状態推定部6はさらに、記憶部7に蓄積された明度像38が示す、明度像38の経時変化である明度像動画71を解析することにより、人9の生体情報である、視線情報、瞬き情報、顔向情報、呼吸情報を生成する(S205)。
以上のようにして得られた生体情報をもとに、状態推定部6は、人9の眠気を示す情報が含まれるか否かを判断する(S206)。たとえば、状態推定部6は眠気を示す際に特徴的な脈拍が検出されたこと、同じ姿勢の継続時間が長いこと、瞬きの回数が増えていること、顔向が下がっていることなどを、総合的に判断して人9の眠気を検知する。状態推定部は人9の眠気を検知した際に表示装置8に眠気を検知したことを示す警報を表示する(S211)。
ここで、図12は自動車内に設置された実施の形態における生体状態検出装置1の警報表示の一例を説明する図である。
図12には自動車の運転手である人9の視点において、視界に入る操舵部を示している。この例では操舵輪100、計器盤101、および生体状態検出装置1が人9の視界に入っており、生体状態検出装置1は既に動作を開始している状況である。
生体状態検出装置1は、生体情報の検出対象の運転手である人9に向けて光源部2から異なる波長の光を出射する。出射光21a、22aは、人9に反射して、反射光21b、22bとしてレンズ3cを介し撮像素子3に到達する。図12に示した例では撮影された画像から、運転手の眠気に関する情報を検知したため、状態推定部6により表示装置8に眠気を検知した旨を通知する警報が表示されている。
図11のフローチャートにおいて状態推定部6は、眠気を検知しなかった際(S206でNo)、または眠気を検知した警報を表示した(S211)のち、得られた生体情報をもとに、人9の漫然性を示す情報が含まれるか否かを判断する(S207)。たとえば、状態推定部6は同じ動作を長時間行っていること、漫然性を示す際に特徴的な脈拍が検出されたこと、平常時に比べ視線の移動回数が変化していることなどを総合的に判断して人9の漫然性を検知する。状態推定部は人9の漫然性を検知した際に表示装置8に漫然性を検知したことを示す警報を表示する(S212)。
状態推定部6は漫然性を検知しなかった際(S207でNo)、または漫然性を検知した警報を表示した(S212)のち、得られた生体情報をもとに、人9の焦燥を示す情報が含まれるか否かを判断する(S208)。たとえば、状態推定部6は焦燥を示す際に特徴的な脈拍が検出されたこと、平常時に比べ視線の移動速度が変化していること、呼吸数が増加していること、焦燥を示す際に特徴的な行動が検出されたことなどを総合的に判断して人9の焦燥を検知する。状態推定部は人9の焦燥を検知した際に表示装置8に焦燥を検知したことを示す警報を表示する(S213)。
状態推定部6は焦燥を検知しなかった際(S208でNo)、または焦燥を検知した警報を表示した(S213)のち、得られた生体情報に異常値が含まれるか否かを判断する(S209)。たとえば、脈拍や呼吸数、血圧などの異常値のほか、長時間目を閉じていること、長時間臥位姿勢をとっていることなどのうち1つ以上の異常値を検知する。状態推定部は生体情報の異常値を検知した際に表示装置8に異常値を検知したことを示す警報を表示する(S214)。
状態推定部6は生体情報に異常値を検知しなかった際(S209でNo)、または異常値を検知した警報を表示した(S214)のち、現在取得している生体情報のうちすべて、または一部を表示装置8に表示する(S210)。
なおこれらの生体情報を用いた警報表示の判断には、あらかじめ設定された閾値との比較を用いるほか、人9の過去の生体情報を過去データとして記憶部7に格納しておき、過去データの最大値、最小値、および平均値などとの比較により判断してもよい。またその際には、明度像38の顔部分の特徴(例えば、顔の輪郭、目・鼻・口に代表される顔パーツの大きさ、少なくとも2つ以上の顔パーツの相対位置、虹彩、しわ等)をもとに人9の個人識別を行い、識別した情報をもとに過去データを呼び出してもよい。あるいは、人9の過去データが存在しない場合には、人9の個人識別のための情報と、生体情報とを新たに記憶部7に記録してもよい。
以上のように、本実施の形態における生体状態検出装置1は、第1波長の光を出射する第1光源21と、第1波長とは異なる第2波長の光を出射する第2光源22と、第1光源21および第2光源22から出射された光による人9からの反射光21b、22bを受光する複数の素子で構成される撮像素子3と、第1光源21および第2光源22が交互に光を出射するように第1光源21および第2光源22を制御する制御部4と、第1光源21からの反射光21bを受光することで得られた第1画像51、および第2光源22からの反射光22bを受光することで得られた第2画像52を撮像素子3から読み出し、読み出した第1画像51と第2画像52とを演算することで第3画像37を生成する演算部5と、演算部5で生成された第3画像37に基づいて、人9の生体情報を生成する状態推定部6とを備え、演算部5は、さらに、第1画像51および第2画像52の少なくとも一つに基づいて、距離像39を生成する。
このような構成により、本実施の形態における生体状態検出装置1によれば生体情報である脈拍の推定に加えて、距離像39をもとに姿勢、行動、および動作の情報を取得することが可能となる。より詳しくは、距離像39を記憶部7に蓄積した距離像動画72が示す、生体情報の検出対象である人9の撮像空間内における位置の経時変化を解析することで姿勢、行動、および動作を推定できる。よって画像を用いながらも、従来よりも多くの生体情報を生成できる生体状態検出装置を構成できる。
また演算部5は、第1画像51および第2画像52を合成することで、距離像39を生成してもよい。これにより脈拍推定のために取得した第1画像51、および第2画像52を流用して距離像39を生成でき、距離像39の生成のために新たに撮影を行う必要がなくなる。
また演算部5は、撮像素子3から第1画像51および第2画像52を読み出し、第1画像51に対応する第1素子31および第2画像52に対応する第2素子32の撮像素子3における配置位置を再現するように、読み出した第1画像51と第2画像52とを合成することで、距離像39を生成してもよい。これにより、脈拍推定のために2分割された、画像2枚分の素子から、撮像素子3上の単位素子の配列通りに1枚分の画像として距離像39を生成するため、解像度の高い距離像39を用いてより正確に検出領域62を特定できる。
また演算部5は、Time of Flight方式を用いて、距離像39を生成してもよい。これにより、撮像素子3が一つ備えられていれば距離像39の生成が実現でき、構成全体を小型化することが可能である。
また状態推定部6は、第3画像37のうち、生体情報の生成に用いる領域である検出領域62を特定する検出領域特定部61を有し、検出領域特定部61で特定された検出領域62を用いて、生体情報を生成してもよい。このとき、検出領域特定部61は、例えば、メガネやマスクや帽子などにより、撮像素子3から見て肌が隠れていると判断される場合には、それらの肌の隠れている領域を除外するように検出領域62を特定してもよい。あるいは、目や口腔のように、肌の明度と異なると判断される領域を除外するように検出領域62を特定してもよい。これにより、生体情報の生成に対して、画像中からより適切な画素を選択でき、生成される生体情報の精度をより向上できる。
また検出領域特定部61は、距離像39を用いて、検出領域62を特定してもよい。これにより、人9のうち、検出領域62として特定したい部位を距離の側面から絞り込め、効率的に検出領域を特定することが可能となる。
また演算部5は、さらに、第1画像51および第2画像52の少なくとも一つに基づいて、明度像38を生成し、検出領域特定部61は、距離像39と明度像38とを用いて、検出領域62を特定してもよい。これにより、明度像38をもとに視線、瞬き、顔向、および呼吸の情報を取得することが可能となる。また検出領域62の特定においては、距離の側面に加え、明度の側面からも絞り込むことができ、検出領域62の生成精度を向上させることができる。
また演算部5は、第1画像51および第2画像52を合成することで、明度像38を生成してもよい。これにより、脈拍推定のために取得した第1画像51、および第2画像52を流用して明度像38を生成でき、明度像38の生成のために新たに撮影を行う必要がなくなる。
また演算部5は、撮像素子3から第1画像51および第2画像52を読み出し、第1画像51に対応する第1素子31および第2画像52に対応する第2素子32の撮像素子3における配置位置を再現するように、読み出した第1画像51と第2画像52とを合成することで、明度像38を生成してもよい。これにより、脈拍推定のために2分割された、画像2枚分の素子から、撮像素子3上の単位素子の配列通りに1枚分の画像として明度像38を生成するため、解像度の高い距離像39を用いてより正確に検出領域62を特定できる。
また演算部5は、第1画像51および第2画像52の少なくとも一つの明度を調整したうえで、第1画像51および第2画像52を合成してもよい。これにより、第1画像51、および第2画像52間において、撮像空間内の物体に対する反射率の差や、第1素子31、および第2素子32の感度の差によって生じる受光量の差を補正することができる。
また合成に用いられる第1画像51および第2画像52は、制御部4によって第1光源21および第2光源22の少なくとも一つの光量が調整された後に演算部5によって読み出された画像であってもよい。これにより、光源からの出射光21a、22aに必要な電力を削減しながら第1素子31、および第2素子32の受光量の差を補正することができる。
また制御部4は、さらに、第1光源および第2光源から光が出射されていないときに撮像素子3が撮影するように撮像素子3を制御し、演算部5は、さらに、第1光源21および第2光源22から光が出射されていないときに撮影された第4画像53a、53bを撮像素子3から読み出し、読み出した第4画像53a、53bを第1画像51および第2画像52のそれぞれから差し引き、得られた差分の第1画像51aと差分の第2画像52aとを演算することで第3画像37を生成してもよい。これにより、背景光10a照射の影響を除去し、光源部2からの反射光21b、22bのみを撮影した画像を生成できる。
また演算部5は、第1画像51と第2画像52との差分又は比率を算出する演算をすることで第3画像37を生成し、状態推定部6は、第3画像37に基づいて、人9の脈拍に関する生体情報を生成してもよい。これにより、2つの異なる波長によって撮影された画像情報の比較ができ、体動、および外光の変化などの影響を低減させ、撮影時点の血流量を反映した情報を精度良く取得できる。よって、より正確に脈拍、さらには呼吸、血圧に関する生体情報の生成が可能となる。
また第1波長および第2波長は、近赤外光の波長であってもよい。これにより、背景光10aとしての太陽光などに含まれる光量が少ない波長域の光を選択でき、背景光源10の影響をより低減できる。またヘモグロビンに対する反射性の高い波長である近赤外光を選択して使用できる。さらには、近赤外光は不可視光であることから、撮像空間内の物体や人を明るく照らすことがなく、すなわち、対象者の作業を妨げることなく、作業者の生体状態を検出することが可能となる。
また状態推定部6は、さらに、生体情報および距離像39を用いて、人9の状態を推定してもよい。これにより、人9の体の部位ごとの距離等を活かした、体動、姿勢などの評価が可能となる。
さらに、第1光源21および第2光源22から出射された光による人からの反射光21b、22bを撮像素子3に集光させるレンズを備え、レンズは、第1画像51および第2画像52が人9の上半身に対応する画像となる場合に、撮像素子3のうちの人9の顔に対応する領域に反射光21b、22bを投影する倍率を、撮像素子3のうちの人9の顔以外に対応する領域に反射光21b、22bを投影する倍率よりも大きくする特性を有してもよい。これにより、顔部分の細かな変化を観測することで得られる生体情報について、変化をとらえる精度をより向上させることができる。より具体的には視線、瞬きなど、顔の細部の動きを検出する必要がある評価において有効である。
また本実施の形態における生体状態検出方法は、第1波長の光を出射する第1光源、および、前記第1波長とは異なる第2波長の光を出射する第2光源に対して、前記第1光源および前記第2光源が交互に光を出射するように制御する制御ステップS101と、第1光源および第2光源から出射された光による人からの反射光を受光する複数の素子で構成される撮像素子から、第1光源からの反射光を受光することで得られた第1画像、および第2光源からの反射光を受光することで得られた第2画像を読み出し、読み出した第1画像、および第2画像を演算することで第3画像を生成する演算ステップS103と、演算ステップS103で生成された第3画像に基づいて、前記人の生体情報を生成する状態推定ステップS104とを含み、演算ステップS103では、さらに、第1画像および第2画像の少なくとも一つに基づいて、距離像を生成する。
このような構成により、本実施の形態における生体状態検出方法によれば生体情報である脈拍の推定に加えて、距離像39をもとに姿勢、行動、および動作の情報を取得することが可能となる。より詳しくは、距離像39を記憶部7に蓄積した距離像動画72が示す、生体情報の検出対象である人9の撮像空間内における位置の経時変化を解析することで姿勢、行動、および動作を推定できる。よって画像を用いながらも、従来よりも多くの生体情報を生成できる生体状態検出方法を構築できる。
以上、本発明の生体状態検出装置1、および生体状態検出方法について、実施の形態に基づいて説明したが、本発明は、実施の形態に限定されるものではない。本発明の主旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、実施の形態および変形例における一部の構成要素を任意に組み合わせて構築される別の形態も、本発明の範囲内に含まれる。
たとえば、本実施の形態においては、第1距離像35、および第2距離像36を合成することで距離像39を生成したが、第1距離像35、または第2距離像36のうち一方のみを用いてもよい。その際は第1距離像35、および第2距離像36のうち、どちらがよりノイズが少なく撮影できたか比較し、ノイズの少ない方を採用してもよい。もしくは、あらかじめどちらの画像を使用するかを決定しておき、常にその一方の画像を用いてもよい。
また、たとえば、本実施の形態においては第1画像51と第2画像52を撮像素子3上の配置位置を再現する形で合成し、距離像39、および明度像38を生成したが、第1画像51と第2画像52とで重なり合う位置の平均をとる形で合成し、距離像39、および明度像38を生成してもよい。
また、たとえば、本実施の形態においては、TOF方式を用いて距離像39を生成したが、ステレオ方式あるいは、ストラクチャードライト方式を利用して距離像39を生成してもよい。
また、たとえば、本実施の形態においては、距離像39、または距離像39と明度像38を用いて検出領域62を特定したが、明度像38のみを用いて検出領域62を特定してもよい。
また、たとえば、本実施の形態においては、第1明度像33、および第2明度像34を合成することで明度像38を生成したが、第1明度像33、または第2明度像34のうち一方のみを用いてもよい。その際は第1明度像33、および第2明度像34のうち、どちらがよりノイズが少なく撮影できたか比較し、ノイズの少ない方を採用してもよい。もしくは、あらかじめどちらの画像を使用するかを決定しておき、常にその一方の画像を用いてもよい。
また、たとえば、本実施の形態においては、第1光源21から出射した際に第1素子31を露光させ、第2光源22から出射した際に第2素子32を露光させる構成としたが、対応する波長の光のみを透過するフィルタを備えた各素子を、一度に露光させてもよい。この場合においては第1光源21、および第2光源22は同時に出射を行う。第1光源21からの反射光21bは第1素子31に備えられたフィルタは透過するが、第2素子32に備えられたフィルタは透過しないため、第1素子31には第1波長の光量のみが記録される。第2光源22からの反射光22bは第2素子32に備えられたフィルタは透過するが、第1素子31に備えられたフィルタは透過しないため、第2素子32には第2波長の光量のみが記録される。
また、本開示における装置、システム、または方法の主体は、コンピュータを備えている。このコンピュータがプログラムを実行することによって、本開示における装置、システム、または方法の主体の機能が実現される。コンピュータは、プログラムに従って動作するプロセッサを主なハードウェア構成として備える。プロセッサは、プログラムを実行することによって機能を実現することができれば、その種類は問わない。プロセッサは、半導体集積回路(IC)、又はLSI(largescale integration)を含む一つ又は複数の電子回路で構成される。ここでは、ICやLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、若しくはULSI(ultra large scaleintegration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、一つのチップに集積されてもよいし、複数のチップに設けられてもよい。複数のチップは一つの装置に集約されていてもよいし、複数の装置に備えられていてもよい。プログラムは、コンピュータが読み取り可能なROM、光ディスク、ハードディスクドライブなどの非一時的記録媒体に記録される。プログラムは、記録媒体に予め格納されていてもよいし、インターネット等を含む広域通信網を介して記録媒体に供給されてもよい。
1 生体状態検出装置
3 撮像素子
4 制御部
5 演算部
6 状態推定部
9 人
37 第3画像
38 明度像
39 距離像
51 第1画像
52 第2画像
53a、53b 第4画像
61 検出領域特定部
62 検出領域
63b 第3画像動画
71 明度像動画
72 距離像動画

Claims (17)

  1. 人の生体状態を検出する生体状態検出装置であって、
    第1波長の光を出射する第1光源と、
    前記第1波長とは異なる第2波長の光を出射する第2光源と、
    前記第1光源および前記第2光源から出射された光による前記人からの反射光を受光する複数の素子で構成される撮像素子と、
    前記第1光源および前記第2光源が交互に光を出射するように前記第1光源および前記第2光源を制御する制御部と、
    前記第1光源からの反射光を受光することで得られた第1画像、および前記第2光源からの反射光を受光することで得られた第2画像を前記撮像素子から読み出し、読み出した前記第1画像および前記第2画像を演算することで第3画像を生成し、さらに、前記第1画像および前記第2画像の少なくとも一つに基づいて、距離像を生成する演算部と、
    前記演算部で生成された前記第3画像及び前記距離像に基づいて、前記人の生体状態を示す生体情報を生成して出力する状態推定部とを備える
    生体状態検出装置。
  2. 前記演算部は、前記第1画像および前記第2画像を合成することで、前記距離像を生成する
    請求項1記載の生体状態検出装置。
  3. 前記演算部は、
    前記撮像素子から前記第1画像および前記第2画像を読み出し、
    前記第1画像に対応する第1素子および前記第2画像に対応する第2素子の撮像素子における配置位置を再現するように、読み出した前記第1画像と前記第2画像とを合成することで、前記距離像を生成する
    請求項2記載の生体状態検出装置。
  4. 前記演算部は、Time of Flight方式を用いて、前記距離像を生成する
    請求項1~3のいずれか1項に記載の生体状態検出装置。
  5. 前記状態推定部は、前記第3画像のうち、前記生体情報の生成に用いる領域である検出領域を特定する検出領域特定部を有し、前記検出領域特定部で特定された前記検出領域を用いて、前記生体情報を生成する
    請求項1~3のいずれか1項に記載の生体状態検出装置。
  6. 前記検出領域特定部は、前記距離像を用いて、前記検出領域を特定する
    請求項5記載の生体状態検出装置。
  7. 前記演算部は、さらに、前記第1画像および前記第2画像の少なくとも一つに基づいて、明度像を生成し、
    前記検出領域特定部は、前記距離像と前記明度像とを用いて、前記検出領域を特定する
    請求項6記載の生体状態検出装置。
  8. 前記演算部は、前記第1画像および前記第2画像を合成することで、前記明度像を生成する
    請求項7記載の生体状態検出装置。
  9. 前記演算部は、
    前記撮像素子から前記第1画像および前記第2画像を読み出し、
    前記第1画像に対応する第1素子および前記第2画像に対応する第2素子の撮像素子における配置位置を再現するように、読み出した前記第1画像と前記第2画像とを合成することで、前記明度像を生成する
    請求項8記載の生体状態検出装置。
  10. 前記演算部は、前記第1画像および前記第2画像の少なくとも一つの明度を調整したうえで、前記第1画像および前記第2画像を合成する
    請求項8又は9記載の生体状態検出装置。
  11. 前記合成に用いられる前記第1画像および前記第2画像は、前記制御部によって前記第1光源および前記第2光源の少なくとも一つの光量が調整された後に前記演算部によって読み出された画像である
    請求項8又は9記載の生体状態検出装置。
  12. 前記制御部は、さらに、前記第1光源および前記第2光源から光が出射されていないときに前記撮像素子が撮影するように前記撮像素子を制御し、
    前記演算部は、さらに、前記第1光源および前記第2光源から光が出射されていないときに撮影された第4画像を前記撮像素子から読み出し、読み出した前記第4画像を前記第1画像および前記第2画像のそれぞれから差し引き、得られた差分の第1画像と差分の第2画像とを演算することで前記第3画像を生成する
    請求項1~11のいずれか1項に記載の生体状態検出装置。
  13. 前記演算部は、前記第1画像と前記第2画像との差分又は比率を算出する演算をすることで前記第3画像を生成し、
    前記状態推定部は、前記第3画像に基づいて、前記人の脈拍に関する生体情報を生成する
    請求項1~12のいずれか1項に記載の生体状態検出装置。
  14. 前記第1波長および前記第2波長は、近赤外光の波長である
    請求項1~13のいずれか1項に記載の生体状態検出装置。
  15. 前記状態推定部は、さらに、前記生体情報および前記距離像を用いて、前記人の状態を推定する
    請求項1~14のいずれか1項に記載の生体状態検出装置。
  16. さらに、前記第1光源および前記第2光源から出射された光による前記人からの反射光を前記撮像素子に集光させるレンズを備え、
    前記レンズは、前記第1画像および前記第2画像が前記人の上半身に対応する画像となる場合に、前記撮像素子のうちの前記人の顔に対応する領域に前記反射光を投影する倍率を、前記撮像素子のうちの前記人の顔以外に対応する領域に前記反射光を投影する倍率よりも大きくする特性を有する
    請求項1~15のいずれか1項に記載の生体状態検出装置。
  17. 人の生体状態を検出する生体状態検出装置によって実行される生体状態検出方法であって、
    前記生体状態検出装置は、
    第1波長の光を出射する第1光源と、
    前記第1波長とは異なる第2波長の光を出射する第2光源と、
    前記第1光源および前記第2光源から出射された光による前記人からの反射光を受光する複数の素子で構成される撮像素子と、
    制御部と、
    演算部と、
    状態推定部と、を備え、
    前記生体状態検出方法は、
    前記第1光源および前記第2光源に対して、前記第1光源および前記第2光源が交互に光を出射するように、前記制御部が制御する制御ステップと、
    前記撮像素子から、前記第1光源からの反射光を受光することで得られた第1画像、および前記第2光源からの反射光を受光することで得られた第2画像を読み出し、読み出した前記第1画像および前記第2画像を演算することで第3画像を、前記演算部が生成し、さらに、前記第1画像および前記第2画像の少なくとも一つに基づいて、距離像を、前記演算部が生成する演算ステップと、
    前記演算ステップで生成された前記第3画像及び前記距離像に基づいて、前記人の生体状態を示す生体情報を、前記状態推定部が生成する状態推定ステップとを含む
    生体状態検出方法。
JP2020532205A 2018-07-23 2019-06-11 生体状態検出装置および生体状態検出方法 Active JP7449226B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018137998 2018-07-23
JP2018137998 2018-07-23
PCT/JP2019/023059 WO2020021886A1 (ja) 2018-07-23 2019-06-11 生体状態検出装置および生体状態検出方法

Publications (2)

Publication Number Publication Date
JPWO2020021886A1 JPWO2020021886A1 (ja) 2021-08-02
JP7449226B2 true JP7449226B2 (ja) 2024-03-13

Family

ID=69182181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020532205A Active JP7449226B2 (ja) 2018-07-23 2019-06-11 生体状態検出装置および生体状態検出方法

Country Status (4)

Country Link
US (1) US11388372B2 (ja)
JP (1) JP7449226B2 (ja)
CN (1) CN112449580A (ja)
WO (1) WO2020021886A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073645A1 (ja) 2012-11-12 2014-05-15 アルプス電気株式会社 生体情報計測装置及びそれを用いた入力装置
JP2017104491A (ja) 2015-12-07 2017-06-15 パナソニック株式会社 生体情報測定装置、生体情報測定方法及びプログラム
JP2017140202A (ja) 2016-02-10 2017-08-17 オムロンオートモーティブエレクトロニクス株式会社 脈波検出装置
JP2018089369A (ja) 2016-12-01 2018-06-14 パナソニックIpマネジメント株式会社 生体情報検出装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009403A (ja) * 2007-06-28 2009-01-15 Canon Inc 生体認証装置及び生体検知方法
JP6296401B2 (ja) 2013-06-27 2018-03-20 パナソニックIpマネジメント株式会社 距離測定装置および固体撮像素子
JP6393984B2 (ja) * 2013-12-19 2018-09-26 富士通株式会社 脈拍計測装置、脈拍計測方法及び脈拍計測プログラム
JP2015194884A (ja) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 運転者監視システム
JP6517499B2 (ja) * 2014-11-28 2019-05-22 マクセル株式会社 撮像システム
TWI512270B (zh) * 2015-01-13 2015-12-11 Pixart Imaging Inc 具動態曝光時間的光學測距系統
CN106236060B (zh) * 2015-06-04 2021-04-09 松下知识产权经营株式会社 生物体信息检测装置
JP6865384B2 (ja) * 2016-02-17 2021-04-28 パナソニックIpマネジメント株式会社 生体情報検出装置
CN107770415A (zh) * 2016-08-19 2018-03-06 光宝电子(广州)有限公司 摄像设备以及摄像方法
JP6784403B2 (ja) * 2017-09-01 2020-11-11 国立大学法人千葉大学 心拍変動の推定方法、心拍変動の推定プログラム及び心拍変動推定システム
US10663567B2 (en) * 2018-05-04 2020-05-26 Microsoft Technology Licensing, Llc Field calibration of a structured light range-sensor
CN112313705B (zh) * 2018-07-01 2024-06-25 谷歌有限责任公司 用于处理视频流的方法、系统以及介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073645A1 (ja) 2012-11-12 2014-05-15 アルプス電気株式会社 生体情報計測装置及びそれを用いた入力装置
JP2017104491A (ja) 2015-12-07 2017-06-15 パナソニック株式会社 生体情報測定装置、生体情報測定方法及びプログラム
JP2017140202A (ja) 2016-02-10 2017-08-17 オムロンオートモーティブエレクトロニクス株式会社 脈波検出装置
JP2018089369A (ja) 2016-12-01 2018-06-14 パナソニックIpマネジメント株式会社 生体情報検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZENG, Wei et al.,Infrared Video based Non-invasive Heart Rate Measurement,Proceedings of the 2015 IEEE Conference on Robotics and Biomietics,2015年,1041-1046

Also Published As

Publication number Publication date
WO2020021886A1 (ja) 2020-01-30
CN112449580A (zh) 2021-03-05
JPWO2020021886A1 (ja) 2021-08-02
US11388372B2 (en) 2022-07-12
US20210144339A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7336696B2 (ja) 生体情報検出装置
CN111148469B (zh) 生物体计测装置、生物体计测方法及判定装置
JP6998529B2 (ja) 撮像装置
CN106236061B (zh) 人体检测装置
EP2992805B1 (en) Electronic endoscope system
US9408532B2 (en) Image processing apparatus and image processing method
CN109982633B (zh) 脉搏检测装置、图像分析装置以及生物体信息生成系统
US10713483B2 (en) Pupil edge detection in digital imaging
JP2015194884A (ja) 運転者監視システム
JP7386438B2 (ja) 生体計測装置、生体計測方法、コンピュータ読み取り可能な記録媒体、およびプログラム
CN112188866A (zh) 生物体计测装置及生物体计测方法
JP7507797B2 (ja) 医用画像処理装置、内視鏡システム、医用画像処理装置の作動方法、プログラム、及び記録媒体
CN111836575A (zh) 皮肤评价装置、皮肤评价系统、皮肤评价方法及保存有用于皮肤评价的程序的计算机可读取的记录介质
JP2024016142A (ja) コンピュータにおける情報処理方法および生体計測システム
JP2014157428A (ja) 画像表示装置、画像表示方法、及び、プログラム
Cobos-Torres et al. Simple measurement of pulse oximetry using a standard color camera
JP7449226B2 (ja) 生体状態検出装置および生体状態検出方法
JP2008097328A (ja) 画像入力装置、個人認証装置及び電子機器
JP7417867B2 (ja) 光計測装置
KR102483010B1 (ko) 안구미세운동 측정장치
CN118076301A (zh) 摄像系统、处理装置及在摄像系统中由计算机执行的方法
JPH0268030A (ja) 眼振検査における眼球運動撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240301

R150 Certificate of patent or registration of utility model

Ref document number: 7449226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150