JP7204077B2 - 脈波検出装置、車両装置、及び脈波検出プログラム - Google Patents

脈波検出装置、車両装置、及び脈波検出プログラム Download PDF

Info

Publication number
JP7204077B2
JP7204077B2 JP2018167724A JP2018167724A JP7204077B2 JP 7204077 B2 JP7204077 B2 JP 7204077B2 JP 2018167724 A JP2018167724 A JP 2018167724A JP 2018167724 A JP2018167724 A JP 2018167724A JP 7204077 B2 JP7204077 B2 JP 7204077B2
Authority
JP
Japan
Prior art keywords
face
pulse wave
area
moving image
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018167724A
Other languages
English (en)
Other versions
JP2020039480A (ja
Inventor
マイケル ジョーンズ
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2018167724A priority Critical patent/JP7204077B2/ja
Priority to US16/652,447 priority patent/US11398112B2/en
Priority to EP19857297.6A priority patent/EP3847955A4/en
Priority to PCT/JP2019/034946 priority patent/WO2020050357A1/ja
Priority to CN201980004822.8A priority patent/CN111163687B/zh
Publication of JP2020039480A publication Critical patent/JP2020039480A/ja
Application granted granted Critical
Publication of JP7204077B2 publication Critical patent/JP7204077B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8006Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying scenes of vehicle interior, e.g. for monitoring passengers or cargo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Vascular Medicine (AREA)
  • Mechanical Engineering (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、脈波検出装置、車両装置、及び脈波検出プログラムに関し、例えば、対象者の脈拍数を検出するものに関する。
対象者の健康状態や生理的な状態を把握するためには、脈波の検出が重要である。通常、脈波は、対象者に器具を装着して検出するが、もっと手軽に検出したいとの要望が高く、非接触で対象者の脈波を検出する技術が盛んに研究されている。
これにより、例えば、車両の運転者の脈波をモニタリングして、より交通安全を推進することができる。
このように、非接触で脈波を検出する技術に非特許文献1の技術がある。この技術は、対象者の腕をカメラで撮影し、そのカメラ映像から脈波を検出する。血流により体表面の輝度や色が変化するため、映像を画像処理することにより脈拍を検出することができる。
また、特許文献1の技術では、顔の向きが左右に変わることで検出領域が小さくなる場合、顔の中で比較的検出領域を広く取れる部分に検出領域を変更して脈波を推定している。
ところで、カメラで対象者の脈波を検出する際には、入射光源が必要であるが、環境明度が不足している場合は、照明で照らす必要がある。
しかし、照明に対する対象者の位置が一定であれば、脈波を検出することができるが、対象者が動くと対象者から反射する光の輝度が大きく影響を受けるため脈波の測定ができなくなるという問題があった。
特開2014-198201号公報
"Non-contact Monitoring Techniques - Principles and Applications," D. Teichmann, C. Bruser, B. Eilebrecht, A. Abbas, N. Blanik, and S. Leonhardt, Proc. IEEE Eng., Med. Biol. Soc. 34th Ann. Int. Conf., San Diego, CA, USA, 2012, pp. 1302-1305.
本発明は、対象者が照明に対して移動することにより輝度が変化する場合であっても脈波を適切に検出することを目的とする。
(1)請求項1に記載の発明では、対象者の体表面を撮影した動画を取得する動画取得手段と、前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、前記取得した領域の輝度を取得する輝度取得手段と、前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、前記補正手段は、前記顔の前後位置を前記顔領域の大きさによって取得する、ことを特徴とする脈波検出装置を提供する。
(2)請求項2に記載の発明では、対象者の体表面を撮影した動画を取得する動画取得手段と、前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、前記取得した領域の輝度を取得する輝度取得手段と、前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得する、ことを特徴とする脈波検出装置を提供する。
(3)請求項3に記載の発明では、対象者の体表面を撮影した動画を取得する動画取得手段と、前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、前記取得した領域の輝度を取得する輝度取得手段と、前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、前記補正手段は、前記取得した顔領域に当該顔領域に含まれない閉領域がある場合に、当該閉領域を前記顔領域の大きさに含める、ことを特徴とする脈波検出装置を提供する。
(4)請求項4に記載の発明では、前記補正手段は、前記顔の前後位置を前記顔領域の大きさによって取得することを特徴とする請求項2、又は請求項3に記載の脈波検出装置を提供する。
(5)請求項5に記載の発明では、前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得することを特徴とする請求項3に記載の脈波検出装置を提供する。
(6)請求項6に記載の発明では、前記顔を赤外線で照明する照明手段と、前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、を具備し、前記動画取得手段は、前記動画撮影手段から前記動画を取得することを特徴とする請求項1から請求項5のうちのいずれか1の請求項に記載の脈波検出装置を提供する。
(7)請求項7に記載の発明では、対象者の顔を赤外線で照明する照明手段と、前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、前記動画撮影手段から前記対象者のを撮影した動画を取得する動画取得手段と、前記取得した動画から前記が写っている領域を取得する領域取得手段と、前記取得した領域の輝度を取得する輝度取得手段と、前記取得した動画における、或1のフレーム画像から得られる前記の位置を基準とする、他のフレーム画像で得られる前記の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、環境明度を取得する環境明度取得手段と、前記取得した環境明度が所定値未満となった場合に、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始する開始手段と、を具備したことを特徴とする脈波検出装置を提供する。
(8)請求項8に記載の発明では、前記環境明度が所定値以上の場合に前記脈波を取得する第2の脈波取得手段を具備し、前記開始手段は、前記取得した環境明度が所定値未満となった場合に、前記第2の脈波取得手段による前記脈波の取得を停止した後、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始することを特徴とする請求項7に記載の脈波検出装置を提供する。
(9)請求項9に記載の発明では、請求項1から請求項8までのうちの何れか1の請求項に記載の脈波検出装置を具備した車両装置を提供する。
(10)請求項10に記載の発明では、対象者の体表面を撮影した動画を取得する動画取得機能と、前記取得した動画から前記体表面が写っている領域を取得する領域取得機能と、前記取得した領域の輝度を取得する輝度取得機能と、前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正機能と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得機能と、をコンピュータで実現し、前記体表面は顔であり、前記領域取得機能は、前記領域として顔領域を取得し、前記補正機能は、前記顔の前後位置を前記顔領域の大きさによって取得する、ことを特徴とする脈波検出プログラムを提供する。
本発明によれば、対象者の位置によって輝度を補正することにより、脈波を適切に検出することができる。
本実施の形態の概要を説明するための図である。 脈波検出装置の構成を示した図である。 脈波検出処理の手順を説明するためのフローチャートである。 データ取得処理の手順を説明するためのフローチャートである。 脈拍数検出処理の手順を説明するためのフローチャートである。 フローチャートを補足説明するための図である。 RとsROIの関係式の算出方法を説明するための図である。 Rの補正式を説明するための図である。 Rの補正実験を説明するための図である。 Rの補正実験を説明するための図である。 エラー率を計測した実験結果を説明するための図である。
(1)実施形態の概要
図1は、本実施の形態の概要を説明するための図である。
フレーム画像201は、脈波検出の対象者(例えば、車両の運転席に着席している運転者)の顔を運転席前方に設置した赤外線の照明で照らし、これを赤外線カメラで撮影した動画の1フレーム画像を示している。
また、フレーム画像202は、対象者が頭部を後方に動かした際に撮影したフレーム画像を示している。
フレーム画像202で撮影した顔は、照明装置から後方に離れるためフレーム画像201で撮影した顔より輝度が小さくなり、カメラから後方に離れるため顔の大きさも小さくなる。
グラフ204は、動画撮影した顔の補正前の輝度信号Rの時間変化を示している。
時点205では、フレーム画像201から輝度を検出しており、時点206ではフレーム画像202から輝度を検出している。
一般に、対象者の脈拍は、体表面の輝度の変化に表れるため輝度信号RをFFT(Fast Fourier Transform)などによりフーリエ変換して周波数成分を計算すると、周波数成分のピークから脈拍の周波数を得ることができる。
ところが、グラフ204の場合、輝度の検出中に、時点205から時点206に至る過程で対象者が頭部を後方に動かしたため、顔面部の輝度の連続性が損なわれており、これをフーリエ変換するとグラフ208に示したように脈拍数ピークがノイズに埋もれて顔の前後動による外乱ピークが検出されてしまう。
なお、グラフ208では、縦軸はFFTによる周波数成分のレベルを示しており、横軸は周波数をbpm(beat per minute:1分あたりの脈拍数)単位で示している。
ところで、顔がカメラや照明装置に近づくと輝度が高くなると共に顔の面積が大きくなり、逆に顔がカメラや照明装置から遠のくと輝度が低くなると共に顔の面積も小さくなる。
このように輝度と顔の大きさが相関関係を有するために、後述の脈波検出装置1(図2)は、フレーム画像から顔を検出し、顔面の大きさによって顔の輝度を補正する。
これは、顔の輝度は照明と顔の距離に依存するのに対し、照明から顔までの距離を顔の大きさによって間接的に計測していることになる。
グラフ210は、顔の大きさによって輝度を補正した補正後の輝度信号R′を示している。グラフ204との対応は破線で示してある。
補正後の輝度信号R′を周波数領域に変換すると、グラフ212に示したように脈拍数ピークを明確に観測することができる。
このように、脈波検出装置1は、フレーム画像における対象者の顔の大きさと輝度の変化の相関関係を用いて、フレーム画像に写った顔の輝度の大きさを当該顔の大きさにより補正した後、当該補正後の輝度信号から対象者の脈拍数を推定・測定する。
(2)実施形態の詳細
図2は、本実施の形態の脈波検出装置1の構成を示した図である。
脈波検出装置1は、例えば、車両に搭載され、搭乗者(ドライバや助手席の乗客などの対象者)の脈波を監視し、ドライバの体調、緊張状態などの生理的な状態を把握する。
また、医療現場や災害現場などで患者や被災者の脈波を検出・監視するのに用いることもできる。
脈波検出装置1は、CPU(Central Processing Unit)2、ROM(Read Only Memory)3、RAM(Random Access Memory)4、表示部5、入力部6、出力部7、カメラ8、照明9、記憶部10などから構成されており、対象者11(脈波検出装置1のユーザであり脈波検出の対象者)の脈波を検出(あるいは、推定)する。
CPU2は、記憶部10やROM3などに記憶されたプログラムに従って、各種の情報処理や制御を行う中央処理装置である。
本実施の形態では、カメラ8が撮影した動画を画像処理して対象者11の脈波を脈拍数にて検出する。
ROM3は、読み取り専用メモリであって、脈波検出装置1を動作させるための基本的なプログラムやパラメータなどが記憶されている。
RAM4は、読み書きが可能なメモリであって、CPU2が動作する際のワーキングメモリを提供する。
本実施の形態では、動画を構成するフレーム画像(1コマの静止画像)を展開して記憶したり、計算結果を記憶したりすることにより、CPU2が、フレーム画像の皮膚部分から脈波を検出するのを支援する。
当該皮膚部分は、顔や手足など体表面が露出しているところならよいが、本実施の形態では、一例として顔の表面(顔面)から脈波を検出する。
表示部5は、液晶画面などの表示デバイスを用いて構成されており、脈波検出装置1の操作画面や脈拍数の表示など、脈波検出装置1の運用に必要な情報を表示する。
入力部6は、表示デバイスに重畳して設置されたタッチパネルなどの入力デバイスを用いて構成されており、画面表示に対するタッチの有無などから各種の情報の入力を受け付ける。
出力部7は、各種の情報を外部装置に出力するインターフェースであり、例えば、検出した脈拍数を出力したり、あるいは、脈拍数に変化が現れた場合にアラームを出力することができる。
また出力部7は、車両を制御する制御装置などの他の制御機器に出力することができる。出力部7から脈拍数の出力を受けた制御機器では、例えば、ドライバの眠気や緊張状態等を判断し、ドライバに向けた制御、例えば、眠気を覚醒させるためにハンドルやシートを振動させる制御、警告音やメッセージの出力などを行うことが出来る。また、車両に対する制御として、脈拍数に基づいて判断したドライバの緊張状態に応じて、車間距離制御、車速制御、又はブレーキ制御の少なくとも1つを行うことも可能である。例えば、制御機器は、ドライバが所定値を超える高い緊張状態にあると判断した場合には、車間距離を基準値よりも大きくとるように制御し、車速を所定車速以下となるように制御し、所定車速以上であれば自動ブレーキ操作による減速処理等を行う。
カメラ8は、赤外線カメラであって、レンズで構成された光学系と、これによって結像した像を電気信号に変換する赤外線イメージセンサを用いて構成されており、対象者11の顔付近が撮影画面となるように設置されている。
カメラ8は、対象者11を所定のフレームレートにて撮影し、これら連続するフレーム画像(静止画像)で構成された動画を出力する。
フレーム画像は、画像を構成する最小単位である画素(ピクセル)の配列により構成されており、各画素は照明9が照射する周波数帯域の赤外線を検出する。
また、カメラ8は、対象者11の顔前方に設置されていることから、対象者11が顔を前後移動すると、撮影された顔の大きさが変化する。
より詳細には、対象者11が顔を前方に移動すると顔がカメラ8に接近するため、顔の大きさが大きくなり、対象者11が顔を後方に移動すると顔がカメラ8から遠ざかるため、顔の大きさが小さくなる。
照明9は、所定の周波数帯域の赤外線を対象に照射する照明装置であって、対象者11の顔の前方に設置されており、対象者11の顔を前方から照明する。
そのため、対象者11が顔を前方に移動すると顔が照明9に接近して顔で反射する赤外線の輝度が増大し、顔を後方に移動すると顔が照明9から遠ざかって顔で反射する赤外線の輝度が減少する。
なお、カメラ8と照明9は、カメラ8と照明9が一体となった、照明付きカメラとしてもよい。
また、脈波検出装置1は、赤外線により対象者11の脈波を検出するが、可視光を用いるなど、他の周波数帯域における光を用いてもよい。この場合は、カメラ8と照明9を当該光に適合したもので構成する。
記憶部10は、ハードディスクやEEPROM(Electrically Erasable Programmable Read-Only Memory)などの記憶媒体を用いて構成されており、CPU2が脈波を検出するための脈波検出プログラム12やその他のプログラム、及びデータを記憶している。
CPU2が脈波検出プログラム12に従って検出した脈波のデータは、RAM4に一時保存され、必要に応じて外部に出力されたり、記憶部10保存される。
脈波検出プログラム12は、CPU2に脈波検出処理を行わせるプログラムである。
CPU2は、脈波検出プログラム12を実行することにより、動画におけるユーザの皮膚部分の特定、顔の大きさに基づく輝度の補正、及び特定した皮膚部分からの脈波(ここでは脈拍数)の検出を行う。
以下、脈波検出装置1が行う脈波検出処理について説明する。
図3は、脈波検出装置1が行う脈波検出処理の手順を説明するためのフローチャートである。
以下の処理は、CPU2が脈波検出プログラム12に従って行うものである。
まず、CPU2は、最低輝度基準と最高輝度基準をRAM4に記憶することにより、輝度基準を設定する(ステップ5)。
脈波検出装置1は、輝度を、例えば、0(最低輝度)から255(最高輝度)まで段階的に計測するが、ここでは、一例として最低輝度基準を105とし最高輝度基準を255とした。
最低輝度基準と最高輝度基準は、フレーム画像から体表面に該当する画素を識別する際の基準となる輝度であって、最適値が予めパラメータとして脈波検出プログラム12に設定されている。
これら顔の輝度を検出するのに適した輝度基準を用いることにより、顔の輝度の検出精度を高めることができる。
次に、CPU2は、数理形態クロージング用の構成を定義するパラメータをRAM4に記憶することにより、当該数理形態クロージングの構成を定義する(ステップ10)。
後述するように、最低輝度基準と最高輝度基準の範囲にある領域を顔領域として検出すると、一般にいびつな形となる。
これを脈波検出や顔の大きさを検出するのに適した形状に整形するのが数理形態クロージングである。
次に、CPU2は、照明9を駆動して対象者11の顔を照らすと共にカメラ8を駆動して対象者11の顔を動画撮影することにより脈波の検出を開始する。
このように、脈波検出装置1は、顔を赤外線で照明する照明手段と、赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段を備えている。
次に、CPU2は、カメラ8が撮影した動画データからフレーム画像を取得してRAM4に記憶する(ステップ15)。
このように、脈波検出装置1は、対象者11の体表面(ここでは、一例として顔)を撮影した動画を取得する動画取得手段を備えている。
そして、当該動画取得手段は、動画撮影手段(カメラ8)から動画を取得している。
次に、CPU2は、フレーム画像を取得した時間(日時刻)をRAM4に記録する(ステップ20)。
この時間は、後に輝度をフーリエ解析する際の時間軸における時刻を規定するものである。
なお、フレーム画像に画像取得時間が記録されている場合はこれを用いてもよいし、CPU2が自己のクロックを用いて計測した時間を付与してもよい。
次に、CPU2は、RAM4に記憶したフレーム画像において顔を検出して、検出した顔の位置と大きさをRAM4に記憶する(ステップ25)。
より詳細には、図6のフレーム画像31に示したように、CPU2は、矩形32によって顔を検出する。顔の検出アルゴリズムは、顔検出技術で一般的に用いられているものを使用する。
図3に戻り、次に、CPU2は、顔を検出できたか否かを判断する(ステップ30)。
顔を検出できた場合(ステップ30;Y)、CPU2は、脈波の検出に必要なデータを取得する後述のデータ取得処理を行う(ステップ35)。
一方、顔を検出できなかった場合(ステップ30;N)、CPU2は、例えば、顔を検出できなかった旨を示すフラグをRAM4に立てるなどして顔を検出できなかった状況を記録する(ステップ60)。
CPU2は、データ取得処理を行った後、データを取得するデータ取得期間が終了したか否かを判断する(ステップ40)。
データ取得期間が終了していない場合(ステップ40;N)、CPU2は、ステップ15に戻って、次のフレーム画像について同様の処理を行う。
一方、データ取得期間が終了した場合(ステップ40;)、CPU2は、ステップ45の処理に移行する。
データ取得期間は、脈波検出に用いる動画の長さを規定する期間であり、本実施の形態では、一例として、30秒間の動画から脈波を検出する。
データ取得期間が終了した後(ステップ40;Y)、又は顔を検出できなかった状況を記録した後(ステップ60)、CPU2は、RAM4にアクセスしてステップ35で取得したデータがあるか否かを判断する(ステップ45)。
より詳細には、CPU2は、RAM4にアクセスして、ステップ35で取得した輝度信号があるか否かを確認することにより当該判断を行う。
RAM4にデータがない場合(ステップ45;N)、これはステップ30で顔が検出できなかった場合であり、CPU2は、RAM4から顔を検出できなかった状況の記録を読み取って不測定情報(測定が失敗した旨を示す情報)を作成し、これを表示部5や出力部7に出力して(ステップ65)、処理を終了する。
一方、RAM4にデータがある場合(ステップ45;Y)、CPU2は、後述するように、取得したデータを用いて顔の相対的な前後位置から輝度信号Rを補正した後、当該補正後の輝度信号R′を用いて脈拍数を検出する脈拍数検出処理を行って、当該検出した脈拍数をRAM4に記憶する(ステップ50)。
ここで顔の相対的な前後位置は、或1のフレーム画像から得られる顔の位置を基準とする他のフレーム画像で得られる顔の位置の前後をいう。この相対的な前後位置は、各フレーム画像から得られるBlobFill45(後述する)の大きさにより求まる。
そして、CPU2はRAM4に記憶した脈拍数を表示部5や出力部7に出力して(ステップ55)、処理を終了する。
このように、脈波検出装置1は、体表面(顔)の相対的な前後位置と体表面が写っている領域の輝度の対応関係を用いて、先に取得した輝度を補正する補正手段と、当該領域の当該補正した輝度の変化に基づいて対象者11の脈波を取得する脈波取得手段とを備えている。
図4は、図3のステップ35で示したデータ取得処理の手順を説明するためのフローチャートである。
まず、CPU2は、図3のステップ25で検出した顔のうち、最も大きい顔を処理対象として選択し、選択結果(即ち、選択した顔を他の顔から識別する情報)をRAM4に記憶する(ステップ105)。
これは、対象者11の周囲に第三者が存在して、これら第三者の顔も認識してしまった場合に対象者11の顔(カメラ8の前に位置するため最も大きい)を選択するものである。
特に、脈波検出装置1を車両の運転者に対して使用する場合、運転席に座っている人物の顔が最も大きく写るため、この処理によって運転者の顔を選択することができる。
次に、CPU2は、選択した顔に対して楕円マスクを作成して、当該楕円マスクを特定するデータをRAM4に記憶する(ステップ110)。
ここで、当該楕円マスクを特定するデータは、楕円マスクの形状やフレーム画像における楕円マスクの位置などを特定する座標値などのパラメータで構成されている。
以下では、このような処理を、楕円マスクをRAM4に記憶するなどと略記することにする。
ここで、図6のフレーム画像35は、矩形32によって認識した対象者11の顔に対して楕円マスク36を作成したところを示している。
このように、CPU2は、対象者11の顔を内部に包含するように、当該顔を含む楕円領域を設定することにより楕円マスク36を設定する。
なお、本実施の形態では、一例として楕円マスクを用いたが、矩形などの他の形状のマスクを用いることも可能である。
CPU2は、設定した楕円マスク36の内部にて顔の領域を特定し、当該領域の輝度から脈波を検出する。この楕円マスク36によって脈波を検出する領域を限定すると、良好に脈波検出が行えることは本願発明者が試行錯誤の末発見したものである。
このように、脈波検出装置1は、顔を含む当該顔より大きい顔検出領域(楕円マスクなど)を取得する顔検出領域取得手段を備えている。
図4に戻り、次に、CPU2は、フレーム画像から輝度マスクを作成してRAM4に記憶する(ステップ115)。
輝度マスクは、フレーム画像において、画素輝度が最低輝度基準以上かつ最高輝度基準以下となる画素で構成された領域であり、CPU2は、フレーム画像の各画素の輝度を調べて輝度マスクを作成する。
次には、CPU2は、RAM4に記憶した楕円マスクと輝度マスクを用いて合計マスクを取得し、当該合計マスクをRAM4に記憶する(ステップ120)。
合計マスクは、輝度マスクのうち、楕円マスクに含まれている部分であり、CPU2は、楕円マスクと輝度マスクの論理積をとってその値が真となる画素によって合計マスクを作成する。
次に、CPU2は、合計マスクを塊にまとめ(ステップ125)、まとめた塊のうち、最も大きい塊を選択し、最も大きい塊を新たな合計マスクとしてRAM4に記憶する(ステップ130)。
例えば、楕円マスクの位置には、分断された顔が写っている場合や、別のものが写っている場合がある。すなわち、顔の中心部分に対して耳や額などの一部が髪の毛で分断されて写っている場合や、少し離れた位置に手が写っている場合などが存在する。このような場合、顔の中心部分、耳、額、手などが別々の合計マスクとして認識されてしまう。
そこで、各合計マスクの周縁相互の距離が所定閾値以下である一群の合計マスクを、1つ合計マスクとして扱うために塊にまとめている(ステップ125)。
その一方で、顔から少し離れた位置に存在する手の合計マスクの塊を除外して、顔の合計マスクの塊を使用するために、最も大きい塊を選択している(ステップ130)。
このようにCPU2は、合計マスクを塊にまとめてグループ化することにより顔や手などの部位ごとの塊にまとめ、最も大きい塊が顔である可能性が高いので、最も大きい合計マスクを選択している。
なお、手などの顔以外の体表面からも脈波は検出できるが、脈波検出装置1は、顔の大きさによって照明と顔との距離を間接的に計測して輝度を補正するため、顔に他の部位が混入すると、顔の大きさが実際より大きくなって輝度補正が困難となる。
そこで、最も大きい合計マスクを選択することにより、このような問題を回避することができる。
次に、CPU2は、RAM4に記憶した最も大きい合計マスクからBlobマスクを作成してRAM4に記憶し(ステップ135)、更にBlobマスクからBlobFillを作成してRAM4に記憶する(ステップ140)。
BlobマスクとBlobFillの内容は、以下の通りである。
図6に示した合計マスク41は、ステップ130でCPU2がRAM4に記憶した最も大きい合計マスクである。一般に合計マスクはいびつな形をしている。
そこで、CPU2は、ステップ10(図3)で記憶した数理形態クロージング用の構成を定義するパラメータをRAM4から読み出し、これに基づいて合計マスク41を脈波検出に適したなめらかな形状42に整形してBlobマスク44を作成する。CPU2は、Blobマスク44を脈波の検出に用いる。
また、Blobマスク44では、目や口などの部分でBlobマスク44に含まれない閉領域が形成される場合がある。
これら閉領域は、顔の面積に含まれるため、CPU2は、これらの閉領域をマスクに含めたBlobFill45を作成し、これを顔の大きさの判定に用いる。
CPU2は、脈波の検出にはBlobマスク44を用い、顔の大きさの検出にはBlobFill45を用いる。
このように、脈波検出装置1が備える補正手段は、顔領域に当該顔領域に含まれない閉領域がある場合に、当該閉領域をBlobFillによって顔領域の大きさに含める。
図4に戻り、CPU2は、Blobマスク(ステップ135)とBlobFill(ステップ140)を作成した後、評価画像を作成してRAM4に記憶する(ステップ145)。
評価画像は、フレーム画像のうち、脈波の検出に用いる部分の領域を構成する画像であって、CPU2は、フレーム画像からBlobマスク44に該当する領域をフレーム画像から抜き出すことにより評価画像を作成する。
より具体的には、CPU2は、Blobマスクとフレーム画像によって論理積を計算し、真となる部分の画素を抽出することによりフレーム画像からBlobマスクに該当する部分を取り出して評価画像とする。
このように、Blobマスクは、フレーム画像から評価画像を抜き出す抜き型のような働きをしており、CPU2は、評価画像を構成する画素の輝度から脈波を検出する。
このように、脈波検出装置1は、動画から体表面(ここでは顔)が写っている領域(評価画像)を取得する領域取得手段と当該取得した領域の輝度を取得する輝度取得手段を備えている。
そして、当該領域取得手段は、顔検出領域(楕円マスク)における輝度の分布を用いて顔領域を取得している。
次に、CPU2は、RAM4に記憶した評価画像を構成する各画素の輝度の値を合計し、当該輝度の合計値をRAM4に記憶し(ステップ150)、更に、RAM4に記憶してあるBlobマスクの画素数を取得する(ステップ155)。
そして、CPU2は、RAM4に記憶した輝度の合計値をRAM4に記憶したBlobマスクの画素数で割って、評価画像の輝度の平均値を計算することにより補正前の輝度信号Rを算出してRAM4に記憶する(ステップ160)。
次に、CPU2は、sROI(size of Region of Interest)を算出してRAM4に記憶し(ステップ165)、メインルーチンにリターンする。
sROIは、フレーム画像に対する測定領域(顔の大きさ)の割合であって、CPU2は、BlobFillの画素数をフレーム画像の画素数で除することによりsROIを計算する。
sROIは、フレーム画像における顔の大きさの割合を%で表しており、対象者11の顔の前後位置を表している(sROIが大きいほど照明9と顔の距離が近い)。
後述するように、CPU2は、sROIの値によって補正前の輝度信号Rを補正し、補正後の輝度信号R′を生成する。
このように、補正手段は、顔の前後位置を顔領域の大きさによって取得している。
なお、sROIは、フレーム画像に対する測定領域の割合であるところ、フレーム画像の画素数は固定されているため、評価画像の画素数をsROIとすることもできる。
図5は、図3のステップ50で示した脈拍数検出処理の手順を説明するためのフローチャートである。
まず、CPU2は、RAM4からデータ取得期間(30秒間)の間に取得した補正前の輝度信号RとsROIを読み出す。
そして、CPU2は、後述するように最小二乗法を用いて輝度信号RとsROIの関係式を算出してRAM4に記憶する(ステップ205)。
次に、CPU2は、sROIを当該関係式に適用して輝度信号Rを補正することにより補正後の輝度信号R′を算出して、当該輝度信号R′をRAM4に記憶する(ステップ210)。
そして、CPU2は、輝度信号R′をフーリエ変換して輝度信号R′の周波数成分を算出し、これをRAM4に記憶する(ステップ215)。
次に、CPU2は、RAM4に記憶した輝度信号R′の周波数成分において最大ピークを特定する(ステップ220)。
そして、CPU2は、当該最大ピークの周波数fを特定し、これを対象者11の脈拍数としてRAM4に記憶して(ステップ225)、メインルーチンにリターンする。
図7は、図5のステップ205に係る輝度信号RとsROIの関係式の算出方法を説明するための図である。
RAM4は、30秒分の輝度信号Rを記憶しており、これを時間の順にR(0)、R(1)、・・・、R(i)、・・・とする。
同様にRAM4が記憶するsROIも時間の順に、sROI(0)、sROI(1)、sROI(2)、・・・、sROI(i)、・・・とする。
輝度信号R(i)とsROI(i)は、同じフレーム画像から取得するため、時間的に対応しており、同時刻での値である。
ここで、式(1)と式(2)で示したようにyi=R(i)、xi=sROI(i)とおいて、式(3)で示したyi=β0+β1×xiなる線形の関係が成り立つと仮定すると、式(4)が成立する。求めたいのはβ0とβ1であり、式(4)は、最小二乗法の行列表現となっている。
式(4)を式(5)のようにY=X×Bとおくと、式(6)によってBについて解くことができる。式中の上付き文字で表したTと-1は、それぞれ転置行列と逆行列を意味する。
CPU2は、RAM4に記憶した輝度信号RとsROIからX、Yを生成し、式(6)を計算することにより、β0とβ1を算出する。これによって、輝度信号RとsROIの関係式yi=β0+β1×xiが定まる。
図8は、図5のステップ210に係る輝度信号Rの補正式を説明するための図である。
yiとxiは、図7と同じである。ここで、式(7)に示したように、補正後の輝度信号であるR(0)′、R(1)′、・・・、R(i)′、・・・をyi′と表すと、式(8)が成立し、これが輝度信号Rの補正式である。これを行列で表すと式(9)となり、これにyiとxiを代入するとyi′、即ち、補正後の輝度信号R′を計算することができる。
図9は、輝度信号Rの補正実験を説明するための図である。
この実験は、対象者11を暗くした屋内に置き、脈波検出装置1で対象者11の脈波を検出したものである。
これにより対象者11を外部から任意に振動させた場合の補正の効果を検証することができる。
散布図51は、x軸(横軸)をsROI、y軸(縦軸)を輝度信号Rとし、(xi、yi)をプロットした図である。
これらのデータを式(3)によって直線近似した直線52(回帰直線)がRとsROIの関係式を規定しており、直線52のy切片がβ0、傾きがβ1となる。
グラフ53は、30秒間の輝度信号Rの時間変化を表したものである。これをFFTにてフーリエ変換すると、顔の前後動による外乱ピーク56が80[bpm]付近に大きく現れて65[bpm]付近にある脈拍数ピーク55が埋もれてしまう。
グラフ58は、30秒間のsROIの時間変化を表したものである。対象者11を振動させる要因がないため規則正しく変動している。これをフーリエ変換すると顔の前後動による外乱ピーク60が80[bpm]付近に現れる。
グラフ62は、30秒間の間における補正後の輝度信号R′の時間変化を表したものである。これをフーリエ変換すると、65[bpm]付近に脈拍数ピーク64が明確に現れる。
このように、sROIを用いて輝度信号Rを補正すると、外乱に埋もれていた脈拍数信号を外乱から適切にフィルタリングして抽出することができる。
図10は、更なる輝度信号Rの補正実験を説明するための図である。
この実験は、対象者11を暗くした車内に置いて、車両を走行させながら脈波検出装置1で対象者11の脈波を検出したものである。
これにより対象者11に外部から振動を加えた場合の補正の効果を検証することができる。
散布図71は、x軸(横軸)をsROI、y軸(縦軸)をRとし、(xi、yi)をプロットした図である。
これらのデータを式(3)によって直線近似した直線72がRとsROIの関係式を規定しており、直線72のy切片がβ0、傾きがβ1となる。
グラフ73は、30秒間の輝度信号Rの時間変化を表したものである。車両が揺れるため、先の実験のグラフ53に比べて不規則で乱雑な信号となっている。これをFFTにてフーリエ変換すると、様々な周波数でピークが現れる。
グラフ78は、30秒間のsROIの時間変化を表したものである。対象者11が車両走行により揺れるため、グラフ58に比べて不規則で乱雑な信号となっている。これをFFTにてフーリエ変換すると、様々な周波数でピークが現れる。
グラフ82は、30秒間の間における補正後の輝度信号R′の時間変化を表したものである。これをフーリエ変換すると、65[bpm]付近に脈拍数ピーク84が明確に現れる。
このように、車両の走行によって対象者11が揺れ動く場合であっても、sROIを用いて輝度信号Rを補正すると、外乱に埋もれていた脈拍数信号を外乱から適切にフィルタリングして抽出することができる。
図11は、脈波検出装置1によるエラー率を計測した実験結果を説明するための図である。
実験は走行している暗い車内で行い、30秒間の動画から取得した111個のサンプル(xi、yi)を用いて計測した。
また、本実験では、対象者11の脈拍数を脈波検出装置1で検出すると同時に他の装置で精密に計測しておき、両者の比較から、脈波検出装置1による検出値のエラーが5[bpm]未満であった場合、5[bpm]以上10[bpm]未満であった場合、・・・・の各場合の発生確率(割合)をヒストグラムで表した。
グラフ91は、Rの補正がない場合を表しており、グラフ92は、輝度信号Rの補正がある場合を表している。
グラフ91に示したように、輝度信号Rを補正しない場合は、最も精度よく計測できている0~5[bpm]のビンが60%であるのに対し、グラフ92に示したように輝度信号Rを補正した場合は84%に達している。
この実験結果により、顔の大きさに応じて輝度を補正する技術は、きわめて有効であることがわかる。
(変形例)
本変形例では、脈波検出装置1を搭載した車両装置について説明する。
説明した脈波検出装置1は、自然光による赤外線が存在する環境下では、これが外乱となるため、夜間での運用に適している。
そのため、当該車両装置は、車外の環境明度が所定の基準値未満となった場合に、脈波検出装置1を駆動して運転者の脈波を検出する。
この場合、当該車両装置は、環境明度を取得する環境明度取得手段と、当該環境明度が所定値未満となった場合に、照明手段による照明と、動画撮影手段による動画撮影を開始する開始手段を備えている。
更に、当該車両装置は、例えば、本願の出願人が特開2016-193022で提案している脈波検出装置のように、自然光で脈波を検出する第2の脈波検出装置を搭載することも可能である。
この場合、当該車両装置は、車外の環境明度が所定の基準値未満になった場合に、脈波の検出を第2の脈波検出装置から脈波検出装置1に切り替える。
この場合、当該車両装置は、環境明度が所定値以上の場合に脈波を取得する第2の脈波取得手段を備え、取得した環境明度が所定値未満となった場合に、第2の脈波取得手段による脈波の取得を停止した後、照明手段による照明と、動画撮影手段による動画撮影を開始する開始手段を備えている。
以上に説明したように、脈波検出装置1は、予め求めた顔の前後位置(顔領域の大きさ)に対する輝度との関係によって、測定領域(顔)の輝度変化を当該関係に応じて補正し、該補正した輝度変化に基づいて脈拍を推定することにより顔の前後動による外乱に埋もれた脈拍数を検出することができる。
これによって、顔の前後位置が変わっても高い脈波の検出精度を実現することができる。
1 脈波検出装置
2 CPU
3 ROM
4 RAM
5 表示部
6 入力部
7 出力部
8 カメラ
9 照明
10 記憶部
11 対象者
12 脈波検出プログラム
31、35 フレーム画像
32 矩形
36 楕円マスク
41 合計マスク
42 形状
44 Blobマスク
45 BlobFill
51 散布図
52 直線
53、58、62 グラフ
55、64 脈拍数ピーク
56、60 外乱ピーク
71 散布図
72 直線
73、78、82 グラフ
84 脈拍数ピーク
91、92 グラフ
201、202 フレーム画像
204、208、210、212 グラフ
205、206 時点

Claims (10)

  1. 対象者の体表面を撮影した動画を取得する動画取得手段と、
    前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、
    前記取得した領域の輝度を取得する輝度取得手段と、
    前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
    前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し
    前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、
    前記補正手段は、前記顔の前後位置を前記顔領域の大きさによって取得する、
    ことを特徴とする脈波検出装置。
  2. 対象者の体表面を撮影した動画を取得する動画取得手段と、
    前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、
    前記取得した領域の輝度を取得する輝度取得手段と、
    前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
    前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し
    前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、
    前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、
    前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得する、
    ことを特徴とする脈波検出装置。
  3. 対象者の体表面を撮影した動画を取得する動画取得手段と、
    前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、
    前記取得した領域の輝度を取得する輝度取得手段と、
    前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
    前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し
    前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、
    前記補正手段は、前記取得した顔領域に当該顔領域に含まれない閉領域がある場合に、当該閉領域を前記顔領域の大きさに含める、
    ことを特徴とする脈波検出装置。
  4. 前記補正手段は、前記顔の前後位置を前記顔領域の大きさによって取得する
    ことを特徴とする請求項2、又は請求項3に記載の脈波検出装置。
  5. 前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、
    前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得する
    ことを特徴とする請求項3に記載の脈波検出装置。
  6. 前記顔を赤外線で照明する照明手段と、
    前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、を具備し、
    前記動画取得手段は、前記動画撮影手段から前記動画を取得する
    ことを特徴とする請求項1から請求項5のうちのいずれか1の請求項に記載の脈波検出装置。
  7. 対象者の顔を赤外線で照明する照明手段と、
    前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、
    前記動画撮影手段から前記対象者のを撮影した動画を取得する動画取得手段と、
    前記取得した動画から前記が写っている領域を取得する領域取得手段と、
    前記取得した領域の輝度を取得する輝度取得手段と、
    前記取得した動画における、或1のフレーム画像から得られる前記の位置を基準とする、他のフレーム画像で得られる前記の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
    前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、
    環境明度を取得する環境明度取得手段と、
    前記取得した環境明度が所定値未満となった場合に、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始する開始手段と、
    を具備したことを特徴とする脈波検出装置。
  8. 前記環境明度が所定値以上の場合に前記脈波を取得する第2の脈波取得手段を具備し、
    前記開始手段は、前記取得した環境明度が所定値未満となった場合に、前記第2の脈波取得手段による前記脈波の取得を停止した後、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始することを特徴とする請求項7に記載の脈波検出装置。
  9. 請求項1から請求項8までのうちの何れか1の請求項に記載の脈波検出装置を具備した車両装置。
  10. 対象者の体表面を撮影した動画を取得する動画取得機能と、
    前記取得した動画から前記体表面が写っている領域を取得する領域取得機能と、
    前記取得した領域の輝度を取得する輝度取得機能と、
    前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正機能と、
    前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得機能と、をコンピュータで実現し、
    前記体表面は顔であり、前記領域取得機能は、前記領域として顔領域を取得し、
    前記補正機能は、前記顔の前後位置を前記顔領域の大きさによって取得する、
    ことを特徴とする脈波検出プログラム。
JP2018167724A 2018-09-07 2018-09-07 脈波検出装置、車両装置、及び脈波検出プログラム Active JP7204077B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018167724A JP7204077B2 (ja) 2018-09-07 2018-09-07 脈波検出装置、車両装置、及び脈波検出プログラム
US16/652,447 US11398112B2 (en) 2018-09-07 2019-09-05 Pulse wave detection device, vehicle device, and pulse wave detection program
EP19857297.6A EP3847955A4 (en) 2018-09-07 2019-09-05 PULSE WAVE DETECTION DEVICE, VEHICLE DEVICE AND PULSE WAVE DETECTION PROGRAM
PCT/JP2019/034946 WO2020050357A1 (ja) 2018-09-07 2019-09-05 脈波検出装置、車両装置、及び脈波検出プログラム
CN201980004822.8A CN111163687B (zh) 2018-09-07 2019-09-05 脉波检测装置、车辆装置以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018167724A JP7204077B2 (ja) 2018-09-07 2018-09-07 脈波検出装置、車両装置、及び脈波検出プログラム

Publications (2)

Publication Number Publication Date
JP2020039480A JP2020039480A (ja) 2020-03-19
JP7204077B2 true JP7204077B2 (ja) 2023-01-16

Family

ID=69721920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018167724A Active JP7204077B2 (ja) 2018-09-07 2018-09-07 脈波検出装置、車両装置、及び脈波検出プログラム

Country Status (5)

Country Link
US (1) US11398112B2 (ja)
EP (1) EP3847955A4 (ja)
JP (1) JP7204077B2 (ja)
CN (1) CN111163687B (ja)
WO (1) WO2020050357A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4020981A1 (en) 2020-12-22 2022-06-29 Axis AB A camera and a method therein for facilitating installation of the camera
JPWO2023195148A1 (ja) * 2022-04-08 2023-10-12
WO2023195149A1 (ja) * 2022-04-08 2023-10-12 三菱電機株式会社 脈波推定装置、状態推定装置、及び、脈波推定方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130996A (ja) 2009-12-25 2011-07-07 Denso Corp 生体活動計測装置
JP2014000246A (ja) 2012-06-19 2014-01-09 Mitsubishi Electric Engineering Co Ltd 血管可視化装置および血管可視化方法
WO2016104538A1 (ja) 2014-12-24 2016-06-30 旭化成株式会社 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体、呼吸状態推定方法及び呼吸状態推定器
JP2016193021A (ja) 2015-03-31 2016-11-17 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
WO2017033669A1 (ja) 2015-08-26 2017-03-02 株式会社トプコン 血流計測装置
JP2018114266A (ja) 2017-01-19 2018-07-26 パナソニックIpマネジメント株式会社 脈波計測装置、制御方法、及び、プログラム
JP2018117726A (ja) 2017-01-23 2018-08-02 アルパイン株式会社 生体センサ制御装置および生体センサ制御方法
WO2019102535A1 (ja) 2017-11-22 2019-05-31 日本電気株式会社 脈波検出装置、脈波検出方法、及び記憶媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6266370B1 (en) * 1996-09-03 2001-07-24 Nippon Telegraph And Telephone Corporation Brightness-variation compensation method and coding/decoding apparatus for moving pictures
US7602942B2 (en) * 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
JP2009087232A (ja) * 2007-10-02 2009-04-23 Toshiba Corp 人物認証装置および人物認証方法
AU2011244921B8 (en) * 2011-11-01 2014-04-03 Canon Kabushiki Kaisha Method and system for luminance adjustment of images in an image sequence
JP2014161355A (ja) * 2013-02-21 2014-09-08 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法及びプログラム
US20150379362A1 (en) * 2013-02-21 2015-12-31 Iee International Electronics & Engineering S.A. Imaging device based occupant monitoring system supporting multiple functions
JP6102433B2 (ja) 2013-03-29 2017-03-29 富士通株式会社 脈波検出プログラム、脈波検出方法および脈波検出装置
WO2015095760A1 (en) * 2013-12-19 2015-06-25 The Board Of Trustees Of The University Of Illinois System and methods for measuring physiological parameters
JPWO2016006027A1 (ja) * 2014-07-07 2017-04-27 富士通株式会社 脈波検出方法、脈波検出プログラム及び脈波検出装置
US9767358B2 (en) * 2014-10-22 2017-09-19 Veridium Ip Limited Systems and methods for performing iris identification and verification using mobile devices
JP6683367B2 (ja) * 2015-03-30 2020-04-22 国立大学法人東北大学 生体情報計測装置、生体情報計測方法及び生体情報計測プログラム
JP6455761B2 (ja) * 2015-03-31 2019-01-23 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
RU2715521C2 (ru) * 2015-06-16 2020-02-28 Айверифай Инк. Системы и способы для обнаружения обманных объектов и анализа жизненности
CN107370955A (zh) 2017-08-21 2017-11-21 深圳市天视通电子科技有限公司 可自动切换日夜模式的网络摄像机、实现方法及监控系统
US10956714B2 (en) * 2018-05-18 2021-03-23 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting living body, electronic device, and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130996A (ja) 2009-12-25 2011-07-07 Denso Corp 生体活動計測装置
JP2014000246A (ja) 2012-06-19 2014-01-09 Mitsubishi Electric Engineering Co Ltd 血管可視化装置および血管可視化方法
WO2016104538A1 (ja) 2014-12-24 2016-06-30 旭化成株式会社 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体、呼吸状態推定方法及び呼吸状態推定器
JP2016193021A (ja) 2015-03-31 2016-11-17 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
WO2017033669A1 (ja) 2015-08-26 2017-03-02 株式会社トプコン 血流計測装置
JP2018114266A (ja) 2017-01-19 2018-07-26 パナソニックIpマネジメント株式会社 脈波計測装置、制御方法、及び、プログラム
JP2018117726A (ja) 2017-01-23 2018-08-02 アルパイン株式会社 生体センサ制御装置および生体センサ制御方法
WO2019102535A1 (ja) 2017-11-22 2019-05-31 日本電気株式会社 脈波検出装置、脈波検出方法、及び記憶媒体

Also Published As

Publication number Publication date
CN111163687A (zh) 2020-05-15
WO2020050357A1 (ja) 2020-03-12
US20200285832A1 (en) 2020-09-10
CN111163687B (zh) 2023-11-21
US11398112B2 (en) 2022-07-26
EP3847955A1 (en) 2021-07-14
JP2020039480A (ja) 2020-03-19
EP3847955A4 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
WO2020203915A1 (ja) 脈波検出装置、及び脈波検出プログラム
JP7204077B2 (ja) 脈波検出装置、車両装置、及び脈波検出プログラム
Eriksson et al. Driver fatigue: a vision-based approach to automatic diagnosis
JP6308161B2 (ja) 脈波検出装置、及び脈波検出プログラム
JP6338701B2 (ja) 瞬間的な眠りを検出するデバイス、方法およびコンピュータプログラム
JPWO2016159150A1 (ja) 脈波検出装置、及び脈波検出プログラム
JP2007264785A (ja) 眠気検出装置
WO2016193030A1 (en) Sleep monitoring method and system
JP2007229218A (ja) 覚醒度推定装置及びシステム並びに方法
KR20190083155A (ko) 운전자 상태 검출 장치 및 그 방법
JP2012000280A (ja) 脳波推定装置、脳波推定方法及びプログラム
JP3116638B2 (ja) 覚醒状態検知装置
JP6455761B2 (ja) 脈波検出装置、及び脈波検出プログラム
JP3127760B2 (ja) 運転者の覚醒度検出装置
Khan et al. Efficient Car Alarming System for Fatigue Detectionduring Driving
Riztiane et al. Driver drowsiness detection using visual information on android device
JP7161704B2 (ja) 脈拍数検出装置、及び脈拍数検出プログラム
WO2008020458A2 (en) A method and system to detect drowsy state of driver
JP2000040148A (ja) 居眠り運転防止装置
CN115349824A (zh) 健康预警方法、装置、计算机设备及存储介质
JP7174358B2 (ja) 脈拍数検出装置、及び脈拍数検出プログラム
JP7209947B2 (ja) 脈拍数検出装置、及び脈拍数検出プログラム
WO2023195149A1 (ja) 脈波推定装置、状態推定装置、及び、脈波推定方法
WO2023195148A1 (ja) 脈波推定装置、状態推定装置、及び、脈波推定方法
P Mathai A New Proposal for Smartphone-Based Drowsiness Detection and Warning System for Automotive Drivers

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221211

R150 Certificate of patent or registration of utility model

Ref document number: 7204077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150