JP7131709B2 - 推定装置、方法及びプログラム - Google Patents

推定装置、方法及びプログラム Download PDF

Info

Publication number
JP7131709B2
JP7131709B2 JP2021542220A JP2021542220A JP7131709B2 JP 7131709 B2 JP7131709 B2 JP 7131709B2 JP 2021542220 A JP2021542220 A JP 2021542220A JP 2021542220 A JP2021542220 A JP 2021542220A JP 7131709 B2 JP7131709 B2 JP 7131709B2
Authority
JP
Japan
Prior art keywords
pulse rate
estimation
unit
pulse
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021542220A
Other languages
English (en)
Other versions
JP2022518751A (ja
Inventor
ウトゥカルシュ シャルマ
祥史 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2022518751A publication Critical patent/JP2022518751A/ja
Application granted granted Critical
Publication of JP7131709B2 publication Critical patent/JP7131709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • A61B5/721Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Cardiology (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Power Engineering (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

本開示は、推定装置、方法及びプログラムに関する。特に、脈拍数を推定する推定装置、方法及びプログラムに関する。
ストレス検出、ヘルスケア及び事故防止を意図した生理学的情報の測定の関心が増加している。心拍数(Heart rate (HR))測定は、ストレス、覚醒及び眠気のような人間の心理状態がHRから推定され得ることを示されてきたため、特に重要である。HRは通常、接触ベースの手段、特に心電図により測定されるが、しかしながら、前述の応用のために、連続的で簡単な測定が必要である。この目的を達成するために、近年、一般的に使用されるカメラを用いて撮影された映像を採用するHR測定技術が提案されてきた。
人間の顔(又は皮膚が露出したその他の身体の部位)の一連の写真からHR(又は他の準周期的生理学的信号)を推定するいくつかの技術が研究されてきた。例えば、非特許文献1は、顔映像からHRを推定する技術を開示する。非特許文献1は、頭部移動及び/又は顔の表情により取り込まれたノイズの存在における心拍数を推定するために、人間の顔のカラー映像の緑色チャネルにおける(心臓活動に起因する)振幅変動を使用する。
さらに、特許文献1は、顔上のそれらの領域だけを選択することにより導出され得て、時間の経過に伴う肌色における低い変動可能性を有し、顔上のある小さな領域が安定したパルス波情報を含むアイデアに基づいて、映像から脈拍数を推定する技術を開示する。特許文献1のメインステップは、
a)映像上の顔を追跡することにより顔特徴点を生成し、
b)(関心のある領域(region of interest(ROI)とも呼ばれる)観測下の領域を、部分ROIとして知られる、より小さい部分へ分割し、
c)各部分ROIからパルス信号(緑チャネル振幅変動)を抽出し、
d)(「信頼された領域」として知られる)「信頼できる」部分領域を選択するための、すなわち、パルス信号の低いローカル(時間的)分散を用いて部分ROIに大きな重み付けを与えるための動的ROIフィルタを生成し、
e)単一の時系列のパルス波を取得するために、信頼された領域のパルス波情報を(ステップ(d)で割り当てられた重みを用いて)結合し、
f)「信頼された領域」のみのパルス情報から周波数解析を行い、最終パルス信号を推定する
ことを含む。
さらに、特許文献2及び特許文献3は、複数成分のパルス信号から周期成分を抽出する技術を開示する。特許文献2及び特許文献3に含まれる基本的ステップは、
a)(データの既存知識、又は、長期間パルス信号の周期性の粗い推定値、例えば、1分から数時間の範囲で、長時間を超える、パルス信号の平均周期/頻度値を算出すること、を用いて)基準周期性値を事前選択し、
b)「反復基本単位」(周期性が同一又は近い基準周期性、又は、自動補正が最大化される、パルス信号の1サイクル)としても知られる、基準パルス信号「cyclet」を見つけ、
c)複数成分パルス信号から、反復基本単位、又は、代わりに、(閾値範囲内で)基準周期性に近い周期性と高い相関のあるcyclet(又は周期成分)を抽出する
ことを含む。
特開2018-164587号公報 米国特許第6,262,943号明細書 米国特許第5,584,295号明細書
Sharma, Umematsu, Tsujikawa, and Onishi, "Adaptive Heart Rate Estimation From Face Videos", IEICE SBRA 2018
しかしながら、上述した技術のそれぞれは、推定精度の低下の課題がある。課題の発生理由は、観察下の人物により実行される剛体及び非剛体運動、オクルージョン、顔追跡エラー、光源変更等を含むいくつかの制御不能なノイズ源が、複雑な破損を観察された信号に取り込み、HRを推定することを難しくすることである。
本開示は、上記課題を解決するためになされたものであり、本開示の目的は、推定精度を向上するための推定装置、方法及びプログラムを提供することである。
本開示の第1の例示的な態様にかかる推定装置は、皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定し、当該第1の脈拍数を推定するために前記第1の映像データに基づき導出された第1の特徴データを出力する第1の推定部と、前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する学習部と、前記第1の推定部が推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定した場合に、前記第1の推定部により導出された第2の特徴データを取得し、当該第2の特徴データと前記学習部により学習された前記判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する取得部と、前記取得された信頼値に基づき、第3の脈拍数を推定する第2の推定部と、を備える。
本開示の第2の例示的な態様にかかる推定方法は、皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理を行い、前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力し、前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習し、推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理を行い、前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力し、前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得し、前記取得された信頼値に基づき、第3の脈拍数を推定する、ことを含む。
本開示の第3の例示的な態様にかかる推定プログラムが格納された非一時的なコンピュータ可読媒体、前記プログラムは、皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理と、前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力する処理と、前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する処理と、推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理と、前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力する処理と、前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する処理と、前記取得された信頼値に基づき、第3の脈拍数を推定する処理と、をコンピュータに実行させる。
本開示の例示的な態様によれば、推定精度を向上するための推定装置、方法及びプログラムを提供することができる。
図1は、本開示の第1の実施形態にかかる脈拍数推定装置の構造を示すブロック図である。 図2は、本開示の第1の実施形態にかかる脈拍数推定のための学習段階を説明するためのフローチャートである。 図3は、本開示の第1の実施形態にかかる初期脈拍数推定処理を説明するためのフローチャートである。 図4は、本開示の第1の実施形態にかかる判定モデルの学習処理を説明するためのフローチャートである。 図5は、撮影画像から初期脈拍数を推定する処理の概念を説明するための図である。 図6は、特徴データから判定モデルを学習する処理の概念を説明するための図である。 図7は、本開示の第1の実施形態にかかる脈拍数推定のためのテスト段階を説明するためのフローチャートである。 図8は、テスト段階において初期脈拍数から最終脈拍数を推定する処理の概念を説明するための図である。 図9は、本開示の第1の実施形態にかかる脈拍数推定装置のハードウェア構造を示すブロック図である。 図10は、本開示の第2の実施形態にかかる推定装置の構造を示すブロック図である。 図11は、本開示の第2の実施形態にかかる推定方法を説明するためのフローチャートである。
以下では、上述した例の側面を含む本開示が適用される特定の実施形態が図面を参照して詳細に説明され得る。図面において、同一要素は、同一の参照記号により示され、説明を明確にするため、繰り返しの説明は省略される。
本開示により解決すべき課題は、以下に詳細に説明される。
実世界のシナリオノイズでは、背景照明の変化から、不正確な顔追跡に起因して取り込まれたノイズだけでなく、剛体頭部運動、及び/又は、顔の表情における変化、部分的なオクルージョンは、度々、パルス抽出のパフォーマンスに影響を与える。様々なノイズに起因して、パルス信号が破損する可能性があり、予想される脈拍変動は、効果的に取得されず、結果として、脈拍数推定手法のパフォーマンス(例、精度)に悪影響を与えている。
さらに、非特許文献1は、頭部移動/表情からのノイズにより最低限破損されていた顔面におけるROI部分領域を強調する手法として頭部移動/表情検出を採用する。これは、パルス信号からノイズ変動を削除しようと試みるノイズ特定補正ステップが続く。しかしながら、実際には、非特許文献1は、次の理由のため、ノイズ変動を部分的にのみ削除できる。
i.上述したノイズ特定補正ステップは、頭部移動及び表情以外の要因により生成されるノイズを削除できない。(例えば、)環境光の変化、顔領域の部分的オクルージョンのような、任意の削除が非常に難しいノイズ、又は、同時に大きな頭部移動及び表情(例えば、強烈な笑い声の間)のような要因からのノイズもまた存在するが、顔追跡が不正確であり、取得されたパルス信号がエラーノイズの追跡により破損されるため、いくつかのノイズは、常に生成される。
ii.頭部移動又は表情を有さない任意のビデオフレームは、他のソースからのノイズを有する。それ故、これらのビデオフレームは、理想的には「信頼できる」と考えられるべきではない。結果として、非特許文献1は、多くのノイズHR推定を「信頼できる」として考える。従って、スペクトルピーク追跡が信頼できるHR値に近い小さな範囲でのみ、HRを見つけようとするため、他の近隣の推定値が不正確である。
iii.頭部移動又は表情を有するいくつかのフレームは、「信頼できる」と考えられる。なぜなら、ノイズ補正ステップは頭部移動又は表情に起因するノイズを正確に削除したためである。しかし、非特許文献1は、そのような全てのフレームを「信頼できない」として考える。
基本的に、頭部移動/表情の存在はパルス信号におけるノイズと相互に関連付けられるけれども、しかし、そのことは、「信頼できない」として推定されたHRを検討するための必要又は十分な条件のいずれでもない。非特許文献1で検出されていないパルス信号にノイズを取り込む多くの他の要因が存在する。
このことは、特に、観察中の人物が実行可能な行動に制限がないという実際の状況では、必ずしも全てのノイズのソースが、治療可能又は制御可能であると考えられないことを我々に示す。ビデオベースの生理学的信号抽出の分野の過去の研究は、正確なHRを推定することが極端に困難になる場合では、パルス信号(顔の色変動)において存在する任意のノイズが心臓の変動から分離可能ではないことも、また結論付ける。この課題を解決するために、ノイズのソース又はノイズが生成された条件に関係なく、ノイズを有するビデオフレームを正確に検出できる意思決定システムが必要である。これらの「信頼できない」シナリオが正確に検出できる場合、上記ポイントi、ii、iiiで述べた先行技術の課題は、解決されるだろう。さらに、それらから推定されたパルス信号及びHRの信頼性(信頼性インデクス又は信頼値)に関する定量的であるが、定性的ではない測定値を得ることができる場合、a)我々が推定されたHRについてどれほど自信を持っているかを患者に伝えること、b)隣接する高信頼性のHR推定値を基準として用いることにより、低信頼性のHR推定値の精度を向上することができる。
さらに、特許文献1の「信頼された領域」選択が非特許文献1の動的ROIフィルタと同種であり、非特許文献1の(動的ROIフィルタを用いた)動的ROI選択処理のあらゆる欠陥もまた、特許文献1の「信頼された領域」選択処理を適用する、ということを注意することが重要である。特許文献1及び本開示の間の差分の一つは、特許文献1が顔上の信頼できる領域を選択しようとだけすること、である。言い換えると、特許文献1では、空間的信頼性が達成されるだけである。しかしながら、空間信頼性は、外部及び内部ソースからノイズの存在において正確な心拍数情報を得るには十分ではない。このことについての最大の理由は、特許文献1の空間信頼性は相対的なだけで絶対的ではないことである。すなわち、特許文献1で議論される「信頼された領域」は、他の領域よりも信頼されただけであるが、絶対的にはそれらの信頼性が判定されていない。だから、ノイズが大きい場合(頭の揺れ、爆笑、追跡失敗等)又は、顔全体がノイズにより影響を及ぼされる(光源変化、追跡失敗等)の場合、特許文献1はどの理由がこのノイズにより影響が少ないかを判定しようとするだけである。しかしながら、顔の全領域は大きなノイズを含むため、特許文献1は実際に「信頼された」領域を選択し損ねて、不十分な脈拍数推定精度という結果になる。大きなノイズ又は顔全体に影響するノイズの事例を扱うため、我々は時間的だけでなく空間的な信頼性判定を有する必要がある。本開示は、後述される信頼回帰部107及び信頼推定部108で実行される信頼レベル推定処理を用いて、絶対時間の信頼性判定だけでなく、後述されるROI選択及びパルス抽出部104で(相対的)空間信頼性を特定することによりこの要求を達成する。信頼推定部108で達成される信頼レベル推定は、実際に、映像入力データの時間信頼性の測定であり、大きなノイズ又は顔全体に影響するノイズの事例での識別(特定)を助け、特許文献1よりも、より良いノイズ除去及びより正確な脈拍数推定を導く。
特許文献2及び特許文献3の先行技術では、抽出された周期成分は、「信頼できる」か否かである、基準周期性値に向けて重く偏向される。
i. 基準周期性値が長時間以上(2分以上)で算出されるなら、先行技術は、脈拍数(心拍)推定において低精度に導くであろう、基準周期性値に向けて偏向されることに起因して、時間の経過に伴う周期性での少しの変化を見失うだろう。
ii. 他方、基準周期性が短時間(10-30秒)で算出されるなら、ノイズが数秒以上(話す、笑う、うなずく等)存在する、又は、数秒以上で顔追跡失敗するというシナリオで不正確になる傾向がある。
さらに、脈拍数は時間の経過に伴い一定ではなく、時間の経過に伴い変化し続ける可能性があるため、我々が時間内にそれから離れる場合、基準周期性値(又は反復基本単位)は、低い「信頼」になる傾向がある。基準HRを用いるアイデアは、非常に短時間(2-4秒)でのみ信頼可能である。そのように、基準に向けて重く偏向されていることではないが、基準周期性信号の最善の利用法を作るために、我々は、次のことに依存する周期性/脈拍数サーチ範囲を継続的に適応する手法を必要とする。
a)基準周期性(又は反復基本単位)が選択されてからの経過時間
b)基準周期性値(又は基準脈拍数又は反復基本単位)それ自身の信頼性インデクス(又は信頼レベル)
我々は、基準脈拍数値及び結果である周期成分を適応的に抽出するように、それぞれの推定された周期性値/脈拍数値に対する(一時的)信頼性インデクス/信頼レベルを継続的に判定し、信頼レベル又は隣接ビデオフレームを使用する手法を必要とする。このやり方で、定量的信頼性インデクスを持つことに起因して、我々は、低/中程度の信頼性インデクスを用いたノイズ推定値、及び、高信頼性インデクスを用いたあまり偏向されていない推定値を(完全に無視する代わりに)考慮しているが、(周期的成分抽出に対する)閾値及び基準周期性を適応することにより、ビデオフレームのノイズ集合から比較的より信頼性できる推定値を抽出できるだろう。
さらに、本開示は、(特許文献1のように追跡された顔のビデオから抽出された)複数成分パルス信号のセグメントの大きなデータセットに関する信頼レベルを学習する(learn)ニューラルネットワークを学習する(train)ことができる。この学習済みニューラルネットワークは、基準脈拍数値を動的に選択し、複数成分パルス信号から周期成分を抽出するための現在の脈拍数信頼性だけでなく、最近の過去(最後の2-10秒)の脈拍数の信頼性インデクスを使用する適応的周期成分抽出に続いて、各新パルス信号セグメント(又は「cyclet」)の信頼性のあるインデクスを抽出するためのテストデータにおいて用いられる。
上記に基づき、先行技術のHR推定の第1の課題は、推定精度の劣化である。第1の課題の発生理由は、いくつかの制御不能なノイズ源が複雑な破損を観察された信号に取り込み、HRを推定することを難しくすることである。尚、いくつかの制御不能なノイズ源は、例えば、観察下の人物により実行される剛体及び非剛体運動、オクルージョン、顔追跡エラー、光源変更等を含む。しかしながら、上記の先行技術は、剛体運動および非剛体運動の課題を解決しようとするだけである。
HR推定における第2の課題は、顔(又は身体の部位)追跡の失敗に起因する精度劣化である。この課題の発生理由は、先行技術はあらゆるフレーム内で顔の位置を見つけるために顔追跡器を使用するが、多くの場合、この顔追跡器は顔位置を不正確に検出することである。先行技術はそのような追跡失敗を特定する方法がなく、ノイズデータは、低精度エラーを導くHR推定のために使用される。
HR推定における第3の課題は、未知のソースからのノイズの存在における精度劣化である。この課題の発生原因は、先行技術は観察下の人物により実行される剛体及び非剛体運動から来るノイズを削除するだけであるが、ノイズが他の未知のソースからいつ来ているのかを特定する方法がない、ことである。このことは、先行技術が頭部移動及び表情の欠如におけるクリーンパルス信号からノイズパルスを区別することが不可能であることを意味する。このことは、未知のノイズ源の存在においてHR推定精度の劣化をもたらす。
HR推定における第4の課題は、厳密な頭部移動又は表情の存在における精度劣化である。この課題の発生理由は、大きな頭部移動及び/又は表情の変化が発生した場合、そのノイズは心臓の変動に対して非常に支配的であり、先行技術におけるノイズ補正ステップは大きな頭部移動及び表情から来るノイズを完全に削除し損ねる、ということである。このことは、HR推定精度の劣化をもたらす。
HR推定における第5の課題は、不正確な基準推定選択に起因する精度劣化である。先行技術は、頭部移動及び表情ノイズを含む後続のビデオフレームに渡ってHR推定実行のために、頭部移動及び表情の欠如において推定されたHRを「基準HR」値として選択する。しかしながら、未知のソースに起因してノイズが存在する場合、不正確な(inaccurate)HR推定は、不正確な(incorrect)「基準HR」値を導く。このことは、不正確な基準を用いた長期間に渡る不正確なHR推定をもたらす。
加えて、特許文献2及び特許文献3に開示された発明は、基準周期値又は反復基本単位が特定されなければならないが、この基準値/単位が信頼可能又は正確であることを保証する方法がない、という課題がある。多くの場合において、不正確な基準が選択される場合、不正確な基準を用いる長期間に渡って不正確なHR推定を導くことになる。
本開示の目的の一例は、上記の問題のいずれかが解消されることにより、頭部移動、表情、追跡エラー、及び/又は、未知のソースにより引き起こされるノイズの存在において、正確な基準HR(又は周期性値又は反復基本単位)が選択されること、及び、HR推定精度が向上されること、を提供することである。
<第1の実施形態>
<装置構成>
図1は、本開示の第1の実施形態にかかる脈拍数推定装置の構造を示すブロック図である。脈拍数推定装置100は、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105、特徴選択部106、信頼回帰部107、信頼推定部108、基準選択部109及び周期成分抽出部110を備える。
脈拍数推定装置100は、学習段階及びテスト段階において実行される。学習段階において、脈拍数推定装置100は、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105、特徴選択部106及び信頼回帰部107により、学習するための第1の身体の部位の第1の映像データ及び第1の身体から測定された生理学的情報の測定値を用いて、判定モデルを学習する。テスト段階において、脈拍数推定装置100は、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105、特徴選択部106、信頼推定部108、基準選択部109及び周期成分抽出部110により、第2の身体の部位の第2の映像データ及び学習済み判定モデルを用いて、推定するための第2の身体の脈拍数を推定する。尚、第1の身体及び第2の身体は、同一人物の身体であってもよい。あるいは、第1の身体及び第2の身体は、異なる人物の身体であってもよい。
映像撮影部101は、人間の皮膚が露出しているところから、人体(第1又は第2の人体)の部位の映像データ(第1又は第2の映像データ)を撮影する。例えば、映像撮影部101は、人間の顔の映像データを撮影する。尚、前記人体の部位は、特定の生理学的プロセスの直接的な効果であるパルス信号が抽出される領域である。
身体部位追跡部102は、特定の人体の部位を検出し、映像撮影部101により撮影され、身体の部位が検出された、映像データの各フレームについて、身体上に重要な構造上のランドマークを示す特徴点を生成する。例えば、身体部位追跡部102は、顔追跡器として、肌の色の検出又は顔のランドマーク検出を用いて、時間の経過に伴って顔領域を追跡する。顔特徴点の位置は、頭部移動又は顔の表情の存在を検出し、各映像フレームに適切なラベルを割り当てるために使用される。
尚、以下の説明において、身体部位追跡部102は、人間の顔を人体の部位として検出するものとする。しかしながら、本開示の身体部位追跡部102は、映像データから手や耳のような、皮膚が見える多くの他の身体の部位を検出してもよい。それ故、身体部位追跡部102は、手追跡器、耳追跡器等であってもよい。
ノイズ源検出部103は、身体部位追跡部102により検出された特徴点に基づいて、ノイズ源を検出する。すなわち、ノイズ源検出部103は、映像データの各フレームについてノイズ源を特定し、各フレームにラベルを割り当てる。
ROI選択及びパルス抽出部104は、特徴点に基づいて、映像データから顔上の関心のある領域(region(s) of interest(ROI))を選択し、各ROIをいくつかのROI部分領域へ分割する。ROIは、以降、パルス変動と呼ばれる生理学的活動(例えば、周期的鼓動活動)のため、顔の色で発生する周期的変動を本質的に示す。さらに、ROI選択及びパルス抽出部104は、各ROI部分領域からパルス信号を抽出する。例えば、ROI選択及びパルス抽出部104は、各ROI部分領域について緑チャネル振幅変動をパルス信号として抽出するとよい。
さらに、ROI選択及びパルス抽出部104は、割り当てられたラベルを用いて、抽出されたパルス信号に存在する有用なパルス情報の量に比例する重みを各ROI部分領域に割り当てるためのラベル依存のROIフィルタを生成する。ROIフィルタは、割り当てられたラベルに応じて、抽出されたパルス信号の高く局所的な(一時的な)分散/最大値を用いて部分領域を抑制するために使用される。
その後、ROI選択及びパルス抽出部104は、生成されたROIフィルタを抽出されたパルス信号に適用し、抽出されたパルス信号に対してラベル依存ノイズ補正を行う。例えば、ROI選択及びパルス抽出部104は、ノイズを削除し、結合されたノイズのないパルス信号を取得するために、ラベル依存ノイズ補正を行う。尚、ROI選択及びパルス抽出部104は、抽出されたパルス信号と生成されたROIフィルタを結合してもよい。
脈拍数推定部105は、フィルタされ(抽出され)たパルス信号について周波数分析を実行することにより、初期脈拍数周波数を推定する。例えば、脈拍数推定部105は、ノイズ抑制パルス信号を形成するために、抽出されたパルス信号及び生成されたROIフィルタを結合し、抽出されたノイズ抑制パルス信号における周波数分析を実行し、推定された初期脈拍数を生成する。例えば、脈拍数推定部105は、ノイズ脈拍数推定候補の集合から正確な脈拍数周波数を選択するためにスペクトルピーク追跡を行い、各映像フレームについて初期脈拍数推定値を出力することにより、初期脈拍数を推定するとよい。
さらに、脈拍数推定部105は、特徴データを特徴選択部106へ出力する。尚、特徴データは、推定された初期脈拍数、検出された特徴点、抽出されたパルス信号、特定されたノイズ源ラベル、生成されたROIフィルタの係数、及び、周波数分析の結果の少なくとも1つを含む。
特徴選択部106は、脈拍数推定部105により出力された特徴データを含む入力データから高レベルの特徴を生成する。尚、特徴データは、特徴選択部106により生成された高レベルの特徴よりも低い品質を有する。なぜならば、特徴データは、ノイズあり/破損したパルス信号を含む。特徴選択部106は、特徴データ処理部の例である。特徴選択部106は、第1の特徴データについてノイズを削減するために、所定の統計プロセスを行い、第3の特徴データを出力する。このように、特徴選択部106は、第1の特徴データの中からより高い品質を有する第3の特徴データを選択し、第1の特徴データから第3の特徴データを抽出し、又は、第1の特徴データに基づいて第3の特徴データを生成する。尚、特徴選択部106は、第1の特徴データにおける色空間変換、フィルタの結合、及び、信号分解の少なくとも1つを所定の統計プロセスとして実行するとよい。例えば、特徴選択部106は、特徴データを入力として取得し、信頼レベル判定のために用いられる特徴を取得するための入力における色空間変換、フィルタの結合、及び/又は、信号分解を適用する。特徴選択部106により生成された高レベル特徴は、パルス信号を生成する高い精度を特徴づけ、ノイズあり/破損したパルス信号からそれを区別し、信頼性インデクス/信頼値を取得する信頼回帰部107へそれをフィードするために、潜在的に使用され得る。
信頼回帰部107は、特徴選択部106により生成された第3の特徴データを、入力として用いて、及び、推定された初期脈拍数(又はHR)と正解脈拍数(又はHR、第1の人体から測定された生理学的情報の測定値)の間の差分を、ラベルとして用いて、回帰分析モデル(判定モデル)を学習する。回帰分析モデルは、数学的モデルが実装されたコンピュータプログラムモジュールである。回帰分析モデルは、特徴選択部106により生成された特徴を入力し、初期脈拍数の推定における信頼性を示す0及び1の間の信頼値(信頼レベル/信頼性インデクス)を判定し、信頼値を出力する。0に近い信頼値は、推定された初期脈拍数とHRの正解脈拍数の間の高い差分を意味し、1に近い信頼値は、推定された初期脈拍数とHRの正解脈拍数の間の低い差分を意味する。
信頼回帰部107は、判定モデルにより判定された信頼レベルと、正解の信頼レベル(ラベル、推定された初期脈拍数と正解脈拍数の間の差分)の間の差分を最小化するように、回帰分析モデルを学習する。言い換えると、信頼回帰部107は、観察中の映像フレームの集合のそれぞれについて、0と1の間の数、信頼性インデクス(又は信頼性レベル/値)を生成し、特徴選択部106により生成される特徴を入力として取得するモデル関数を近似する回帰分析モデルを学習する。さらに、信頼回帰部107は、第1の脈拍数が測定値に近づくにつれて、信頼値がより高くなると判定されるように、判定モデルを学習するとよい。
尚、学習データに対するこれらの信頼性インデクスは、自動的な生成が推奨されるが、手動又は自動で生成されるとよい。信頼性インデクスラベルの自動生成について、信頼回帰部107は、HR値の正解脈拍数と推定された初期脈拍数値の間の差分を生成するとよい。この場合において、信頼回帰部107は、差分が小さくなるほど信頼性インデクスがより高くなるように回帰分析モデルに学習させる。学習段階の完了時、学習済みモデルは、見えないテストデータに対する信頼性インデクスを生成するために、テスト段階において使用され得る。
テスト段階において、映像撮影部101が推定用の身体の部位の第2の映像データを撮影した場合、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104及び脈拍数推定部105は、第2の映像データから第2の初期脈拍数を推定する。さらに、特徴選択部106は、第2の初期脈拍数及び第2の初期脈拍数を推定することにおいて導出される他の特徴を含む、第2の特徴データから、第2の高レベル特徴を生成する。
信頼推定部108は、特徴選択部106により生成された第2の高レベル特徴を取得し、第2の高レベル特徴と信頼回帰部107により学習された判定モデルとを用いて、第2の脈拍数の信頼値を取得する。すなわち、信頼推定部108は、第2の高レベル特徴(又は第2の特徴データ)を学習済み判定モデルに入力する。そして、学習済み判定モデルは、観察中の映像フレームの集合のそれぞれについて、0と1の間の数、信頼性インデクス(又は信頼レベル/値)を生成し、生成された信頼性インデクスを信頼推定部108へ出力する。
基準選択部109は、学習済み判定モデルにより生成された、過去の映像フレーム(2-10秒)の信頼性インデクスを用いて、観察中の映像フレームの集合のそれぞれについて、基準(例えば、基準HR周波数、周期性値又は反復基本単位)を選択する。すなわち、基準選択部109は、望ましいノイズのない心臓変動を粗く特徴づける基準を生成するために、過去及び/又は未来の2-10秒からの映像フレームの信頼性インデクスを使用する。前記基準は、第2の映像データにおいて、各フレームに対する周期の基準である基準周期性情報の一例である。このように、基準選択部109は、取得された信頼値に基づき基準周期性情報を選択するとよい。前記基準は、脈拍数値、周期性値、又は、ノイズシナリオで予測される、汚れのないパルス信号を示す信号であるとよい。以下の説明において、基準選択部109は、基準周期性値を基準として選択するものとする。
周期成分抽出部110は、基準選択部109により選択された基準を用いて、ROI選択及びパルス抽出部104により抽出されたパルス信号(部分領域パルス信号)から周期成分を抽出する。尚、部分領域パルス信号の集合は、周期成分抽出部110に対して複数成分の入力信号を形成する。そして、周期成分抽出部110は、入力データから基準信号と最も一致する周期成分を抽出するために、周期的成分抽出又は相関の最大化を行う。言い換えると、周期成分抽出部110は、ノイズのないパルス信号を抽出することを目的として、複数成分パルス信号(顔面上で、3つのカラーチャネル(R,G,B)、(HSVのような)他の色の部分空間チャネル、又は、空間チャネルである成分、部分ROI)から周期的成分を抽出するために、信号分解法又は自己相関の最大化を使用するだけでなく、適応フィルタを適用する。適応フィルタリングは、信頼レベル値に基づいて、周波数領域又は時間領域フィルタリングをパルス信号に適用する。そして、基準選択部109からの基準周期性は、カットオフ値又は帯域幅又は適応フィルタの他の同様のパラメータを判定するために使用され得る。さらに、周期成分抽出部110は、周期成分のFFT(Fast Fourier Transform)において最大のピークに対応する通常の周波数値である、最終脈拍数(第3の脈拍数)を、最後に出力として与える。すなわち、周期成分抽出部110は、抽出された周期成分における周波数分析を実行することにより最終脈拍数を推定する。さらに、周期成分抽出部110は、基準周期性情報を用いて第3の脈拍数を推定する。さらに、周期成分抽出部110は、第2の映像データ内の各フレームから第1の推定部により抽出された複数成分のパルス信号から特定の周期成分の少なくとも1つを、基準周期性情報を用いて、抽出することにより、第3の脈拍数を推定するとよい。
<装置の動作>
図2は、本開示の第1の実施形態にかかる脈拍数推定のための学習段階を説明するためのフローチャートである。以下の説明では、脈拍数推定装置100が人物の顔の映像から心拍数を推定するものとする。また、第1の実施形態では、脈拍数推定方法は、脈拍数推定装置100を動作させることにより実行される。従って、本実施形態の脈拍数推定方法の説明は、脈拍数推定装置100により実行される以下の動作の説明に置き換えられる。
最初に、映像撮影部101は、学習用の人間の顔の第1の映像データを撮影する。そして、身体部位追跡部102は、映像撮影部101から第1の映像データを受信する(S11)。
次に、脈拍数推定装置100は、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104及び脈拍数推定部105を用いて、初期脈拍数推定を実行する(S12)。その後、脈拍数推定装置100は、特徴選択部106及び信頼回帰部107を用いて、判定モデル学習を実行する(S13)。
図3は、本開示の第1の実施形態にかかる初期脈拍数推定処理を説明するためのフローチャートであり、図5は、撮影画像から初期脈拍数を推定する処理の概念を説明するための図である。
最初に、身体部位追跡部102は、撮影画像群200(第1の映像データ)の各フレームから特徴点を検出する(S120)。つまり、身体部位追跡部102は、各映像フレームについて、(学習するために)観察されている第1の人物の顔を追跡する。例えば、身体部位追跡部102は、撮影画像群200の一つである撮影画像201内の特徴点202を検出する。
次に、ノイズ源検出部103は、特徴点群に基づいて各フレーム内のノイズ源を特定し(S121)、フレームノイズ源ラベル203を各フレームに割り当てる。つまり、ノイズ源検出部103は、特徴点202を用いて撮影画像201内のノイズ源を特定し、1種類のノイズ源であるラベルの一つを撮影画像201のフレームに割り当てる。例えば、フレームノイズ源ラベルは、3つのラベルM、E及びSを含むとよい。ラベルMはフレームのノイズ源が「頭部移動」であることを示す。ラベルEは、フレームのノイズ源が「表情」であることを示す。ラベルSは、ノイズ源がフレームから「未だ(still)」特定されていない、つまり、フレームのノイズ源が「ない」ことを示す。その後、ノイズ源検出部103は、割り当てられたラベルをROI選択及びパルス抽出部104へ出力する。
同時に、ROI選択及びパルス抽出部104は、顔上のROIを選択し、ノイズの局在化(localization)及びパルス情報のために、各ROIをいくつかのROI部分領域に分割する(S122)。例えば、ROI選択及びパルス抽出部104は、特徴点202に基づいて撮影画像201から顔上のROIを選択し、ROIをいくつかのROI部分領域204に分割する。
ステップS121及びS122の後、ROI選択及びパルス抽出部104は、各ROI部分領域からパルス信号を抽出する(S123)。例えば、ROI選択及びパルス抽出部104は、ノイズ源ラベル203を用いて、ROI部分領域204からパルス信号205を抽出する。
ステップS121及びS123の後、ROI選択及びパルス抽出部104は、割り当てられたラベルを用いて、抽出されたパルス信号に存在する有用なパルス情報の量に比例する重みを各ROI部分領域に割り当てるためのROIフィルタを生成する(S124)。例えば、ROI選択及びパルス抽出部104は、ノイズ源ラベル203及び抽出されたパルス信号205を用いて、ROIフィルタ206を生成する。ROIフィルタ206は、複数の係数l、l、l、・・・l(nは2以上の自然数)を含む。例えば、係数lは、抽出されたパルス信号205内の第1のパルス信号に対応し、第1のパルス信号は、撮影画像群200に含まれる第1のフレーム(撮影画像)のROI部分領域から、ステップS123において、抽出されたものである。そして、係数lは、第1のフレームに対応するノイズ源ラベルに基づき導出される。係数lは、抽出されたパルス信号205内の第2のパルス信号に対応し、その後は同じである。
ステップS124の後、ROI選択及びパルス抽出部104は、生成されたROIフィルタを抽出されたパルス信号に適用し、抽出されたパルス信号に対してラベル依存ノイズ補正を行う(S125)。例えば、ROI選択及びパルス抽出部104は、ROIフィルタ206を抽出されたパルス信号205に適用し、ノイズを削除すること及びノイズのないパルス信号を取得することのために、ラベル特定補正を行い、ノイズ抑制パルス信号をフィルタされたパルス信号207として出力する。
ステップS125の後、脈拍数推定部105は、抽出されたノイズ抑制パルス信号(結合されたパルス信号)における周波数分析を実行し、「簡易推定(simple estimate)」としても知られる脈拍数推定値を生成する。つまり、脈拍数推定部105は、フィルタされたパルス信号207における周波数分析を実行することにより、初期推定脈拍数208を推定する(S126)。例えば、初期推定脈拍数は、結合されたパルス信号のFFTの最高ピークに対応する周波数値であるとよい。
ステップS126の後、脈拍数推定部105は、推定された初期脈拍数、検出された特徴点(特徴点位置)、抽出されたパルス信号、特定されたノイズ源ラベル、生成されたROIフィルタの係数、及び、周波数分析(FFT)の結果の少なくとも1つを含む、(第1の)特徴データを特徴選択部106へ出力する(S127)。
図4は、本開示の第1の実施形態にかかる判定モデルの学習処理を説明するためのフローチャートであり、図6は、特徴データから判定モデルを学習する処理の概念を説明するための図である。
最初に、特徴選択部106は、脈拍数推定部105から出力された第1の特徴データを受信する(S131)。尚、第1の特徴データは、ノイズあり/破損したパルス信号を含むため、特徴選択部106による出力データよりも低いレベルの特徴といわれる。そのように、低レベル特徴210は、特徴点202、ノイズ源ラベル203、抽出されたパルス信号205及び推定された初期脈拍数208等を含む。
次に、特徴選択部106は、受信した第1の特徴データから学習用の(第3の)特徴データを抽出する(S133)。尚、第3の特徴データは、第1の特徴データよりも高い品質を有する。つまり、第1の特徴データは低レベル特徴210であり、第3の特徴データは高レベル特徴211である。第3の特徴データは、パルス信号を生成する高い精度を特徴づけ、ノイズあり/破損したパルス信号からそれを区別し、信頼性インデクス/信頼値を取得する信頼回帰部107へそれをフィードするために、潜在的に使用され得る。例えば、高レベル特徴211は、時間の経過に伴う特徴点グラフ/相対位置、パルス波形状及び組合せ、周波数特徴等を含むとよい。言い換えると、特徴選択部106は、より有用な情報(パルス波形状を撮影した特徴、又は、パルス波のノイズ特性、又は、特徴点位置等)を取得するために、(ニューラルネットワーク回帰部を用いて)明示的又は暗示的に高レベル特徴を抽出する。このように、第3の特徴データは、特徴点202、ノイズ源ラベル203、抽出されたパルス信号205、推定された初期脈拍数208等の一部を含むとよい。
ステップS131に依存せず、信頼回帰部107は、正解脈拍数を受信する(S132)。正解脈拍数212は、例えば、最良標準(gold standard)脈拍数測定装置を用いて、第1の映像データを撮影中に、第1の身体から測定された生理学的情報及び当該身体から測定された脈拍数である測定値の例である。
ステップS131及びS132の後、信頼回帰部107は、推定された初期脈拍数と正解脈拍数の間の差分を、教師データとして、算出する(S134)。例えば、信頼回帰部107は、推定された初期脈拍数208(U Hz)と正解脈拍数212(V Hz)の間の差分を、信頼レベルラベル213として算出する。
ステップS133及びS134の後、信頼回帰部107は、学習用の第3の特徴データ(高レベル特徴211)と教師データ(信頼レベルラベル213)を用いて、回帰分析モデルのパラメータを学習する(S135)。例えば、信頼回帰部107は、ネットワーク/モデルにより入力特徴の分布を学習する。回帰モデルは、特徴の集合がどれくらいノイズなしとみなされるかの測定値であり、簡易推定が正解脈拍数とどの程度一致するかに依存する、抽出された特徴について信頼性インデクス(0と1の間の値)を生成できる。信頼回帰部107は、不正確な推定値にペナルティを課し、正確な推定値に報酬を与えることにより、正解の信頼レベル(教師データ)と判定された信頼レベルの間の差分を最小化するように回帰モデルを学習する。言い換えると、信頼回帰部107は、ある時点で、入力映像ストリームがどれくらい信頼できるかに対応する、0と1の間のスカラー値(信頼レベル)を取得するために、高レベル特徴の分布を学習する。例えば、信頼回帰部107は、例えば、以下の式を用いて、正確な信頼レベルを出力するための信頼レベル回帰分析モデルの重みを学習する。
Minimize || w * (入力特徴ベクトル) - Y || ^2
尚、信頼回帰部107は、脈拍数推定装置100内の記憶装置(不図示)へ学習済み回帰モデル(学習済み判定モデル214)を出力するとよい。
図7は、本開示の第1の実施形態にかかる脈拍数推定のためのテスト段階を説明するためのフローチャートであり、図8は、テスト段階において初期脈拍数から最終脈拍数を推定する処理の概念を説明するための図である。
最初に、身体部位追跡部102は、撮影画像の各フレーム(第2の映像データ)から特徴点を検出する(S21)。尚、第2の映像データは、パルス信号が見えない撮影画像であり、パルス信号の推定用のデータである。つまり、身体部位追跡部102は、各映像フレームについて(推定用に)観察されている第2の人物の顔を追跡する。例えば、身体部位追跡部102は、推定用の撮影画像の一つである撮影画像221内の特徴点222を検出する。
次に、図3のステップS120からS127のように、脈拍数推定装置100は、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104及び脈拍数推定部105を用いて、初期脈拍数推定を行う(S22)。結果として、脈拍数推定部105は、第2の映像データから第2の初期脈拍数を推定し、第2の初期脈拍数及び第2の初期脈拍数を推定する際に導出された他の特徴を含む、第2の特徴データを特徴選択部106へ、出力する。例えば、第2の特徴データは、特徴点222、ノイズ源ラベル223、抽出されたパルス信号225、推定された初期脈拍数228等を含む、低レベル特徴230である。
ステップS22の後、図4のステップS131及びS133のように、特徴選択部106は、第2の特徴データを受信し、受信した第2の特徴データから、学習済み判定モデル214へ入力するための(第4の)特徴データを抽出する(S23)。第4の特徴データは、特徴点222、ノイズ源ラベル223、抽出されたパルス信号225、推定された初期脈拍数228等の一部を含むとよい。
ステップS23の後、信頼推定部108は、学習済み判定モデル214を用いて、第2の脈拍数の信頼レベルを判定する(S24)。学習済み判定モデル214、つまり、学習済み回帰部又は学習済み回帰分析モデルは、図4のステップS135において信頼回帰部107により学習されたパラメータである、重みを設定(/修正)されていた。つまり、学習済み判定モデル214は、正確な信頼レベルを出力するための回帰分析モデルの重みをすでに学習済みである。
より具体的には、信頼推定部108は、特徴選択部106から第2の高レベル特徴211(第4の特徴データ)を取得し、第2の高レベル特徴211を学習済み判定モデル214へ入力する。学習済み判定モデル214は、例えば、以下の式を用いて、第2の高レベル特徴211から信頼レベル232を生成する。
信頼レベル=w*(入力特徴ベクトル)
そして、学習済み判定モデル214は、信頼レベル232を信頼推定部108へ出力する。このように、信頼推定部108は、信頼レベル232を取得する。例えば、信頼レベル232は、第2の映像データの信頼値を示すスカラー値(0と1の間)である。信頼レベルは、ノイズの存在下でのパルス信号から心臓変動を抽出するために、基準選択部109及び周期成分抽出部110により用いられる。
ステップS24の後、基準選択部109は、信頼レベル232を用いて、フレームの集合(第2の映像データ)のそれぞれについて、基準脈拍数233を選択する(S25)。例えば、基準選択部109は、より精緻な周波数分析が最終脈拍数を取得するために行われる間に、代表的な周波数値を選択する。(過去及び/又は未来から)隣接フレームの信頼レベル232は、基準を選択する(粗いレベルの推定)ために用いられる。言い換えると、基準選択部109は、基準パルス信号又は脈拍数(周波数/周期性)値を選択する。つまり、基準が近い過去及び/又は未来の高信頼の入力特徴から選択されるため、基準選択は、最終推定脈拍(数)が基準と同様であると予想されることを意味する。言い換えると、基準選択部109は、以前及び/又は未来の2-10秒から第2の映像フレームの信頼性インデクスを用いることにより、望ましいノイズのない心臓変動を粗く特徴づける基準を生成する。基準は、脈拍数値、又は、周期性値、又は、ノイズシナリオで予測される、汚れのないパルス信号を示す信号であるとよい。尚、本実施形態では、基準脈拍数値が選択されたものとする。
ステップS25の後、周期成分抽出部110は、基準選択部109により選択された基準を用いて、ROI選択及びパルス抽出部104により抽出されたパルス信号(部分領域パルス信号)から周期成分234を抽出する(S26)。つまり、周期成分抽出部110は、選択された基準周波数を用いて、パルス波の最も周期的な成分を抽出する。言い換えると、周期成分抽出部110は、基準周波数を用いて精緻なレベルの推定を行い、より精緻な周波数分析は、最終脈拍数を取得するために実行される。例えば、周期成分抽出部110は、選択された基準(選択された基準レートと近いレート、又は、選択された基準信号と密接に似ているパルス波)に近いノイズあり入力特徴から最も周期的な成分を抽出する。別の例では、周期成分抽出部110は、ノイズのないパルス信号を抽出することを目的として、複数成分パルス信号(顔面上で、3つのカラーチャネル(R,G,B)、(HSV、YCbCr等のような)他の色の部分空間チャネル、又は、空間チャネルである成分、部分ROI)から周期的成分を抽出するために、基準選択部109により生成された粗い基準の助けを借りて、適応フィルタリング、信号分解法及び/又は自己相関の最大化を使用する。
ステップS25の後、周期成分抽出部110は、周期成分234の周波数分析を行い、最終脈拍数235を出力する(S27)。つまり、周期成分抽出部110は、周期成分234の周波数分析を行うことにより、最終脈拍数235(第3の脈拍数)を推定する。
<映像シーケンスからの脈拍数推定>
第1の推定部は、(映像撮影部101、)身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104及び脈拍数推定部105を含む。第1の推定部は、ウェブカメラ、又は、赤外線カメラ、又は、任意の映像撮影装置から、任意の画像のシーケンス、事前に録画された映像(画像のシーケンス)又はライブビデオ録画ストリームを入力として取得して、「簡易脈拍数推定」を行う。さらに、第1の推定部は、推定されたパルス信号である出力を生成する。このプロセスにおいて、第1の推定部は、ノイズ源、ROIフィルタの重み、パルス信号統計(平均、分散等)、パルス信号のFFT、パルス信号のSNR等のようなパルス信号を説明する多くの特徴を生成する。簡易脈拍数推定の処理で生成された特徴と共に、推定されたパルス信号は、特徴選択部106において高レベル特徴を生成するために低レベル特徴として使用される。我々は、以下に特徴選択部106の動作を説明する。
<特徴選択>
第1の推定部における信号処理中に生成された低レベル特徴は、パルス信号がノイズによりどの程度が破損しているかに関する情報を含む。しかしながら、これらの機能の全てがノイズの効果(又は信頼性インデクス)を判定するために有用又は関連するわけではない。このように、我々は、回帰分析をより正確にするために、ノイズについてより多くの情報を与える特徴を特定(又は高レベル特徴を生成)し、特徴選択部106の出力としてそれらの特徴のみを選択することを必要とする。
関連機能を選択するための複数の方法がある:
i)パルス信号のSNR(最大ピーク前後のパワースペクトル密度(PSD)と脈拍数周波数帯上のPSDの比率)、平均及び分散等のようなノイズ関連情報を含む特徴を手動で選択/生成する
ii)PCA/ICA/LDA、LASSO回帰、CFS等のようなフィルタ及びラッパー法を用いて、明示的な特徴選択/除去を行う
iii)学習段階において、回帰のために用いられる回帰分析技術又はニューラルネットワークにより実行される暗示的な特徴選択
本開示の第1の実施形態は、学習段階において回帰分析を実行することにより、信頼レベルを入力特徴に割り当てるために学習されるニューラルネットワークを介して、暗示的特徴選択(上記(iii)の方法)を実行する。
<学習段階-信頼レベルに関する回帰モデルを学習すること>
学習段階は、信頼回帰部107が入力特徴の分布を学習するために回帰分析モデル(/ネットワーク)を学習し、それらに信頼レベル/信頼性インデクス(0と1の間の値)を割り当てる期間である。正解ラベル(信頼の正解値)は、最良標準脈拍数測定装置(例えば、心拍数の場合、最良標準ECG装置)を用いて、測定され得る正解脈拍数の知識で生成される。0に近い正解信頼レベル値は、推定された初期脈拍数とHRの正解脈拍数の間の高い差分を意味し、1に近い正解信頼レベル値は、推定された初期脈拍数とHRの正解値の間の低い差分を意味する。推定された初期脈拍数は、上記「簡易脈拍数推定」法を用いて、脈拍数推定部105により推定された脈拍数である。
本開示の第1の実施形態は、時刻tに取得された入力特徴について、(回帰分析モデルを学習するために「教師信号」としての機能を果たす)正解信頼レベルを計算するために式(1)で与えられる式を使用する。しかしながら、推定された初期脈拍数が最良標準脈拍数測定装置を用いて正解脈拍数値にどのくらい近いか(またはどのくらい遠いか)を示す、任意の測定値は、正解信頼レベルとして使用され得る。
Figure 0007131709000001
回帰分析モデルは、不正確な推定値ペナルティを課し、正確な推定値に報酬を与えることにより、正解の信頼レベルと判定された信頼レベルの間の差分を最小化するために学習される。
この処理では、回帰分析モデルの重み(例えば、線形回帰モデルにおける重み係数)は、モデルにより予測される信頼レベルと正解信頼レベルの間の誤差を最小化するために最適化される。式(2)及び(3)は、このことが、入力データ行列X(n×m、n個のデータ点、m個の特徴)、正解ラベル列行列Y(n×1)及び重みベクトルW(m×1)を用いて、最小二乗回帰について行われる方法を示す。我々は、XW及びYの間の誤差が最小化されるように、最適な重みWを見つける必要がある。
Figure 0007131709000002
Figure 0007131709000003
学習が完了した後、信頼回帰部107は、回帰モデルの重みW*を凍結し、テスト段階で信頼推定部108としてそれを使用する。
任意の新規な入力
Figure 0007131709000004
は、
学習済みの最小二乗回帰部の場合に、信頼レベル
Figure 0007131709000005
を割り当てられるだろう。本開示の第1の実施形態において、回帰分析の同一行に沿って、信頼回帰部107は、入力特徴全体の信頼レベル分布を学習するために、より洗練されたRNN(Recurrent Neural Network)ベースの回帰部を使用するとよい。
<テスト段階>
テスト段階は、学習段階の後に来る。テスト段階は、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105及び特徴選択部106を用いることにより、学習段階と同じ初期ステップで構成される。学習段階の完了後のため、判定モデルは学習済みであり、信頼推定部108は、新しい(見えない)入力特徴の信頼レベルを継続的に推定及び更新するためにそれを使用して、必要に応じて、長い時間(30秒-60秒)だけでなく、短い時間(2秒-4秒)の枠(windows)について信頼レベル値を推定する。これに続いて、基準選択部109は、信頼推定部108において推定された信頼値を用いて、望ましい心臓変動を粗く示す基準(周期性値、脈拍数値、又は、反復基本単位、別名cyclet)値を選択するために、基準選択を行い、最後に、周期成分抽出部110は、望ましい心臓変動を最も良く示す成分を取得するために周期的成分抽出を行う。この周期成分の周波数(つまり、レート=1/周期性)は、最終脈拍数推定値を取得するために使用される。特徴選択部106後にテスト段階で使用される各成分は、以下でより詳細に説明される。
<信頼レベル推定>
一旦、判定モデルが学習され、重みWがロックされると、それは、信頼推定部108によりテスト段階で使用される。最小二乗回帰部の単純なケースが式(2)及び(3)により示されるため、
信頼レベル推定値
Figure 0007131709000006
(0と1の間のスカラー)であって、映像入力の小さい長さを示し、任意の新しい、見えない入力特徴集合
Figure 0007131709000007
におけるものは、
Figure 0007131709000008
により与えられるだろう。
学習済みRNNベース回帰部は、また、特徴選択部106で生成された特徴集合を入力として取り込み、入力特徴集合ごとのスカラー値を出力として配布して、同様の方法で実行するだろう。この信頼レベルは、入力特徴の信頼性(及び例として、長い映像シーケンスのごく一部の簡易脈拍数推定技術(第1の推定部)、例えば、長い映像シーケンス内で、時刻t及び時刻t+4の間の映像クリップにより生成された脈拍数推定の信頼性を示すだろう。テストデータから長い映像シーケンス内の時刻tにおいて、この方法、信頼推定部108は、時刻tまでの全ての時間に渡って、すなわち、時刻0秒から時刻tへの全時間において、信頼レベルを推定することができる。基準選択部109は、映像内の時刻tに(ROI選択及びパルス抽出部104により)取得されたパルス信号に存在する心臓変動を粗く示すための信頼できる基準(周期性値、脈拍数値、又は、反復基本単位、別名cyclet)を選択するために、(推定がリアルタイムではなく、しばらく経って実行される場合)未来からだけでなく、(推定がリアルタイムに実行されている場合)過去からこれらの信頼レベルを使用する。
<基準選択>
基準選択は、望ましいパルス信号の粗いレベル推定に対して使用される信号の定義特性を選択する手順である。例えば、脈拍数は0.2から0.3Hzの間であると確信する場合、基準はレート0.25Hzであり、0.1Hzの帯域幅で0.25Hzを中心とする狭帯域通過フィルターは、ノイズパルス信号内に(HR推定の場合)心臓変動を見つけるために使用される。基準は、(周波数内で)パルス信号のローカライズに役立ち、参照のない場合の脈拍数として間違えられ得る(基準脈拍数値から遠くである)誤った脈拍数の値を破棄する。最終推定脈拍数が基準に大きく依存するため、基準が正確に選択されることが必要である。特許文献2及び特許文献3の先行手法は、短期/長期に渡って、平均脈拍数として、又は、短期/長期に渡って、最高の自己相関値を有する反復基準単位(cyclet)として、基準を算出し、しかし、特に、(基準計算が短期間分析を用いて行われる場合)ノイズの存在において、又は、(基準計算が長期間分析を用いて行われる場合)急速に変化する脈拍数の存在において、その方法で算出された基準は、不正確になりやすい。
したがって、本実施形態は、式(4)による各時刻tにおいて、基準(新発明の第1の実施形態における基準脈拍数値)を計算するために、映像内の(実時間処理の場合)過去及び(処理がしばらく経って行われる場合)未来の時間インスタンス内で、推定された信頼レベルを使用する。
Figure 0007131709000009
この基準レートは、次の原則及びこれらの原則が代わりに使用され得ることに続く、他の基準を用いて算出される:
i. 基準は、時間範囲[t-p、t+f]内にある(脈拍数推定部105から取得された)推定された脈拍数値を用いて、すなわち、過去のp秒から未来のf秒の範囲の、t前後の通常の小さな時間枠内の推定された初期脈拍数(又は他の特徴)に基づいて、算出される。脈拍数が(ラグなしに)リアルタイムに推定されている場合f=0。
ii. 時刻tに近い時刻tで推定レートが与えられることがより重要である。
iii. 高い信頼レベルで推定値が与えられることがより重要である。
この方法で算出された基準レートは、現在時刻tからそれらの時間差だけでなく推定値の信頼性を考慮する。従って、基準レートは、推定されたレート、及び、t前後の小さな時間枠にあるこれらの推定値の信頼性ラベルの支援で、時刻tで推定された脈拍数の粗いアイデアを我々に与える。次に、周期成分抽出部110は、時刻t1における脈拍数をより正確に推定するために、基準の周囲でより詳細な分析を実行する。
<周期的な成分抽出>
基準選択部109により取得された基準(脈拍数)を用いて、周期成分抽出部110は、基準周波数付近の小さな周波数範囲で最も大きな周期成分を抽出するために、基準脈拍数に対する狭帯域周波数分析(例えば、狭帯域通過フィルター)、又は、相関最大化、又は、周期成分分析を使用する。言い換えると、上述したこれらの周期成分抽出技術は、ROI選択及びパルス抽出部104により取得された複数成分のパルス信号内に最も顕著/強力である周期成分を見つけるために、(パルスが周期的/準周期的であるため)基準の使用をさせる。これらの成分は、カラーチャネル(R,G,B)、他の色空間(HSVのような)、又は、顔上の部分ROIとしても知られる空間チャネルから取得され得る。例えば、狭帯域周波数分析は、最終推定値として選択されているこの狭帯域を超えている任意の推定値の可能性を削除するだろう。つまり、(任意のソースに起因して生成された)ノイズがあり、不正確な推定値が脈拍数推定精度の向上につながる、基準脈拍数に同意しない場合、それらは、破棄されるだろう。
<最終脈拍数推定>
最終脈拍数235は、抽出された周期成分における周波数分析を行うことにより取得され、周期成分抽出部110の出力である。一般的に、(その周期性の逆数である)この周期成分のFFTの最高ピークは、最終脈拍数推定値として選択される。
<本実施形態の効果>
第1の効果は、未知のソースからのノイズの存在における高精度なHRを推定できることを保証することである。本実施形態によれば、正確な脈拍数推定値という結果であり、これらの特徴を不正確な脈拍数推定値を生成するものと区別する特徴の分布を学習するための回帰分析モデル/ネットワークを学習することにより、いくつかの制御不能なノイズ源により取り込まれるノイズを正常に検出及び定量化することができる。これらのノイズ源は、観察下の人物により実行される剛体及び非剛体運動、オクルージョン、顔追跡エラー、光源変更等を含み、複雑な破損を観察された信号に取り込み、HRを推定することを難しくするが、学習済みの回帰モデルを用いることにより、本開示は、周期的成分抽出に対する正確な基準を選択するだけでなく、新たなパルス信号の信頼性を正確に推定し、ノイズにより取り込まれる破損の範囲を定量化することもできる。
第2の効果は、顔(又は身体の部位)追跡に失敗した場合でさえ、高精度にHRを推定できることを保証することである。本実施形態によれば、先行技術とは異なり、破損したパルス信号の分布を学習するための回帰分析を用いることにより、本開示は、低い信頼値をノイズデータに割り当てることにより、そのような追跡失敗を特定し、ノイズを削除する方法を有する。高い信頼データは、脈拍数推定処理を支配し、したがって、先行技術で検出されない、顔追跡失敗に起因する破損データは、脈拍数推定に十分に寄与しないため、より高い精度をもたらす。
第3の効果は、未知のソースからのノイズの存在でさえ、高精度にHRを推定できることを保証することである。本実施形態によれば、先行技術とは異なり、破損したパルス信号の分布を学習するための回帰分析を用いることにより、本開示は、低い信頼値をノイズデータに割り当てることにより、未知のソースから来るノイズを特定し、削除する方法を有する。高い信頼データは、脈拍数推定処理を支配し、したがって、先行技術で検出されない、未知のソースに起因する破損データは、脈拍数推定に十分に寄与しないため、より高い精度をもたらす。
第4の効果は、厳密な頭部移動又は表情の存在でさえ、高精度にHRを推定できることを保証することである。本実施形態によれば、先行技術とは異なり、破損したパルス信号の分布を学習するための回帰分析を用いることにより、本開示は、ノイズデータがノイズのないデータと非常に区別でき、したがって非常に低い信頼値を取得するという特徴を有するため、高い有意性のものを特定し、削除する方法を有する。高い信頼データは、脈拍数推定処理を支配し、したがって、脈拍数推定処理の先行技術に対して優位を占め、厳密な頭部移動又は表情により影響されたデータは、脈拍数推定に十分に寄与しないため、より高い精度をもたらす。
第5の効果は、不正確な基準推定選択のケースを削減することにより、正確にHRを推定できることを保証することである。先行技術は、信頼できると考えられる脈拍数推定値に対して頭部移動及び表情の欠如を要求するだけであるが、本実施形態によれば、基準レートは、(ノイズのないソースを特定するために具体的に選択された特徴に基づく学習済みの回帰モデルにより)最近の過去(又は未来)に高い信頼を割り当てられていた推定値を用いて選択される。未知のソースに起因してノイズが存在する場合に、先行技術は、その素朴な基準のため不正確な「基準HR」を選択する可能性がある。一方、本開示において信頼を割り当て、基準レートを選択する洗練された手順により、未知のソースに起因するノイズの存在でさえ、正確な基準レートが選択されることを意味する。最終脈拍数推定値が基準レート値に大きく依存するため、より正確な基準選択は、より正確な脈拍数推定を意味する。あるいは、同じ処理は、近赤外線カメラ又は赤外線カメラを用いること、及び、これらのイメージングデバイスの出力ピクセル値を用いることにより、実行され得る。その場合、その効果を得ることができる。
上述したように、本発明によれば、頭部移動、顔の表情、追跡エラー、及び/又は、未知のソースにより引き起こされるノイズの存在の場合に、HR推定精度を向上することができる。非特許文献1及び特許文献1に対する新規な発明の主な利点は、それに加えて(非特許文献1及び特許文献1と同様に動的なROI選択を通じて)映像データの相対的な空間信頼性の判定であり、また、本新規な発明は、映像データの(信頼回帰部及び信頼推定部を通じた)絶対的な時間的信頼性の判定を行い、
i. パルス信号が(ノイズ源に依存しない)ノイズにより破損されたか否かを検出し、
ii. (信頼レベル/信頼性インデクスを用いて)ノイズによる破損のレベルを定量化し、
iii. (高い信頼及び低い破損を用いて信頼できる基準を選択することにより)このノイズを削除し、(適応フィルタ及び周期成分抽出を用いることにより)最高がノイズのない心臓変動を示す成分を抽出する
ことに、新しい発明が役立つ。
<プログラム>
本実施形態のプログラムは、図2,3,4及び7に示される必要なステップをコンピュータに実行させるプログラムであることのみが必要である。本実施形態にかかる脈拍数推定装置100及び脈拍数推定方法は、コンピュータにプログラムをインストールし、それを実行することにより実現できる。この場合、コンピュータのプロセッサは、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105、特徴選択部106、信頼回帰部107、信頼推定部108、基準選択部109及び周期成分抽出部110として機能する。
本実施形態にかかるプログラムは、複数のコンピュータを用いて構築されるコンピュータシステムにより実行できる。この場合、例えば、各コンピュータは、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105、特徴選択部106、信頼回帰部107、信頼推定部108、基準選択部109及び周期成分抽出部110を別のものとして機能する。
また、本実施形態にかかるプログラム実行することにより脈拍数推定装置100を実現するコンピュータは、図面を参照して説明される。図9は、本開示の第1の実施形態にかかる脈拍数推定装置のハードウェア構造を示すブロック図である。
図9に示されるように、コンピュータ10は、CPU(Central Processing Unit)11、メインメモリ12、ストレージ装置13、入力インタフェース14、ディスプレイコントローラ15、データリーダ/ライタ16及び通信インタフェース17を備える。これらの部は、相互データ通信が可能なようにバス21を介して接続される。
CPU11は、ストレージ装置13に格納された本実施形態にかかるプログラム(コード)を、プログラムをメインメモリ12へ展開し、所定のシーケンスでそれらを実行することにより様々な演算を実行する。メインメモリ12は、DRAM (Dynamic Random Access Memory)等の一般的な揮発性ストレージデバイスである。また、本実施形態にかかるプログラムは、コンピュータ可読記憶媒体(記録媒体)20に格納された状態で提供される。尚、本実施形態にかかるプログラムは、通信インタフェース17を介して接続された、インターネット経由で配布されてもよい。
また、ストレージ装置13の具体例は、ハードディスクドライブに加えて、フラッシュメモリ等の半導体ストレージを含む。入力インタフェース14は、CPU11とキーボード又はマウス等の入力装置18との間でデータ通信を仲介する。ディスプレイコントローラ15は、ディスプレイ装置19と接続され、ディスプレイ装置19上の表示を制御する。
データリーダ/ライタ16は、CPU11と記録媒体20の間のデータ通信を仲介し、記録媒体20からプログラムを読み出し、コンピュータ10により実行される処理の結果を記録媒体20に書き込む。通信インタフェース17は、CPU11及び別のコンピュータの間のデータ通信を仲介する。
また、記録媒体20の具体例は、CF(Compact Flash (登録商標))等の汎用半導体記憶装置、SD(Secure Digital)、フレキシブルディスク等の磁気記憶媒体、及びCD-ROM (Compact Disk Read Only Memory)等の光記憶媒体を含む。
本実施形態にかかる脈拍数推定装置100は、プログラムがインストールされたコンピュータを用いるよりむしろ、様々なコンポーネントに対応するハードウェアのアイテムを用いて実現されてもよい。さらに、脈拍数推定装置100の一部は、プログラムにより実現され、脈拍数推定装置100の残りの部分は、ハードウェアにより実現されてもよい。
<第2の実施形態>
図10は、本開示の第2の実施形態にかかる推定装置30の構造を示すブロック図である。推定装置30は、第1の推定部31、学習部32、取得部33及び第2の推定部34を備える。
第1の推定部31は、皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定し、当該第1の脈拍数を推定するために前記第1の映像データに基づき導出された第1の特徴データを出力する。尚、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104及び脈拍数推定部105は、第1の推定部31の一例である。
学習部32は、前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する。尚、特徴選択部106及び信頼回帰部107は、学習部32の一例である。
取得部33は、前記第1の推定部が推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定した場合に、前記第1の推定部により導出された第2の特徴データを取得し、当該第2の特徴データと前記学習部により学習された前記判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する。尚、信頼推定部108は、取得部33の一例である。
第2の推定部34は、前記取得された信頼値に基づき、第3の脈拍数を推定する。尚、基準選択部109及び周期成分抽出部110は、第2の推定部34の一例である。
図11は、本開示の第2の実施形態にかかる推定方法を説明するためのフローチャートである。最初に、第1の推定部31は、皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理を実行する(S1)。次に、第1の推定部31は、第1の推定処理における第1の映像データに基づき導出された第1の特徴データを学習部32へ出力する(S2)。さらに、学習部32は、第1の特徴データと身体から測定された生理学的情報とに基づいて、第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する(S3)。さらに、第1の推定部31は、推定対象の身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理を行う。そして、第1の推定部31は、第2の推定処理において第2の映像データに基づき導出された第2の特徴データを取得部33へ出力する(S5)。その後、取得部33は、第2の特徴データと学習済みの判定モデルとを用いて、第2の脈拍数の信頼値を取得する(S6)。そして、第2の推定部34は、取得された信頼値に基づき、第3の脈拍数を推定する(S7)。
第2の実施形態によれば、推定精度を向上することができる。
<発明の他の実施形態>
当業者は、本開示のシステム、動作及び方法がいくつかの方法で実装され得、それ自体、前述の実施形態及び実施例によって限定されるべきではないことを認識するであろう。言い換えると、ハードウェア、ソフトウェア又はファームウェアの様々な組み合わせの中で単一又は複数のコンポーネントにより実行される機能的な要素が、サーバサイド(SPサイド)でソフトウェアアプリケーションの中で配布されるとよい。さらに、本開示のフローチャートに示された方法の実施形態は、技術のより完全な理解を提供するために例示の方法により提供される。同じ目標を達成するために、様々な構成要素を機能的に変更することができる代替の実施形態を企図することができる。本開示の目的のために様々な実施形態が説明されてきたが、そのような実施形態は、本開示の教示をそれらの実施形態に限定すると見なされるべきではない。本開示に記載されているシステムおよび動作の範囲内にとどまる結果を得るために、上記の要素及び動作に様々な変更及び修正を加えることができる。
さらに、本発明が上記の例示的な実施形態によって限定されないことは明らかであるが、すでに述べた本発明の範囲から逸脱することなく、様々な修正を加えることができる。例えば、上記の例示的な実施形態は、本発明をハードウェア構成であるとして説明したが、本発明はこれに限定されない。本発明はまた、CPU(Central Processing Unit)にコンピュータプログラム上で任意のプロセスを実行させることによって実現することができる。この場合、プログラムは、任意のタイプの非一時的なコンピュータ可読媒体を使用して、コンピュータに保存及び提供することができる。
非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフロッピーディスク、磁気テープ、ハードディスクドライブ等)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(compact disc read only memory)、CD-R(compact disc recordable)、CD-R/W(compact disc rewritable)、DVD(Digital Versatile Disc)、BD(Blu-ray (登録商標) Disc)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、任意のタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、有線通信路(電線及び光ファイバ等)又は無線通信路を介して、プログラムをコンピュータに供給できる。
前述の実施形態の一部または全ては、以下の付記のように説明することができるが、本発明はそれに限定されない。
(付記1)
皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定し、当該第1の脈拍数を推定するために前記第1の映像データに基づき導出された第1の特徴データを出力する第1の推定部と、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する学習部と、
前記第1の推定部が推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定した場合に、前記第1の推定部により導出された第2の特徴データを取得し、当該第2の特徴データと前記学習部により学習された前記判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する取得部と、
前記取得された信頼値に基づき、第3の脈拍数を推定する第2の推定部と、
を備える推定装置。
(付記2)
前記第1の特徴データにおけるノイズを減少するための所定の統計処理を行うことにより第3の特徴データを出力する特徴データ処理部をさらに備え、
前記学習部は、前記第3の特徴データを前記判定モデルの入力として用いて前記判定モデルを学習し、
前記取得部は、前記第2の特徴データから前記特徴データ処理部により出力された第4の特徴データを、前記学習部により学習された前記判定モデルの入力として用いて、前記第2の脈拍数の前記信頼値を取得する
付記1に記載の推定装置。
(付記3)
前記特徴データ処理部は、前記第1の特徴データに対する色領域変換、フィルタの結合及び信号分解の少なくとも1つを前記所定の統計処理として行う
付記2に記載の推定装置。
(付記4)
前記第2の推定部は、前記取得された信頼値に基づき、前記第2の映像データ内のフレームごとに周期の基準である基準周期情報を選択し、前記基準周期情報を用いて前記第3の脈拍数を推定する
付記1乃至3のいずれか1項に記載の推定装置。
(付記5)
前記第2の推定部は、前記第1の推定部により前記第2の映像データ内の各フレームから抽出された複数成分のパルス信号から、前記基準周期情報を用いて、特定の周期成分の少なくとも1つを抽出して前記第3の脈拍数を推定する
付記4に記載の推定装置。
(付記6)
前記生理学的情報は、前記第1の映像データの撮影中に、前記身体から測定された脈拍数である測定値であり、
前記学習部は、前記第1の脈拍数が前記測定値により近いほど前記信頼値がより高く判定されるように前記判定モデルを学習する
付記1乃至5のいずれか1項に記載の推定装置。
(付記7)
前記第1の推定部は、
前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
前記特徴点に基づき各フレームのノイズ源を特定し、
前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
前記ROIから複数の部分領域に分割し、
前記複数の部分領域のそれぞれからパルス信号を抽出し、
前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定する
付記1乃至6のいずれか1項に記載の推定装置。
(付記8)
前記第1の特徴データは、前記推定された第1の脈拍数、前記検出された特徴点の位置、前記抽出されたパルス信号、前記特定されたノイズ源、前記生成されたROIフィルタの係数、及び、前記周波数分析による分析結果の少なくとも1つを含む
付記7に記載の推定装置。
(付記9)
皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理を行い、
前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力し、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習し、
推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理を行い、
前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力し、
前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得し、
前記取得された信頼値に基づき、第3の脈拍数を推定する
コンピュータを用いた推定方法。
(付記10)
皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理と、
前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力する処理と、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する処理と、
推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理と、
前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力する処理と、
前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する処理と、
前記取得された信頼値に基づき、第3の脈拍数を推定する処理と、
をコンピュータに実行させる推定プログラムが格納された非一時的なコンピュータ可読媒体。
本開示は、ストレス検出、ヘルスケア及び事故防止を意図した生理学的情報を推定するためのシステム及び装置に適用可能である。
100 脈拍数推定装置
101 映像撮影部
102 身体部位追跡部
103 ノイズ源検出部
104 ROI選択及びパルス抽出部
105 脈拍数推定部
106 特徴選択部
107 信頼回帰部
108 信頼推定部
109 基準選択部
110 周期成分抽出部
200 撮影画像群
201 撮影画像
202 特徴点
203 ノイズ源ラベル
204 ROI部分領域
205 抽出されたパルス信号
206 ROIフィルタ
207 フィルタされたパルス信号
208 推定された初期脈拍数
210 低レベル特徴
211 高レベル特徴
212 正解脈拍数
213 信頼レベルラベル
214 学習済み判定モデル
221 撮影画像
222 特徴点
223 ノイズ源ラベル
225 抽出されたパルス信号
228 推定された初期脈拍数
230 低レベル特徴
231 高レベル特徴
232 信頼レベル
233 基準脈拍数
234 周期成分
235 最終脈拍数
10 コンピュータ
11 CPU
12 メインメモリ
13 ストレージ装置
14 入力インタフェース
15 ディスプレイコントローラ
16 データリーダ/ライタ
17 通信インタフェース
18 入力装置
19 ディスプレイ装置
20 記録媒体
21 バス
30 推定装置
31 第1の推定部
32 学習部
33 取得部
34 第2の推定部

Claims (9)

  1. 皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定し、当該第1の脈拍数を推定するために前記第1の映像データに基づき導出された第1の特徴データを出力する第1の推定部と、
    前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する学習部と、
    前記第1の推定部が推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定した場合に、前記第1の推定部により導出された第2の特徴データを取得し、当該第2の特徴データと前記学習部により学習された前記判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する取得部と、
    前記取得された信頼値に基づき、第3の脈拍数を推定する第2の推定部と、
    を備え
    前記第1の推定部は、
    前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
    前記特徴点に基づき各フレームのノイズ源を特定し、
    前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
    前記ROIから複数の部分領域に分割し、
    前記複数の部分領域のそれぞれからパルス信号を抽出し、
    前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
    前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定す
    推定装置。
  2. 前記第1の特徴データにおけるノイズを減少するための所定の統計処理を行うことにより第3の特徴データを出力する特徴データ処理部をさらに備え、
    前記学習部は、前記第3の特徴データを前記判定モデルの入力として用いて前記判定モデルを学習し、
    前記取得部は、前記第2の特徴データから前記特徴データ処理部により出力された第4の特徴データを、前記学習部により学習された前記判定モデルの入力として用いて、前記第2の脈拍数の前記信頼値を取得する
    請求項1に記載の推定装置。
  3. 前記特徴データ処理部は、前記第1の特徴データに対する色領域変換、フィルタの結合及び信号分解の少なくとも1つを前記所定の統計処理として行う
    請求項2に記載の推定装置。
  4. 前記第2の推定部は、前記取得された信頼値に基づき、前記第2の映像データ内のフレームごとに周期の基準である基準周期情報を選択し、前記基準周期情報を用いて前記第3の脈拍数を推定する
    請求項1乃至3のいずれか1項に記載の推定装置。
  5. 前記第2の推定部は、前記第1の推定部により前記第2の映像データ内の各フレームから抽出された複数成分のパルス信号から、前記基準周期情報を用いて、特定の周期成分の少なくとも1つを抽出して前記第3の脈拍数を推定する
    請求項4に記載の推定装置。
  6. 前記生理学的情報は、前記第1の映像データの撮影中に、前記身体から測定された脈拍数である測定値であり、
    前記学習部は、前記第1の脈拍数が前記測定値により近いほど前記信頼値がより高く判定されるように前記判定モデルを学習する
    請求項1乃至5のいずれか1項に記載の推定装置。
  7. 前記第1の特徴データは、前記検出された特徴点の位置、前記抽出されたパルス信号、前記特定されたノイズ源、前記生成されたROIフィルタの係数、及び、前記周波数分析による分析結果の少なくとも1つを含む
    請求項に記載の推定装置。
  8. 皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理を行い、
    前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力し、
    前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習し、
    推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理を行い、
    前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力し、
    前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得し、
    前記取得された信頼値に基づき、第3の脈拍数を推定し、
    前記第1の推定処理は、
    前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
    前記特徴点に基づき各フレームのノイズ源を特定し、
    前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
    前記ROIから複数の部分領域に分割し、
    前記複数の部分領域のそれぞれからパルス信号を抽出し、
    前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
    前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定する
    コンピュータを用いた推定方法。
  9. 皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理と、
    前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力する処理と、
    前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する処理と、
    推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理と、
    前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力する処理と、
    前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する処理と、
    前記取得された信頼値に基づき、第3の脈拍数を推定する処理と、
    をコンピュータに実行させ
    前記第1の推定処理は、
    前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
    前記特徴点に基づき各フレームのノイズ源を特定し、
    前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
    前記ROIから複数の部分領域に分割し、
    前記複数の部分領域のそれぞれからパルス信号を抽出し、
    前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
    前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定す
    推定プログラム。
JP2021542220A 2019-02-01 2019-02-01 推定装置、方法及びプログラム Active JP7131709B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/003691 WO2020157972A1 (en) 2019-02-01 2019-02-01 Estimation apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2022518751A JP2022518751A (ja) 2022-03-16
JP7131709B2 true JP7131709B2 (ja) 2022-09-06

Family

ID=71841987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021542220A Active JP7131709B2 (ja) 2019-02-01 2019-02-01 推定装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US20220240789A1 (ja)
JP (1) JP7131709B2 (ja)
WO (1) WO2020157972A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528072B (zh) * 2020-12-02 2021-06-22 深圳市三希软件科技有限公司 应用大数据存储的对象类型分析平台及方法
AU2022248761A1 (en) * 2021-03-31 2023-08-10 Lunit Inc. Method and apparatus for providing confidence information on result of artificial intelligence model
WO2022240306A1 (en) * 2021-05-11 2022-11-17 Harman Becker Automotive Systems Gmbh Fusing contextual sensors for improving biosignal extraction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006027A1 (ja) 2014-07-07 2016-01-14 富士通株式会社 脈波検出方法、脈波検出プログラム及び脈波検出装置
JP2018164587A (ja) 2017-03-28 2018-10-25 日本電気株式会社 脈波検出装置、脈波検出方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9510196B2 (en) * 2014-03-17 2016-11-29 Qualcomm Incorporated Method and apparatus for authenticating a user on a mobile device
US20150302158A1 (en) * 2014-04-21 2015-10-22 Microsoft Corporation Video-based pulse measurement
US10335045B2 (en) * 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
WO2018179150A1 (ja) * 2017-03-29 2018-10-04 日本電気株式会社 心拍推定装置
US11501430B2 (en) * 2017-09-15 2022-11-15 University Of Maryland, College Park Heart rate measurement using video
EP3495994A1 (en) * 2017-12-05 2019-06-12 Tata Consultancy Services Limited Face video based heart rate monitoring using pulse signal modelling and tracking
WO2019162054A1 (en) * 2018-02-20 2019-08-29 Koninklijke Philips N.V. System and method for client-side physiological condition estimations based on a video of an individual
JP6727469B1 (ja) * 2018-09-10 2020-07-22 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
WO2021252538A2 (en) * 2020-06-08 2021-12-16 Tactogen Inc Advantageous benzofuran compositions for mental disorders or enhancement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006027A1 (ja) 2014-07-07 2016-01-14 富士通株式会社 脈波検出方法、脈波検出プログラム及び脈波検出装置
JP2018164587A (ja) 2017-03-28 2018-10-25 日本電気株式会社 脈波検出装置、脈波検出方法、及びプログラム

Also Published As

Publication number Publication date
JP2022518751A (ja) 2022-03-16
WO2020157972A1 (en) 2020-08-06
US20220240789A1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
CN109247923B (zh) 基于视频的非接触式脉搏实时估计方法及设备
US20220240789A1 (en) Estimation apparatus, method and program
US8149273B2 (en) System and methods for vital sign estimation from passive thermal video
JP6521845B2 (ja) 心拍に連動する周期的変動の計測装置及び計測方法
Fuhl et al. Eye movement simulation and detector creation to reduce laborious parameter adjustments
EP3495994A1 (en) Face video based heart rate monitoring using pulse signal modelling and tracking
JP7099542B2 (ja) 脈拍推定装置、脈拍推定方法、及びプログラム
JP6927322B2 (ja) 脈波検出装置、脈波検出方法、及びプログラム
Seifert et al. Detection of gait asymmetry using indoor Doppler radar
US9737219B2 (en) Method and associated controller for life sign monitoring
WO2017124044A1 (en) Machine-learning-based denoising of doppler ultrasound blood flow and intracranial pressure signal
CN110348385B (zh) 活体人脸识别方法和装置
Wedekind et al. Automated identification of cardiac signals after blind source separation for camera-based photoplethysmography
EP3378387B1 (en) Heart rate estimation from face videos using quality based fusion
KR102468654B1 (ko) 보정된 이미지 기반 심박 추정 방법 및 그 장치
JP2020537552A (ja) 複数のセンサを伴うダイレクトフォトプレチスモグラフィ(ppg)のためのコンピュータ実装方法及びシステム
US11583198B2 (en) Computer-implemented method and system for contact photoplethysmography (PPG)
Chowdhury et al. LGI-rPPG-Net: A shallow encoder-decoder model for rPPG signal estimation from facial video streams
CN114092855A (zh) 基于深度学习的非接触智能人体心率预测方法
Slapnicar et al. Contact-free monitoring of physiological parameters in people with profound intellectual and multiple disabilities
US20230360797A1 (en) System and method for determining data quality for cardiovascular parameter determination
Murashov et al. A technique for detecting diagnostic events in video channel of synchronous video and electroencephalographic monitoring data
KR101413853B1 (ko) 적외선 영상을 이용한 생체 신호 측정 방법 및 장치
CN112597949B (zh) 一种基于视频的心理压力测量方法及其系统
Dautov et al. On the effect of face detection on heart rate estimation in videoplethysmography

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R151 Written notification of patent or utility model registration

Ref document number: 7131709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151