JP7131709B2 - 推定装置、方法及びプログラム - Google Patents
推定装置、方法及びプログラム Download PDFInfo
- Publication number
- JP7131709B2 JP7131709B2 JP2021542220A JP2021542220A JP7131709B2 JP 7131709 B2 JP7131709 B2 JP 7131709B2 JP 2021542220 A JP2021542220 A JP 2021542220A JP 2021542220 A JP2021542220 A JP 2021542220A JP 7131709 B2 JP7131709 B2 JP 7131709B2
- Authority
- JP
- Japan
- Prior art keywords
- pulse rate
- estimation
- unit
- pulse
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
- A61B5/7207—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
- A61B5/721—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7221—Determining signal validity, reliability or quality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7225—Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/7257—Details of waveform analysis characterised by using transforms using Fourier transforms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Cardiology (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Power Engineering (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Description
a)映像上の顔を追跡することにより顔特徴点を生成し、
b)(関心のある領域(region of interest(ROI)とも呼ばれる)観測下の領域を、部分ROIとして知られる、より小さい部分へ分割し、
c)各部分ROIからパルス信号(緑チャネル振幅変動)を抽出し、
d)(「信頼された領域」として知られる)「信頼できる」部分領域を選択するための、すなわち、パルス信号の低いローカル(時間的)分散を用いて部分ROIに大きな重み付けを与えるための動的ROIフィルタを生成し、
e)単一の時系列のパルス波を取得するために、信頼された領域のパルス波情報を(ステップ(d)で割り当てられた重みを用いて)結合し、
f)「信頼された領域」のみのパルス情報から周波数解析を行い、最終パルス信号を推定する
ことを含む。
a)(データの既存知識、又は、長期間パルス信号の周期性の粗い推定値、例えば、1分から数時間の範囲で、長時間を超える、パルス信号の平均周期/頻度値を算出すること、を用いて)基準周期性値を事前選択し、
b)「反復基本単位」(周期性が同一又は近い基準周期性、又は、自動補正が最大化される、パルス信号の1サイクル)としても知られる、基準パルス信号「cyclet」を見つけ、
c)複数成分パルス信号から、反復基本単位、又は、代わりに、(閾値範囲内で)基準周期性に近い周期性と高い相関のあるcyclet(又は周期成分)を抽出する
ことを含む。
実世界のシナリオノイズでは、背景照明の変化から、不正確な顔追跡に起因して取り込まれたノイズだけでなく、剛体頭部運動、及び/又は、顔の表情における変化、部分的なオクルージョンは、度々、パルス抽出のパフォーマンスに影響を与える。様々なノイズに起因して、パルス信号が破損する可能性があり、予想される脈拍変動は、効果的に取得されず、結果として、脈拍数推定手法のパフォーマンス(例、精度)に悪影響を与えている。
i.上述したノイズ特定補正ステップは、頭部移動及び表情以外の要因により生成されるノイズを削除できない。(例えば、)環境光の変化、顔領域の部分的オクルージョンのような、任意の削除が非常に難しいノイズ、又は、同時に大きな頭部移動及び表情(例えば、強烈な笑い声の間)のような要因からのノイズもまた存在するが、顔追跡が不正確であり、取得されたパルス信号がエラーノイズの追跡により破損されるため、いくつかのノイズは、常に生成される。
ii.頭部移動又は表情を有さない任意のビデオフレームは、他のソースからのノイズを有する。それ故、これらのビデオフレームは、理想的には「信頼できる」と考えられるべきではない。結果として、非特許文献1は、多くのノイズHR推定を「信頼できる」として考える。従って、スペクトルピーク追跡が信頼できるHR値に近い小さな範囲でのみ、HRを見つけようとするため、他の近隣の推定値が不正確である。
iii.頭部移動又は表情を有するいくつかのフレームは、「信頼できる」と考えられる。なぜなら、ノイズ補正ステップは頭部移動又は表情に起因するノイズを正確に削除したためである。しかし、非特許文献1は、そのような全てのフレームを「信頼できない」として考える。
基本的に、頭部移動/表情の存在はパルス信号におけるノイズと相互に関連付けられるけれども、しかし、そのことは、「信頼できない」として推定されたHRを検討するための必要又は十分な条件のいずれでもない。非特許文献1で検出されていないパルス信号にノイズを取り込む多くの他の要因が存在する。
i. 基準周期性値が長時間以上(2分以上)で算出されるなら、先行技術は、脈拍数(心拍)推定において低精度に導くであろう、基準周期性値に向けて偏向されることに起因して、時間の経過に伴う周期性での少しの変化を見失うだろう。
ii. 他方、基準周期性が短時間(10-30秒)で算出されるなら、ノイズが数秒以上(話す、笑う、うなずく等)存在する、又は、数秒以上で顔追跡失敗するというシナリオで不正確になる傾向がある。
a)基準周期性(又は反復基本単位)が選択されてからの経過時間
b)基準周期性値(又は基準脈拍数又は反復基本単位)それ自身の信頼性インデクス(又は信頼レベル)
<装置構成>
図1は、本開示の第1の実施形態にかかる脈拍数推定装置の構造を示すブロック図である。脈拍数推定装置100は、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105、特徴選択部106、信頼回帰部107、信頼推定部108、基準選択部109及び周期成分抽出部110を備える。
図2は、本開示の第1の実施形態にかかる脈拍数推定のための学習段階を説明するためのフローチャートである。以下の説明では、脈拍数推定装置100が人物の顔の映像から心拍数を推定するものとする。また、第1の実施形態では、脈拍数推定方法は、脈拍数推定装置100を動作させることにより実行される。従って、本実施形態の脈拍数推定方法の説明は、脈拍数推定装置100により実行される以下の動作の説明に置き換えられる。
Minimize || w * (入力特徴ベクトル) - Y || ^2
信頼レベル=w*(入力特徴ベクトル)
そして、学習済み判定モデル214は、信頼レベル232を信頼推定部108へ出力する。このように、信頼推定部108は、信頼レベル232を取得する。例えば、信頼レベル232は、第2の映像データの信頼値を示すスカラー値(0と1の間)である。信頼レベルは、ノイズの存在下でのパルス信号から心臓変動を抽出するために、基準選択部109及び周期成分抽出部110により用いられる。
第1の推定部は、(映像撮影部101、)身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104及び脈拍数推定部105を含む。第1の推定部は、ウェブカメラ、又は、赤外線カメラ、又は、任意の映像撮影装置から、任意の画像のシーケンス、事前に録画された映像(画像のシーケンス)又はライブビデオ録画ストリームを入力として取得して、「簡易脈拍数推定」を行う。さらに、第1の推定部は、推定されたパルス信号である出力を生成する。このプロセスにおいて、第1の推定部は、ノイズ源、ROIフィルタの重み、パルス信号統計(平均、分散等)、パルス信号のFFT、パルス信号のSNR等のようなパルス信号を説明する多くの特徴を生成する。簡易脈拍数推定の処理で生成された特徴と共に、推定されたパルス信号は、特徴選択部106において高レベル特徴を生成するために低レベル特徴として使用される。我々は、以下に特徴選択部106の動作を説明する。
第1の推定部における信号処理中に生成された低レベル特徴は、パルス信号がノイズによりどの程度が破損しているかに関する情報を含む。しかしながら、これらの機能の全てがノイズの効果(又は信頼性インデクス)を判定するために有用又は関連するわけではない。このように、我々は、回帰分析をより正確にするために、ノイズについてより多くの情報を与える特徴を特定(又は高レベル特徴を生成)し、特徴選択部106の出力としてそれらの特徴のみを選択することを必要とする。
i)パルス信号のSNR(最大ピーク前後のパワースペクトル密度(PSD)と脈拍数周波数帯上のPSDの比率)、平均及び分散等のようなノイズ関連情報を含む特徴を手動で選択/生成する
ii)PCA/ICA/LDA、LASSO回帰、CFS等のようなフィルタ及びラッパー法を用いて、明示的な特徴選択/除去を行う
iii)学習段階において、回帰のために用いられる回帰分析技術又はニューラルネットワークにより実行される暗示的な特徴選択
学習段階は、信頼回帰部107が入力特徴の分布を学習するために回帰分析モデル(/ネットワーク)を学習し、それらに信頼レベル/信頼性インデクス(0と1の間の値)を割り当てる期間である。正解ラベル(信頼の正解値)は、最良標準脈拍数測定装置(例えば、心拍数の場合、最良標準ECG装置)を用いて、測定され得る正解脈拍数の知識で生成される。0に近い正解信頼レベル値は、推定された初期脈拍数とHRの正解脈拍数の間の高い差分を意味し、1に近い正解信頼レベル値は、推定された初期脈拍数とHRの正解値の間の低い差分を意味する。推定された初期脈拍数は、上記「簡易脈拍数推定」法を用いて、脈拍数推定部105により推定された脈拍数である。
任意の新規な入力
学習済みの最小二乗回帰部の場合に、信頼レベル
テスト段階は、学習段階の後に来る。テスト段階は、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105及び特徴選択部106を用いることにより、学習段階と同じ初期ステップで構成される。学習段階の完了後のため、判定モデルは学習済みであり、信頼推定部108は、新しい(見えない)入力特徴の信頼レベルを継続的に推定及び更新するためにそれを使用して、必要に応じて、長い時間(30秒-60秒)だけでなく、短い時間(2秒-4秒)の枠(windows)について信頼レベル値を推定する。これに続いて、基準選択部109は、信頼推定部108において推定された信頼値を用いて、望ましい心臓変動を粗く示す基準(周期性値、脈拍数値、又は、反復基本単位、別名cyclet)値を選択するために、基準選択を行い、最後に、周期成分抽出部110は、望ましい心臓変動を最も良く示す成分を取得するために周期的成分抽出を行う。この周期成分の周波数(つまり、レート=1/周期性)は、最終脈拍数推定値を取得するために使用される。特徴選択部106後にテスト段階で使用される各成分は、以下でより詳細に説明される。
一旦、判定モデルが学習され、重みW*がロックされると、それは、信頼推定部108によりテスト段階で使用される。最小二乗回帰部の単純なケースが式(2)及び(3)により示されるため、
信頼レベル推定値
学習済みRNNベース回帰部は、また、特徴選択部106で生成された特徴集合を入力として取り込み、入力特徴集合ごとのスカラー値を出力として配布して、同様の方法で実行するだろう。この信頼レベルは、入力特徴の信頼性(及び例として、長い映像シーケンスのごく一部の簡易脈拍数推定技術(第1の推定部)、例えば、長い映像シーケンス内で、時刻t1及び時刻t1+4の間の映像クリップにより生成された脈拍数推定の信頼性を示すだろう。テストデータから長い映像シーケンス内の時刻t1において、この方法、信頼推定部108は、時刻t1までの全ての時間に渡って、すなわち、時刻0秒から時刻t1への全時間において、信頼レベルを推定することができる。基準選択部109は、映像内の時刻t1に(ROI選択及びパルス抽出部104により)取得されたパルス信号に存在する心臓変動を粗く示すための信頼できる基準(周期性値、脈拍数値、又は、反復基本単位、別名cyclet)を選択するために、(推定がリアルタイムではなく、しばらく経って実行される場合)未来からだけでなく、(推定がリアルタイムに実行されている場合)過去からこれらの信頼レベルを使用する。
基準選択は、望ましいパルス信号の粗いレベル推定に対して使用される信号の定義特性を選択する手順である。例えば、脈拍数は0.2から0.3Hzの間であると確信する場合、基準はレート0.25Hzであり、0.1Hzの帯域幅で0.25Hzを中心とする狭帯域通過フィルターは、ノイズパルス信号内に(HR推定の場合)心臓変動を見つけるために使用される。基準は、(周波数内で)パルス信号のローカライズに役立ち、参照のない場合の脈拍数として間違えられ得る(基準脈拍数値から遠くである)誤った脈拍数の値を破棄する。最終推定脈拍数が基準に大きく依存するため、基準が正確に選択されることが必要である。特許文献2及び特許文献3の先行手法は、短期/長期に渡って、平均脈拍数として、又は、短期/長期に渡って、最高の自己相関値を有する反復基準単位(cyclet)として、基準を算出し、しかし、特に、(基準計算が短期間分析を用いて行われる場合)ノイズの存在において、又は、(基準計算が長期間分析を用いて行われる場合)急速に変化する脈拍数の存在において、その方法で算出された基準は、不正確になりやすい。
i. 基準は、時間範囲[t1-p、t1+f]内にある(脈拍数推定部105から取得された)推定された脈拍数値を用いて、すなわち、過去のp秒から未来のf秒の範囲の、t1前後の通常の小さな時間枠内の推定された初期脈拍数(又は他の特徴)に基づいて、算出される。脈拍数が(ラグなしに)リアルタイムに推定されている場合f=0。
ii. 時刻t1に近い時刻tで推定レートが与えられることがより重要である。
iii. 高い信頼レベルで推定値が与えられることがより重要である。
基準選択部109により取得された基準(脈拍数)を用いて、周期成分抽出部110は、基準周波数付近の小さな周波数範囲で最も大きな周期成分を抽出するために、基準脈拍数に対する狭帯域周波数分析(例えば、狭帯域通過フィルター)、又は、相関最大化、又は、周期成分分析を使用する。言い換えると、上述したこれらの周期成分抽出技術は、ROI選択及びパルス抽出部104により取得された複数成分のパルス信号内に最も顕著/強力である周期成分を見つけるために、(パルスが周期的/準周期的であるため)基準の使用をさせる。これらの成分は、カラーチャネル(R,G,B)、他の色空間(HSVのような)、又は、顔上の部分ROIとしても知られる空間チャネルから取得され得る。例えば、狭帯域周波数分析は、最終推定値として選択されているこの狭帯域を超えている任意の推定値の可能性を削除するだろう。つまり、(任意のソースに起因して生成された)ノイズがあり、不正確な推定値が脈拍数推定精度の向上につながる、基準脈拍数に同意しない場合、それらは、破棄されるだろう。
最終脈拍数235は、抽出された周期成分における周波数分析を行うことにより取得され、周期成分抽出部110の出力である。一般的に、(その周期性の逆数である)この周期成分のFFTの最高ピークは、最終脈拍数推定値として選択される。
第1の効果は、未知のソースからのノイズの存在における高精度なHRを推定できることを保証することである。本実施形態によれば、正確な脈拍数推定値という結果であり、これらの特徴を不正確な脈拍数推定値を生成するものと区別する特徴の分布を学習するための回帰分析モデル/ネットワークを学習することにより、いくつかの制御不能なノイズ源により取り込まれるノイズを正常に検出及び定量化することができる。これらのノイズ源は、観察下の人物により実行される剛体及び非剛体運動、オクルージョン、顔追跡エラー、光源変更等を含み、複雑な破損を観察された信号に取り込み、HRを推定することを難しくするが、学習済みの回帰モデルを用いることにより、本開示は、周期的成分抽出に対する正確な基準を選択するだけでなく、新たなパルス信号の信頼性を正確に推定し、ノイズにより取り込まれる破損の範囲を定量化することもできる。
i. パルス信号が(ノイズ源に依存しない)ノイズにより破損されたか否かを検出し、
ii. (信頼レベル/信頼性インデクスを用いて)ノイズによる破損のレベルを定量化し、
iii. (高い信頼及び低い破損を用いて信頼できる基準を選択することにより)このノイズを削除し、(適応フィルタ及び周期成分抽出を用いることにより)最高がノイズのない心臓変動を示す成分を抽出する
ことに、新しい発明が役立つ。
本実施形態のプログラムは、図2,3,4及び7に示される必要なステップをコンピュータに実行させるプログラムであることのみが必要である。本実施形態にかかる脈拍数推定装置100及び脈拍数推定方法は、コンピュータにプログラムをインストールし、それを実行することにより実現できる。この場合、コンピュータのプロセッサは、映像撮影部101、身体部位追跡部102、ノイズ源検出部103、ROI選択及びパルス抽出部104、脈拍数推定部105、特徴選択部106、信頼回帰部107、信頼推定部108、基準選択部109及び周期成分抽出部110として機能する。
図10は、本開示の第2の実施形態にかかる推定装置30の構造を示すブロック図である。推定装置30は、第1の推定部31、学習部32、取得部33及び第2の推定部34を備える。
当業者は、本開示のシステム、動作及び方法がいくつかの方法で実装され得、それ自体、前述の実施形態及び実施例によって限定されるべきではないことを認識するであろう。言い換えると、ハードウェア、ソフトウェア又はファームウェアの様々な組み合わせの中で単一又は複数のコンポーネントにより実行される機能的な要素が、サーバサイド(SPサイド)でソフトウェアアプリケーションの中で配布されるとよい。さらに、本開示のフローチャートに示された方法の実施形態は、技術のより完全な理解を提供するために例示の方法により提供される。同じ目標を達成するために、様々な構成要素を機能的に変更することができる代替の実施形態を企図することができる。本開示の目的のために様々な実施形態が説明されてきたが、そのような実施形態は、本開示の教示をそれらの実施形態に限定すると見なされるべきではない。本開示に記載されているシステムおよび動作の範囲内にとどまる結果を得るために、上記の要素及び動作に様々な変更及び修正を加えることができる。
(付記1)
皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定し、当該第1の脈拍数を推定するために前記第1の映像データに基づき導出された第1の特徴データを出力する第1の推定部と、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する学習部と、
前記第1の推定部が推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定した場合に、前記第1の推定部により導出された第2の特徴データを取得し、当該第2の特徴データと前記学習部により学習された前記判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する取得部と、
前記取得された信頼値に基づき、第3の脈拍数を推定する第2の推定部と、
を備える推定装置。
(付記2)
前記第1の特徴データにおけるノイズを減少するための所定の統計処理を行うことにより第3の特徴データを出力する特徴データ処理部をさらに備え、
前記学習部は、前記第3の特徴データを前記判定モデルの入力として用いて前記判定モデルを学習し、
前記取得部は、前記第2の特徴データから前記特徴データ処理部により出力された第4の特徴データを、前記学習部により学習された前記判定モデルの入力として用いて、前記第2の脈拍数の前記信頼値を取得する
付記1に記載の推定装置。
(付記3)
前記特徴データ処理部は、前記第1の特徴データに対する色領域変換、フィルタの結合及び信号分解の少なくとも1つを前記所定の統計処理として行う
付記2に記載の推定装置。
(付記4)
前記第2の推定部は、前記取得された信頼値に基づき、前記第2の映像データ内のフレームごとに周期の基準である基準周期情報を選択し、前記基準周期情報を用いて前記第3の脈拍数を推定する
付記1乃至3のいずれか1項に記載の推定装置。
(付記5)
前記第2の推定部は、前記第1の推定部により前記第2の映像データ内の各フレームから抽出された複数成分のパルス信号から、前記基準周期情報を用いて、特定の周期成分の少なくとも1つを抽出して前記第3の脈拍数を推定する
付記4に記載の推定装置。
(付記6)
前記生理学的情報は、前記第1の映像データの撮影中に、前記身体から測定された脈拍数である測定値であり、
前記学習部は、前記第1の脈拍数が前記測定値により近いほど前記信頼値がより高く判定されるように前記判定モデルを学習する
付記1乃至5のいずれか1項に記載の推定装置。
(付記7)
前記第1の推定部は、
前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
前記特徴点に基づき各フレームのノイズ源を特定し、
前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
前記ROIから複数の部分領域に分割し、
前記複数の部分領域のそれぞれからパルス信号を抽出し、
前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定する
付記1乃至6のいずれか1項に記載の推定装置。
(付記8)
前記第1の特徴データは、前記推定された第1の脈拍数、前記検出された特徴点の位置、前記抽出されたパルス信号、前記特定されたノイズ源、前記生成されたROIフィルタの係数、及び、前記周波数分析による分析結果の少なくとも1つを含む
付記7に記載の推定装置。
(付記9)
皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理を行い、
前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力し、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習し、
推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理を行い、
前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力し、
前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得し、
前記取得された信頼値に基づき、第3の脈拍数を推定する
コンピュータを用いた推定方法。
(付記10)
皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理と、
前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力する処理と、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する処理と、
推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理と、
前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力する処理と、
前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する処理と、
前記取得された信頼値に基づき、第3の脈拍数を推定する処理と、
をコンピュータに実行させる推定プログラムが格納された非一時的なコンピュータ可読媒体。
101 映像撮影部
102 身体部位追跡部
103 ノイズ源検出部
104 ROI選択及びパルス抽出部
105 脈拍数推定部
106 特徴選択部
107 信頼回帰部
108 信頼推定部
109 基準選択部
110 周期成分抽出部
200 撮影画像群
201 撮影画像
202 特徴点
203 ノイズ源ラベル
204 ROI部分領域
205 抽出されたパルス信号
206 ROIフィルタ
207 フィルタされたパルス信号
208 推定された初期脈拍数
210 低レベル特徴
211 高レベル特徴
212 正解脈拍数
213 信頼レベルラベル
214 学習済み判定モデル
221 撮影画像
222 特徴点
223 ノイズ源ラベル
225 抽出されたパルス信号
228 推定された初期脈拍数
230 低レベル特徴
231 高レベル特徴
232 信頼レベル
233 基準脈拍数
234 周期成分
235 最終脈拍数
10 コンピュータ
11 CPU
12 メインメモリ
13 ストレージ装置
14 入力インタフェース
15 ディスプレイコントローラ
16 データリーダ/ライタ
17 通信インタフェース
18 入力装置
19 ディスプレイ装置
20 記録媒体
21 バス
30 推定装置
31 第1の推定部
32 学習部
33 取得部
34 第2の推定部
Claims (9)
- 皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定し、当該第1の脈拍数を推定するために前記第1の映像データに基づき導出された第1の特徴データを出力する第1の推定部と、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する学習部と、
前記第1の推定部が推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定した場合に、前記第1の推定部により導出された第2の特徴データを取得し、当該第2の特徴データと前記学習部により学習された前記判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する取得部と、
前記取得された信頼値に基づき、第3の脈拍数を推定する第2の推定部と、
を備え、
前記第1の推定部は、
前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
前記特徴点に基づき各フレームのノイズ源を特定し、
前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
前記ROIから複数の部分領域に分割し、
前記複数の部分領域のそれぞれからパルス信号を抽出し、
前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定する
推定装置。 - 前記第1の特徴データにおけるノイズを減少するための所定の統計処理を行うことにより第3の特徴データを出力する特徴データ処理部をさらに備え、
前記学習部は、前記第3の特徴データを前記判定モデルの入力として用いて前記判定モデルを学習し、
前記取得部は、前記第2の特徴データから前記特徴データ処理部により出力された第4の特徴データを、前記学習部により学習された前記判定モデルの入力として用いて、前記第2の脈拍数の前記信頼値を取得する
請求項1に記載の推定装置。 - 前記特徴データ処理部は、前記第1の特徴データに対する色領域変換、フィルタの結合及び信号分解の少なくとも1つを前記所定の統計処理として行う
請求項2に記載の推定装置。 - 前記第2の推定部は、前記取得された信頼値に基づき、前記第2の映像データ内のフレームごとに周期の基準である基準周期情報を選択し、前記基準周期情報を用いて前記第3の脈拍数を推定する
請求項1乃至3のいずれか1項に記載の推定装置。 - 前記第2の推定部は、前記第1の推定部により前記第2の映像データ内の各フレームから抽出された複数成分のパルス信号から、前記基準周期情報を用いて、特定の周期成分の少なくとも1つを抽出して前記第3の脈拍数を推定する
請求項4に記載の推定装置。 - 前記生理学的情報は、前記第1の映像データの撮影中に、前記身体から測定された脈拍数である測定値であり、
前記学習部は、前記第1の脈拍数が前記測定値により近いほど前記信頼値がより高く判定されるように前記判定モデルを学習する
請求項1乃至5のいずれか1項に記載の推定装置。 - 前記第1の特徴データは、前記検出された特徴点の位置、前記抽出されたパルス信号、前記特定されたノイズ源、前記生成されたROIフィルタの係数、及び、前記周波数分析による分析結果の少なくとも1つを含む
請求項1に記載の推定装置。 - 皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理を行い、
前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力し、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習し、
推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理を行い、
前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力し、
前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得し、
前記取得された信頼値に基づき、第3の脈拍数を推定し、
前記第1の推定処理は、
前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
前記特徴点に基づき各フレームのノイズ源を特定し、
前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
前記ROIから複数の部分領域に分割し、
前記複数の部分領域のそれぞれからパルス信号を抽出し、
前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定する
コンピュータを用いた推定方法。 - 皮膚が露出した身体の部位が撮影された第1の映像データから第1の脈拍数を推定する第1の推定処理と、
前記第1の推定処理において前記第1の映像データに基づき導出された第1の特徴データを出力する処理と、
前記第1の特徴データと前記身体から測定された生理学的情報とに基づいて、前記第1の脈拍数の推定における信頼性を示す信頼値を判定するための判定モデルを学習する処理と、
推定対象の前記身体の部位が撮影された第2の映像データから第2の脈拍数を推定する第2の推定処理と、
前記第2の推定処理において前記第2の映像データに基づき導出された第2の特徴データを出力する処理と、
前記第2の特徴データと前記学習済みの判定モデルとを用いて、前記第2の脈拍数の前記信頼値を取得する処理と、
前記取得された信頼値に基づき、第3の脈拍数を推定する処理と、
をコンピュータに実行させ、
前記第1の推定処理は、
前記第1の映像データ内の各フレームから前記身体の部位を構成する特徴点を検出し、
前記特徴点に基づき各フレームのノイズ源を特定し、
前記特徴点に基づき各フレームからROI(a Region(s) Of Interest)を選択し、
前記ROIから複数の部分領域に分割し、
前記複数の部分領域のそれぞれからパルス信号を抽出し、
前記特定したノイズ源に応じた重みが部分領域ごとに割り当てられた各ROIフィルタをフレームごとに生成し、
前記抽出されたパルス信号を前記ROIフィルタに適用してフィルタされたパルス信号について周波数分析を行うことにより、前記第1の脈拍数を推定する
推定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/003691 WO2020157972A1 (en) | 2019-02-01 | 2019-02-01 | Estimation apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022518751A JP2022518751A (ja) | 2022-03-16 |
JP7131709B2 true JP7131709B2 (ja) | 2022-09-06 |
Family
ID=71841987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542220A Active JP7131709B2 (ja) | 2019-02-01 | 2019-02-01 | 推定装置、方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220240789A1 (ja) |
JP (1) | JP7131709B2 (ja) |
WO (1) | WO2020157972A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528072B (zh) * | 2020-12-02 | 2021-06-22 | 深圳市三希软件科技有限公司 | 应用大数据存储的对象类型分析平台及方法 |
AU2022248761A1 (en) * | 2021-03-31 | 2023-08-10 | Lunit Inc. | Method and apparatus for providing confidence information on result of artificial intelligence model |
WO2022240306A1 (en) * | 2021-05-11 | 2022-11-17 | Harman Becker Automotive Systems Gmbh | Fusing contextual sensors for improving biosignal extraction |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016006027A1 (ja) | 2014-07-07 | 2016-01-14 | 富士通株式会社 | 脈波検出方法、脈波検出プログラム及び脈波検出装置 |
JP2018164587A (ja) | 2017-03-28 | 2018-10-25 | 日本電気株式会社 | 脈波検出装置、脈波検出方法、及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9510196B2 (en) * | 2014-03-17 | 2016-11-29 | Qualcomm Incorporated | Method and apparatus for authenticating a user on a mobile device |
US20150302158A1 (en) * | 2014-04-21 | 2015-10-22 | Microsoft Corporation | Video-based pulse measurement |
US10335045B2 (en) * | 2016-06-24 | 2019-07-02 | Universita Degli Studi Di Trento | Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions |
WO2018179150A1 (ja) * | 2017-03-29 | 2018-10-04 | 日本電気株式会社 | 心拍推定装置 |
US11501430B2 (en) * | 2017-09-15 | 2022-11-15 | University Of Maryland, College Park | Heart rate measurement using video |
EP3495994A1 (en) * | 2017-12-05 | 2019-06-12 | Tata Consultancy Services Limited | Face video based heart rate monitoring using pulse signal modelling and tracking |
WO2019162054A1 (en) * | 2018-02-20 | 2019-08-29 | Koninklijke Philips N.V. | System and method for client-side physiological condition estimations based on a video of an individual |
JP6727469B1 (ja) * | 2018-09-10 | 2020-07-22 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
WO2021252538A2 (en) * | 2020-06-08 | 2021-12-16 | Tactogen Inc | Advantageous benzofuran compositions for mental disorders or enhancement |
-
2019
- 2019-02-01 WO PCT/JP2019/003691 patent/WO2020157972A1/en active Application Filing
- 2019-02-01 JP JP2021542220A patent/JP7131709B2/ja active Active
-
2021
- 2021-02-01 US US17/424,823 patent/US20220240789A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016006027A1 (ja) | 2014-07-07 | 2016-01-14 | 富士通株式会社 | 脈波検出方法、脈波検出プログラム及び脈波検出装置 |
JP2018164587A (ja) | 2017-03-28 | 2018-10-25 | 日本電気株式会社 | 脈波検出装置、脈波検出方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022518751A (ja) | 2022-03-16 |
WO2020157972A1 (en) | 2020-08-06 |
US20220240789A1 (en) | 2022-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109247923B (zh) | 基于视频的非接触式脉搏实时估计方法及设备 | |
US20220240789A1 (en) | Estimation apparatus, method and program | |
US8149273B2 (en) | System and methods for vital sign estimation from passive thermal video | |
JP6521845B2 (ja) | 心拍に連動する周期的変動の計測装置及び計測方法 | |
Fuhl et al. | Eye movement simulation and detector creation to reduce laborious parameter adjustments | |
EP3495994A1 (en) | Face video based heart rate monitoring using pulse signal modelling and tracking | |
JP7099542B2 (ja) | 脈拍推定装置、脈拍推定方法、及びプログラム | |
JP6927322B2 (ja) | 脈波検出装置、脈波検出方法、及びプログラム | |
Seifert et al. | Detection of gait asymmetry using indoor Doppler radar | |
US9737219B2 (en) | Method and associated controller for life sign monitoring | |
WO2017124044A1 (en) | Machine-learning-based denoising of doppler ultrasound blood flow and intracranial pressure signal | |
CN110348385B (zh) | 活体人脸识别方法和装置 | |
Wedekind et al. | Automated identification of cardiac signals after blind source separation for camera-based photoplethysmography | |
EP3378387B1 (en) | Heart rate estimation from face videos using quality based fusion | |
KR102468654B1 (ko) | 보정된 이미지 기반 심박 추정 방법 및 그 장치 | |
JP2020537552A (ja) | 複数のセンサを伴うダイレクトフォトプレチスモグラフィ(ppg)のためのコンピュータ実装方法及びシステム | |
US11583198B2 (en) | Computer-implemented method and system for contact photoplethysmography (PPG) | |
Chowdhury et al. | LGI-rPPG-Net: A shallow encoder-decoder model for rPPG signal estimation from facial video streams | |
CN114092855A (zh) | 基于深度学习的非接触智能人体心率预测方法 | |
Slapnicar et al. | Contact-free monitoring of physiological parameters in people with profound intellectual and multiple disabilities | |
US20230360797A1 (en) | System and method for determining data quality for cardiovascular parameter determination | |
Murashov et al. | A technique for detecting diagnostic events in video channel of synchronous video and electroencephalographic monitoring data | |
KR101413853B1 (ko) | 적외선 영상을 이용한 생체 신호 측정 방법 및 장치 | |
CN112597949B (zh) | 一种基于视频的心理压力测量方法及其系统 | |
Dautov et al. | On the effect of face detection on heart rate estimation in videoplethysmography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220808 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7131709 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |