JP6665203B2 - ビデオシーケンスからのパルス信号の決定 - Google Patents

ビデオシーケンスからのパルス信号の決定 Download PDF

Info

Publication number
JP6665203B2
JP6665203B2 JP2017560151A JP2017560151A JP6665203B2 JP 6665203 B2 JP6665203 B2 JP 6665203B2 JP 2017560151 A JP2017560151 A JP 2017560151A JP 2017560151 A JP2017560151 A JP 2017560151A JP 6665203 B2 JP6665203 B2 JP 6665203B2
Authority
JP
Japan
Prior art keywords
frame
video
image frames
subset
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017560151A
Other languages
English (en)
Other versions
JP2018520418A (ja
JP2018520418A5 (ja
Inventor
ハーン ジェラルド デ
ハーン ジェラルド デ
ウェンジン ワン
ウェンジン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018520418A publication Critical patent/JP2018520418A/ja
Publication of JP2018520418A5 publication Critical patent/JP2018520418A5/ja
Application granted granted Critical
Publication of JP6665203B2 publication Critical patent/JP6665203B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

本発明は、ビデオシーケンスからパルス信号を決定する装置及び方法に関する。
近年、遠隔フォトプレチスモグラフィ(photoplethysmography)(遠隔PPG又はrPPG)を行う技術が開発されている。これらの技術により、撮像ユニット(例えばカメラ)を使用して撮影された画像フレームで構成されたビデオシーケンスからPPG信号を取得することが可能になる。対象者を自動的に監視できるように、ビデオシーケンスの処理及びrPPG信号の抽出は自動的に行われることが望ましい。しかし、これには、生体皮膚組織のエリアをビデオシーケンス中で自動的に識別することが必要となる。
ビデオ中の対象者を検出する作業は、コンピュータビジョンにおける根本的なテーマの一つであり、過去数十年に広く研究されてきた。対象者を含んでいるビデオシーケンスが与えられた場合に、対象者の身体部分に対応する領域を特定することが目標になる。既存の研究の大半は、人間の外観的特徴を利用して、教師ありトレーニング機構内で対象者と背景とを判別する。しかし、これらの方法に伴う共通の問題は、それらの方法でトレーニングされる特徴は人間に固有のものでなく、人間の外観に似た特徴が誤って分類される可能性があることである。さらに、教師ありの方法は通常は事前に分かっているサンプルに制約され、予測できないサンプルが発生すると失敗する傾向がある。例えば、正面から見た顔でトレーニングされた顔検出器は、横から見た顔を特定することができず、色白の皮膚の対象者でトレーニングされた皮膚分類器は、色黒の皮膚の対象者では失敗する。他の種類の方法は、ビデオシーケンス中で皮膚のエリアを手動で選択することを必要とし、このエリアを時間と共に追跡して動きを補償する。しかし、この技術は明らかに手動の入力を必要とし、著しい動きがあるときには選択されたエリアを正しく追跡することが容易でない。
rPPG技術の発展に基づき、物理的な外観的特徴と比べると、目に見えない生理学的特徴(例えばパルス)は、ビデオシーケンス中で人間を人間でない物からよりよく区別できることが観察されている。自然の環境では、生きている対象者の皮膚組織のみが拍動性を呈し、そのため、パルス信号を示さない物体はいずれも人間以外のカテゴリに確実に分類することができる。このことにより、例えば図1に示すように、人間に似た外観を持つ物体の誤検出を防ぐことができる。
図1は、生体組織検出技術がどのように問題なく動作するかを示す2つの例を提供する。左の画像では、人間の顔と人工の顔とがカメラの方を向いて存在しており、点線の枠と、生体皮膚組織に対応するエリアの輪郭とで示されるように、人間の顔だけが識別される(人工の顔が人間の顔と似た物理的な外観的特徴を持つにも関わらず)。右の画像では、人間の顔と人工の顔とがカメラに対して横を向いて存在しており、人間の顔だけが識別される。
G.Gibert及びD.D’Alessandro、及びF.Lanceによる論文「Face detection method based on photoplethysmography」(10th IEEE International Conference on Advanced Video and Signal Based Surveillance(AVSS)、449〜453ページ、(2013))では、厳格な閾値を設定して、より高い周波数スペクトルエネルギーを持つセグメント分割された局所的領域(例えば、グリッド、三角形、又はボクセル)を皮膚領域として選択する。R.van Luijtelaar、W.Wang、S.Stuijk、及びG.de Haanによる論文「Automatic ROI detection for rPPG measurements」(ACCV 2014、シンガポール)では、事前定義されたクラスタリングパラメータを使用して、類似性を共有する領域を皮膚領域としてクラスタリングする。
しかし、これらの方法でも、対象者や皮膚エリアの著しい移動があると、有用なパルス信号を抽出することが困難である。
したがって、ビデオシーケンスからパルス信号を決定する改良された方法及び装置を提供することを目的とする。
第1の態様によれば、ビデオシーケンスからパルス信号を決定する方法が提供される。当該方法は、複数の画像フレームを含むビデオシーケンスを取得するステップと、画像フレームのサブセット中に各画像フレームからのフレームセグメントを各々が含む複数のビデオサブシーケンスを形成するステップであって、各サブセットは複数の画像フレームを含み、各画像フレームは複数のフレームセグメントに分割され、各フレームセグメントは、画像フレーム中で隣り合っているピクセルのグループである、ステップと、画像フレームの第1のサブセットからのフレームセグメントから形成された第1のビデオサブシーケンスについて、第1のビデオサブシーケンスの代表値を、画像フレームの第2のサブセットからのフレームセグメントから形成されたビデオサブシーケンスの代表値と比較するステップと、代表値の比較に基づいて、第1のビデオサブシーケンスを、画像フレームの第2のサブセットからのフレームセグメントから形成された第2のビデオサブシーケンスと連結するステップと、連結されたビデオサブシーケンスからパルス信号を決定するステップと、を有する。
いくつかの実施形態では、方法は、第2のビデオサブシーケンスについて、第2のビデオサブシーケンスの代表値を、画像フレームの第3のサブセットからのフレームセグメントから形成されたビデオサブシーケンスの代表値と比較するステップと、代表値の比較に基づいて、第1のビデオサブシーケンス及び第2のビデオサブシーケンスを、画像フレームの第3のサブセットからのフレームセグメントから形成された第3のビデオサブシーケンスと連結するステップと、をさらに有する。
いくつかの実施形態では、方法は、画像フレームの複数のサブセット各々からのビデオサブシーケンスを連結するために、比較するステップ及び連結するステップを繰り返すステップをさらに有する。
いくつかの実施形態では、画像フレームの各サブセットは、ビデオシーケンス中の連続した画像フレームからなるそれぞれのセットを含む。
いくつかの実施形態では、各画像フレームが2つ以上のサブセットにあり、画像フレームのサブセット同士が重複するようになっている。
いくつかの実施形態では、各サブセットは、別のサブセットに共通である少なくとも1つの画像フレームを含む。
代替実施形態では、ビデオシーケンス中の各画像フレームは、画像フレームのそれぞれのサブセットにある。
いくつかの実施形態では、画像フレームの各サブセットは、ビデオシーケンス中の3つの画像フレームからなるそれぞれのセットを含む。
いくつかの実施形態では、画像フレームの第1のサブセット及び画像フレームの第2のサブセットは、ビデオシーケンス中で隣接する画像フレームを含む。
いくつかの実施形態では、各フレームセグメントは、画像フレーム中で隣り合うピクセルのグループである。
いくつかの実施形態では、フレームセグメントは同じ形状を有する。代替実施形態では、各画像フレームは、ピクセルの色及び空間的な類似度に基づいてピクセルをフレームセグメントにグループ化することにより、複数のフレームセグメントに分割される。
いくつかの実施形態では、各画像フレームは、他の画像フレームと無関係に複数のフレームセグメントに分割される。代替実施形態では、サブセット中の各画像フレームは、その画像フレーム及びサブセット中の他の画像フレームの内容に基づいて、複数のフレームセグメントに分割される。
いくつかの実施形態では、複数のビデオサブシーケンスを形成するステップは、画像フレームのサブセット中の画像フレームの中で対応する空間位置にあるフレームセグメントから各ビデオサブシーケンスを形成するステップを含む。
代替実施形態では、複数のビデオサブシーケンスを形成するステップは、各ビデオサブシーケンスに対して、ビデオサブシーケンス中のフレームセグメント間の色エネルギー及び/又は空間距離エネルギーが最小化されるように、画像フレームのサブセット中の各画像フレームからフレームセグメントを選択するステップを含む。
いくつかの実施形態では、方法は、各ビデオサブシーケンスの代表値を決定するステップをさらに有する。
いくつかの実施形態では、各ビデオサブシーケンスの代表値を決定するステップは、ビデオサブシーケンス中のフレームセグメント中のピクセルのピクセル値を平均化するステップを含むことができる。
いくつかの実施形態では、ピクセル値を平均化するステップは、各フレームセグメント中のピクセルのピクセル値を重み付けするステップを含むことができ、ピクセル値は、フレームセグメント中でのピクセルの空間位置、及び/又はフレームセグメントの中心若しくはその近くにあるピクセル若しくはピクセルのグループとの色の差に基づいて重み付けされる、ステップと、フレームセグメント中のピクセルの重み付けされたピクセル値を平均するステップとを含むことができる。
いくつかの実施形態では、代表値を決定するステップは、フレームセグメント中のピクセル値の平均を正規化するステップをさらに含む。
いくつかの実施形態では、各ビデオサブシーケンスの代表値を決定するステップは、ビデオサブシーケンス中のフレームセグメントのピクセルのピクセル値の平均間の差を決定するステップを含む。
いくつかの実施形態では、比較するステップは、第2のビデオサブシーケンスを、第1のビデオサブシーケンスと似ている、又は最も似ている画像フレームの第2のサブセットからのフレームセグメントから形成されたビデオサブシーケンスとして識別するステップを含む。
いくつかの実施形態では、比較するステップは、第2のビデオサブシーケンスを、第1のビデオサブシーケンスと空間距離及び/又は代表値が似ている、又は最も似ている画像フレームの第2のサブセットからのフレームセグメントから形成されたビデオサブシーケンスとして識別するステップを含む。
いくつかの実施形態では、パルス信号を決定するステップは、連結されたビデオサブシーケンスの代表値からパルス信号を決定するステップを含む。
いくつかの実施形態では、形成するステップ、代表値を決定するステップ、比較するステップ、連結するステップ、及びパルス信号を決定するステップは、第1の複数のフレームセグメントに分割される画像フレームに対して行われ、方法は、画像フレームが第2の複数のフレームセグメントに分割されるときに、ビデオシーケンス中の画像フレームに対して、形成するステップ、代表値を決定するステップ、比較するステップ、連結するステップ、及びパルス信号を決定するステップを繰り返すステップをさらに有し、第2の複数のフレームセグメントは、第1の複数のフレームセグメントとは異なる数のフレームセグメントを含む。
いくつかの実施形態では、方法は、画像フレームの第1のサブセットからのフレームセグメントから形成された他のビデオサブシーケンスに対して、比較するステップ、連結するステップ、及びパルス信号を決定するステップを繰り返してさらなるパルス信号を決定するステップと、パルス信号を分析して、ビデオシーケンス中で生体皮膚組織のエリアを識別するステップと、をさらに有する。
いくつかの実施形態では、方法は、ビデオシーケンス中の識別された生体皮膚組織のエリアに関連する1つ又は複数のパルス信号から1つ又は複数の生理学的特性を決定するステップをさらに有する。
第2の態様によれば、コンピュータ可読コードが内部に具現化されたコンピュータ可読媒体を備えるコンピュータプログラム製品が提供され、コンピュータ可読コードは、好適なコンピュータ又はプロセッサによって実行されると、コンピュータ又はプロセッサに上記の方法のいずれかを行わせるように構成される。
第3の態様によれば、ビデオシーケンスからパルス信号を決定する装置が提供され、装置は処理ユニットを有し、処理ユニットは、複数の画像フレームを含むビデオシーケンスを取得し、画像フレームのサブセット中に各画像フレームからのフレームセグメントを各々が含む複数のビデオサブシーケンスを形成し、各サブセットは複数の画像フレームを含み、各画像フレームは複数のフレームセグメントに分割され、各フレームセグメントは、画像フレーム中で隣り合っているピクセルのグループであり、画像フレームの第1のサブセットからのフレームセグメントから形成された第1のビデオサブシーケンスについて、第1のビデオサブシーケンスの代表値を、画像フレームの第2のサブセットからのフレームセグメントから形成されたビデオサブシーケンスの代表値と比較し、代表値の比較に基づいて、第1のビデオサブシーケンスを、画像フレームの第2のサブセットからのフレームセグメントから形成された第2のビデオサブシーケンスと連結させ、連結されたビデオサブシーケンスからパルス信号を決定することを行うように構成される。
いくつかの実施形態では、処理ユニットは、第2のビデオサブシーケンスについて、第2のビデオサブシーケンスの代表値を、画像フレームの第3のサブセットからのフレームセグメントから形成されたビデオサブシーケンスの代表値と比較することと、代表値の比較に基づいて、第1のビデオサブシーケンス及び第2のビデオサブシーケンスを、画像フレームの第3のサブセットからのフレームセグメントから形成された第3のビデオサブシーケンスと連結することとを行うようにさらに構成される。
いくつかの実施形態では、処理ユニットは、画像フレームの複数のサブセット各々からのビデオサブシーケンスを連結するために比較及び連結を繰り返すようにさらに構成される。
いくつかの実施形態では、画像フレームの各サブセットは、ビデオシーケンス中の連続した画像フレームからなるそれぞれのセットを含む。
いくつかの実施形態では、各画像フレームが2つ以上のサブセットにあり、画像フレームのサブセット同士が重複するようになっている。
いくつかの実施形態では、各サブセットは、別のサブセットに共通である少なくとも1つの画像フレームを含む。
代替実施形態では、ビデオシーケンス中の各画像フレームは、画像フレームのそれぞれのサブセットにある。
いくつかの実施形態では、画像フレームの各サブセットは、ビデオシーケンス中の3つの画像フレームからなるそれぞれのセットを含む。
いくつかの実施形態では、画像フレームの第1のサブセット及び画像フレームの第2のサブセットは、ビデオシーケンス中で隣接する画像フレームを含む。
いくつかの実施形態では、各フレームセグメントは、画像フレーム中で隣り合うピクセルのグループである。
いくつかの実施形態では、フレームセグメントは同じ形状を有する。代替実施形態では、各画像フレームは、ピクセルの色及び空間的な類似度に基づいてピクセルをフレームセグメントにグループ化することにより、複数のフレームセグメントに分割される。
いくつかの実施形態では、各画像フレームは、他の画像フレームと無関係に複数のフレームセグメントに分割される。代替実施形態では、サブセット中の各画像フレームは、その画像フレーム及びサブセット中の他の画像フレームの内容に基づいて、複数のフレームセグメントに分割される。
いくつかの実施形態では、処理ユニットは、画像フレームのサブセット中の画像フレームの中で対応する空間位置にあるフレームセグメントから各ビデオサブシーケンスを形成することにより、複数のビデオサブシーケンスを形成するように構成される。
代替実施形態では、処理ユニットは、ビデオサブシーケンスごとに、ビデオサブシーケンス中のフレームセグメント間の色エネルギー及び/又は空間距離エネルギーが最小化されるように、画像フレームのサブセット中の各画像フレームからフレームセグメントを選択することにより、複数のビデオサブシーケンスを形成するように構成される。
いくつかの実施形態では、処理ユニットは、各ビデオサブシーケンスの代表値を決定するように構成される。
いくつかの実施形態では、処理ユニットは、ビデオサブシーケンス中のフレームセグメント中のピクセルのピクセル値を平均することにより、各ビデオサブシーケンスの代表値を決定するように構成される。
いくつかの実施形態では、処理ユニットは、各フレームセグメント中のピクセルのピクセル値を重み付けすることであって、ピクセル値は、フレームセグメント中でのピクセルの空間位置、及び/又はフレームセグメントの中心若しくはその近くにあるピクセル若しくはピクセルのグループとの色の差に基づいて重み付けされる、ことと、フレームセグメント中のピクセルの重み付けされたピクセル値を平均することとにより、ピクセル値を平均化するように構成される。
いくつかの実施形態では、処理ユニットは、フレームセグメント中のピクセル値の平均を正規化することにより、代表値を決定するように構成される。
いくつかの実施形態では、処理ユニットは、ビデオサブシーケンス中のフレームセグメントのピクセルのピクセル値の平均間の差を決定することにより、各ビデオサブシーケンスの代表値を決定するように構成される。
いくつかの実施形態では、処理ユニットは、第2のビデオサブシーケンスを、第1のビデオサブシーケンスと似ている、又は最も似ている画像フレームの第2のサブセットからのフレームセグメントから形成されたビデオサブシーケンスとして識別することにより、比較するように構成される。
いくつかの実施形態では、処理ユニットは、第2のビデオサブシーケンスを、第1のビデオサブシーケンスと空間距離及び/又は代表値が似ている、又は最も似ている画像フレームの第2のサブセットからのフレームセグメントから形成されたビデオサブシーケンスとして識別することにより、比較するように構成される。
いくつかの実施形態では、処理ユニットは、連結されたビデオサブシーケンスの代表値からパルス信号を決定することにより、パルス信号を決定するように構成される。
いくつかの実施形態では、処理ユニットは、第1の複数のフレームセグメントに分割される画像フレームに対して、形成すること、代表値を決定すること、比較すること、連結すること、及びパルス信号を決定することを行うように構成され、処理ユニットは、画像フレームが第2の複数のフレームセグメントに分割されるときに、ビデオシーケンス中の画像フレームに対して、形成すること、代表値を決定すること、比較すること、連結すること、及びパルス信号を決定することを繰り返すようにさらに構成され、第2の複数のフレームセグメントは、第1の複数のフレームセグメントとは異なる数のフレームセグメントを含む。
いくつかの実施形態では、処理ユニットは、画像フレームの第1のサブセットからのフレームセグメントから形成された他のビデオサブシーケンスに対して、比較すること、連結すること、及びパルス信号を決定することを繰り返してさらなるパルス信号を決定することと、パルス信号を分析して、ビデオシーケンス中で生体皮膚組織のエリアを識別することとを行うようにさらに構成される。
いくつかの実施形態では、処理ユニットは、ビデオシーケンス中の識別された生体皮膚組織のエリアに関連する1つ又は複数のパルス信号から1つ又は複数の生理学的特性を決定するようにさらに構成される。
本発明をよりよく理解し、どのように実施されるかをより明確に示すために、次いで単なる例として添付図面を参照する。
生体皮膚組織検出技術の望ましい動作を説明する図である。 本発明の一実施形態による装置のブロック図である。 本発明の一実施形態による方法を説明するフローチャートである。 どのようにしてビデオシーケンスからパルス信号を取得することができるかを説明する図であり、ビデオシーケンスがどのように一続きの画像フレームから構成されるかを説明する図である。 どのようにしてビデオシーケンスからパルス信号を取得することができるかを説明する図であり、各画像フレームがどのように複数のフレームセグメントに分割されるかを説明する図である。 どのようにしてビデオシーケンスからパルス信号を取得することができるかを説明する図であり、画像フレーム中で同じ空間位置にあるフレームセグメントを使用してどのように2つのビデオサブシーケンスが形成されるかを説明する図である。 どのようにしてビデオシーケンスからパルス信号を取得することができるかを説明する図であり、そのようにして形成された2つのビデオサブシーケンスについての例示的パルス信号の図である。 例示的なボクセル−パルス−スペクトル法における処理段階を説明する図である。 3つの異なるスケールにある画像フレームのセグメント分割を説明する図である。 ペアごとの類似度の4つの異なる尺度とその結果得られる類似度行列を示す図である。 増分疎PCAを使用した類似度行列の分解の例を示す図である。 階層ボクセルへの固有ベクトルの投射、及びビデオシーケンスのどの部分が生体皮膚組織に対応するかを示す融合マップの図である。
本発明の一実施形態による、ビデオシーケンスからパルス信号を決定するために使用できる装置2が図2に示される。さらなる実施形態では、装置2を使用して、決定されたパルス信号から生体皮膚組織を識別することができる。装置2は、ある期間にわたってビデオシーケンスを撮影する撮像ユニット4を備える。撮像ユニット4は、rPPG測定に使用することができるカメラ、例えばRGBカメラであるか、又はそれを備えることができる。撮像ユニット4は、複数の画像フレームを含むビデオシーケンスを処理ユニット6に提供する。
処理ユニット6は、装置2の動作を制御し、本明細書に記載される生体皮膚組織識別技術を実施するための1つ又は複数のプロセッサ、マルチコアプロセッサ、又は処理モジュールを備えることができる。いくつかの実施形態では、処理ユニット6は、複数の処理モジュールとして実施することができ、各モジュールは、本明細書に記載される生体皮膚組織識別技術の特定の部分又はステップを行うように構成される。
装置2はさらに、本発明による方法を実行するために処理ユニット6によって実行できるコンピュータ可読プログラムコードを記憶するメモリユニット8を備える。メモリユニット8は、処理ユニット6による処理の前、最中、及び後の、撮像ユニット4からのビデオシーケンス、並びに処理の中間生成物を記憶又はバッファするためにも使用することができる。
いくつかの実施形態では、装置2は、一体化された、若しくは別個の撮像ユニット4を備える汎用コンピュータ(例えばデスクトップPC)、又は一体化された、若しくは別個の撮像ユニット4を備える携帯型コンピューティングデバイス(例えば、ラップトップ、タブレット、又はスマートフォン)からなることが可能であることが認識されよう。いくつかの実施形態では、装置2は、ビデオシーケンスからパルス信号を決定し、パルス信号を使用してビデオシーケンス中で生体皮膚組織を識別し、及び/又は、生体皮膚組織に対応するものと識別されたビデオシーケンスのエリアから抽出されたrPPG信号から、対象者の生理学的特性を測定する目的に特化することができる。
実際の実施では、装置2は、図2に示された上記で説明したものに加えて他の構成要素又はさらなる構成要素を備え、それらには、対象者が装置2を起動及び/又は操作することを可能にするユーザインターフェース、並びに装置2に給電するためのバッテリ又は主電源への接続などの電源などがある。ユーザインターフェースは、対象者が装置2と対話し、装置2を制御することを可能にする1つ又は複数の構成要素を備える。一例として、1つ又は複数のユーザインターフェース構成要素は、スイッチ、ボタン、又は装置2及び/若しくはパルス決定プロセスを起動及び停止する他の制御手段を備えることができる。ユーザインターフェース構成要素は、それに加えて、又はそれに代えて、ディスプレイ、又は装置2の動作についての情報を対象者に提供する他の視覚的表示器(照明など)を備えることもできる。同様に、ユーザインターフェース構成要素は、装置2の動作についての可聴フィードバックを対象者に提供する音声源を備えることができる。
図3のフローチャートは、一実施形態による、ビデオシーケンスからパルス信号を決定する方法を説明する。
ステップ101で、撮像ユニット4がビデオシーケンスを取得する。ビデオシーケンスは、一続きの画像フレームから構成される。一続きの画像フレーム20が図4(a)に示される。
次いで、画像フレーム20から複数のビデオサブシーケンスが形成される(ステップ103)。各ビデオサブシーケンスは、ビデオシーケンス中の画像フレーム20のサブセット中の2つ以上の画像フレーム20の各々からのフレームセグメントを含む。
各ビデオサブシーケンスは、好ましくは、2つ以上の連続した画像フレーム20各々からのフレームセグメントで形成される(したがって、画像フレーム20の各サブセットは好ましくは連続した画像フレーム20を含む)。
図4(a)は、ビデオシーケンスからの4つの連続した画像フレーム20を示し、それぞれF1、F2、F3、F4と表記される。画像フレームのサブセット21が形成され、サブセットは、この例では、各々3つの連続した画像フレーム20を含む。加えて、この例では、サブセット21は、サブセット21同士が重複する(すなわち、画像フレーム20の一部又はすべてが2つ以上のサブセット21の一部となることが可能である)ように形成される。よって、図4(a)は、画像フレームF1、F2、及びF3を含む第1のサブセット21であるサブセット1、画像フレームF2、F3、及びF4を含む第2のサブセット21であるサブセット2、並びに画像フレームF3、F4、及びF5を含む第3のサブセット21であるサブセット3等を示している。したがって、各サブセット21は、2つの画像フレーム20だけ、前にある隣接サブセット21と重複している。
代替実施形態では、サブセット21は異なる数の画像フレーム20を含むことができ、及び/又は、サブセット21間の重複の度合いが異なってもよいことが認識されよう。例えば、サブセット21は3つの画像フレーム20を含むことができるが、各サブセット21は、前にある隣接サブセット21と1つの画像フレーム20だけ重複していてもよい。それに代えて、サブセット21中の画像フレーム20間には重複がなくてもよい(すなわち、この場合、各画像フレーム20は単一のサブセット21のみの一部となる)。
各画像フレーム20は、複数のフレームセグメント22に分割される。各フレームセグメント22は、画像フレーム20中で隣り合うピクセルのグループである。例示的なセグメント分割が図4(b)に示され、ここでは各フレーム20が同じサイズの正方形に分割される。代替実施形態では、セグメントは、三角形などの異なる形状とすることができる。他の(好ましい)代替実施形態では、セグメント22の形状は、画像フレーム20中の画像によって決定される場合もある(例えば、形状の境界は、画像フレーム内にある異なる色の間の境界に従うことができる)。しかし、各実施形態において、各フレームセグメント22は、各画像フレーム20中の空間的に関係した(すなわち隣り合う)ピクセルのグループからなることが認識されよう。好ましい実施形態では、フレームセグメント22は、当技術分野では「スーパーピクセル」としても知られており、これについては、例えば、Achantaらによる「SLIC Superpixels Compared to State−of−the−art Superpixel Methods」(IEEE Transactions on Pattern Analysis & Machine Intelligence 2012 第34巻 第11号、2012年11月、2274〜2282ページ)に記載される。
図4(b)では、各画像フレーム20は18個のフレームセグメント22に分割され、参照しやすいように、各フレームセグメント22に各自の符号S1、...、S18を付している。
ピクセルのグループ化/セグメント22の形状が画像フレームの内容によって決定される好ましい「スーパーピクセル」の実施形態では、フレームセグメント22は、ピクセルの色及び/又は空間的類似度に基づいて画像フレーム20中のピクセルをグループ化することによって決定することができる。このようにして、似た色又は合致する色を持つ、隣り合っている、又は近接して隣り合っているピクセルが、共に単一のフレームセグメント22にグループ化される。
上記の実施形態では、画像フレーム20は、その画像フレーム20の分析のみに基づいてフレームセグメント22に分割される。しかし、いくつかの実施形態では、特定の画像フレーム20を、その画像フレーム20と、画像フレームのそのサブセット21中の他の画像フレーム20との分析に基づいて、フレームセグメント22に分割することが可能である。言い換えると、上記で説明した空間及び/又は色に基づく画像フレーム20のセグメント分割を時間領域に拡張して、時間領域で外観(例えば色)及び空間的類似度を共有するピクセルが共にグループ化されるようにする。この時間領域への拡張を使用すると、結果として、サブセット21中の各画像フレームに、又は個々のセグメントパターンを持つサブセット21中の各画像フレームに、同じフレームセグメント分割パターンを適用することができる。
上記のように、ビデオサブシーケンスは、1つのサブセット中の画像フレーム20各々から取られるフレームセグメントから形成される。これらのビデオサブシーケンスを本明細書では「ボクセル」とも呼ぶ。よって、図4(b)を参照すると、サブセット1の画像フレーム20各々から得るフレームセグメント22から複数のビデオサブシーケンスが形成され、サブセット2の画像フレーム20各々から得るフレームセグメント22から複数のビデオサブシーケンスが形成され、以下同様である。
この図示される実施形態では、各画像フレーム20中の各フレームセグメント22は個々のビデオサブシーケンス23の一部であるが、他の実施形態ではこれは該当しなくてよい(すなわち、フレームセグメント22によってはどのビデオサブシーケンス23の一部でもないものがある)。
図4(c)に図示されるようないくつかの実施形態では、各ビデオサブシーケンス23は、サブセット21の各画像フレーム20の中で同じ空間位置にあるフレームセグメント22を使用して形成される。例えば、1つのビデオサブシーケンス23を、サブセット1の画像フレーム20の左上の隅にあるフレームセグメントS1から形成することができ、別のビデオサブシーケンス23を、サブセット1の画像フレーム20の左下の隅にあるフレームセグメントS13から形成することができ、以下同様である。同様に、サブセット2の画像フレーム20中のフレームセグメント22を使用してさらなるビデオサブシーケンス23が形成される。図4(c)は、この実施形態により第1及び第2のサブセット21から形成されたサブシーケンス23を図示する。
ただし、好ましい実施形態(色及び空間的類似度に従ってピクセルをグループ化することによってフレームセグメント22が形成される場合、特に好ましい)では、ビデオシーケンスの内容の変化(例えば、対象者が動くことによる)に対するこの方法のロバスト性を向上させるために、互いに合致するフレームセグメント22をサブセット21の画像フレーム20から選択することにより、ビデオサブシーケンス23を形成することができる(例えば、画像フレーム20内での空間的場所が概ね合致し、色が概ね合致する)。これにより、ビデオサブシーケンスが画像フレーム20の中を「くねって進む」ことができ、その結果ビデオサブシーケンス23が対象者の特定部分についてのフレームセグメント22を含むようになる(例えば、対象者がビデオシーケンス中で左から右に動くのに伴い、空間及び色の類似性のために、対象者の頬に対応する各画像フレーム20中のフレームセグメント22によって特定のビデオサブシーケンス23が形成され得る)。ビデオサブシーケンス23を形成する好ましい方式の1つは、ある画像フレーム20中の特定のフレームセグメント22に対して、その特定のフレームセグメント22からの色エネルギーが最小であり(すなわち最小のクロミナンス差)、且つ空間距離エネルギーが最小である(すなわち最小の空間距離)フレームセグメント22を次の画像フレーム20の中で識別するものである。色エネルギーとは、当該フレームセグメント22のピクセルと、次の画像フレーム20中のフレームセグメント22のピクセルのクロミナンス値に基づくエネルギー関数を言い、よって、ビデオサブシーケンス23を形成するための色エネルギーを最小化することは、特定のフレームセグメント22について、検討対象のそのフレームセグメント22に対して最小の色エネルギーを有する、次の画像フレーム20中のフレームセグメント22を識別することからなることが理解されよう。検討対象のフレームセグメント22のピクセルのクロミナンスと比較してフレームセグメント22のピクセルのクロミナンスが異なっているほど、色エネルギーは高く、よってそのフレームセグメント22がそのビデオサブシーケンス23のために選択される見込みは低くなることが認識されよう。また、空間距離エネルギーとは、画像フレーム20中でのフレームセグメント22の空間位置と、次の画像フレーム20中でのフレームセグメント22の空間位置とに基づくエネルギー関数を言い、よって、ビデオサブシーケンス23を形成するための空間距離エネルギーを最小化することは、特定のフレームセグメント22について、検討対象のそのフレームセグメント22の中で最小の空間距離をもたらす、次の画像フレーム20中のフレームセグメント22を識別することからなることが理解されよう。次の画像フレーム20中でのフレームセグメント22の位置から検討対象のフレームセグメント22の位置までの距離が大きいほど、空間距離エネルギーは高くなり、そのフレームセグメント22がそのビデオサブシーケンス23のために選択される見込みは低くなることが認識されよう。いくつかの実施形態では、空間距離エネルギーは、RGBピクセル値を部分空間(例えばUV)に投射した後に検討してもよい。代替の手法では、時間t−1におけるボクセル23の中心を使用して、時間tに新しいボクセルを初期化することも可能である。ボクセル23が時間的に重複している場合(すなわち重複する画像フレーム)、ボクセル23の最後のフレームセグメント22における中心が、次のボクセル23の最初のフレームセグメント22における中心を決定する。
上記で説明した複数のフレームセグメント22への画像フレーム20の分割により、第1のスケール又は解像度のビデオサブシーケンスが得られ、スケール又は解像度は、各画像フレーム中のフレームセグメント22の数(例えば、図4では18個)によって示されるか、又は各フレームセグメント22のサイズ(例えば、フレームセグメント22あたりの画像ピクセルの数による)によって示される。いくつかの実施形態では、画像フレーム20は、第1の複数のフレームセグメントとは異なるサイズ/解像度を持つ第2の複数のフレームセグメント22に分割することもでき、それらのセグメント22からさらなる複数のビデオサブシーケンス23が形成される。この複数の解像度の使用には、ビデオシーケンス中でスケールによって変動しない対象者の検出が可能になり、ビデオシーケンス中の複数の対象者の検出を向上させるという利点がある。
ビデオサブシーケンス23が形成されると、方法は続いて、パルス信号の決定を可能にするために、共に連結又は結合することができるビデオサブシーケンス23を識別する。方法は、特定の対象者の生体皮膚組織のパルス信号は皮膚の異なる部位でほぼ同じである(正規化された色値が検討されると仮定して)ことを利用するが、このことは、ビデオシーケンスの(わずかに)異なる空間的部分から取られたビデオサブシーケンス23を共に連結できることを意味する。
よって、ステップ105で、画像フレーム20の第1のサブセット21からのフレームセグメント22から形成された第1のビデオサブシーケンス23が、画像フレーム20の第2のサブセット21からのフレームセグメントから形成されたビデオサブシーケンス23と比較される。第2のサブセット21は、好ましくは、第1のサブセット21に隣接するサブセットである。
この比較は、好ましくは、第1のビデオサブシーケンス23についての少なくとも1つの代表値を、第2のサブセット21中のビデオサブシーケンス23の各自の代表値と比較することを含む。ビデオサブシーケンスの代表値は、ビデオサブシーケンス23を構成しているフレームセグメント22の内容(例えばピクセル値)に基づくか、又はそれから導出される。いくつかの実施形態では、各ビデオサブシーケンス23は、2つ以上の代表値を有することができる。この場合、ステップ105は、特定のビデオサブシーケンス23についての代表値のうち複数個を、他のビデオサブシーケンス23の代表値のうち複数個と比較することを含むことができる。
図4(d)は、ステップ105の一例を図示する。よって、第1のサブセット21の画像フレーム20中のフレームセグメント22から形成された第1のビデオサブシーケンス24(サブセット1は画像フレームF1、F2、及びF3を含む)、具体的には画像フレームF1、F2、及びF3のセグメントS9から形成されたサブシーケンス24が、第2のサブセット21の画像フレーム20のフレームセグメント22から形成されたビデオサブシーケンス25と比較される(サブセット2は画像フレームF2、F3、及びF4を含む)。いくつかの実施形態では、第1のビデオサブシーケンス24は、画像フレーム20の第2のサブセット21から形成されたビデオサブシーケンス25のすべてと比較することができる。代替実施形態では、第1のビデオサブシーケンス24は、画像フレーム20の第2のサブセット21から形成されたビデオサブシーケンス25の一部のみと比較することができる。例えば、第1のビデオサブシーケンス24は、画像フレーム20の中で同じ及び/又は似た空間位置にあるビデオサブシーケンス25のみと比較される。これを、図4(d)では、第1のビデオサブシーケンス24が、フレームF2、F3、及びF4の中の符号を付けたビデオサブシーケンス25、すなわち、セグメントS2、S3、S4、S8、S9、S10、S14、S15、及びS16を含むビデオサブシーケンス25だけと比較されることによって図示している。
ステップ105の比較は、第1のビデオサブシーケンス24を連結できるビデオサブシーケンス25を識別することを目的とし、そのため、この比較は、第1のビデオサブシーケンス24の代表値と似ている、又は最も似ている代表値を持つビデオサブシーケンス25を識別することを目的とする。いくつかの実施形態では、ビデオサブシーケンス25は、画像フレーム20の中で第1のビデオサブシーケンス24と似た空間位置にもあるべきである(例えば図4(d)に図示されるように)。
どのサブシーケンスを連結するかを決定するために代表値を比較する際、サブシーケンスの時間的な重複がある実施形態(例えば、図4のサブセット1及びサブセット2のように)は利益をもたらし、すなわち、同じフレームにある各サブシーケンスの代表値(平均の場合)、又は同じフレームペアから導出された代表値((正規化された)差分の場合)同士を比較することが可能となることが認識されよう。
比較するステップの前に、各ビデオサブシーケンス23の代表値を決定することができる。図4では、ビデオシーケンス中の画像フレームY〜ZのフレームセグメントSXから形成された特定のビデオサブシーケンス23の代表値をVSX:Y→Zと表記する。図4(c)において各ビデオサブシーケンス23の代表値Vに使用される注記は、ビデオサブシーケンス自体の下に示されている。
いくつかの実施形態では、各ビデオサブシーケンス23の代表値は、ビデオサブシーケンス23中のすべてのフレームセグメント22にあるピクセルのピクセル値(例えばRGB値)の平均から決定することができる。各ビデオサブシーケンス23が2つ以上の代表値を持ち得る代替実施形態では、各値は、ビデオサブシーケンス23中のそれぞれのフレームセグメント22のピクセルのピクセル値の平均とすることができる。
いくつかの実施形態では、平均を決定する際、フレームセグメント22中でのピクセルの空間位置、及び/又はフレームセグメント22の中心若しくはその近くにあるピクセル若しくはピクセルのグループとの色の差に基づいて、ピクセル値を重み付けすることができ、重み付けされた値の平均を決定する。例えば、ピクセル値は、ピクセルから空間境界までの距離、及び/又はピクセルからフレームセグメント22の中心までの距離に基づいて重み付けすることができる。好ましくは、重み付けによってセグメント22の境界に近いピクセルがより低く重み付けされるようにし、これは、隣り合うセグメント22間のジッタリングアーチファクトのために、それらのピクセルはセグメント22の真ん中に近いピクセルよりも信頼性が低いためである。
いくつかの実施形態では、上記で決定されたピクセル値の平均が正規化され、正規化した平均が代表値として使用される。平均の正規化は、平均を、ビデオサブシーケンス23中のすべてのフレームセグメント22中のすべてのピクセルのピクセル値の平均(又は要求される場合は重み付き平均)で割ることによって行うことができる。それに代えて、平均の正規化は、平均を、ビデオサブシーケンス23がそれから形成されているサブセット21中のすべての画像フレーム20中のすべてのピクセルのピクセル値の平均(又は要求される場合は重み付き平均)で割ることによって行うこともできる。
一部の(又はさらなる)実施形態では、各ビデオサブシーケンス23の代表値は、ビデオサブシーケンス23中の各フレームセグメントに対応するピクセルのピクセル値の平均(又は重み付き平均)の間の差から決定することができる。いくつかの実施形態では、サブシーケンス23中のすべてのフレームセグメント22にわたるピクセル値の平均(又は重み付き平均)を使用して、差を正規化することができる。それに代えて、サブシーケンス23中のすべてのフレームセグメント22にわたるピクセル値の平均(又は重み付き平均)の和を使用して、差を正規化することもできる。正規化された差の使用は、異なるビデオサブシーケンスを表す平均値が著しく異なるときでも、差分値(すなわちビデオサブシーケンス)を連結し、パルス信号を算出することを可能にすることから有利である。正規化された差分が連結される場合、連結される差分値は、パルス信号が導出される前又は後に積分することができる(下記のステップ109)。
図3に戻り、ステップ107で、第1のビデオサブシーケンス24と、第2のサブセット21からのビデオサブシーケンス25との比較に基づいて、第1のビデオサブシーケンス24が、第1のビデオサブシーケンス24と十分に似ている(例えば、代表値が互いから特定の量以内にある)、又は最も似ている、第2のサブセット21からのビデオサブシーケンス25(このビデオサブシーケンス25を本明細書では第2のビデオサブシーケンス25と呼ぶ)と連結される。
この連結が図4(e)に示され、ここでは第1のビデオサブシーケンス24(F1、F2、F3のセグメントS9から形成される)が、第2のビデオサブシーケンス25(F2、F3、F4のセグメントS10から形成される)と連結される。
第1のビデオサブシーケンス24が、画像フレーム20の第2のサブセット21からのフレームセグメントから形成された第2のビデオサブシーケンス25と連結されると、ステップ105及び107を第2のビデオサブシーケンス25に対して繰り返して、画像フレーム20の第3のサブセット21(すなわちF3、F4、F5)からのフレームセグメントから形成される第3のビデオサブシーケンス26を識別することができる。よって、第3のビデオサブシーケンス26は、図4(e)に示されるように、第2のビデオサブシーケンス25と連結することができる。次いでステップ105及び107を繰り返して、画像フレーム20のさらなるサブセット21から、サブシーケンス24、25、26と連結するビデオサブシーケンスを識別することができる。
ビデオサブシーケンス23が共に連結又は結合されると、ビデオサブシーケンスからパルス信号が決定される(ステップ109)。このパルス信号は、連結されたシーケンス中のフレームセグメント22及び/又はビデオサブシーケンス23の色又は色の変化を表す。
いくつかの実施形態では、ステップ109は、連結されたビデオサブシーケンス24、25、26各々の代表値からパルス信号を決定することを含むことができる。よって、いくつかの実施形態では、パルス信号は、例えば図4(f)に示すように、代表値自体から形成することができる。よって、代表値、VS9:1→3、VS10:2→4、及びVS...:3→5は、それぞれ時間tF1、tF2、tF3におけるパルス信号27の値を提供する(各ビデオサブシーケンス24、25、26の中で表される最初の画像フレームのタイミングに対応する)。
この例では、パルス信号27を形成するビデオサブシーケンス24、25、26は、生体皮膚組織のエリアを含んでおり、したがって、この連結されたビデオサブシーケンスのセットから決定されるパルス信号27は、PPG信号に典型的な特性を呈する(すなわち、心臓の拍動に起因して、対象者の皮膚内の血流の変化と合致して振幅が変動する)。連結されたビデオサブシーケンスのセットが生体皮膚組織のエリアを含んでいなかった場合、このセットから決定されるパルス信号はPPG信号に典型的な特性を呈さない(また、ビデオシーケンス中に周囲照明の変化がない場合、このセットのパルス信号は概ね雑音信号に対応する可能性がある)。
連結されたビデオサブシーケンス23の代表値からパルス信号27が形成される実施形態では、ステップ107及び109は実質的に1つのステップと見なせることが認識されよう。これは、第1のビデオサブシーケンス24の代表値が、第2のビデオサブシーケンス25の代表値と連結されるためである。
代替実施形態では、連結されたビデオサブシーケンス24、25を、画像/画像フレーム/フレームセグメントのシーケンスからパルス信号を抽出するための技術を使用して分析することができる。ビデオシーケンスからパルス信号を決定するための様々な技術が当技術分野で知られており、本明細書では詳細には説明しない。しかし、いくつかの例示的技術を、下記のボクセル−パルス−スペクトル法の説明で取り上げる。
いくつかの実施形態では、連結されたビデオサブシーケンスのセットを形成してパルス信号27を決定した後、方法はステップ105に戻り、第1のサブセットであるサブセット1の画像フレーム20から形成されたビデオサブシーケンス23のうち異なるものに方法を繰り返すことができる。このようにして、ビデオシーケンスの異なる(空間的)部分に対して複数のパルス信号27が決定され、そのうちの一部は生体皮膚組織のエリアを含む可能性があるのに対し、他のものは含まない可能性がある。異なるサブセット21からのビデオサブシーケンス23が互いと比較される方式(すなわち代表値の比較による)に起因して、特定のビデオサブシーケンス23がいくつかの異なるパルス信号27に寄与する可能性がある(又は、実際には特定のビデオサブシーケンス23がどのパルス信号27にも寄与しない可能性もある)ことが認識されよう。
パルス信号27(又は複数のパルス信号)が決定又は抽出されると、そのパルス信号27を分析して、ビデオシーケンス中の生体皮膚組織のエリアを識別することができる。ビデオサブシーケンス23が複数の解像度を持つフレームセグメントから形成される場合、分析は、異なる解像度で取得されたパルス信号を共に分析して生体皮膚組織のエリアを識別することを含むことができる。場合によっては、類似度(例えば、空間、時間、色、及び/又は周波数の類似度)に基づいてパルス信号27を共にクラスタリングすることができ、それらのクラスタから生体皮膚組織のエリアが識別される。
いくつかの実施形態では、1つ又は複数のパルス信号27を分析して、そのようなパルス信号が存在する場合には、どのパルス信号が生体皮膚組織の特性を呈するかを決定することができる。いくつかの実施形態では、パルス信号の周波数特性が決定され、決定されたパルス信号の周波数特性が、生体皮膚組織のエリアから取得されたパルス信号の典型的な周波数特性と比較される。例えば、固定された周波数閾値又は帯域(例えば、典型的な心拍/パルス周波数に対応する)を使用して、周期的なパルス信号が生体皮膚組織に対応するかどうかを決定することができる。
代替実施形態では、パルス信号27は、パルス信号の類似度に基づいて空間的にクラスタリングされる。これを実施するための好適なクラスタリングアルゴリズムの一つは、雑音を伴う応用例の密度に基づく空間クラスタリング(DBSCAN:density−based spatial clustering of applications with noise)、又は上記で参照した「Face detection method based on photoplethysmography」で提案されるクラスタリングである。
ただし、いくつかの実施形態では、各パルス信号27の他のパルス信号27との間のペアごとの類似度を決定することができる。すなわち、パルス信号ごとに、他のパルス信号各々との類似度の尺度が決定される。次いで、これらのペアごとの類似度の尺度を分析して生体皮膚組織のエリアを識別する。
ペアごとの類似度の尺度は、好ましくは、周波数に基づくペアごとの類似度の尺度を含むか、又はそれ自体である。これは、同じ特定の対象者の生体皮膚組織のエリアに対応する異なるフレームセグメント22は、相関中で似た(又は同じ)周波数ピークインデックス、位相、又は低いエントロピーを持つパルス信号を呈するはずであるため、有利である。
あるパルス信号と、他のパルス信号のうち1つとのペアごとの類似度の尺度は、当該パルス信号の周波数スペクトルと、他のパルス信号のうち当該1つの周波数スペクトルとの少なくとも一部の間の相関の尺度(これを本明細書ではスペクトルピークと呼ぶ)、当該パルス信号の周波数スペクトルの少なくとも一部と、他のパルス信号のうち当該1つの周波数スペクトルの少なくとも一部との間の正規化された相互相関の尺度(これを本明細書ではスペクトル位相と呼ぶ)、2つのパルス信号の周波数スペクトルの少なくとも一部の間の相関の規則性の尺度(これを本明細書ではスペクトルエントロピーと呼ぶ)、及び/又は、2つのパルス信号の内積の結果(任意で、内積が計算される前にフィルタリングしてもよい)とすることができる。これらのペアごとの類似度の尺度のさらなる詳細は、下記のボクセル−パルス−スペクトル(VPS)法の説明で得ることができる。
当業者は、決定して生体皮膚組織のエリアを識別するために使用できる、上記で提示したものに代わる、又はそれ以外のペアごとの類似度の尺度を把握されよう。
いくつかの実施形態では、パルス信号ごとに、他のパルス信号各々とのペアごとの類似度の尺度を複数決定することができ(例えば、スペクトルピーク及びスペクトル位相)、それらの尺度を組み合わせて、各パルス信号の他のパルス信号各々とのペアごとの類似度を表す距離指標を形成することができる。
いくつかの実施形態では、ビデオシーケンスの類似度行列を決定し、その類似度行列から生体皮膚組織のエリアを識別することができる。類似度行列は、パルス信号に対して決定されたペアごとの類似度(又は距離指標)を組み合わせることによって形成することができる。類似度行列は、ビデオサブシーケンスのうち2つ以上の複数個にわたる似たパルス信号が相互に相関付けられた行列である。類似度行列の使用は、パラメータ(例えば、皮膚の色合いやクラスタリングに基づくパラメータ)を事前定義する必要がないことから有利である。
類似度行列が決定されると、類似度行列の行列分解を行うことによって、生体皮膚組織のエリアが識別される。いくつかの実施形態では、行列分解は、特異値分解(SVD)、QR分解、疎SVD、増分SVD、主成分分析(PCA)、又は独立成分分析(ICA)とすることができる。これらの技術は、当技術分野で一般に知られており、本明細書では詳細には説明しない。下記で詳細に説明する好ましい実施形態では、類似度行列は、増分疎PCAを使用して分解される。
分解は、類似度行列を直交基底に因数分解(分解)して、同じ対象者に属するビデオシーケンスの部分を見つけることを含むことができる。この因数分解の結果、異なる種類の類似度は独立した方向に分離される。この結果、同じ対象者に属するフレームセグメントは、同じ方向にクラスタリングされる。
ビデオシーケンス中で生体皮膚組織のエリアが識別されると、対象者(識別された生体皮膚組織を持つ対象者)の1つ又は複数の生理学的特性をビデオシーケンスから決定することができる。
いくつかの実施形態では、生理学的特性は、識別された生体皮膚組織のエリアに関連付けられた1つ又は複数のパルス信号27から決定することができる。この場合、1つ又は複数のパルス信号27を個々に分析して、生理学的特性及び組み合わせられた(例えば平均された)生理学的特性を決定して、対象者の生理学的特性の全体的な尺度を得ることができる。それに代えて、1つ又は複数のパルス信号27を組み合わせて(例えば平均して)単一のパルス信号を得、そのパルス信号を分析して生理学的特性を決定してもよい。
他の実施形態では、ビデオシーケンスを再処理して、生体皮膚組織であると識別されたエリアから1つ又は複数のパルス信号を抽出し、そのパルス信号を処理して生理学的特性を決定することができる。
ビデオシーケンスから導出されるパルス信号は、PPGセンサを使用して取得される信号と似ており、そのため、対象者の1つ又は複数の生理学的特性は、PPG信号、又は対象者の血流(若しくは血流の変化)の他の尺度から導出できる特性、例えば、心拍数、心拍数の変動性、拍動間間隔、呼吸数、呼吸信号、SpO2値(すなわち血液の動脈酸素化レベル)等をいずれも含むことができる。よって、PPG信号からそのような生理学的特性を導出するための当技術分野で知られる技術(例えば、心拍数を決定するための周波数領域におけるピーク検出)を使用して、生体皮膚組織であると識別されたエリアから取得されたパルス信号から生理学的特性の値を導出することができる。
本明細書に提示される技術の特定の実施形態を下記で説明するが、これを本明細書ではボクセル−パルス−スペクトル(VPS)法と呼ぶ。
ボクセル−パルス−スペクトル(VPS)法
カメラによるパルス抽出
人間の心血管系では、全身を伝搬する血液パルスが、皮膚組織中の血液ボリュームを変化させる。血液中のヘモグロビンの光吸収は光スペクトルにわたって変動するので、皮膚の反射の色変動を検出することでパルスレートを明らかにすることができる。近年の遠隔フォトプレチスモグラフィ(rPPG)技術により、通常のRGBカメラを使用して、パルスによって引き起こされる人間の皮膚の色変動を検出することが可能になっている。パルスを発見するために時間的RGB信号を因数分解するためのブラインド信号源分離方法(例えば、PCAに基づくもの及びICAに基づくもの)が提案されている。クロミナンスに基づくrPPG方法も提案されており、これは、標準的な皮膚の色合いの想定下でRGBチャネルの線形の組み合わせとしてパルスを定義するものであり、これは、現実的な課題(例えば対象者の皮膚の色の違い)に対処するのに最も正確なrPPG方法の1つである。
パルスに基づく関心領域の検出
人間のパルスはビデオシーケンス中でrPPGによって測定可能であることを考えると、したがって、パルス信号を使用して対象者の検出を支援することができ、すなわち、対象者の生体皮膚組織を特定することにより、生きている対象者を検出する。既存技術の一つは、局所的なパルス抽出のためにビデオを固定された厳正なグリッドに切り出す、パルス信号に基づく顔の検出方法を提案する。この方法は、高いスペクトルエネルギーを持つグリッドを見つけるための厳格な閾値を設定し、それらのグリッドを顔領域としてラベル付けする。この方法は、カメラから事前定義された距離に静止した顔を配置する必要があるビデオに制限される。本明細書に記載されるVPS法には、これらの制限の問題がない。別の既存技術では、rPPGの監視を強化するための顔に対する最適関心領域(RoI)選択方法が提案された。しかし、RoIは事前定義された顔上の標識点に制約され、これは対象者検出のための一般的な解決法ではなく、すなわち、ビデオ中で視認できる可能性のある他の身体部分(例えば手)を検出することはできない。対して、本明細書に記載されるVPS法は、そのような前提を行わず、拍動性の血液ボリュームを持つすべての身体部分を検出することができる。
VPS法の概要が図5に示され、これは、画像フレーム20を含む入力ビデオシーケンスを受け取り、対象者のRoI52(すなわち生体皮膚組織に対応するビデオシーケンスのエリア)を出力する。図3に示す方法に沿うと、ビデオシーケンスは複数のサブシーケンス(階層ボクセル段階54−ステップ103)にセグメント分割され、そのサブシーケンスからパルス信号が決定され(パルス抽出段階56−ステップ105〜109)、類似度行列が決定され、その類似度行列を分析してRoIを識別する(スペクトル分析段階58)。各段階について下記で詳細に論じる。
階層ボクセル
対象者に関する(又はその内容全般に関する)一切の事前情報を持たずにビデオシーケンスが与えられた場合、まずビデオシーケンスを、パルスを独立して測定できる密な局所領域にセグメント分割する(これが図5の階層ボクセル段階54である)。ビデオシーケンスは固定された厳正なグリッドに切り出すことができるが、このことは、対象者のサイズがグリッドの幾何学的形状によって量子化されることを意味し、これは、対象者が小さいときや身体の動きがあるときには、困難を伴うか、又は失敗する。したがって、VPS法では、「階層ボクセル」と呼ばれる、パルス抽出のための優れたビデオセグメント分割方法を使用することが好ましい。階層ボクセルは、時空間的に一貫性のあるクラスタ(フレームセグメント)から構成され、複数のスケールにあり(スケールは、各画像フレーム20が分割されるクラスタ/セグメントの数を決定する)、時間領域で外観及び空間的な類似度を共有する画像フレーム20中のピクセルが共にグループ化される。以下のVPS法の説明では複数のスケールが好ましく、複数のスケールが使用されるが、VPS法で単一のスケールを使用することが可能である。
1つのスケールから開始すると、ボクセル(連続した画像フレームのサブセット(例えば、2、3、4等)にあるフレームセグメントを含むビデオサブシーケンス)を構築することは、以下のように、短い間隔内で時間的に隣接しているスーパーピクセル/フレームセグメント間で、色エネルギーEを最小化し(すなわち、フレームセグメントのクロミナンスの差を最小化する)、且つ空間距離エネルギーEを最小化する(すなわち、フレームセグメント間の空間距離の差を最小化する)手順と定義される。
Figure 0006665203
ここで、p∈P(t)は、t番目のフレーム中のピクセルの集合である。pの表現は4次元の特徴ベクトル(x,y,u,v)であり、ここで、(x,y)及び(u,v)はそれぞれ、画像平面及び色平面内の座標である(例えば、皮膚をセグメント分割するための経験的な空間であるYUV空間のUV平面)。Tの間の総エネルギーを最小化するために、K平均クラスタリングを行って、ピクセルをk個のクラスタに割り当てる。λは、2つのエネルギー項間のバランスをコントロールするパラメータである。
さらに、式1の中で異なるkを同時に初期化することにより、単一スケールのボクセルを複数のスケールに拡張し、ここで各スケールは独立したクラスタリングとなる。別々のスケールにあるボクセルは異なる解像度及びエネルギー変動を有することを考慮して、以下のように、i番目のスケールのλが、tにおけるそれ自体のエネルギー変動に基づいて適合的に自己調節され、
Figure 0006665203
ここで、σ(・)は標準偏差演算子を意味し、φ(・)はクラスタ平均の集合を表し、log(k)はボクセルのコンパクトさをコントロールし、すなわち、解像度がより高い(kがより大きい)ボクセルはよりコンパクトであるべきである。異なるスケールにあるλの実時間の調節により、一時的で不安定なクラスタリングを回避し、これはきめの細かいセグメント分割を保つ。
上記のように階層ボクセルを使用することには、図6に図示するように4つの利点があり、図6は、生きている対象者と人工の顔を含む2つの異なる画像についての3つの異なる解像度/スケール(k=16、k=36、k=64)を示す。図6では、第1の画像60は、図1の左側の画像に対応し、いずれもカメラの方を向いた人間の顔と人工の顔とを示している。第2の画像62は、図1の右側の画像に対応し、カメラに対して横を向いた人間の顔と人工の顔とを示している。第1に、階層ボクセルを使用して、パルス測定のために時空間的に一貫性のある「チューブ」(ビデオサブシーケンス)を確立する。第2に、それにより、スケールによって変動しないビデオ中の対象者の検出が可能になる。第3に、それにより、対象者形状の高い境界復元を維持する(画像中の形状に沿ったフレームセグメントの境界によって示されるように)。第4に、異なる解像度のボクセルから測定されるパルスは量子化された品質が異なるため、皮膚領域の統計的な観察が生み出される。
パルスの抽出
この節では、図5のパルス抽出段階56を説明する。階層中の各ボクセル(すなわちビデオサブシーケンス)は、並行したパルス抽出における独立したパルスセンサと見なされる。好ましい実施形態では、クロミナンスに基づく方法(CHROM)がパルスの測定に使用され、これについては、G.de Haan及びV.Jeanneによる「Robust pulse rate from chrominance−based rPPG」(TBME、60(1):2878−2886、2013)に記載される。ただし、当業者は、ボクセルのパルス信号を決定するために使用できる他の技術を把握されよう。例えば、上述のように、PCA又はICAに基づく技術を使用してボクセルからパルス信号を抽出することができ、又はG.de Haan及びA.van Leestによる「Improved motion robustness of remote−PPG by using the blood volume pulse signature」(Physiol.Meas.35 1913、2014)に記載される「PBV」法を使用してRGBトレースからパルスを抽出することができる。すべてのピクセルの空間的に平均されたRGBを使用して局所領域/クラスタ内のパルス信号を導出するCHROMと異なり、ボクセル中のピクセルのRGB値が、ボクセル境界までの各自の距離に基づいてそれらを重み付けすることによって組み合わせられ、すなわち、ボクセル境界に近いピクセルは、隣り合うボクセル間で時折生じるジッタリングアーチファクトのために信頼性がより低く、したがって重み付けを低くすべきである。ピクセルkからボクセル境界までの最も近いユークリッド距離がdであると仮定すると、tにおけるi番目のスケールのj番目のボクセルの平均RGBは、
Figure 0006665203
として組み合わせられ、ここでNはj番目のボクセル中のピクセル数を意味する。一定照明の環境では、人間の皮膚組織は同じ相対PPG振幅を示すが、ボクセルの色差によりパルス振幅の変動が生じる。そのため、CHROMと異なり、ボクセル中の平均RGBの時間導関数が使用され、すなわち、
Figure 0006665203
により、そのクロミナンス信号を導出する。間隔T(式1に定義される)に、正規化されたクロミナンス導関数が、
Figure 0006665203
と計算され、ここで、
Figure 0006665203
は、2つの画像フレーム間のボクセル中のRGBの時間導関数を意味する。各間隔に推定されたクロミナンス導関数を線形に組み合わせてパルス導関数とし、さらに積分する。その後、種々の異なるパルス間隔が、長さLの完全なパルス信号
Figure 0006665203
に重複して加えられる。この手順は次のように解釈され、
Figure 0006665203
ここで、csum(・)は、時間導関数信号の累積和を意味し、wは、重複加算を平滑化するためのハニング窓である。その結果、並行して抽出されたパルス信号
Figure 0006665203
(i番目のスケールのj番目のボクセルから)が次のように中心に集められて正規化され、
Figure 0006665203
ここで、μ(・)は平均化動作を意味する。パルス信号はこの方法で使用される唯一の特徴であることに留意されたい。色やテクスチャなどの他の外観的特徴は使用されない。
スペクトル分析
この節ではスペクトル分析段階58について説明する。この段階は、3つの下位段階である、類似度行列を形成すること、類似度行列に増分疎PCAを行うこと、及び階層的な融合を使用してビデオシーケンス中の生体皮膚組織のエリアを識別することからなる。
同じ対象者に属する皮膚領域から抽出されたパルス信号は、位相や周波数などの多くの面で類似度を共有するのに対し、皮膚以外の領域(例えば背景)から抽出されたパルス信号は相関を持たないランダムな雑音であることに留意されたい。したがって、階層ボクセルからパルス信号を抽出した後に、パルス信号のペアごとの類似度を使用して、生きている対象者を見つける。これは、ビデオシーケンス中に複数の対象者がいる場合にも適用することができ、これは、異なる対象者から測定されたパルスは位相及び周波数においても区別できるためである。
類似度行列 − このステップでは、類似度行列Σ=(D,C)を作成して、測定されたパルスに基づいて階層ボクセルを相互に接続する。Σの中で、対角線にあるエントリDは異なるスケールにあるすべてのボクセルを含んでおり、残りのエントリCはボクセルの任意のペア間のペアごとの接続を意味する。そのような類似度行列を構築するために、パルスの類似度を測定するための距離指標を定義する必要がある。最も広く使用される距離指標、すなわちL1及びL2距離は、パルス特徴には適用することができない。しかし、他の外観的特徴(例えばHaar及びHOG)と比べると、パルス特徴の本質的で固有の性質は周期性を含んでいることである。同じ対象者から得られたパルス信号は、次の関係を持つことに上記で留意した。(1)似た周波数を持ち、よってそれらのパルス信号の相互相関は著しいスペクトルピークを呈する。(2)著しい位相シフトがない。(3)パルス信号の周波数相関は規則的で、無秩序であることは少ない。(4)パルス信号を多次元ベクトルと考える場合、2つの似たベクトル間の挟角は小さい。したがって、パルス信号の類似度行列を構築するために使用される好ましい距離指標は、上記の関係を強調し、以下の4つの異なる測定値からなる。
スペクトルピーク − 周波数領域では、ボクセルが伝達するためにパルスレート帯f∈[40,240]BPM(1分当たりの拍数)が定義され、これは、新生児及びスポーツをする対象者を含む健康な対象者には広い範囲となる。2つの相互相関が取られたパルス信号のスペクトルピークは、
Figure 0006665203
と定義され、ここで、○は要素ごとの積を意味し、*は共役であり、F(・)は高速フーリエ変換(FFT)を表す。
スペクトル位相 − 2つの似たパルス信号は位相も同じであり、そのため、それら信号の正規化した相互相関は、次のように時間領域で強い反応を示すはずであり、
Figure 0006665203
ここで、
Figure 0006665203
はL2ノルムであり、F−1(・)は逆FFTを意味する。
スペクトルエントロピー − 用語「エントロピー」は、2つのパルス信号間の相関の規則性を、
Figure 0006665203
として測定するために使用され、ここで、Eの解釈は他の測定値と合致し、すなわち、より大きいEほどより良好な相関を意味する。
内積 − 時間領域では、内積を使用して、2つのパルス信号間の余弦角を
Figure 0006665203
と測定し、ここで<,>は内積演算を意味する。
最後に、これら4つの測定値が範囲[0;1]に正規化され、次のように共にガウスカーネルと融合され、
Figure 0006665203
ここで、σI,F,P,Eは4つの行列間のエントリごとの標準偏差を表す。4つの測定値は互いから完全に独立しているのではなく、測定値間の冗長性は、類似度推定の不確定性を低減するために有益であることに留意すべきである。図7は、2つのビデオシーケンスについての4つの測定値とそれらを融合した類似度行列Σ64、66の例を示し、1つのビデオシーケンスは1人の生きている対象者を含み、もう一方は2人の生きている対象者を含む。より高いエネルギーを持つエントリは、階層中で似たボクセルのインデックスを表す。
本明細書で使用される距離指標では、良好に位置が合わせられた2つのパルス信号は相互相関時に増大した周波数エネルギーを示し、これは、雑音エントリ(例えば、パルスを持たないボクセル)を効果的に抑制することができる。対して、以前の距離指標はすべて、比較のときに似たエントリ間の関係を強化することができない客観的な測定である。最後に、階層中のすべてのボクセルが類似度行列の中で互いに接続される。ボクセル中で生きている対象者を検出する作業は、同じ部分空間にあるエントリが全く同じ類似度方向を持つような類似度行列の部分空間の区分けを見つけることと再公式化することができる。
増分疎行列分解 − 類似度行列Σ64、66は、
Figure 0006665203
の線形の組み合わせと解釈することができ、ここで、x∈Xは、多次元空間中の直交ベクトルの集合である。同じ対象者に属するボクセルを見つけるために、行列分解技術を使用してΣをXに因数分解し、ここで、異なる対象者は異なる固有ベクトルに分けられる。Σは多くのゼロエントリを持つ疎行列であるので(例えば、背景を指すボクセル同士は類似度を共有しない)、疎PCAを適用して、表現力とデータの解釈可能性との間のトレードオフを探ることによりΣをXに分解する。
疎PCAについては、Y.Zhang、A.d’Aspremont、及びL.Ghaouiによる「Sparse PCA: Convex relaxations, algorithms and applications」(International Series in Operations Research & Management Science Volume 166:915〜940、2012)に記載される。疎PCAは、以下の非凸のオブジェクト関数を最適化することにより、Σの中で最大の分散を持つ最初の疎な固有ベクトルを見つけ、
Figure 0006665203
ここで、
Figure 0006665203
はL1ノルムであり、n>0はXの濃度をコントロールする。しかし、最大の分散を持つ疎な固有ベクトルの算出は、組み合わせ問題であり、解くことが数学的に難しく、そのため、式13の非凸のランク制約は、次のように、半定値的な緩和lペナルティの付与によるリフティング手順に従って削除され、
Figure 0006665203
ここで、Tr(・)は行列トレース演算を意味し、ρ>0は疎度をコントロールし、
Figure 0006665203
は、最初の主固有ベクトルによって近似される対称行列である。この時点で、ハイブリッド条件付き勾配平滑化(HCGS)と称されるアルゴリズムを使用して式14を解くことができる。HCGSについては、A.Argyriou、M.Signoretto、及びJ.Suykensによる「Hybrid conditional gradient−smoothing algorithms with applications to sparse and low rank regularization」(arXiv preprint:1404.3591、2014)に記載される。HCGSの利点は、条件付き勾配手法を使用した凸緩和の収束が速いことである。
しかし、実際には、複数の対象者がいる場合、Σは複数の疎な固有基底(eigenbasis)から構成される可能性があり、対して、式14は、最初の主固有ベクトルの疎度を促進するだけである。この課題に対処するために、次のように、Hotellingの収縮を使用して、先行する疎な固有ベクトルx,x,...,xi−1を用いて順にΣを収縮することにより、後に続く疎な固有ベクトルxを推定し、
Figure 0006665203
ここで、x|∈Xは、HGCSにおけるべき乗の反復によって導出することができ、mは、自動的に見つけられる、最も表現性の高い固有ベクトルの数であり、これは、ビデオシーケンス中の対象者の数も示唆し、すなわちmは通常、最も大きい固有値のギャップの箇所で見つかる。
図8は、図7に示される2つの類似度行列64、66に対して増分疎PCAを使用した類似度行列の分解の例を示し、ここでは、似たボクセルは、選択された固有ベクトル中で同じ方向に因数分解される。よって、図8は、類似度行列から得られた、因数分解され、選択された固有基底を示し、元のΣ64、66の中の雑音のあるエントリは、
Figure 0006665203
68、70では除去され、固有値(それぞれグラフ72及び74に示される)は、
Figure 0006665203
の中で最も表現性の高い固有ベクトルの数を明確に示している(それぞれグラフ76及び78に示される)。
実際には、何らかの内在的な要因(例えばパルスレートの変動)及び外在的な要因(例えば輝度の変化)により、時に後続のフレームの類似度行列に変化が生じることがあり、それが、各単一のフレームから推定される疎な固有ベクトルの不安定性につながる。この問題を解決するために、増分的な部分空間の更新を用いて、時間領域における実時間の変化に合わせてx∈Xを滑らかに適合する。基本的には、これは、時間と共に変動する類似度行列
Figure 0006665203
を新しい観察結果と考え、次のように、異なるフレームからの複数の観察結果
Figure 0006665203
を使用して部分空間モデルを充実させ、
Figure 0006665203
ここで、SVD(・)は特異値分解を意味し、U及びDは増分的に更新される固有ベクトル及び固有値である。時間と共に変動する類似度行列から複数の疎な固有ベクトルを増分的に推定するための例示的アルゴリズムを、下記のアルゴリズム1に示す。
Figure 0006665203
階層的融合 − 推定された疎な固有ベクトル76、78を階層ボクセル上に投射することにより、ボクセルに基づく、複数スケールの人間の物体性マップを取得し、ここで、各スケールは、対象者についての異なる量子化された記述を有する。図7及び図8の2つの対象者を含んでいるビデオシーケンスについてのこの投射を図9に示す。固有ベクトル78は、部分空間における対象者の方向(符号)を決定するだけでなく、対応する皮膚領域の拍動性(振幅)も決定し、すなわち、額及び頬は、投射において比較的高い拍動性を示す。最後のステップで、複数の物体性マップを融合して単一の出力にする。階層的な測定により皮膚領域についての統計的な観察が作成されることから、基本的な考え方は、この冗長性を活用して、すべてのスケールの一致が最も高くなる単一の出力を導出するというものである。この意味で、階層的な融合は、次のように、複数スケールの物体性マップ間のエネルギーの最小化と見なされ、
Figure 0006665203
ここで、Oijは、固有ベクトル要素によって決定されるi番目のスケールのj番目のボクセルの物体性値に対応し、
Figure 0006665203
は、融合された物体性マップを意味し、γは、2つのエネルギー項間のバランスをコントロールする。式19中、Eは、入力と出力との間のエネルギーを最小化し、一方、Eは、異なるスケールにある空間的に重複したボクセル間のエネルギーを最小化し、すなわち暗黙的な木構造となっている。図9は、2人の生きている対象者がいるビデオシーケンスにおける融合結果の例を示し、ここでは、識別された対象者それぞれに別々の出力80、82がもたらされる。
上記の方法、及びVPS法の好ましい実施形態は、ビデオシーケンス中で生体皮膚組織を識別するための改良された方法及び装置を提供する。特に、方法は、従来技術と比べて改良された生体皮膚組織検出率を提供し、検出は、パルス信号を使用して生体組織を検出することのみに基づく。これらの改良は、スケール(すなわち撮像ユニット4からの距離)、対象者の姿勢、位置、皮膚の色合い、視認できる身体部分、若しくは動き、又はビデオシーケンス中の対象者の背景に関係なく得られ、対象者が部分的に撮像ユニット4から遮られているかどうか、ビデオシーケンス中に人工の顔若しくは身体部分が存在するかどうか、又はビデオシーケンス中に複数の生体対象者がいるかどうかを問わない。
特許請求される本発明を実施する際に、図面、本開示、及び添付の特許請求の範囲の考察から、開示される実施形態の他の変形例を当業者によって理解し、実施することができる。特許請求の範囲において、単語「を含む」は他の要素又はステップを排除せず、不定冠詞の「a」及び「an」は複数形を排除しない。単一のプロセッサ又は他のユニットが、特許請求の範囲に記載されるいくつかの項目の機能を実現することができる。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、それらの手段を組み合わせて有利に使用できないことを意味しない。コンピュータプログラムは、他のハードウェアと共に又はその一部として供給される光学記憶媒体又は固体媒体などの適切な媒体で記憶/配布することができるが、インターネット又は他の有線若しくは無線の遠隔通信システムを介するなど、他の形態で配布されてもよい。特許請求の範囲内に参照符号がある場合、範囲を制限するものとは解釈すべきでない。

Claims (20)

  1. パルス信号を決定するための装置であって、前記装置は、
    複数の画像フレームを含むビデオシーケンスを取得するカメラと、
    プロセッサと、
    前記カメラによって取得された前記ビデオシーケンスから複数のビデオサブシーケンスを形成するステップであって各ビデオサブシーケンスは前記画像フレームのサブセット中の各画像フレームからのフレームセグメントを含み、各サブセットは複数の画像フレームを含み、各画像フレームは複数のフレームセグメントに分割され、各フレームセグメントは、画像フレーム中で隣り合っているピクセルのグループである、ステップと
    前記画像フレームの第1のサブセットからのフレームセグメントから形成された第1のビデオサブシーケンスについて、
    前記第1のビデオサブシーケンス中の前記フレームセグメント中のピクセルのピクセル値を平均化することと、
    前記フレームセグメント中の前記ピクセル値の平均を正規化することと
    によって、第1の代表値を生成するステップと、
    前記画像フレームの第2のサブセットからのフレームセグメントから形成された第2のビデオサブシーケンスについて、
    前記第2のビデオサブシーケンス中の前記フレームセグメント中のピクセルのピクセル値を平均化することと、
    前記フレームセグメント中の前記ピクセル値の平均を正規化することと
    によって、第2の代表値を生成するステップと、
    前記第1の代表値を、前記第2の代表値と比較するステップと、
    前記第1の代表値と前記第2の代表値前記比較に基づいて、前記第1のビデオサブシーケンスを、前記画像フレームの前記第2のサブセットからの前記フレームセグメントから形成された前記第2のビデオサブシーケンスと連結させるステップと
    連結された前記ビデオサブシーケンスからパルス信号を決定するステップとを含む方法を実行するために前記プロセッサによって実行できるコンピュータ可読コードを有するコンピュータ可読媒体とを含む、
    装置。
  2. 前記方法、前記画像フレームの複数の前記サブセット各々からのビデオサブシーケンスを連結するために、前記比較及び前記連結を繰り返すステップをさらに含む、請求項1に記載の装置。
  3. 前記各画像フレームは、前記画像フレーム中のピクセルの色及び空間的な類似度に基づいて前記ピクセルを前記フレームセグメントにグループ化することにより、複数のフレームセグメントに分割される、請求項1に記載の装置。
  4. 前記複数のビデオサブシーケンス、各ビデオサブシーケンスに対して、前記ビデオサブシーケンス中の前記フレームセグメントの色の差及び/又は前記フレームセグメントの位置の間の空間距離が最小化されるように、前記画像フレームの前記サブセット中の前記各画像フレームから前記フレームセグメントを選択することによって形成される、請求項1に記載の装置。
  5. 前記ピクセル値は、
    前記各フレームセグメント中のピクセルの前記ピクセル値を重み付けし、前記ピクセル値は、前記フレームセグメント中でのピクセルの空間位置に基づいて、及び/又は前記フレームセグメントの中心若しくはその近くにあるピクセルとの色の差若しくは前記ピクセルのグループとの色の差に基づいて重み付けされることと
    前記フレームセグメント中の前記ピクセルの重み付けされた前記ピクセル値を平均することにより、平均化される、
    請求項に記載の装置。
  6. 前記方法は、前記ビデオサブシーケンス中の前記フレームセグメントのピクセルの前記ピクセル値の平均間の差を決定することによって、前記各ビデオサブシーケンスについての代表値を決定するステップをさらに含む、請求項に記載の装置。
  7. ビデオシーケンスからパルス信号を決定する方法であって、前記方法は、
    複数の画像フレームを含むビデオシーケンスを取得するステップと、
    前記画像フレームのサブセット中に各画像フレームからのフレームセグメントを各々が含む複数のビデオサブシーケンスを形成するステップであって、各サブセットは複数の画像フレームを含み、各画像フレームは複数のフレームセグメントに分割され、各フレームセグメントは、画像フレーム中で隣り合っているピクセルのグループである、ステップと、
    前記画像フレームの第1のサブセットからのフレームセグメントから形成された第1のビデオサブシーケンスについて、前記フレームセグメント中のピクセル値の平均を正規化することによって、前記第1のビデオサブシーケンスのフレームセグメントについての第1の代表値を生成するステップと、
    前記画像フレームの第2のサブセットからのフレームセグメントから形成された第2のビデオサブシーケンスについて、前記フレームセグメント中のピクセル値の平均を正規化することによって、前記第2のビデオサブシーケンスのフレームセグメントについての第2の代表値を生成するステップと、
    前記第1のビデオサブシーケンスについて前記第1の代表値を、前記第2のビデオサブシーケンスについて前記第2の代表値と比較するステップと、
    代表値の前記比較に基づいて、前記第1のビデオサブシーケンスを、前記画像フレームの前記第2のサブセットからの前記フレームセグメントから形成された前記第2のビデオサブシーケンスと連結するステップと、
    連結された前記ビデオサブシーケンスからパルス信号を決定するステップとを有する、
    方法。
  8. 前記画像フレームの複数の前記サブセット各々からのビデオサブシーケンスを連結するために前記比較するステップ及び前記連結するステップを繰り返すステップをさらに有する、請求項に記載の方法。
  9. 前記各画像フレームは、ピクセルの色及び空間的な類似度に基づいて前記ピクセルを前記フレームセグメントにグループ化することにより、複数の前記フレームセグメントに分割される、請求項に記載の方法。
  10. 前記複数のビデオサブシーケンスを形成するステップは、各ビデオサブシーケンスに対して、前記ビデオサブシーケンス中の前記フレームセグメントの色の差及び/又は前記フレームセグメントの位置の間の空間距離が最小化されるように、前記画像フレームの前記サブセット中の前記各画像フレームから前記フレームセグメントを選択するステップを有する、請求項に記載の方法。
  11. 前記ビデオサブシーケンス中の前記フレームセグメント中のピクセル前記ピクセル値を平均化するステップにより、前記各ビデオサブシーケンスについての代表値を決定するステップをさらに有する、請求項10に記載の方法。
  12. 前記ピクセル値を平均化するステップは
    各フレームセグメント中のピクセルの前記ピクセル値を重み付けするステップであって、前記ピクセル値は、前記フレームセグメント中でのピクセルの空間位置に基づいて、及び/又は前記フレームセグメントの中心若しくはその近くにあるピクセルとの色の差若しくは前記ピクセルのグループとの色の差に基づいて重み付けされる、ステップと、
    前記フレームセグメント中の前記ピクセルの重み付けされた前記ピクセル値を平均するステップとを有する、
    請求項11に記載の方法。
  13. コンピュータ可読コードが内部に具現化された非一時的コンピュータ可読媒体であって、前記コンピュータ可読コードは、適切なコンピュータ又はプロセッサによって実行されると、前記コンピュータ又は前記プロセッサ
    複数の画像フレームを含むビデオシーケンスを取得するステップと、
    複数のビデオサブシーケンスを形成するステップであって、各ビデオサブシーケンスは前記画像フレームのサブセット中の各画像フレームからのフレームセグメントを含み、各サブセットは複数の画像フレームを含み、各画像フレームは複数のフレームセグメントに分割され、各フレームセグメントは、画像フレーム中で隣り合っているピクセルのグループである、ステップと、
    前記画像フレームの第1のサブセットからのフレームセグメントから形成された第1のビデオサブシーケンスについて、前記フレームセグメント中のピクセル値の平均を正規化することによって、前記第1のビデオサブシーケンスのフレームセグメントについての第1の代表値を生成するステップと、
    前記画像フレームの第2のサブセットからのフレームセグメントから形成された第2のビデオサブシーケンスについて、前記フレームセグメント中のピクセル値の平均を正規化することによって、前記第2のビデオサブシーケンスのフレームセグメントについての第2の代表値を生成するステップと、
    前記第1の代表値を、前記第2の代表値と比較するステップと、
    代表値の前記比較に基づいて、前記第1のビデオサブシーケンスを、前記画像フレームの前記第2のサブセットからの前記フレームセグメントから形成された前記第2のビデオサブシーケンスと連結するステップと、
    連結された前記ビデオサブシーケンスからパルス信号を決定するステップとを有する方法を行わせる
    非一時的コンピュータ可読媒体。
  14. 前記方法は、前記画像フレームの複数の前記サブセットの各々からのビデオサブシーケンスを連結するために前記比較するステップ及び前記連結するステップを繰り返すステップをさらに有する、請求項13に記載の非一時的コンピュータ可読媒体。
  15. 前記各画像フレームは、ピクセルの色及び空間的な類似度に基づいて前記ピクセルを前記フレームセグメントにグループ化することにより、複数の前記フレームセグメントに分割される、請求項14に記載の非一時的コンピュータ可読媒体。
  16. 前記複数のビデオサブシーケンスを形成するステップは、各ビデオサブシーケンスに対して、前記ビデオサブシーケンス中の前記フレームセグメントの色の差及び/又は前記フレームセグメントの位置の間の空間距離が最小化されるように、前記画像フレームの前記サブセット中の前記各画像フレームから前記フレームセグメントを選択するステップを有する、請求項14に記載の非一時的コンピュータ可読媒体。
  17. 前記方法は、前記ビデオサブシーケンス中の前記フレームセグメント中のピクセルの前記ピクセル値を平均化するステップにより、前記各ビデオサブシーケンスについての代表値を決定するステップをさらに有する、請求項16に記載の非一時的コンピュータ可読媒体。
  18. 前記ピクセル値を平均化するステップは
    各フレームセグメント中のピクセルの前記ピクセル値を重み付けするステップであって、前記ピクセル値は、前記フレームセグメント中でのピクセルの空間位置に基づいて、及び/又は前記フレームセグメントの中心若しくはその近くにあるピクセルとの色の差若しくは前記ピクセルのグループとの色の差に基づいて重み付けされる、ステップと、
    前記フレームセグメント中の前記ピクセルの重み付けされた前記ピクセル値を平均するステップとを有する、
    請求項17に記載の非一時的コンピュータ可読媒体。
  19. 前記第1のビデオサブシーケンスの前記フレームセグメントについての前記第1の代表値を生成するステップは、前記フレームセグメント中のピクセル値の前記平均を、前記第1のビデオサブシーケンス中のすべてのフレームセグメント中のすべてのピクセルのピクセル値の平均又は重み付き平均で割ることによって、前記フレームセグメント中の前記ピクセル値の前記平均を正規化するステップを有し、
    前記第2のビデオサブシーケンスの前記フレームセグメントについての前記第2の代表値を生成するステップは、前記フレームセグメント中のピクセル値の前記平均を、前記第2のビデオサブシーケンス中のすべてのフレームセグメント中のすべてのピクセルのピクセル値の平均又は重み付き平均で割ることによって、前記フレームセグメント中の前記ピクセル値の前記平均を正規化するステップを有する、
    請求項13に記載の非一時的コンピュータ可読媒体。
  20. 前記第1のビデオサブシーケンスの前記フレームセグメントについての前記第1の代表値を生成するステップは、前記フレームセグメント中のピクセル値の前記平均を、前記第1のビデオサブシーケンスがそれから形成されている画像フレームの前記第1のサブセット中のすべての画像フレーム中のすべてのピクセルのピクセル値の平均又は重み付き平均で割ることによって、前記フレームセグメント中の前記ピクセル値の前記平均を正規化するステップを有し、
    前記第2のビデオサブシーケンスの前記フレームセグメントについての前記第2の代表値を生成するステップは、前記フレームセグメント中のピクセル値の前記平均を、前記第2のビデオサブシーケンスがそれから形成されている画像フレームの前記第2のサブセット中のすべての画像フレーム中のすべてのピクセルのピクセル値の平均又は重み付き平均で割ることによって、前記フレームセグメント中の前記ピクセル値の前記平均を正規化するステップを有する、
    請求項13に記載の非一時的コンピュータ可読媒体。
JP2017560151A 2015-05-21 2016-05-09 ビデオシーケンスからのパルス信号の決定 Expired - Fee Related JP6665203B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15168575.7 2015-05-21
EP15168575 2015-05-21
PCT/EP2016/060250 WO2016184705A1 (en) 2015-05-21 2016-05-09 Determining a pulse signal from a video sequence

Publications (3)

Publication Number Publication Date
JP2018520418A JP2018520418A (ja) 2018-07-26
JP2018520418A5 JP2018520418A5 (ja) 2019-04-11
JP6665203B2 true JP6665203B2 (ja) 2020-03-13

Family

ID=53268656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017560151A Expired - Fee Related JP6665203B2 (ja) 2015-05-21 2016-05-09 ビデオシーケンスからのパルス信号の決定

Country Status (5)

Country Link
US (1) US10290104B2 (ja)
EP (1) EP3298536A1 (ja)
JP (1) JP6665203B2 (ja)
CN (1) CN107666853A (ja)
WO (1) WO2016184705A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242441B2 (en) * 2015-05-21 2019-03-26 Koninklijke Philips N.V. Identifying living skin tissue in a video sequence using color and spatial similarities
CN107635457B (zh) * 2015-05-21 2021-05-25 皇家飞利浦有限公司 识别视频序列中的活的皮肤组织
WO2016184705A1 (en) * 2015-05-21 2016-11-24 Koninklijke Philips N.V. Determining a pulse signal from a video sequence
US11328152B2 (en) 2019-06-17 2022-05-10 Pixart Imaging Inc. Recognition system employing thermal sensor
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
US10709354B2 (en) * 2016-09-06 2020-07-14 Photorithm, Inc. Generating a breathing alert
US11389119B2 (en) * 2016-09-06 2022-07-19 Photorithm, Inc. Generating a breathing alert
CN108073933B (zh) * 2016-11-08 2021-05-25 杭州海康威视数字技术股份有限公司 一种目标检测方法及装置
JP6767247B2 (ja) * 2016-11-29 2020-10-14 株式会社日立製作所 生体情報検出装置及び生体情報検出方法
BR112019017575A2 (pt) * 2017-02-27 2020-03-24 Koninklijke Philips N.V. Dispositivo de imageamento de vasculatura e mídia de armazenamento não transitório
EP3440991A1 (en) * 2017-08-08 2019-02-13 Koninklijke Philips N.V. Device, system and method for determining a physiological parameter of a subject
DE102017118636B3 (de) 2017-08-15 2018-12-06 Technische Universität Chemnitz Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person
US11311202B2 (en) 2017-11-14 2022-04-26 Arizona Board Of Regents On Behalf Of Arizona State University Robust real-time heart rate monitoring method based on heartbeat harmonics using small-scale radar
WO2019157256A1 (en) * 2018-02-08 2019-08-15 Tsouri Gill R Opportunistic plethysmography using video cameras
CN110236509A (zh) * 2018-03-07 2019-09-17 台北科技大学 于视频中实时分析生理特征的方法
TWI712909B (zh) * 2018-04-17 2020-12-11 和碩聯合科技股份有限公司 輔助臉部辨識的防僞方法及系統
US11259710B2 (en) * 2018-05-16 2022-03-01 Mitsubishi Electric Research Laboratories, Inc. System and method for remote measurements of vital signs
ES2901638T3 (es) * 2018-05-17 2022-03-23 Fraunhofer Ges Forschung Dispositivo y método para detectar concordancias parciales entre una primera señal variable en el tiempo y una segunda señal variable en el tiempo
CN111374646B (zh) * 2018-12-28 2021-08-03 清华大学 一种基于智能手机的非硬件依赖型脉象信息采集系统和方法
US11783483B2 (en) 2019-03-19 2023-10-10 Arizona Board Of Regents On Behalf Of Arizona State University Detecting abnormalities in vital signs of subjects of videos
US11771380B2 (en) 2019-03-19 2023-10-03 Arizona Board Of Regents On Behalf Of Arizona State University Vital sign monitoring system using an optical sensor
US11103144B2 (en) 2019-11-21 2021-08-31 Gb Soft Inc. Method of measuring physiological parameter of subject in contactless manner
WO2021100994A1 (ko) * 2019-11-21 2021-05-27 주식회사 지비소프트 비접촉식 생체 지수 측정 방법
KR102273903B1 (ko) * 2019-11-21 2021-07-06 주식회사 지비소프트 비접촉식 생체 지수 측정 방법
US11356679B2 (en) * 2019-12-05 2022-06-07 Alibaba Group Holding Limited Method and apparatus for chroma sampling
EP3989106B1 (en) * 2020-10-26 2024-05-15 Robert Bosch GmbH Unsupervised training of a video feature extractor
KR102601683B1 (ko) * 2021-02-25 2023-11-13 주식회사 지비소프트 생체 지수 측정 방법
CN113420612B (zh) * 2021-06-02 2022-03-18 深圳中集智能科技有限公司 基于机器视觉的生产节拍计算方法
EP4098183A1 (en) 2021-06-02 2022-12-07 Koninklijke Philips N.V. Blood pressure detection
CN113378798B (zh) * 2021-07-16 2023-06-23 福建师范大学 基于视频微运动放大的脉搏视频脉搏提取方法及系统
CN116311175A (zh) * 2021-12-10 2023-06-23 上海商汤临港智能科技有限公司 一种生理状态检测方法、装置、电子设备及存储介质
CN117643461B (zh) * 2024-01-30 2024-04-02 吉林大学 基于人工智能的心率智能监测系统及方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5051472B2 (ja) * 2006-11-06 2012-10-17 国立大学法人徳島大学 脳画像診断支援方法、プログラムおよび記録媒体
US8311277B2 (en) * 2007-02-01 2012-11-13 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for video indexing and video synopsis
US8494608B2 (en) * 2008-04-18 2013-07-23 Medtronic, Inc. Method and apparatus for mapping a structure
WO2011042858A1 (en) * 2009-10-06 2011-04-14 Koninklijke Philips Electronics N.V. Method and system for processing a signal including at least a component representative of a periodic phenomenon in a living being
WO2011042839A1 (en) * 2009-10-06 2011-04-14 Koninklijke Philips Electronics N.V. Method and system for obtaining a first signal for analysis to characterize at least one periodic component thereof
CN101695136B (zh) * 2009-10-22 2011-07-20 北京交通大学 一种自动式视频颜色协调处理方法和处理系统
JP5195741B2 (ja) * 2009-12-25 2013-05-15 株式会社デンソー 生体活動計測装置
KR101642897B1 (ko) * 2011-07-13 2016-07-26 주식회사 고영테크놀러지 검사방법
US8838209B2 (en) * 2012-02-21 2014-09-16 Xerox Corporation Deriving arterial pulse transit time from a source video image
US8768438B2 (en) * 2012-06-25 2014-07-01 Xerox Corporation Determining cardiac arrhythmia from a video of a subject being monitored for cardiac function
US9412024B2 (en) * 2013-09-13 2016-08-09 Interra Systems, Inc. Visual descriptors based video quality assessment using outlier model
US9336594B2 (en) * 2014-03-07 2016-05-10 Xerox Corporation Cardiac pulse rate estimation from source video data
CN107635457B (zh) * 2015-05-21 2021-05-25 皇家飞利浦有限公司 识别视频序列中的活的皮肤组织
WO2016184705A1 (en) * 2015-05-21 2016-11-24 Koninklijke Philips N.V. Determining a pulse signal from a video sequence
US10242441B2 (en) * 2015-05-21 2019-03-26 Koninklijke Philips N.V. Identifying living skin tissue in a video sequence using color and spatial similarities

Also Published As

Publication number Publication date
JP2018520418A (ja) 2018-07-26
EP3298536A1 (en) 2018-03-28
CN107666853A (zh) 2018-02-06
US10290104B2 (en) 2019-05-14
US20160343135A1 (en) 2016-11-24
WO2016184705A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6665203B2 (ja) ビデオシーケンスからのパルス信号の決定
JP6343107B1 (ja) ビデオ・シーケンスにおける生体皮膚組織の識別
JP6549734B2 (ja) ビデオ・シーケンスにおける生体皮膚組織の識別
EP3057487B1 (en) Device and method for obtaining a vital sign of a subject
Wang et al. Unsupervised subject detection via remote PPG
JP6521845B2 (ja) 心拍に連動する周期的変動の計測装置及び計測方法
EP3440991A1 (en) Device, system and method for determining a physiological parameter of a subject
Tran et al. A robust real time system for remote heart rate measurement via camera
Macwan et al. Periodic variance maximization using generalized eigenvalue decomposition applied to remote photoplethysmography estimation
Botina-Monsalve et al. Rtrppg: An ultra light 3dcnn for real-time remote photoplethysmography
Speth et al. Unifying frame rate and temporal dilations for improved remote pulse detection
Demirezen et al. Heart rate estimation from facial videos using nonlinear mode decomposition and improved consistency check
Lampier et al. A deep learning approach to estimate pulse rate by remote photoplethysmography
Wang et al. TransPhys: Transformer-based unsupervised contrastive learning for remote heart rate measurement
Sun et al. Contrast-phys+: Unsupervised and weakly-supervised video-based remote physiological measurement via spatiotemporal contrast
Slapnicar et al. Contact-free monitoring of physiological parameters in people with profound intellectual and multiple disabilities
WO2023055862A1 (en) Systems and methods for platform-agnostic, real-time physiologic vital sign detection from video stream data
Li A temporal encoder-decoder approach to extracting blood volume pulse signal morphology from face videos
Jian et al. Remote Heart Rate Estimation Based on ROI Extraction
Gupta et al. Heart-Rate Evaluation Using Remote Photoplethysmography–A Case Study
Raseena et al. A Maximum Likelihood Formulation to Exploit Heart Rate Variability for Robust Heart Rate Estimation From Facial Video
Tu et al. Standardized rPPG signal generation based on generative adversarial networks

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190711

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200219

R150 Certificate of patent or registration of utility model

Ref document number: 6665203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees