JPWO2021111436A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021111436A5
JPWO2021111436A5 JP2022532066A JP2022532066A JPWO2021111436A5 JP WO2021111436 A5 JPWO2021111436 A5 JP WO2021111436A5 JP 2022532066 A JP2022532066 A JP 2022532066A JP 2022532066 A JP2022532066 A JP 2022532066A JP WO2021111436 A5 JPWO2021111436 A5 JP WO2021111436A5
Authority
JP
Japan
Prior art keywords
optical data
face
determining
data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022532066A
Other languages
Japanese (ja)
Other versions
JP2023505111A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/IL2020/051238 external-priority patent/WO2021111436A1/en
Publication of JP2023505111A publication Critical patent/JP2023505111A/en
Publication of JPWO2021111436A5 publication Critical patent/JPWO2021111436A5/ja
Pending legal-status Critical Current

Links

Claims (31)

被験者から生理学的信号を取得するための方法であって、前記方法が、カメラを用いて前記被験者の顔から光学データを取得することと、前記カメラと通信する計算デバイスを用いて前記被験者の前記顔に関連するデータを選択するために前記光学データを分析することとを含み、前記計算デバイスが、前記顔の皮膚から光学データを検出するステップと、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定し、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算するステップと、前記時系列から前記生理学的信号を計算するステップを行い、前記顔の皮膚から前記光学データを検出するステップが、複数の顔境界を決定することと、各顔境界の得点を決定することと、最高得点を有する顔境界を選択することと、前記顔からのビデオデータにヒストグラム分析を適用することとを含み、前記ヒストグラム分析が、ソフト閾値処理機構を有するヒストグラムベースの分類器を含む方法。 A method for obtaining physiological signals from a subject, the method comprising: using a camera to obtain optical data from the subject's face; and using a computing device in communication with the camera to obtain optical data from the subject's face. analyzing the optical data to select data related to a face ; the computing device detecting optical data from skin of the face; and detecting optical data from the skin of the face until an elapsed time period is reached. determining a time series from the optical data by collecting and then calculating the time series from the collected optical data over the elapsed time period; and calculating the physiological signal from the time series. and detecting the optical data from the skin of the face includes determining a plurality of facial boundaries, determining a score for each facial boundary, and selecting the facial boundary with the highest score. and applying a histogram analysis to video data from the face, the histogram analysis comprising a histogram-based classifier with a soft thresholding mechanism . 前記光学データが、ビデオデータを含み、前記光学データを前記取得することが、前記被験者の前記顔のビデオデータを取得することを含む、請求項1に記載の方法。 2. The method of claim 1, wherein the optical data includes video data, and the obtaining the optical data includes obtaining video data of the face of the subject. 前記光学データを前記取得することが、前記カメラが携帯電話カメラを含むように、前記携帯電話カメラからビデオデータを取得することをさらに含む、請求項2に記載の方法。 3. The method of claim 2, wherein the obtaining the optical data further comprises obtaining video data from the cell phone camera, such that the camera includes a cell phone camera. 前記計算デバイスが、モバイル通信デバイスを含む、請求項3に記載の方法。 4. The method of claim 3, wherein the computing device comprises a mobile communication device. 前記携帯電話カメラが、前面カメラを含む、請求項4に記載の方法。 5. The method of claim 4, wherein the mobile phone camera includes a front-facing camera. 前記計算デバイスが、前記携帯電話カメラから物理的に分離されているが、前記携帯電話カメラと通信している、請求項に記載の方法。 6. The method of claim 5 , wherein the computing device is physically separate from, but in communication with, the mobile phone camera. 前記複数の顔境界を前記決定することが、前記顔境界を決定するために、マルチパラメータ畳み込みニューラルネット(CNN)を前記ビデオデータに適用することを含む、請求項に記載の方法。 2. The method of claim 1 , wherein the determining the plurality of facial boundaries includes applying a multi-parameter convolutional neural network (CNN) to the video data to determine the facial boundaries. 前記光学データを前記取得することが、前記被験者の指の皮膚のビデオデータを取得することをさらに含む、請求項に記載の方法。 2. The method of claim 1 , wherein the obtaining the optical data further comprises obtaining video data of the subject's finger skin. 前記ビデオデータを前記取得することが、前記被験者の指先前記カメラに置かれるときに、前記指の皮膚のビデオデータを取得することを含む、請求項に記載の方法。 9. The method of claim 8 , wherein the obtaining the video data includes obtaining video data of the skin of the subject's fingertip when the fingertip is placed on the camera. 前記指先のビデオデータを取得するための前記カメラが、携帯電話カメラを含む、請求項に記載の方法。 10. The method of claim 9 , wherein the camera for acquiring the fingertip video data includes a mobile phone camera. 記指先が、光を提供するために前記携帯電話カメラに関連付けられたフラッシュを起動する間に前記携帯電話カメラ上に置かれる、請求項10に記載の方法。 11. The method of claim 10 , wherein the fingertip is placed on the mobile phone camera while activating a flash associated with the mobile phone camera to provide light. 前記顔の前記皮膚から前記光学データを前記検出することが、複数の顔または指先境界を決定することと、各顔または指先境界の得点を決定することと、最高得点を有する顔または指先境界を選択することと、前記顔または指先からのビデオデータにヒストグラム分析を適用することとを含む、請求項に記載の方法。 The detecting the optical data from the skin of the face includes determining a plurality of face or fingertip boundaries, determining a score for each face or fingertip boundary, and determining a face or fingertip boundary with the highest score. 2. The method of claim 1 , comprising selecting and applying histogram analysis to video data from the face or fingertip. 前記複数の顔または指先境界を前記決定することが、前記顔または指先境界を決定するために、前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを含む、請求項12に記載の方法。 13. The method of claim 12 , wherein the determining the plurality of face or fingertip boundaries comprises applying a multi-parameter convolutional neural network (CNN) to the video data to determine the face or fingertip boundaries. Method. 前記生理学的測定値を決定するために、前記顔および指先の画像からの分析されたデータを組み合わせることをさらに含む、請求項13に記載の方法。 14. The method of claim 13 , further comprising combining analyzed data from the face and fingertip images to determine the physiological measurements. 前記生理学的測定値を前記決定することが、メタデータを前記生理学的信号からの測定値と組み合わせることをさらに含み、前記メタデータが、前記被験者の体重、年齢、身長、生物学的性別、体脂肪パーセンテージ、および体筋パーセンテージのうちの1つ以上を含む、請求項14に記載の方法。 The determining the physiological measurements further includes combining metadata with measurements from the physiological signals, the metadata including weight, age, height, biological sex of the subject. 15. The method of claim 14 , comprising one or more of , body fat percentage, and body muscle percentage. 前記生理学的信号が、ストレス、血圧、呼吸量、および酸素飽和度(pSO2からなる群から選択される、請求項15に記載の方法。 16. The method of claim 15 , wherein the physiological signal is selected from the group consisting of stress, blood pressure, respiratory rate, and oxygen saturation ( pSO2 ) . 前記時系列を使用してrPPGトレース信号を計算することによって、検出された光学データからPPG信号を作成することと、前記rPPGトレース信号から平均脈拍数を推定することと、平均瞬間脈拍数を計算することと、適応ウィーナーフィルタリングを適用する射影行列(PM)に従って、かつ瞬時脈拍周波数に従って決定された初期信号をもってrPPG信号を決定することとを含む、請求項1に記載の方法。 creating a PPG signal from the detected optical data by calculating an rPPG trace signal using the time series; estimating an average pulse rate from the rPPG trace signal; and calculating an average instantaneous pulse rate. and determining the rPPG signal with an initial signal determined according to a projection matrix (PM) applying adaptive Wiener filtering and according to the instantaneous pulse frequency. 前記平均脈拍数は、生の補間データから構築された2つの異なるrPPG分析信号間の整合フィルタを使用して推定される、請求項17に記載の方法。 18. The method of claim 17, wherein the average pulse rate is estimated using a matched filter between two different rPPG analysis signals constructed from raw interpolated data. 前記平均瞬間脈拍数を決定するために相互相関が計算され、非線形最小二乗(NLS)スペクトル分解に従って周波数推定値が計算される、請求項18に記載の方法。 19. The method of claim 18, wherein a cross-correlation is calculated to determine the average instantaneous pulse rate and a frequency estimate is calculated according to a non-linear least squares (NLS) spectral decomposition. 前記PPG信号が、信号再構築を強制する周波数領域内の追加のフィルタおよび瞬時RR値に適用される指数フィルタを適用することによってさらに決定される、請求項19に記載の方法。 20. The method of claim 19, wherein the PPG signal is further determined by applying an additional filter in the frequency domain to force signal reconstruction and an exponential filter applied to the instantaneous RR values. 被験者から生理学的信号を取得するためのシステムであって、前記システムが、前記被験者の顔から光学データを取得するためのカメラと、前記カメラから光学データを受信するためのユーザ計算デバイスとを備え、前記ユーザ計算デバイスが、プロセッサと、複数の命令を記憶するためのメモリとを含み、前記プロセッサが、前記顔の皮膚から光学データを検出するステップと、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定するステップと、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算するステップと、前記時系列から前記生理学的信号を計算するステップとともに、前記被験者の顔に関連するデータを選択するために前記光学データを分析するための前記命令を実行し、前記顔の皮膚から前記光学データを検出するステップが、複数の顔境界を決定することと、各顔境界の得点を決定することと、最高得点を有する顔境界を選択することと、前記顔からのビデオデータにヒストグラム分析を適用することとを含み、前記ヒストグラム分析が、ソフト閾値処理機構を有するヒストグラムベースの分類器を含む、システム。 A system for acquiring physiological signals from a subject, the system comprising: a camera for acquiring optical data from the subject's face; and a user computing device for receiving optical data from the camera. , the user computing device includes a processor and a memory for storing a plurality of instructions , the processor detecting optical data from the skin of the face, and detecting optical data from the facial skin until an elapsed time period is reached. determining a time series from the optical data by collecting data; then calculating the time series from the collected optical data over the elapsed time period; The step of executing the instructions for analyzing the optical data to select data related to the subject's face and detecting the optical data from the skin of the face, together with the step of calculating a signal, comprises a plurality of steps of: determining face boundaries; determining a score for each face boundary; selecting the face boundary with the highest score; and applying a histogram analysis to video data from the face, A system wherein the analysis includes a histogram-based classifier with a soft thresholding mechanism . 前記メモリが、コードの定義されたネイティブ命令セットを記憶するように構成され、前記プロセッサが、前記メモリに記憶されたコードの前記定義されたネイティブ命令セットから選択された対応する基本命令を受信することに応答して、定義された基本動作セットを実行するように構成され、前記メモリが、前記被験者の前記顔に関連するデータを選択するために前記光学データを分析するための前記ネイティブ命令セットから選択された第1の組のマシンコードと、前記顔の皮膚から光学データを検出するために前記ネイティブ命令セットから選択された第2の組のマシンコードと、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定し、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算するための前記ネイティブ命令セットから選択された第3の組のマシンコードと、前記時系列から前記生理学的信号を計算するための前記ネイティブ命令セットから選択された第4の組のマシンコードとを記憶する、請求項21に記載のシステム。 The memory is configured to store a defined native instruction set of code, and the processor receives corresponding primitive instructions selected from the defined native instruction set of code stored in the memory. the memory configured to perform a defined set of primitive operations in response to the native instruction set for analyzing the optical data to select data related to the face of the subject; a first set of machine code selected from the native instruction set for detecting optical data from the facial skin; and a second set of machine code selected from the native instruction set for detecting optical data from the facial skin; a first instruction selected from the native instruction set for determining a time series from the optical data by collecting optical data; and then calculating the time series from the collected optical data over the elapsed time period. 22. The system of claim 21 , storing three sets of machine code and a fourth set of machine code selected from the native instruction set for calculating the physiological signal from the time series. 前記複数の顔境界を前記決定することが、前記顔境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを含み、その結果前記メモリが、前記顔境界を決定するために前記ビデオデータに前記マルチパラメータ畳み込みニューラルネット(CNN)を適用するための前記ネイティブ命令セットから選択された第8の組のマシンコードをさらに含む、請求項22に記載のシステム。 The determining the plurality of facial boundaries includes applying a multi-parameter convolutional neural network (CNN) to the video data to determine the facial boundaries, such that the memory determines the facial boundaries. 23. The system of claim 22 , further comprising an eighth set of machine code selected from the native instruction set for applying the multi -parameter convolutional neural network (CNN) to the video data. 前記カメラが、携帯電話カメラを含み、前記光学データが、前記携帯電話カメラからビデオデータとして取得される、請求項23に記載のシステム。 24. The system of claim 23 , wherein the camera includes a mobile phone camera and the optical data is obtained as video data from the mobile phone camera. 前記ユーザ計算デバイスが、モバイル通信デバイスを含む、請求項24に記載のシステム。 25. The system of claim 24 , wherein the user computing device includes a mobile communication device. 前記携帯電話カメラが、背面カメラを含み、前記ビデオデータを取得するために、前記被験者の指先が前記カメラ上に配置される、請求項25に記載のシステム。 26. The system of claim 25 , wherein the mobile phone camera includes a rear camera, and the subject's fingertip is placed on the camera to obtain the video data. 前記光学データを取得するための光を提供するために、前記携帯電話カメラに関連付けられたフラッシュをさらに備える、請求項26に記載のシステム。 27. The system of claim 26 , further comprising a flash associated with the mobile phone camera to provide light for acquiring the optical data. 前記メモリが、複数の顔または指先境界を決定するための前記ネイティブ命令セットから選択された第9の組のマシンコードと、最高得点を有する顔または指先境界を選択するための前記ネイティブ命令セットから選択された第10の組のマシンコードと、前記顔または指先からのビデオデータにヒストグラム分析を適用するための前記ネイティブ命令セットから選択された第11の組のマシンコードとをさらに含む、請求項27に記載のシステム。 The memory includes a ninth set of machine codes selected from the native instruction set for determining a plurality of face or fingertip boundaries and from the native instruction set for selecting the face or fingertip boundary having the highest score . 10. The method of claim 1, further comprising a selected tenth set of machine code and an eleventh set of machine code selected from the native instruction set for applying histogram analysis to video data from the face or fingertip. 27. The system described in 27 . 前記プロセッサによって実行された前記命令に従って前記生理学的測定値を決定するために、前記顔および指先の画像からの分析されたデータを組み合わせることをさらに含む、請求項28に記載のシステム。 29. The system of claim 28 , further comprising combining analyzed data from the face and fingertip images to determine the physiological measurements in accordance with the instructions executed by the processor. 前記システムは、前記生理学的測定値および/または信号を表示するためのディスプレイをさらに備え、前記ユーザ計算デバイスが、前記ディスプレイをさらに含み、前記ユーザ計算デバイスが、前記生理学的測定値および/または信号を送信するための送信機をさらに含む、請求項29に記載のシステム。 The system further comprises a display for displaying the physiological measurements and/or signals , and the user computing device further includes the display, and the user computing device further includes a display for displaying the physiological measurements and/or signals. 30. The system of claim 29 , further comprising a transmitter for transmitting . 被験者から生理学的信号を取得するためのシステムであって、前記システムが、前記被験者の指から光学データを取得するための背面カメラと、前記カメラから光学データを受信するためのユーザ計算デバイスとを備え、前記ユーザ計算デバイスが、プロセッサと、複数の命令を記憶するためのメモリとを含み、前記プロセッサが、前記指の皮膚から光学データを検出するステップと、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定するステップと、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算するステップと、前記時系列から前記生理学的信号を計算するステップとともに、前記被験者の指に関連するデータを選択するために前記光学データを分析するための前記命令を実行し、前記指の皮膚から前記光学データを検出するステップが、複数の指境界を決定することと、各指境界の得点を決定することと、最高得点を有する指境界を選択することと、前記指からのビデオデータにヒストグラム分析を適用することとを含み、前記ヒストグラム分析が、ソフト閾値処理機構を有するヒストグラムベースの分類器を含む、システム。 A system for acquiring physiological signals from a subject, the system comprising: a rear camera for acquiring optical data from a finger of the subject; and a user computing device for receiving optical data from the camera. wherein the user computing device includes a processor and a memory for storing a plurality of instructions , the processor detecting optical data from the skin of the finger; determining a time series from the optical data by collecting optical data; then calculating the time series from the collected optical data over the elapsed time period; executing the instructions for analyzing the optical data to select data related to the finger of the subject and detecting the optical data from the skin of the finger, with the step of calculating a target signal; determining a score for each finger boundary, selecting the finger boundary with the highest score, and applying a histogram analysis to the video data from the finger; A system wherein the histogram analysis includes a histogram-based classifier with a soft thresholding mechanism .
JP2022532066A 2019-12-02 2020-12-01 Systems and methods for physiological measurements from optical data Pending JP2023505111A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962942247P 2019-12-02 2019-12-02
US62/942,247 2019-12-02
PCT/IL2020/051238 WO2021111436A1 (en) 2019-12-02 2020-12-01 System and method for physiological measurements from optical data

Publications (2)

Publication Number Publication Date
JP2023505111A JP2023505111A (en) 2023-02-08
JPWO2021111436A5 true JPWO2021111436A5 (en) 2023-12-05

Family

ID=76222491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022532066A Pending JP2023505111A (en) 2019-12-02 2020-12-01 Systems and methods for physiological measurements from optical data

Country Status (7)

Country Link
US (1) US20230000376A1 (en)
EP (1) EP4033972A4 (en)
JP (1) JP2023505111A (en)
CN (1) CN114929101A (en)
CA (1) CA3159539A1 (en)
IL (1) IL293538A (en)
WO (1) WO2021111436A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD958171S1 (en) * 2020-08-14 2022-07-19 Cooey Health, Inc. Display screen with graphical user interface for clinician-patient video conference
US20230320667A1 (en) * 2022-04-07 2023-10-12 Faceheart Inc Corporation Contactless physiological measurement device and method
WO2023214957A1 (en) * 2022-05-02 2023-11-09 Elite HRV, Inc. Machine learning models for estimating physiological biomarkers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3432790A4 (en) * 2016-03-22 2019-10-02 Multisense BV System and methods for authenticating vital sign measurements for biometrics detection using photoplethysmography via remote sensors
US20180085009A1 (en) * 2016-09-27 2018-03-29 OCR Labs Pty Ltd Method and system for detecting user heart rate using live camera feed
EP3440996A1 (en) * 2017-08-08 2019-02-13 Koninklijke Philips N.V. Device, system and method for determining a physiological parameter of a subject
US10799182B2 (en) * 2018-10-19 2020-10-13 Microsoft Technology Licensing, Llc Video-based physiological measurement using neural networks

Similar Documents

Publication Publication Date Title
KR102200526B1 (en) Method and system for providing medical information based on the open APIs
EP3277162B1 (en) Wearable pulse sensing device signal quality estimation
KR101777738B1 (en) Estimating method for blood pressure using video
US10004410B2 (en) System and methods for measuring physiological parameters
IL293538A (en) System and method for physiological measurements from optical data
KR101738278B1 (en) Emotion recognition method based on image
CN102973253A (en) Method and system for monitoring human physiological indexes by using visual information
IL294325A (en) System and method for pulse transmit time measurement from optical data
WO2023015932A1 (en) Deep learning-based heart rate measurement method and wearable device
CN111248882A (en) Method and device for predicting blood pressure
CN112001122A (en) Non-contact physiological signal measuring method based on end-to-end generation countermeasure network
CN111358451B (en) Blood pressure prediction method and device
WO2020158804A1 (en) Blood pressure measurement device, model setting device, and blood pressure measurement method
WO2020228320A1 (en) Blood pressure estimation method and device
CN111358453A (en) Blood pressure classification prediction method and device
CN110517229B (en) Pulse detection method, system, electronic device and storage medium
JPWO2021111436A5 (en)
JPWO2021149048A5 (en)
CN109770885A (en) A kind of examing heartbeat fastly method based on preview frame
Visvanathan et al. Effects of fingertip orientation and flash location in smartphone Photoplethysmography
WO2020044366A1 (en) System and method for determining type of body of a user and a nature of imbalance therein
CN108124420B (en) Blood pressure measuring equipment and method capable of carrying out calibration
CN116583216A (en) System and method for measuring blood pressure from optical data
Darius Jefferson et al. US ARMY COMBAT CAPABILITIES DEVELOPMENT COMMAND–ARMY RESEARCH LABORATORY
CN115736863A (en) Non-contact blood pressure detection system based on computer vision and deep learning