JPWO2016163019A1 - Biological information analysis system - Google Patents
Biological information analysis system Download PDFInfo
- Publication number
- JPWO2016163019A1 JPWO2016163019A1 JP2017511431A JP2017511431A JPWO2016163019A1 JP WO2016163019 A1 JPWO2016163019 A1 JP WO2016163019A1 JP 2017511431 A JP2017511431 A JP 2017511431A JP 2017511431 A JP2017511431 A JP 2017511431A JP WO2016163019 A1 JPWO2016163019 A1 JP WO2016163019A1
- Authority
- JP
- Japan
- Prior art keywords
- regions
- biological information
- image data
- analysis system
- information analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/021—Measuring pressure in heart or blood vessels
- A61B5/022—Measuring pressure in heart or blood vessels by applying pressure to close blood vessels, e.g. against the skin; Ophthalmodynamometers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/0245—Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
Abstract
身体の画像から生体情報を取得する情報システムにおいて、生体における微小な信号変化を画像でとらえ生体情報を取得するため、外部からのノイズの影響を受けやすく、安定的な測定が困難である。そこで、本発明では、血流に沿って近接する二領域ないしは三領域の画像情報の差分の信号を解析することにより、外部からのノイズを抑えて脈拍数、脈波形、脈波伝播速度、血圧等の生体情報を計測する。これにより高精度の生体情報を非接触に取得する事が出来る。In an information system that acquires biological information from an image of a body, since the biological information is acquired by capturing a minute signal change in the living body with an image, it is easily affected by external noise, and stable measurement is difficult. Therefore, in the present invention, by analyzing the signal of the difference between the image information of two or three regions adjacent to each other along the blood flow, the pulse rate, pulse waveform, pulse wave velocity, blood pressure can be suppressed while suppressing external noise. Biometric information such as is measured. Thereby, highly accurate biological information can be acquired in a non-contact manner.
Description
本発明は、生体情報を分析するシステムに関する。 The present invention relates to a system for analyzing biological information.
本人に不快感や手間少なく脈拍や血圧などの生体情報を取得する方法として、カメラを利用した非接触のモニタリングがある。カメラで撮影した顔画像を用い、顔画像中の血流の色の時間変化に対して分析することで、脈拍数を推定する技術が知られている。 There is non-contact monitoring using a camera as a method for acquiring biological information such as a pulse and blood pressure with less discomfort and trouble. There is known a technique for estimating a pulse rate by analyzing a temporal change in the color of blood flow in a face image using a face image taken by a camera.
通常、血圧の測定は、血管に対して加圧を行いながら圧力や音によって血流の状態をモニタリングすることで、血流が止まる圧力と流れ始める圧力の境界を計測することで行う。加圧を行うと不快感が伴うため、この通常の方式は、高頻度の計測や常時計測には向いていない。加圧を行わずに血圧を推定する方法として、脈波伝播速度と血圧の相関に着目し、脈波伝播速度計測を行う方法がある。特許文献1には脈波伝播速度を手の平及び顔の画像を計測することで推定する技術が開示されている。また、脈波伝播速度(pulse wave velocity, PWV)と動脈壁の増分弾性係数(incremental elastic modulus)との関係を表す「Moens-Korteweg の式」と、非特許文献1に記載されている「動脈圧 と動脈内径 の関係式」を用いることにより、脈波伝搬速度から血圧を推定できることが良く知られている。 Usually, blood pressure is measured by measuring the boundary between the pressure at which blood flow stops and the pressure at which it begins to flow by monitoring the state of blood flow with pressure and sound while applying pressure to the blood vessel. This pressurization is not suitable for high-frequency measurement or constant measurement because it causes discomfort when pressurized. As a method of estimating blood pressure without applying pressure, there is a method of measuring the pulse wave velocity by paying attention to the correlation between the pulse wave velocity and the blood pressure. Patent Document 1 discloses a technique for estimating a pulse wave propagation speed by measuring palm and face images. In addition, the “Moens-Korteweg equation” representing the relationship between the pulse wave velocity (PWV) and the incremental elastic modulus of the arterial wall is described in “Arterial”. It is well known that the blood pressure can be estimated from the pulse wave velocity by using the relational expression between the pressure and the artery inner diameter.
前述のように、非接触で不快感や手間なく脈拍数計測や脈波伝播速度計測による血圧推定を行う手段として、画像を用いる方法が考えられる。しかしながら、この方法は時系列画像のわずかな信号の変化を検知する必要があり、実環境で使用する場合に外部環境の影響を受けやすいという課題がある。使用される環境としては、例えば、家庭、車、介護施設、病院などがある。天候や季節、撮影時刻により、屋内においても様々な明るさとなる。また、窓や照明の配置により非一様な明るさになることがある。蛍光灯などの照明やディスプレイのフリッカノイズによる明るさの変化もノイズ源である。そこで、本発明は、画像を用いて生体情報を検知するシステムにおいて、外部ノイズに対して安定的に生体情報を取得する手段の提供を目的とする。 As described above, a method using an image can be considered as a means for estimating blood pressure by pulse rate measurement or pulse wave velocity measurement without contact and without discomfort and effort. However, this method needs to detect a slight signal change in a time-series image, and has a problem that it is easily influenced by the external environment when used in an actual environment. Examples of the environment used include a home, a car, a nursing facility, and a hospital. Depending on the weather, the season, and the shooting time, the brightness will vary even indoors. In addition, non-uniform brightness may occur depending on the arrangement of windows and lighting. Changes in brightness due to lighting such as fluorescent lamps and flicker noise of displays are also noise sources. Accordingly, an object of the present invention is to provide means for stably acquiring biological information against external noise in a system that detects biological information using an image.
上記課題を解決するために、身体情報の色情報を含む画像データの入力を受け付け、画像データに基づいて生体情報を出力するデータ処理部を備え、
データ処理部は、色情報に基づき身体における複数領域における代表色を各々算出し、代表色に基づき複数領域における基本波を各々抽出し、複数領域のうち近接する領域間において基本波の差信号を算出し、差信号の周波数に基づいて脈拍情報を算出し、脈拍情報を生体情報として出力することを特徴とする生体情報分析システムを提供する。In order to solve the above problem, the image processing apparatus includes a data processing unit that receives input of image data including color information of physical information and outputs biometric information based on the image data.
The data processing unit calculates each representative color in a plurality of regions in the body based on the color information, extracts each fundamental wave in the plurality of regions based on the representative color, and outputs a fundamental wave difference signal between adjacent regions of the plurality of regions. A biological information analysis system is provided that calculates, calculates pulse information based on a frequency of a difference signal, and outputs the pulse information as biological information.
本発明によれば、外環境などのノイズ下においても、画像処理にて脈波や血圧などの生体値を精度よく測定する事が出来る。 According to the present invention, biological values such as pulse waves and blood pressure can be accurately measured by image processing even under noise such as an external environment.
以下、添付図面を参照して本発明の実施例について説明する。なお、添付図面は本発明の原理に則った具体的な実施例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The accompanying drawings show specific embodiments in accordance with the principle of the present invention, but these are for the understanding of the present invention, and are never used to interpret the present invention in a limited manner. is not.
<システムの構成>
図1は、本発明の第1実施例に係る情報システムの機器構成を示した図である。撮像部(カメラ部)101及びデータ処理部102、通信部103、表示部104よりなる。データ処理部102は、それぞれ接続されているCPU111、メモリ112、記憶装置113などを含む。記憶装置113に格納されたプログラムをメモリ112に読みだしてCPU111にて実行する事でデータを処理する。撮像部のカメラ101は独立の形状としているが、データ処理部102他と一体の形状としてもよい。例えばスマートフォンは撮像部及びデータ処理部、通信部、表示部が全て一体化しているが、このような機器を用いてもよい。この場合、ローカル環境にて簡易に生体情報を取得し分析できる。さらに、データ処理の途中段階のデータを、通信部を介して外部に送信し、残りのデータ処理を外部で行ってもよい。この場合は、ローカル環境に計算資源を置く必要がなくなるという効果がある。カメラの設置場所は、例えば日常的に使用する場所であり、観察対象105の皮膚がカメラ101の前に来やすい形に設置することが望ましい。<System configuration>
FIG. 1 is a diagram showing a device configuration of an information system according to the first embodiment of the present invention. An imaging unit (camera unit) 101, a
ここでは、例として洗面所の鏡の上部にカメラを設置した。通常建物内で洗面所は陽のあたらない場所や当たりにくい場所に設置されることが多く、天気や時刻による外光変化の影響が比較的小さく、安定した撮影が容易であるという特徴がある。他に、家庭では居間のテレビ画面付近、鏡台、トイレの便座前などである。事務所に於いてはPCのディスプレイ付近に設置する。また、服薬支援や、会話を行うロボットに撮像部を設置してもよい。服薬行為や会話を通じロボットと正対することとなるため、顔画像が撮影しやすいという特徴がある。通信部103はネットワーク106に接続されており、ネットワーク経由でサービスサーバ107とデータ通信が可能である。サービスサーバはデータ格納部108に接続されており、計測した情報、ユーザのプロファイル情報、ユーザ毎に設定される血圧推定用のパラメータや健康管理サービス用の異常検知のためのパラメータ情報などが格納される。
Here, as an example, a camera was installed above the mirror in the bathroom. In general, a washroom is often installed in a place where it is not exposed to sunlight or in a place where it is difficult to hit, and the effect of changes in external light due to the weather and time is relatively small, and stable shooting is easy. In addition, at home, near the TV screen in the living room, in the mirror stand, in front of the toilet seat. In the office, install near the PC display. Moreover, you may install an imaging part in the robot which is used for medication support or conversation. Since it faces the robot through medication and conversation, it is easy to capture facial images. The
これらデータをサーバからアクセスでるデータ格納部108に蓄積することで、ユーザの計測を色々な場所で行った場合でも必要なパラメータを利用することができる。ここで、データ格納部108にこれら全ての情報を蓄積するのではなく、外部の蓄積部でデータ蓄積を行い、必要に応じて通信にてデータ取得を行うのでもよい。また、ローカルシステム110内にデータ処理部に接続されたデータ格納部を持ち、情報の一部を保持してもよい。ローカルシステムにデータ処理に必要なパラメータを持つことでデータ処理を高速化することが可能である。また、サービスサーバは契約を行った外部機関の情報システム109と通信を行うことができる。
<データ処理>
まず本発明の概要を示す。脈波などの生体情報は、顔などの身体表面における血流の色画像の時系列変化の信号である基本波から取得する事ができるが、外環境などノイズ源の存在下で取得した血流の色画像には、様々なノイズが含まれ、脈波の推定に影響を及ぼす。本発明では、身体表面にて近接する複数の領域での代表的な色である代表色を算出し、代表色の時間変化を示す信号である基本波の差分である差信号を算出し、算出された差信号を用いて脈波などの生体情報を算出する。これは、近接する領域では、各々の信号の振幅やノイズはほぼ同程度であると近似可能であるため、差信号へのノイズの影響が抑えられ、差信号から脈波などの生体情報が取得できるようになる。以下、詳細に説明を行う。By accumulating these data in the
<Data processing>
First, the outline of the present invention will be described. Biological information such as pulse waves can be acquired from the fundamental wave, which is a time-series change signal of the color image of blood flow on the body surface such as the face, but blood flow acquired in the presence of noise sources such as the external environment. The color image includes various noises and affects the estimation of the pulse wave. In the present invention, a representative color that is a representative color in a plurality of regions that are close to each other on the body surface is calculated, and a difference signal that is a difference between fundamental waves that is a signal indicating a temporal change of the representative color is calculated and calculated. Biological information such as a pulse wave is calculated using the difference signal. This is because it can be approximated that the amplitude and noise of each signal are almost the same in the adjacent area, so the influence of noise on the difference signal is suppressed, and biological information such as pulse waves is acquired from the difference signal become able to. Details will be described below.
図2にカメラで撮影した画像データの処理フローを示す。図2は、一例として、観察対象105を顔とした場合の処理フローを示している。図2において、画像に映った観察対象105の領域を、一般的な顔検知技術等によって抽出したのちに、データ処理部102内の代表色算出部201により、領域内の代表色を算出する。ここで、代表色とは、例えば、領域内の画素ごとの信号値(白黒画像の場合は輝度値、カラー画像の場合はR(レッド)、G(グリーン)、B(ブルー)、C(シアン)、M(マゼンタ)、Y(イエロー)などの中の1色、あるいは複数の色を混合あるいは平均した信号値)を合計し、領域内の画素数で除算した値(すなわち、領域内の平均値)である。代表色を算出する際には、領域の輝度分布などに応じて領域内の位置で重みを付けたうえで平均をとる場合や、領域内の特定位置の色をとるなどしてもよい。
FIG. 2 shows a processing flow of image data captured by the camera. FIG. 2 shows a processing flow when the
代表色算出部202にて出力された代表色から、基本波抽出部202により、基本波を抽出する。ここで、基本波とは、前記出力された色の時系列変化を示す信号である。また、代表色の信号から高調波やインパルス性のノイズ等を分離し、脈波と同期した正弦波に近い成分を多く含む信号として抽出してもよい。なお、基本波抽出部202は、脈波の周波数に近い約1〜2Hzを通過帯域とするバンドパスフィルタ(BPF)や、フーリエ変換の結果から約1〜2Hzの成分だけを抽出して逆フーリエ変換することなどにより、一般的な技術によって実現できるため、詳細な図示は省略する。 The fundamental wave is extracted by the fundamental wave extraction unit 202 from the representative color output by the representative color calculation unit 202. Here, the fundamental wave is a signal indicating the time-series change of the output color. Further, harmonics, impulsive noise, and the like may be separated from the representative color signal, and extracted as a signal containing many components close to a sine wave synchronized with the pulse wave. The fundamental wave extraction unit 202 extracts a bandpass filter (BPF) having a pass band of about 1 to 2 Hz close to the frequency of the pulse wave, or a component of about 1 to 2 Hz from the result of Fourier transform, and performs an inverse Fourier transform. Since the conversion can be realized by a general technique, the detailed illustration is omitted.
続いて、周波数推定部203にて、ゼロクロス計数やフーリエ変換、自己相関などを利用して、基本波の周波数を推定し、脈拍数204(すなわち、1分間あたりの基本波のサイクル数)を出力する。 Subsequently, the frequency estimation unit 203 estimates the frequency of the fundamental wave using zero cross counting, Fourier transform, autocorrelation, etc., and outputs the pulse rate 204 (that is, the number of cycles of the fundamental wave per minute). To do.
一例として、ゼロクロス計数を用いた周波数推定の方法を、図2内に示す。ゼロクロスとは、信号が正から負に、あるいは負から正に変化する箇所のことであり、観測時間内(t0秒間)におけるゼロクロスの回数を計測し、60/(t0×2)を乗じることによって、ゼロクロス回数から基本波の周波数(すなわち、脈拍数)に変換することができる。ここで、「60」は1分間の秒数であり、「2」は1周期あたりのゼロクロス回数である。 As an example, a frequency estimation method using zero-crossing is shown in FIG. Zero crossing is a point where the signal changes from positive to negative, or from negative to positive, by measuring the number of zero crossings within the observation time (t0 seconds) and multiplying by 60 / (t0 × 2). The frequency of zero crossing can be converted to the frequency of the fundamental wave (that is, the pulse rate). Here, “60” is the number of seconds per minute, and “2” is the number of zero crossings per cycle.
なお、フーリエ変換を用いた周波数推定では、信号を複数の周波数成分に分離し、最も大きな振幅値(=√(実数値の2乗+虚数値の2乗))を持つ周波数を脈拍数とする。この場合、基本波抽出部202でフーリエ変換を用いれば、その結果をそのまま用いて周波数推定できるため、前述した逆フーリエ変換は不要である。 In frequency estimation using Fourier transform, the signal is separated into multiple frequency components, and the pulse with the highest amplitude value (= √ (real value squared + imaginary value squared)) is used as the pulse rate. . In this case, if the fundamental wave extraction unit 202 uses the Fourier transform, the frequency can be estimated using the result as it is, and thus the inverse Fourier transform described above is unnecessary.
また、自己相関を用いた周波数推定では、信号を時間的に1サンプル(1標本点)ずつずらしながら、ずらす前の信号との相関値を求め、最も相関が高くなったときの時間差の逆数を、脈拍数とするものである。 Also, in frequency estimation using autocorrelation, the signal is shifted by one sample (one sample point) in time, the correlation value with the signal before shifting is obtained, and the reciprocal of the time difference when the correlation is highest is obtained. , The pulse rate.
以上述べたような、ゼロクロス計数、フーリエ変換、自己相関をそれぞれ用いた周波数推定方法は、一般的な技術によって実現できるため、詳細な図示は省略する。 Since the frequency estimation method using zero cross count, Fourier transform, and autocorrelation as described above can be realized by a general technique, detailed illustration is omitted.
なお、画像から観察対象105の領域を抽出する処理(同図の場合では顔検知)をデータ処理部102の一部として組み込んでもよいことは明らかである。
It should be noted that the process of extracting the region of the
図3に、外光などによるノイズ(すなわち、前述したような蛍光灯などの照明やディスプレイのフリッカノイズ(ちらつき)による明るさの変化)があるときにも、精度よく脈拍数を推定することができる画像データの処理フローを示す。 図3において、画像に映った観察対象105の領域を、一般的な顔検知技術等によって抽出したのちに、血流方向301に沿ってn(ただし、nは2以上の整数)個のより小さな領域(同図では、領域#1(303)、領域#2(304))に分割し、各画像データをデータ処理部102にて処理する。この血流方向301として、例えば顔の表面に近い部分では、首の左右にある頸動脈から頭部に上がってきた血液が、顔の中央部に向かって水平に流れることが知られており、顔が映っている画像内の鼻の位置と方向(長手方向)を検出し、その方向と略直交する方向を血流方向301とすればよい。さらに、顔(観察対象105)の領域を、鼻の位置を境界として左右2つの領域に分割し、左右どちらか一方の領域を新たな観察対象105として、さらに小さな領域303、304に分割してもよい。
FIG. 3 can accurately estimate the pulse rate even when there is noise due to external light or the like (that is, changes in brightness due to lighting such as a fluorescent lamp as described above or flicker noise (flicker) of the display). The processing flow of possible image data is shown. In FIG. 3, after extracting the region of the
データ処理部102では、前述した代表色算出部201と同様の代表色算出部305、306により、領域ごとの代表色を算出する。なお、各領域の大きさは、すべて同じでもよいし、異なっていてもよい。例えば、各領域の血流方向301と略直交する方向の長さ(第1の長さ)は、顔(観察対象105)の領域をはみ出さない最大の長さとし、血流方向301と略平行の方向の長さ(第2の長さ)は、各領域の面積(すなわち、第1の長さと第2の長さの積)がほぼ同一になるように設定してもよい。
In the
各領域の代表色は、領域ごとの血流量に応じて変化するとともに、外光など302によるノイズも含んでいる。このとき、血流量に応じて変化する代表色の成分は、血流方向に沿った領域ごとに、血流速度に応じた位相差を持つのに対し、外光など302に応じて変化する代表色の成分は、観察対象105の全体でほぼ一定の変化をもたらすと考えられる。この性質を利用して、外光など302によるノイズを低減しながら、脈拍数311を精度よく推定できるようにする。以下、この詳細について説明する。
The representative color of each region changes according to the blood flow volume for each region, and also includes noise due to 302 such as external light. At this time, the representative color component that changes according to the blood flow volume has a phase difference according to the blood flow velocity for each region along the blood flow direction, whereas the representative color component that changes according to 302 such as external light. The color component is considered to cause a substantially constant change in the
図3において、代表色算出部305、306から出力された領域ごとの代表色から、前述した基本波抽出部(202)と同様の基本波抽出部307、308により、それぞれの基本波(信号#1、信号#2)を抽出する。一つの基本波抽出部内でそれぞれの基本波を抽出するようにしても良い。 In FIG. 3, the fundamental wave extraction units 307 and 308 similar to the fundamental wave extraction unit (202) described above are used for the respective fundamental waves (signal #) from the representative colors output from the representative color calculation units 305 and 306. 1. Extract signal # 2). Each fundamental wave may be extracted within one fundamental wave extraction unit.
続いて、減算器309によって信号#1と信号#2の差信号を生成し、前述した周波数推定部203と同様の周波数推定部310を用いて、この差信号の周波数(すなわち、脈拍数311)を推定することにより、外光など302によるノイズを低減できるようになる。
Subsequently, a difference signal between the signal # 1 and the
ここで、基本波(正弦波)からなる信号#1をA1cos(ωt+θ1)+n1と表し、信号#2をA2cos(ωt+θ2)+n2と表すことにする。A1およびA2は各信号の振幅を表し、θ1およびθ2は各信号の位相(初期位相)を表し、n1およびn2は各信号に含まれる外光などによるノイズを表すものとする。なお、ωは基本波の角周波数であり、信号#1および信号#2に共通とする。
Here, the signal # 1 composed of the fundamental wave (sine wave) is represented as A1cos (ωt + θ1) + n1, and the
このとき、近接する複数の領域の間では、各信号の振幅がほぼ等しく、外光などによるノイズ成分の大きさもほぼ等しいと考えてよい。この近似は顔のような大きさ以下の範囲であれば、十分近似可能と出来る。そこで、近似的にA1=A2=A、およびn1=n2=nと置くと、信号#1と信号#2の差信号(信号#2-信号#1)は、以下の数1のように計算することができる。
(数1)
差信号(信号#2-信号#1)=(A2cos(ωt+θ2)+n2)-(A1cos(ωt+θ1)+n1)
≒ A(cos(ωt+θ2)-cos(ωt+θ1))+(n-n)
= -2Asin(ωt+(θ2+θ1)/2)sin((θ2-θ1)/2)
信号#1と信号#2の間の位相差δ(=θ2-θ1)は、血流方向(301)に沿った領域#1と領域#2の距離(位置の差)にほぼ比例するため、sin((θ2-θ1)/2)の値、および(-2Asin((θ2-θ1)/2))の値も常にほぼ一定(const.)と考えてよい。従って、差信号≒sin(ωt+(θ2+θ1)/2)×const.となるため、外光など302によるノイズをキャンセルしながら、周波数推定部310を用いて脈拍数を推定できるようになる。At this time, it may be considered that the amplitude of each signal is substantially equal between the plurality of adjacent regions, and the magnitude of the noise component due to external light or the like is also substantially equal. This approximation can be sufficiently approximated as long as it is a face size or less. Therefore, if approximately A1 = A2 = A and n1 = n2 = n, the difference signal between signal # 1 and signal # 2 (signal # 2-signal # 1) is calculated as can do.
(Equation 1)
Difference signal (Signal # 2-Signal # 1) = (A2cos (ωt + θ2) + n2)-(A1cos (ωt + θ1) + n1)
≒ A (cos (ωt + θ2) -cos (ωt + θ1)) + (nn)
= -2Asin (ωt + (θ2 + θ1) / 2) sin ((θ2-θ1) / 2)
Since the phase difference δ (= θ2-θ1) between the signal # 1 and the
図4に、血流方向をさらに利用して、カメラの撮像素子におけるショット雑音や熱雑音のようなランダム性のノイズ(以下、ランダムノイズ)の影響を軽減したデータ処理部102の一例を示す。前述のように、顔の表面に近い部分では、首の左右にある頸動脈から頭部に上がってきた血液が、顔の中央部に向かって水平に流れることが知られている。したがって、図4に示すように、顔の中央部(鼻)で鼻の長手方向に沿った垂直線を軸401とすると、ほぼ左右対称の血流方向となる。そこで、図4に示すように、軸抽出処理400により顔の軸を抽出し、代表色算出部406によって、軸401に近い領域では、領域#1A(402)と領域#1B(403))どうしを合わせた代表色を算出するとともに、代表色算出部407によって、軸(401)から遠い領域では、領域#2A(404)と領域#2B(405))どうしを合わせた代表色を算出し、前述した基本波抽出部307、308、減算器309、および周波数推定部310によって脈拍数408を推定することにより、図4中に示した信号#1と信号#2の位相関係を保ったまま、各代表色を算出する際の画素数をより多くすることができるようになる。このとき、血流量に応じて変化する代表色の変化量は領域#1A(402)と領域#1B(403)で略同一であるのに対し、ランダムノイズに応じて変化する代表色の変化量は領域#1A(402)と領域#1B(403)で無相関であるため、例えば、領域#1A(402)と領域#1B(403)の面積(画素数)を同一とした場合、SN比が約3dB改善され、ランダムノイズに対してより頑健にすることができるようになる。
FIG. 4 shows an example of the
なお、観察対象の顔の左右対称性が低い場合や、顔の中央部(鼻)で鼻の長手方向に沿った軸401の検出精度が不充分の場合、顔の左右の血流量が大きく異なる場合などでは、図4に示した構成のように顔の左右の領域の代表色を用いず、図3に示した構成のように顔の左右どちらか片側の領域だけの代表色を用いたほうが、脈拍数を精度良く推定できる。したがって、代表色算出部(406)(407)の前に、領域#1A(402)と領域#1B(403)の各代表色を比較、又は、領域#2A(404)と領域#2B(405)の各代表色を比較する対称度算出処理(409)を行い、各比較結果(差の絶対値)が予め定めた閾値よりも小さいときにだけ、顔の左右両方の領域の代表色を用い、各比較結果(差の絶対値)が予め定めた閾値よりも大きいときには、顔の左右のどちらか一方の領域の代表色を用いるように、データ処理部102を構成してもよい。
In addition, when the left-right symmetry of the face to be observed is low, or when the detection accuracy of the axis 401 along the longitudinal direction of the nose is insufficient at the center (nose) of the face, the left and right blood flow rates of the face differ greatly In some cases, it is better not to use the representative colors of the left and right areas of the face as in the configuration shown in FIG. 4, but to use the representative colors of only the left and right areas of the face as in the configuration shown in FIG. The pulse rate can be estimated with high accuracy. Therefore, before the representative color calculators (406) and (407), the representative colors of the region # 1A (402) and the region # 1B (403) are compared, or the region # 2A (404) and the region # 2B (405) ) Is used to calculate the degree of symmetry (409) for comparing each representative color, and only when the comparison result (absolute value of the difference) is smaller than a predetermined threshold, the representative colors of both the left and right regions of the face are used. When each comparison result (absolute value of the difference) is larger than a predetermined threshold, the
図5に、外光などによるノイズの影響を抑えながら血圧を算出する処理フローを示す。血圧の算出には脈波伝搬速度が必要であるが、顔の皮膚表面だけで脈波を計測して脈波伝播速度を計算する場合には、2点間の距離が近くなるため、脈波が伝播する時間が短くなり、2点間の信号の位相差が極めて小さくなることから、外光などによるノイズの影響を少なからず受けることになる。例えば、図2に示したようなゼロクロス205の位置(時間)は、信号に正の値を持つノイズが加わると、信号波形の立ち上がりにおけるゼロクロスの位置は左方向に移動し(すなわち、位相が進み)、信号波形の立下りにおけるゼロクロスの位置は右方向に移動する(すなわち、位相が遅れる)ことになり、位相差から求める脈波伝搬速度に誤差が含まれることになる。以下、3点以上で脈波を計測することによって、外光などによるノイズの影響を抑える技術について説明する。 FIG. 5 shows a processing flow for calculating blood pressure while suppressing the influence of noise due to external light or the like. The calculation of blood pressure requires a pulse wave velocity, but when calculating the pulse wave velocity by measuring the pulse wave only on the skin surface of the face, the distance between the two points is close. Since the propagation time of the signal becomes shorter and the signal phase difference between the two points becomes extremely small, it is affected by noise caused by external light. For example, the position (time) of the zero cross 205 shown in FIG. 2 moves to the left (ie, the phase advances) when noise having a positive value is added to the signal. ), The position of the zero cross at the falling edge of the signal waveform moves to the right (that is, the phase is delayed), and an error is included in the pulse wave propagation velocity obtained from the phase difference. Hereinafter, a technique for suppressing the influence of noise caused by external light by measuring pulse waves at three or more points will be described.
図5において、画像に映った観察対象105の領域を、血流方向に沿って略等間隔に配置されたm(ただし、mは3以上の整数)個のより小さな領域(図5)では、領域#1(501)、領域#2(502)、領域#3(503))に分割し、各画像データをデータ処理部102にて処理する。データ処理部102では、前述した代表色算出部201と同様の代表色算出部504、505、506により、領域ごとの代表色を算出する。なお、各領域の大きさは、すべて同じでもよいし、異なっていてもよい。代表色算出部504、505、506から出力された領域ごとの代表色から、前述した基本波抽出部202と同様の基本波抽出部507、508、509により、それぞれの基本波(信号#1、信号#2、信号#3)を抽出する。
In FIG. 5, the region of the
続いて、減算器509によって信号#1と信号#2の差信号#a(=信号#2-信号#1)を生成するとともに、減算器510によって信号#2と信号#3の差信号#b(=信号#3-信号#2)を生成し、時間差推定部511にて差信号#aと差信号#bの間の時間差を求める。
Subsequently, the
このとき、前述のように、近接する複数の領域の間では、各信号の振幅がほぼ等しく、外光などによるノイズ成分の大きさもほぼ等しいと考えてよいため、近似的にA1=A2=A、およびn1=n2=nと置くと、差信号#aは以下のように表すことができる。
(数2)
差信号#a = (A2 cos(ωt+θ2) + n2) - (A1 cos(ωt+θ1) + n1)
≒ A(cos(ωt+θ2)-cos(ωt+θ1))+(n-n)
= -2Asin(ωt+(θ2+θ1)/2)sin((θ2-θ1)/2)
= sin(ωt+(θ2+θ1)/2)) × const.#a
ここで、const.#a=-2Asin((θ2-θ1)/2)としている。
同様に、A2=A3=A、およびn2=n3=nと置くと、差信号#bは以下のように表すことができる。
(数3)
差信号#b = (A3 cos(ωt+θ3) + n3) - (A2 cos(ωt+θ2) + n2)
≒ A(cos(ωt+θ3)-cos(ωt+θ2))+(n-n)
= -2Asin(ωt+(θ3+θ2)/2)sin((θ3-θ2)/2)
=sin(ωt+(θ3+θ2)/2)) × const.#b
同様に、const.#b = -2Asin((θ3-θ2)/2)としている。
ここで、領域#1(501)、領域#2(502)、領域#3(503))が略等間隔に配置されていれば、-2Asin((θ2-θ1)/2)≒-2Asin((θ3-θ2)/2)、すなわちconst.#a≒const.#bとなり差信号#aおよび差信号#bでは、外光など302によるノイズがキャンセルされるため、時間差推定部511にて、後述するゼロクロス位置、フーリエ変換、相互相関、等を用いることによって、差信号#aと差信号#bの間の位相差(すなわち、(θ3+θ2)/2 - (θ2+θ1)/2 = (θ3-θ1)/2)を精度よく求めることができ、位相差(単位:ラジアン)を基本波(すなわち脈拍)の周波数(単位:Hz)で除算し、さらに2πで除算することによって、差信号#aと差信号#bの間の時間差を求めることができる。At this time, as described above, it may be considered that the amplitude of each signal is substantially equal between the plurality of adjacent regions, and the magnitude of the noise component due to external light or the like is approximately equal, so approximately A1 = A2 = A , And n1 = n2 = n, the difference signal #a can be expressed as follows.
(Equation 2)
Difference signal #a = (A2 cos (ωt + θ2) + n2)-(A1 cos (ωt + θ1) + n1)
≒ A (cos (ωt + θ2) -cos (ωt + θ1)) + (nn)
= -2Asin (ωt + (θ2 + θ1) / 2) sin ((θ2-θ1) / 2)
= Sin (ωt + (θ2 + θ1) / 2)) × const. # A
Here, const. # A = -2Asin ((θ2-θ1) / 2).
Similarly, when A2 = A3 = A and n2 = n3 = n, the difference signal #b can be expressed as follows.
(Equation 3)
Difference signal #b = (A3 cos (ωt + θ3) + n3)-(A2 cos (ωt + θ2) + n2)
≒ A (cos (ωt + θ3) -cos (ωt + θ2)) + (nn)
= -2Asin (ωt + (θ3 + θ2) / 2) sin ((θ3-θ2) / 2)
= Sin (ωt + (θ3 + θ2) / 2)) × const. # B
Similarly, const. # B = -2Asin ((θ3-θ2) / 2).
Here, if region # 1 (501), region # 2 (502), region # 3 (503)) are arranged at approximately equal intervals, -2Asin ((θ2-θ1) / 2) ≈-2Asin ( (θ3-θ2) / 2), that is, const. # a≈const. # b, and in difference signal #a and difference signal #b, noise due to 302 such as outside light is canceled. By using the zero-cross position, Fourier transform, cross-correlation, etc., which will be described later, the phase difference between the difference signal #a and the difference signal #b (that is, (θ3 + θ2) / 2-(θ2 + θ1) / 2 = (θ3-θ1) / 2) can be obtained accurately, and the difference is obtained by dividing the phase difference (unit: radians) by the fundamental wave (ie, pulse) frequency (unit: Hz) and then dividing by 2π. The time difference between the signal #a and the difference signal #b can be obtained.
例えば、ゼロクロス位置を用いる方法では、差信号#aと差信号#bの間で、図2に示したようなゼロクロス205の位置(時間)の差を求め、複数のゼロクロス位置の差の平均値を時間差とすればよい。また、フーリエ変換を用いる方法では、差信号#aと差信号#bをそれぞれ周波数成分に分解し、最も大きな振幅値を持つ周波数成分の位相の差(=arctan(差信号#bの最大振幅周波数成分の虚数値/実数数)- arctan(差信号#aの最大振幅周波数成分の虚数値/実数数))を最大振幅周波数の値で除算し、さらに2πで除算して時間差とすればよい。また、相互相関を用いる方法では、差信号#bを時間的に1サンプル(1標本点)ずつずらしながら、差信号#aとの間の相関値を求め、最も相関が高くなったときの時間差を求めればよい。これらの位相差あるいは時間差の推定方法は、一般的な技術によって実現できるため、詳細な図示は省略する。 For example, in the method using the zero cross position, the difference in position (time) of the zero cross 205 as shown in FIG. 2 is obtained between the difference signal #a and the difference signal #b, and the average value of the differences between the plurality of zero cross positions is obtained. Is a time difference. In the method using the Fourier transform, the difference signal #a and the difference signal #b are each decomposed into frequency components, and the phase difference of the frequency component having the largest amplitude value (= arctan (the maximum amplitude frequency of the difference signal #b (Component imaginary value / real number) -arctan (imaginary value / real number of maximum amplitude frequency component of difference signal #a)) is divided by the value of the maximum amplitude frequency, and further divided by 2π to obtain the time difference. In the method using cross-correlation, the difference signal #b is shifted by one sample (one sample point) in time, the correlation value with the difference signal #a is obtained, and the time difference when the correlation is the highest is obtained. You can ask for. Since the estimation method of these phase differences or time differences can be realized by a general technique, detailed illustration is omitted.
脈波伝播速度計算部512では、各領域間の実際の距離を、前述した時間差推定部511で求めた時間差で除算することにより、脈波伝播速度を求める。 Pulse wave propagation velocity calculation unit 512 obtains the pulse wave propagation velocity by dividing the actual distance between the regions by the time difference obtained by time difference estimation unit 511 described above.
撮影された観察対象105の両眼間の画素数と、領域#1と領域#2の各重心位置の間の血流方向に沿った画素数、および領域#2と領域#3の各中心位置の間の血流方向に沿った画素数を用いて、血流方向に沿った領域#1と領域#2の間の実際の距離、および領域#2と領域#3の間の実際の距離を計算で求めることができる。例えば、平均的な人間の顔の両眼間の距離は約6.5cmであるとして、両眼間の画素数を100画素とし、領域#1と領域#2の各中心位置の間の血流方向に沿った画素数を30画素とすると、血流方向に沿った領域#1と領域#2の間の実際の距離は、約2cm(=6.5×30/100)と計算できる。両眼間の距離は人種や年齢、性別、画像処理などから求めても良い。
The number of pixels between the two eyes of the observed
前述のように、差信号#aと差信号#bの間の位相差((θ3-θ1)/2)から求めた時間差は、領域#3と領域#1の間の時間差を示すことから、前記同様に血流方向に沿った領域#3と領域#1の間の実際の距離を求め、この距離を領域#3と領域#1の間の時間差で除算することにより、脈波伝播速度計算部512で脈波伝播速度を計算できる。このようにして求めた脈波伝播速度から血圧513への変換は、例えば、前述したMoens-Kortewegの式や、動脈圧と動脈内径の関係式などを用いればよい。
As described above, the time difference obtained from the phase difference ((θ3-θ1) / 2) between the difference signal #a and the difference signal #b indicates the time difference between the
以上述べたように、血流に沿った2領域ないしは3領域の画像情報の差分の信号を解析することにより、外光などによるノイズをキャンセルすることで脈拍数、脈波形、脈波伝播速度等を精度良く計測することができるようになる。 As described above, the pulse rate, pulse waveform, pulse wave velocity, etc. are canceled by analyzing the difference signal between the image information of two or three regions along the blood flow, and canceling noise caused by external light. Can be measured with high accuracy.
図6は、計測部位を顔以外も含めて別に取った例を示す。計測部位は皮膚が露出しているところに採る。日常服で覆われていない部分としては、首から上、手、足が考えられる。但し、入浴時などで他の部位が露出している場合にはこの限りではない。また、後述するように、必ずしも連続していない複数個所を計測部位に採ってもよい。計測部位が連続していない場合、下記に述べるように脈波伝搬速度の算出の精度が良くなる。連続していない皮膚表面を計測部位に採る場合でも、同一のカメラの視野に収まるような撮影を行うのが望ましい。これは信号間の同期を取るのが容易だからである。また、外光などによるノイズの影響の出方も計測部位間で同様になると期待できるからである。顔の横にカメラを設置し、計測領域を頬の二領域t1、t2に、及び首の二領域t3、t4とする。頬の二領域t1、t2の画像の差分信号と、首の二領域t3、t4の画像の差分信号を各々分析する。この基本周波数成分の角速度ωを用いて脈拍数を求めることができる。また、この二つの差分信号間の位相差と角速度ωから、脈波伝播時間ΔTを求めることができる。 FIG. 6 shows an example in which the measurement site is taken separately including other than the face. The measurement site is taken where the skin is exposed. Possible parts that are not covered with everyday clothes are the neck, top, hands, and feet. However, this does not apply when other parts are exposed during bathing. Further, as will be described later, a plurality of locations that are not necessarily continuous may be taken as the measurement site. When the measurement site is not continuous, the accuracy of calculation of the pulse wave velocity is improved as described below. Even when a non-continuous skin surface is taken as a measurement site, it is desirable to perform imaging so as to be within the field of view of the same camera. This is because it is easy to synchronize between signals. Moreover, it is because it can be expected that the influence of noise due to external light or the like will be the same between measurement sites. A camera is installed beside the face, and the measurement areas are defined as two cheek areas t1 and t2 and two neck areas t3 and t4. The difference signals of the images of the cheek two areas t1 and t2 and the difference signals of the neck two areas t3 and t4 are analyzed. The pulse rate can be obtained using the angular velocity ω of the fundamental frequency component. Further, the pulse wave propagation time ΔT can be obtained from the phase difference between the two difference signals and the angular velocity ω.
脈波伝播速度は、例えば二領域t1、t2の中点と二領域t3、t4の中点の間を血流が流れる距離をΔTで割ったものである。ここで、距離は、二領域t1、t2の中点と二領域t3、t4の中点を含む直角三角形t5の二辺を加えることで算出する。人体に於いては心臓から拍出され頚動脈を流れてきた血流(血流方向t51)は顔側面で流れをほぼ直角に変え、頬では横方向に流れる(血流方向t50)。従って直角三角形の斜辺ではなく、直角を挟む二辺の和にて計算する。もともと複数の計測部位を頬の中のみで取った場合に比べ、一方を首に取ると距離が大きくなるが、ここではそれだけではなく、斜辺ではなく二辺の和となることでより大きな距離となるという特徴がある。例えば、直角三角形がほぼ直角二等辺三角形となっている場合には、斜辺よりも1.4倍の距離となる。距離が大きいと距離の推定に一定量の誤差があっても相対的に誤差が小さくなり、結果として脈波伝播速度の算出誤差も小さくなる。また、二つの差分信号間の位相差も大きくなり、結果位相差の算出誤差、従って脈波伝播時間ΔTの算出誤差も小さくなる。このため、脈波伝播速度の計測誤差も小さくなり、血圧の算出誤差も小さくなるという特徴がある。 The pulse wave velocity is, for example, the distance of blood flow divided by ΔT between the midpoint of the two regions t1 and t2 and the midpoint of the two regions t3 and t4. Here, the distance is calculated by adding two sides of a right triangle t5 including the midpoint of the two regions t1 and t2 and the midpoint of the two regions t3 and t4. In the human body, the blood flow (blood flow direction t51) flowing from the heart and flowing through the carotid artery changes the flow to a substantially right angle on the side of the face and flows laterally on the cheek (blood flow direction t50). Therefore, the calculation is based on the sum of two sides sandwiching a right angle, not the hypotenuse of a right triangle. Compared to the case where multiple measurement parts were originally taken only in the cheek, the distance increases when one is taken on the neck, but here it is not only that, but the sum of the two sides instead of the hypotenuse increases the distance. There is a feature that becomes. For example, when the right triangle is a substantially right isosceles triangle, the distance is 1.4 times longer than the hypotenuse. When the distance is large, the error is relatively small even if there is a certain amount of error in the distance estimation, and as a result, the calculation error of the pulse wave propagation velocity is also small. Further, the phase difference between the two differential signals also increases, and as a result, the calculation error of the phase difference, and hence the calculation error of the pulse wave propagation time ΔT, also decreases. For this reason, the measurement error of the pulse wave velocity is reduced, and the calculation error of the blood pressure is also reduced.
図7は計測部位をさらに別に取った例を示す。指を観察する位置に撮像部を設置する。連続する二領域t14、t15の画像や、三領域t14、t15、t16の画像から脈拍数、脈波伝播速度を計測する手法は前述の通りである。顔画像を用いる場合と比べて髪形、化粧などの影響を受けにくいという特徴がある。また、顔は日焼けなどにより肌の色が変化するのに対し、通常指の内側は色があまり変化しないため、安定的に計測ができるという特徴がある。またこの際、撮像部と指を使った個人認証が可能であり、指紋パターンt23や、赤外線照射によって観察する指静脈のパターンを用いると、指の計測だけで観察対象の同定とバイタル情報取得が両方ともできる。例えば図7に示すように、データ処理部は、指部位の画像データの入力を受付け(701)、前述の方法により画像データから脈波や脈波伝搬速度、血圧などの生体情報を算出し(702)、さらに画像データから個人認証を行い(703)、生体情報と認証された個人とを関連づけて出力する(704)。これにより、例えば病院データベースが未整備な環境下や名寄せが複雑であるなど氏名での管理が難しい環境下での健康情報管理などが容易になる。図8は計測部位を指の二領域t17、t18と手首の二領域t19、t20に取った例を示す。図7に示した指のみで計測する場合と比較し、計測部位間の距離がより大きいため、図6の説明と同様に脈波伝播速度の計測誤差が小さくなるという特徴がある。 FIG. 7 shows an example in which another measurement site is taken. An imaging unit is installed at a position where a finger is observed. The method for measuring the pulse rate and the pulse wave velocity from the images of the continuous two regions t14 and t15 and the images of the three regions t14, t15 and t16 is as described above. Compared to the case of using a face image, it is less susceptible to the effects of hairstyle, makeup, and the like. In addition, while the face changes in skin color due to sunburn or the like, the color of the inside of a finger usually does not change so much, so that it can be measured stably. At this time, personal authentication using the imaging unit and the finger is possible, and using the fingerprint pattern t23 and the finger vein pattern observed by infrared irradiation, the identification of the observation target and the vital information acquisition can be performed only by measuring the finger. Both are possible. For example, as shown in FIG. 7, the data processing unit accepts input of image data of a finger part (701), and calculates biological information such as a pulse wave, a pulse wave propagation speed, and blood pressure from the image data by the above-described method ( 702) Further, the personal authentication is performed from the image data (703), and the biometric information and the authenticated individual are output in association with each other (704). This facilitates health information management in an environment where it is difficult to manage by name, for example, in an environment where the hospital database is not well-developed or where name identification is complicated. FIG. 8 shows an example in which measurement regions are taken in two regions t17 and t18 of the finger and two regions t19 and t20 of the wrist. Compared with the case of measuring with only the finger shown in FIG. 7, the distance between the measurement parts is larger, so that the measurement error of the pulse wave velocity is reduced as in the description of FIG. 6.
図9も計測部位をさらに別に取った例である。顔の横に手のひらを持ってきて計測する。顔の計測領域t21、手のひらの計測領域t22は心臓からの距離が大きく異なることから、やはり図6の説明と同様に脈波伝播速度の計測誤差が小さくなるという特徴がある。顔と手のひらは心臓からの距離が大きく異なりながら、同一画面内に並んで撮影することが容易な部位である。複数の観察部位を異なるカメラで撮影する場合にも本発明の情報処理は有効であるが、より正しい結果を得るためには、撮影する画像の時刻を正確に合わせられるように撮像システムを構成するとよい。一方、図9のように同一画面内に計測対象を並べて撮影できれば、異なる画像の時刻同期を行う必要がないため、システムを簡易にできるという特徴がある。
<健康管理サービスシステムの例>
次に検知した生体情報のデータ処理技術及び生体上を用いたサービスシステムの例を説明する。例として顔画像を使った場合について説明するが、他の計測部位の場合でも同様のサービスの流れである。また、認証方法については顔画像で行うが、指などの場合指紋認証や指静脈認証に手段を読み替えればよい。図10を用いて、まずデータ格納部108に納められるデータ内容を説明する。個人毎のIDで区別され、個人認証用の特徴量データユーザプロファイル 血圧推定用のパラメータ、加入している外部サービスに関する情報、異常検知するための判定パラメータ、過去のバイタルデータ、過去の顔色データやその他体調データ、過去に表示したメッセージ履歴などを保持している。FIG. 9 is also an example in which another measurement site is taken. Bring your palm next to your face and measure. Since the face measurement region t21 and the palm measurement region t22 are greatly different from each other in the distance from the heart, the measurement error of the pulse wave velocity is also reduced as in the description of FIG. The face and palm are parts that can be easily photographed side by side in the same screen, although the distance from the heart is greatly different. The information processing of the present invention is also effective when photographing a plurality of observation sites with different cameras, but in order to obtain a more accurate result, the imaging system is configured so that the time of the image to be photographed can be accurately adjusted. Good. On the other hand, if the measurement objects can be photographed side by side in the same screen as shown in FIG. 9, there is no need to synchronize the time of different images, and the system can be simplified.
<Example of health management service system>
Next, an example of a data processing technique for detected biological information and a service system using the living body will be described. As an example, a case where a face image is used will be described. However, the service flow is the same for other measurement sites. The authentication method is performed using a face image, but in the case of a finger or the like, the means may be replaced with fingerprint authentication or finger vein authentication. First, data contents stored in the
ここで、血圧推定用のパラメータの登録方法を説明しておく。リファレンスとなる血圧測定装置を用意し、脈波と血圧について同時に測定を行う。このような計測を異なるタイミングで行うことで脈波伝播速度と血圧の対応関係を学習する。この対応付けのパラメータは、計測対象者の動脈硬化度などの血管の状態を表しており、健康状態の指標として使うことができる。血圧推定用のパラメータは、脈波から血圧を算出する際に、各係数の調整等に用いる。個人によって異なるため、個人毎に取得しておくとよい。また、本パラメータを用いずに母集団の平均値などをパラメータとして用い得て、脈波から血圧を推定しても良い。 Here, a method for registering parameters for blood pressure estimation will be described. A blood pressure measurement device as a reference is prepared, and the pulse wave and blood pressure are measured simultaneously. By performing such measurement at different timings, the correspondence relationship between the pulse wave velocity and the blood pressure is learned. This association parameter represents the state of the blood vessel such as the degree of arteriosclerosis of the measurement subject, and can be used as an index of health. The parameter for blood pressure estimation is used for adjusting each coefficient when calculating blood pressure from the pulse wave. Since it differs depending on the individual, it is recommended to obtain it for each individual. Further, the blood pressure may be estimated from the pulse wave by using the average value of the population as a parameter without using this parameter.
次にサービスシステムの処理フローを図11を用いて説明する。ローカルシステム110にてまず顔領域を検知t25し、特徴量を取り出した後暗号化してサービスサーバに送る。サービスサーバにてデータ格納部108内に保持している特徴量データと比較することで認証処理を行う。登録されていない特徴量である場合、非登録者である旨のメッセージを作成する。尚、ローカルシステム110の使用者が一人に限定される場合、認証プロセスを省くことが可能であり、システムの機器IDなどを用いて個人IDに紐付ければよい。例えばローカルシステム110がスマートフォンの場合、通常利用者は一人に特定できる。あるいはより簡易的に本人にID、パスワードを入力させ、入力されたIDを使って個人IDに紐付けてもよい。これ以降は認証されたIDに紐付けられたその人独自のデータを用いて処理を行う。
Next, the processing flow of the service system will be described with reference to FIG. The
計測したデータはローカルシステム110にて画像データ処理を行い、前述のようにノイズの影響を弱めながら、代表色などの顔色特徴の情報、脈拍数、脈波伝播速度の算出t28を行う。結果は通信部103を介してネットワーク106経由でサービスサーバ107に送られる。送られてきたデータに対し、脈波伝播速度とその人の血圧推定用のパラメータt27を用いて血圧推定t29を行う。顔色特徴、脈拍数や脈波伝播速度、推定した血圧、計測時刻や場所の情報等のデータをデータ格納部108に格納するt30。この時、天気、気温、気圧、湿度などの環境データを併せて蓄積しても良い。これら環境データは、本システムにセンサを組み込んで実測してもよいし、簡易的に時刻及び場所情報を使って外部サービスから取得してもよい。これら環境データを併せて記録し、集まったデータを解析することで、ノイズを抑えてより精度の高い生体情報から体調変化の隠れた要因を見出すことが可能であり、本人の予防行動に結び付けるなど、新たな医学的知見を得たりすることができる。
The measured data is subjected to image data processing in the
これら最新のデータと過去の履歴データを用いて可視化処理t31を行う。ここで、データ格納部108に蓄積されている異常判定のアルゴリズム及び判定基準値に従い計測結果、あるいは計算した特徴量を用いて異常判定t32を行う。例えば、脈拍数の下限、上限、推定血圧の下限、上限を個人ごとに設定しておき、下限を下回った場合や上限を上回った場合に警告を出しあらかじめ設定された外部機関に通知を行う。この下限、上限は医師などにより、個人の特性を考慮して決められる。また、異常検知のアルゴリズムとして、さらに脈拍数や血圧の前回測定値から変化量、長期間平均値からの変化量、同様な時間帯における長期間平均からの変化量が予め定められた一定量以上になった場合を異常としてもよい。異常と判定された場合、加入外部サービス情報に基づき外部機関の情報システム109に異常通知t33を行う。外部機関109は、例として、病院、警備会社、家族の自宅などがある。図1では外部機関への通知をネットワーク経由としたが、電話回線など、生体情報を収集するためのネットワークと異なる手段を用いてもよい。このようにして、ノイズを抑えてより精度の高い生体情報の取得を起点として、個々人の体調管理を効率よく行うことが出来る。
Visualization processing t31 is performed using these latest data and past history data. Here, the abnormality determination t32 is performed using the measurement result or the calculated feature amount according to the abnormality determination algorithm and the determination reference value accumulated in the data storage unit. For example, the lower limit and upper limit of the pulse rate and the lower limit and upper limit of the estimated blood pressure are set for each individual, and a warning is issued when the lower limit is exceeded or the upper limit is exceeded, and a preset external organization is notified. The lower and upper limits are determined by a doctor or the like in consideration of individual characteristics. In addition, as an abnormality detection algorithm, the amount of change from the previous measured value of pulse rate and blood pressure, the amount of change from the long-term average value, the amount of change from the long-term average in the same time zone is more than a predetermined amount It is good also as abnormal when it becomes. If it is determined that there is an abnormality, an abnormality notification t33 is sent to the
次に、異常な場合、正常な場合ともに、本人向けのメッセージを作成し、可視化処理結果とともにローカルシステム110の表示部104に表示する。ここで表示方法について説明する。
Next, a message for the user is created both in an abnormal case and in a normal case, and displayed on the
図12は表示方法の一例を示したものである。撮影した顔画像の上に観察領域501、502、503の輪郭を重ねて描き、計測した脈波伝播速度に対応する速度で各領域内を順次色が変化する処理を行う。併せて計測結果から計算された脈拍数、推定血圧などの情報をメッセージ部t36に表示する。さらに、システムからのメッセージもメッセージ部t36に表示する。図12では、過去の履歴をグラフ表示する画面への切り替えアイコンt37、体調不良の自覚がある場合に外部に通知を行うためのアイコンt38を配置した。外部への通知アイコンt38を選択した場合、自動判定した異常通知のt33と同様に外部機関へ通知を行う。また、通知アイコンt38を選択した場合に通知先、通知内容などを選択する機能を用意しても良い。このようにして、観察領域と生体情報を把握すると同時に通知機能を用いたり、過去履歴も確認できる。 FIG. 12 shows an example of the display method. The outlines of the observation areas 501, 502, and 503 are drawn on the photographed face image, and the color is sequentially changed in each area at a speed corresponding to the measured pulse wave propagation speed. In addition, information such as the pulse rate and estimated blood pressure calculated from the measurement result is displayed on the message part t36. Further, a message from the system is also displayed in the message part t36. In FIG. 12, an icon t37 for switching to a screen displaying a past history as a graph and an icon t38 for notifying the outside when there is a consciousness of poor physical condition are arranged. When the notification icon t38 to the outside is selected, the notification is made to the external organization in the same manner as the automatically determined abnormality notification t33. In addition, when the notification icon t38 is selected, a function of selecting a notification destination, notification content, and the like may be prepared. In this way, the user can grasp the observation area and the biological information, and at the same time use the notification function or check the past history.
図13は直感的にわかり易い表示方法の他の例を示したものである。脈波伝播速度を表示するのに観察領域501、502、503そのものではなく、矢印t39で可視化を図ったものである。ここでも、例として、矢印の尾部t40から先端部t41にかけて脈波伝播速度と対応する速度で色が移動するように表示する。これにより直感的にわかりやすく血流を表示することが可能である。尚、ここでは矢印t39の形状としたが、長方形など他の形状でもよい。 FIG. 13 shows another example of a display method that is intuitively easy to understand. In order to display the pulse wave propagation velocity, visualization is made with the arrow t39 instead of the observation regions 501, 502, and 503 itself. Here, as an example, the display is performed so that the color moves from the tail part t40 of the arrow to the tip part t41 at a speed corresponding to the pulse wave propagation speed. This makes it possible to display blood flow intuitively and easily. In addition, although it was set as the shape of arrow t39 here, other shapes, such as a rectangle, may be sufficient.
図20は、計測結果の脈波形を図13とは異なる表示方法として、波形の形t52で示したものである。この脈波形は領域#1(501)の波形信号#1や領域#2の波形信号#2をそのまま表示すると、外光などによるノイズt53が乗ってしまい、見難い波形となり、また脈拍数や脈波伝播速度計算の妨げにもなる。本実施例の方法に従い差分波形t52を表示することで、ノイズを低減して見やすい波形が表示でき、併せて正確な脈拍数や脈波伝播速度計算が可能となる。
FIG. 20 shows the waveform of the measurement result as a waveform form t52 as a display method different from FIG. If the waveform signal # 1 in the region # 1 (501) or the
グラフ表示する画面への切り替えアイコンt37を選択した場合の画面表示例を図22に示す。推定血圧を示したグラフである。医師等の指導を受けて設定した範囲1(t54)、範囲2(t55)、範囲3(t56)は各々血圧が低目である領域、正常領域、高めである領域を示している。血圧は日内変動を考慮し、一日朝晩の二回測るものとした。横軸は日付であり、血圧変動の傾向をグラフで把握することが可能である。この範囲に応じてメッセージ部t36に「血圧が高い可能性があります」などのメッセージを表示し、例えば血圧計によるより正確な計測の実施を促す。ここで図22の例では一週間程度の範囲を示しているが、より長期の範囲を表示しても良い。例えば、過去の血圧プロットを週の平均値などにして、プロット数を抑えて見やすさを保ちながらより長期の範囲を表示してもよい。このようにして、より正確な推定血圧の変動と所定の範囲との関係を、容易に理解する事が可能となる。 FIG. 22 shows a screen display example when the switch icon t37 to the screen for displaying the graph is selected. It is the graph which showed the estimated blood pressure. Range 1 (t54), range 2 (t55), and range 3 (t56) set under the guidance of a doctor or the like indicate a region where the blood pressure is low, a normal region, and a region where the blood pressure is high. The blood pressure was measured twice a day in the morning and evening, taking into account diurnal fluctuations. The horizontal axis is the date, and the tendency of blood pressure fluctuation can be grasped with a graph. In accordance with this range, a message such as “There is a possibility that blood pressure is high” is displayed on the message part t36, and for example, a more accurate measurement is urged by a blood pressure monitor. Here, although the range of about one week is shown in the example of FIG. 22, a longer range may be displayed. For example, a past blood pressure plot may be set to an average value for a week or the like, and a longer period range may be displayed while keeping the visibility by reducing the number of plots. In this way, it is possible to easily understand the more accurate relationship between the estimated blood pressure fluctuation and the predetermined range.
継続蓄積された生体情報は本人の他、本人が許可した人、組織が閲覧できることができるように権限管理を行う。例えば、持病があり、定期的に病院を受診する際に医師が前回受診から今回までの家庭における状態をチェックし、状態判断の補助に使う。血圧はその時々で変化し、日内変動もあることから、受診時の測定データのみを用いるのに比べて、より詳細に状態を把握することが出来るという特徴がある。また、一日に複数回計測を行うことにより、脈拍数や推定血圧の日内変動のテーブルを作成することが可能である。特に血圧の日内変動の特異パターンは、脳血管障害や心肥大などの合併症や臓器障害などの病気のリスクと関係があることがわかっているため、より正確な血圧変動の把握が容易になることは、病気のリスクの早期発見に効果がある。 The biometric information continuously stored is managed so that it can be viewed by the person or organization authorized by the person, in addition to the person himself / herself. For example, if you have chronic illness and regularly visit a hospital, a doctor checks the status of your home from the previous visit to this time and uses it to assist you in determining your status. Since blood pressure changes from time to time and there are daily fluctuations, it is characterized in that the state can be grasped in more detail than using only the measurement data at the time of consultation. Moreover, it is possible to create a table of daily fluctuations of the pulse rate and estimated blood pressure by measuring a plurality of times a day. In particular, it is known that the peculiar pattern of circadian variation in blood pressure is related to the risk of diseases such as complications such as cerebrovascular disorders and cardiac hypertrophy and organ disorders, making it easier to grasp blood pressure fluctuations more accurately. This is effective for early detection of the risk of illness.
図14は、本発明の実施例2に係る情報システムの機器構成を示した図である。本実施形態にかかる情報システムは、第一の撮像部N1、第二の撮像部N3、データ処理部N2よりなる。第一の撮像部N1は車室内に設置されたカメラであり、撮像対象N5は車などの乗り物のドライバである。第二の撮像部N3は車室内外に設置されたカメラであり、撮像対象N4は自車両周辺の車両、歩行者、および空・建物・道路などの背景である。車室内のカメラ映像は時間帯や天候の変化に起因する外乱の影響を受けるため、ノイズの影響を抑えて顔色を計測することが困難となる。本実施形態では、第二の撮像部N3によって外乱の要因となる時間帯や天候を判定し、それぞれに適したノイズ低減処理を行うことで好適に脈拍数や脈波伝播速度を測定する。以下、詳細な処理フローについて説明する。 FIG. 14 is a diagram illustrating a device configuration of the information system according to the second embodiment of the present invention. The information system according to the present embodiment includes a first imaging unit N1, a second imaging unit N3, and a data processing unit N2. The first imaging unit N1 is a camera installed in the vehicle interior, and the imaging target N5 is a driver of a vehicle such as a car. The second imaging unit N3 is a camera installed outside and inside the vehicle interior, and the imaging target N4 is a background of vehicles, pedestrians, sky, buildings, roads, etc. around the host vehicle. Since the camera image in the passenger compartment is affected by disturbance caused by changes in time zone and weather, it is difficult to measure the face color while suppressing the influence of noise. In the present embodiment, the second imaging unit N3 determines the time zone and the weather that cause the disturbance, and performs the noise reduction process suitable for each to suitably measure the pulse rate and the pulse wave velocity. Hereinafter, a detailed processing flow will be described.
図15に本実施形態におけるデータ処理部N2の動作処理のフローチャートを示す。 FIG. 15 shows a flowchart of the operation processing of the data processing unit N2 in this embodiment.
ステップN2001において、データ処理部N2は、第一の撮像部N1から出力された画像を読み込む。ステップN2002において、データ処理部N2は、例えば実施例1と同じ方法で顔領域を検出する。ステップN2003において、データ処理部N2は、前記ステップN2002で検出された顔領域近傍における座席領域(例えば、ヘッドレスト部や座席上部)を検出する。具体的には、まず工場出荷時やカメラ取り付け時に作成しておいた背景画像(ドライバが座ってない車室内画像)から、第一の撮像部N1から出力された画像を減算し、移動物体のみの画像を作成する。次に、第一の撮像部N1から出力された画像から、前記作成した移動物体のみの画像を減算し、静止物体のみの画像を作成する。最後に、前記作成した静止物体のみの画像から、ヘッドレストや座席上部に該当する注目領域を切り出して座席領域画像を作成する。 In step N2001, the data processing unit N2 reads the image output from the first imaging unit N1. In step N2002, the data processing unit N2 detects the face area by the same method as in the first embodiment, for example. In step N2003, the data processing unit N2 detects a seat area (for example, a headrest part or an upper seat) in the vicinity of the face area detected in step N2002. Specifically, first, the image output from the first imaging unit N1 is subtracted from the background image (vehicle interior image where the driver is not sitting) created at the time of factory shipment or camera installation, and only the moving object is subtracted. Create an image of Next, the image of only the moving object created is subtracted from the image output from the first imaging unit N1, thereby creating an image of only a stationary object. Finally, a region of interest corresponding to the headrest or the upper part of the seat is cut out from the created image of only the stationary object to create a seat region image.
ステップN2004〜N2007では車室外カメラ画像の処理を行う。ステップN2004において、データ処理部N2は、第二の撮像部N3から出力された画像を読み込む。ステップN2002において、データ処理部N2は、画像の平均輝度の時系列変化を解析して時間帯(昼/夜)を判定する。例えば、平均輝度が一定時間低い状態が続く場合は夜と判定する。朝/昼/夕/夜のように利用環境にあわせて細分化して判定することも可能である。ステップN2006において、データ処理部N2は、雨滴や高輝度領域、スミア(白飛び)の有無などを解析して天候(晴/雨)を判定する。例えば、レンズ表面に水滴が付着する場合は雨と判定し、太陽光によるスミアが発生する場合は快晴と判定する。この場合も、晴/曇/雨/霧のように細分化して判定してもよい。ステップN2007において、データ処理部N2は、前記判定された時間帯や天候別の座席領域画像として予め作成されている画像又は生成される画像を参照画像として読み込む。 In steps N2004 to N2007, the camera image outside the vehicle compartment is processed. In step N2004, the data processing unit N2 reads the image output from the second imaging unit N3. In step N2002, the data processing unit N2 determines a time zone (day / night) by analyzing a time-series change in the average luminance of the image. For example, when the average luminance continues to be low for a certain time, it is determined that the night. It is also possible to subdivide and judge according to the usage environment such as morning / daytime / evening / night. In step N2006, the data processing unit N2 determines the weather (sunny / rainy) by analyzing the presence of raindrops, high-intensity areas, smear (out-of-white), and the like. For example, when a water droplet adheres to the lens surface, it is determined as rain, and when smear due to sunlight occurs, it is determined as clear. Also in this case, it may be determined by subdividing such as clear / cloudy / rain / mist. In step N2007, the data processing unit N2 reads, as a reference image, an image created in advance as a seat area image for each determined time zone or weather, or a generated image.
ステップN2008において、データ処理部N2は、前記読み込んだ参照画像と前記作成した座席領域画像の平均輝度差分を算出することで、現在の顔画像にのったノイズ成分を算出する。また、座席領域画像は対応付けた時間帯・天候別にRAMに保存しておく。ステップN2009において、データ処理部N2は、顔画像から前記算出したノイズ成分(RGB輝度値)を減算する。ステップN2010において、データ処理部N2は、実施例1で記述した方法により脈波や血圧値を算出する。 In step N2008, the data processing unit N2 calculates an average luminance difference between the read reference image and the created seat area image, thereby calculating a noise component on the current face image. Also, the seat area image is stored in the RAM according to the associated time zone and weather. In step N2009, the data processing unit N2 subtracts the calculated noise component (RGB luminance value) from the face image. In step N2010, the data processing unit N2 calculates a pulse wave and a blood pressure value by the method described in the first embodiment.
以上説明した実施例2では、第二の撮像部を設けて天候・時間帯を解析することで、顔色にのったノイズ成分を算出できるため、外乱の大きい車載システム上でもさらに好適に血圧値を算出することができる。また、本実施例で説明した血圧算出方法を用いることで、運転前の健康状態チェックシステムや、運転中の異常検知システムなどとして活用することができる。 In the second embodiment described above, since the noise component on the face color can be calculated by providing the second imaging unit and analyzing the weather / time zone, the blood pressure value is more preferably used even on an in-vehicle system with a large disturbance. Can be calculated. Further, by using the blood pressure calculation method described in the present embodiment, it can be used as a health check system before driving, an abnormality detection system during driving, and the like.
図16は、本発明の実施例3に係る情報システムの撮像部を説明する図である。撮像部(カメラ部)t7は赤外線カメラである。情報システムにはこの撮像部t7の他に、実施例1で述べたデータ処理部102や表示部104、通信部103などを含んでいる。赤外線カメラは暗い場所でも撮影可能である。赤外線領域の光を検知して撮影した画像であっても、撮影した画像のデータ処理は実施例1と同様に行えばよい。周囲が暗い状況では信号強度が小さく、従ってノイズ耐性が下がるため、本発明がより有効である。また、周囲を含め明瞭な画像を得るためには、赤外線照射器t6と組み合わせても良い。周囲環境が明るくなくても計測可能であることから、ベッドに横たわった人t8の常時モニタリングに適する。例えば、入院患者や家庭や介護施設での就寝時の常時モニタリングを行うことができる。また、赤外線照射器をランダムドットパターンにすることで、既知のデプスカメラ技術による三次元計測が可能となる。この場合は、胸部形状の時系列変化を観測できるため、前記と同様の周波数解析手法によって呼吸数を計測することができる。
FIG. 16 is a diagram illustrating the imaging unit of the information system according to the third embodiment of the present invention. The imaging unit (camera unit) t7 is an infrared camera. In addition to the imaging unit t7, the information system includes the
図17は、本発明の実施例4に係る情報システムの撮像部とデータ処理部とを説明する図である。撮像部(カメラ部)101と赤外線センサアレイt9の組合せになっている。ここでは例として焦電素子を用いた赤外線センサを8×8のマトリックス状に並べたセンサアレイを用いた。素子の種別やセンサアレイの個数、並べ方は左記と異なっていても良い。撮像部(カメラ部)1と赤外線センサアレイt9は軸を合わせ、同じ方向を撮影するように調整を行っている。 焦電素子はキャリブレーションを行うことで対象物の温度を測ることができる。従って、ここまで述べた実施例1乃至3記載の方法でノイズを抑えた上で計測される脈拍数、推定血圧、呼吸数に加え、体表面温度を計測することが可能であり、基本的なバイタル情報を取得可能である。尚、ここでは赤外線センサとして焦電素子を用いたが、他の方式の赤外線センサを用いても良い。ここで、体表面温度は所謂体温と異なり、外気の影響を受けるため正確性は劣るが、体温と強い相関を持つのは明らかである。従って発熱などの健康状態の変化を捉えることができる。特に、毎回同じ部位の体表面をモニタすることで変化を捉えることは体調の変化の検知に有効である。 FIG. 17 is a diagram for explaining the imaging unit and the data processing unit of the information system according to the fourth embodiment of the present invention. The combination is an imaging unit (camera unit) 101 and an infrared sensor array t9. Here, as an example, a sensor array in which infrared sensors using pyroelectric elements are arranged in an 8 × 8 matrix is used. The type of element, the number of sensor arrays, and how to arrange them may be different from those on the left. The imaging unit (camera unit) 1 and the infrared sensor array t9 are aligned so that the images are taken in the same direction. The pyroelectric element can measure the temperature of the object by performing calibration. Therefore, it is possible to measure the body surface temperature in addition to the pulse rate, the estimated blood pressure, and the respiratory rate that are measured while suppressing noise by the methods described in the first to third embodiments. Vital information can be acquired. Although a pyroelectric element is used here as an infrared sensor, other types of infrared sensors may be used. Here, the body surface temperature is different from so-called body temperature and is affected by the outside air, so the accuracy is inferior, but it is clear that it has a strong correlation with the body temperature. Therefore, changes in health conditions such as fever can be captured. In particular, capturing changes by monitoring the body surface of the same part each time is effective in detecting changes in physical condition.
カメラの像とセンサアレイで得られる像t11を重ね併せて表示した例を図18に示す。カメラ画像に対して顔認識を行った結果t10も重ねて示している。部位に対する画像認識結果を用いることで、赤外線センサがどの部位の温度を計測しているかの対応付けが可能になる。従って、部位やマトリックスの位置を選択する入力を受付け、8×8のマトリックスの中から所望の部位に対応する測定結果を使う。ここでは、額に対応する部位t12及びt13の計測結果の平均を用いて体調のモニタリングに使った。他の部位、例えば頬や横を向いたときの首筋などをモニタに用いても良く、測定部位の情報とともに蓄積する。 FIG. 18 shows an example in which the camera image and the image t11 obtained by the sensor array are displayed in a superimposed manner. The result t10 of face recognition on the camera image is also shown. By using the image recognition result for the part, it is possible to associate which part the temperature is measured by the infrared sensor. Therefore, an input for selecting the position of the part or the matrix is accepted, and the measurement result corresponding to the desired part is used from the 8 × 8 matrix. Here, the average of the measurement results of the parts t12 and t13 corresponding to the forehead was used to monitor the physical condition. Other parts, such as the cheeks or the neck when facing sideways, may be used for the monitor, and are stored together with the information on the measurement part.
本実施例のシステムは遠隔でノイズを低減しながら生体情報を取得できるため、遠隔医療にも適する。例えばテレビ電話で医師と遠隔で会話する際に、計測情報を医師側に表示することで、医師が定量的な状態データを把握しながら問診等を行うことができる。また、蓄積した情報も表示することで、前回会話してから今回までの間の情報を把握することができ、より対象者の状態を正確に把握することができるという特徴がある。 Since the system of this embodiment can acquire biological information while reducing noise remotely, it is also suitable for telemedicine. For example, when talking remotely with a doctor on a videophone, the measurement information is displayed on the doctor side, so that the doctor can make an inquiry while grasping quantitative state data. In addition, by displaying the accumulated information, it is possible to grasp information from the previous conversation until this time, and more accurately grasp the state of the target person.
非接触でノイズを低減しながら生体情報が取れることは、例えばウイルス感染の治療の際にも有効である。医師や看護師などのスタッフは患者に触れることなく情報を取得することが可能である。また、常時情報を取得できるため、異変が起きた際に早期に自動検出することが可能であり、迅速な対処ができるという特徴がある。類似の使用方法として、インフルエンザ流行時の一次スクリーニングがある。感染が疑われる来院者を隔離した小部屋にて本実施例のシステムでバイタルチェックを行い、インフルエンザが疑われる人と、通常の風邪などの患者を振り分けて別の部屋に通すことで、インフルエンザに罹っていない人とインフルエンザ患者の接触を防ぐことが出来、病院での感染を防ぐことが可能である。また、病院等の小部屋ではなく、本実施例のシステムを家庭に置いて判断を行っても良い。また、この際に病院窓口もインフルエンザ対応の窓口とそれ以外の窓口を分けるとよい。病院に行く前に判断をつけることで、始めから適切な窓口に向かうことで、やはり病院での感染を防ぐことが可能である。さらに、病院の待合室に本実施例のシステムを設置し、診察前にバイタル情報のチェックを行うことも有効である。来院者の負担少なくノイズを低減した上でバイタル情報のチェックを行うことが出来、さらに病院側としては診察時に熱や脈などを測る手間が省けるため、診察効率を上げることが可能である。 Taking biometric information while reducing noise without contact is also effective, for example, in the treatment of virus infection. Staff such as doctors and nurses can obtain information without touching the patient. In addition, since the information can always be acquired, it is possible to automatically detect early when an abnormality occurs, and to take quick action. A similar method of use is primary screening during influenza epidemics. In a small room that isolates a visitor who is suspected of being infected, a vital check is performed using the system of this example, and the person who is suspected of influenza and a patient with a common cold are separated and passed to another room. It can prevent contact between an unaffected person and an influenza patient, and can prevent infection in a hospital. Further, instead of a small room such as a hospital, the system of this embodiment may be placed at home to make a determination. At this time, it is advisable to separate the hospital counter for influenza and other counters. By making judgments before going to the hospital, it is possible to prevent infection in the hospital by going to the appropriate window from the beginning. Furthermore, it is also effective to install the system of this embodiment in a waiting room of a hospital and check vital information before the examination. Vital information can be checked after reducing noise with less burden on the visitor, and the hospital side can save time and effort to measure heat and pulse at the time of the examination, so the examination efficiency can be improved.
図19は図17に示したシステムを人などを対象とした見守り用のロボット(以下、見守りロボット)と一体に組み込んだ例である。見守りロボットt40は、カメラ101、赤外線センサアレイt9、表示部104を有し、さらにマイクt41、スピーカt42、薬の取り出し口t43、通信部t44を備えている。データ処理部を内部に有しても良いし、通信部104を介して外部に情報を送信し、外部にて処理された情報を取得して表示部104に表示しても良い。ロボットは対話機能を有し、これにより一定時間観察対象者がロボットに正対することになるため、画像を撮影することで生体情報を取得できる。図19には居間などでの据え置き型のロボットの例を示したが、移動機能を有してもよい。移動機能があれば、異なる生活シーンにおいて画像情報を取得することが可能となり、より多くの情報を取得できるという特徴がある。また、カメラから取得する画像データにおける顔の対称度などを評価し、予め定められた条件を満たすように撮影に適した位置にカメラを移動させることが可能である。このようにして日当たりや振動など画像に多くのノイズが乗る環境を可能な限り避けて撮影することが可能であり、予めノイズの影響を下げた環境下のカメラを用いて、実施例1〜3の手法でさらにノイズを低減して生体情報を取得する事が可能である。
FIG. 19 shows an example in which the system shown in FIG. 17 is integrated with a watching robot (hereinafter referred to as watching robot) for a person or the like. The watching robot t40 includes a
次に服薬支援機能について説明する。例えばヘルパーや調剤薬局のスタッフが見守りロボット内部に必要な薬をセットしておく。薬を飲む時間になると、ロボットがスピーカt42から音声で呼びかけ、表示部104への表示を行う。本人がロボットt40の前に来て画像認証等で本人確認ができると薬の取り出し口から一回の服薬する分量の薬が出て来て、服薬履歴に記録を行う。ここで、例えば同居している夫婦で各々服薬している場合などがあるため、本人認証を行うことで、同じ服薬ロボットを使いながらも相互に誤って薬を飲んでしまうことを回避することができる。服薬履歴や現在どのくらいの薬がロボット内部に残っているかの情報は通信部を介して外部に送信され、ヘルパーや調剤薬局、かかりつけの医師等が遠隔にて確認することができる。本システムではノイズを抑制してバイタル情報を取得できるのに加え、マイクt41を用いて音声情報を取得できる。他の情報と同様に音声の特徴量も継続記録することで、より多くの情報から体調変化を捉えることが出来、異常検出の精度が向上する。このように、服薬履歴とノイズの影響を抑えた高精度な生体情報を継続的に蓄積したデータが取得でき、データ解析を行うことで中長期の服薬の効果や副作用を解析することが可能である。
Next, the medication support function will be described. For example, a helper or a dispensary pharmacy staff watches and sets necessary medicines inside the robot. When it is time to take medicine, the robot calls out from the speaker t42 and displays on the
101 撮像部、102 データ処理部、
103 通信部、104 表示部、105 観察対象、106 ネットワーク
107 サービスサーバ、108 データ格納部、109 外部機関
301 血流方向、302 外光などのノイズ源
303、304 計測領域、305、306 代表色算出処理
307、308 基本波抽出処理、309 減算器、310 周波数推定処理
101 imaging unit, 102 data processing unit,
103 Communication unit, 104 Display unit, 105 Observation target, 106 Network
107 Service server, 108 Data storage, 109 External organization
301 Blood flow direction, 302 Noise sources such as external light
303, 304 Measurement area, 305, 306 Representative color calculation processing
307, 308 fundamental wave extraction processing, 309 subtractor, 310 frequency estimation processing
Claims (15)
前記データ処理部は、前記色情報に基づき複数領域における代表色を各々算出する代表色算出部と、
前記代表色に基づき前記複数領域における前記代表色の時間変化を示す基本波を各々抽出する基本波抽出部と、
前記複数領域のうち近接する領域間において前記基本波の差信号を算出し、前記差信号の周波数に基づいて脈拍情報を算出する脈拍情報算出部と、
前記脈拍情報を前記生体情報として出力する出力部と、
を備えることを特徴とする生体情報分析システム。A data processing unit that receives input of image data including color information and outputs biometric information based on the image data;
The data processing unit is configured to calculate a representative color in each of a plurality of regions based on the color information;
A fundamental wave extraction unit that extracts a fundamental wave indicating temporal change of the representative color in the plurality of regions based on the representative color;
Calculating a difference signal of the fundamental wave between adjacent regions of the plurality of regions, and calculating a pulse information based on a frequency of the difference signal;
An output unit for outputting the pulse information as the biological information;
A biological information analysis system comprising:
前記画像データは顔部位のデータを含み、
前記データ処理部は、前記顔部位内の鼻の長手方向に沿った軸を抽出する軸抽出部をさらに備え、
前記代表色算出部は、前記複数領域を、前記軸の垂直方向に沿って前記軸の両側で前記軸から略等距離の位置に各々2箇所設定し、
前記代表色の算出の際には、前記複数領域のうち、前記軸の両側に設けられ且つ前記軸から略等距離の領域同士の代表色を用いて算出することを特徴とする生体情報分析システム。The biological information analysis system according to claim 1,
The image data includes facial part data,
The data processing unit further includes an axis extracting unit that extracts an axis along the longitudinal direction of the nose in the face part,
The representative color calculation unit sets the plurality of regions at two positions at approximately equal distances from the axis on both sides of the axis along the vertical direction of the axis,
When calculating the representative color, the biological information analysis system is characterized in that, among the plurality of regions, the representative color is calculated using representative colors of regions provided on both sides of the axis and substantially equidistant from the axis. .
前記データ処理部は、
前記顔部位内の鼻の長手方向に沿った軸を抽出する軸抽出部と、
前記軸の抽出において前記顔の形状と血流量の何れか又は両方に基づいた対称度を算出する対称度算出部と、をさらに備え、
前記代表色算出部は、前記対称度が予め定められた閾値よりも高い場合に、前記軸の垂直方向に沿って前記軸の両側で前記軸から略等距離の位置に前記複数領域を各々2箇所設定し、
前記代表色の算出の際に、前記軸の両側に設けられた前記軸から略等距離の2領域の代表色用いて算出することを特徴とする生体情報分析システム。The biological information analysis system according to claim 1,
The data processing unit
An axis extraction unit for extracting an axis along the longitudinal direction of the nose in the face part;
A degree-of-symmetry calculator that calculates a degree of symmetry based on either or both of the face shape and blood flow in the extraction of the axis, and
The representative color calculation unit sets each of the plurality of regions to two positions at approximately equidistant positions on both sides of the axis along the vertical direction of the axis when the degree of symmetry is higher than a predetermined threshold. Set the location,
The biological information analysis system according to claim 1, wherein the representative color is calculated using representative colors of two regions that are substantially equidistant from the axis provided on both sides of the axis.
前記データ処理部は、前記色情報に基づき複数領域における代表色を各々算出する代表色算出部と、
前記代表色に基づき前記複数領域における前記代表色の時間変化を示す基本波を各々抽出する基本波抽出部と、
前記複数領域のうち近接する領域間において前記基本波の差信号を二つ算出し、前記算出された二つの差信号の間の位相差を算出し、前記複数領域間の距離を算出し、前記位相差と前記距離とに基づいて前記脈拍伝搬速度を算出し、前記脈拍伝搬速度に基づいて前記血圧を算出する血圧算出部と、
前記血圧を前記生体情報として出力する出力部と、
を備えることを特徴とする生体情報分析システム。A data processing unit that receives input of image data including color information and outputs biometric information based on the image data;
The data processing unit is configured to calculate a representative color in each of a plurality of regions based on the color information;
A fundamental wave extraction unit that extracts a fundamental wave indicating temporal change of the representative color in the plurality of regions based on the representative color;
Calculate two difference signals of the fundamental wave between adjacent regions of the plurality of regions, calculate a phase difference between the two calculated difference signals, calculate a distance between the plurality of regions, A blood pressure calculation unit that calculates the pulse propagation velocity based on the phase difference and the distance, and calculates the blood pressure based on the pulse propagation velocity;
An output unit for outputting the blood pressure as the biological information;
A biological information analysis system comprising:
前記画像データは顔部位に関するデータを含み、
前記代表色算出部は、前記画像データから前記顔部位内の鼻の長手方向に沿った軸を抽出し、前記複数領域を前記軸の片側に前記軸の垂直方向に沿って接する3領域として設定し、前記色情報に基づいて前記複数領域の各々について前記代表色を算出することを特徴とする生体情報分析システム。The biological information analysis system according to claim 4,
The image data includes data relating to a facial part,
The representative color calculation unit extracts an axis along the longitudinal direction of the nose in the face part from the image data, and sets the plurality of areas as three areas that contact one side of the axis along the vertical direction of the axis. And the representative color is calculated for each of the plurality of regions based on the color information.
前記画像データは顔部位に関するデータと、顔以外の部位である顔外部位に関するデータと、を含み、
前記代表色算出部は、前記画像データから、前記複数領域を前記顔部位と前記顔外部位とにおいてそれぞれ2領域以上設定し、前記設定の際には、前記顔部位内の複数領域と前記顔外部位内の複数領域とを前記複数領域の各々における血流方向に沿って2領域以上並べ、前記色情報に基づいて前記顔部位と前記顔外部位とにおける各領域の代表色を算出し、
前記血圧算出部は、前記算出された基本波に基づき、前記顔部位内の複数領域における差信号である顔部位の差信号と、前記顔外部位内の複数領域における差信号である顔外部位の差信号と、を算出し、
前記顔部位の差信号と前記顔外部位の差信号との間の位相差を算出し、前記顔部位と前記顔外部位の距離を算出し、前記位相差と前記距離とに基づいて脈拍伝搬速度を算出し、前記脈拍伝搬速度に基づいて前記血圧を算出することを特徴とする生体情報分析システム。The biological information analysis system according to claim 4,
The image data includes data relating to a facial part, and data relating to a face external position that is a part other than the face,
The representative color calculation unit sets two or more regions in the face part and the face external position from the image data, and sets the plurality of regions in the face part and the face in the setting. Arranging two or more regions along the blood flow direction in each of the plurality of regions, and calculating a representative color of each region in the face part and the face external position based on the color information,
The blood pressure calculation unit, based on the calculated fundamental wave, a facial part difference signal that is a difference signal in a plurality of regions within the facial part and a facial external position that is a difference signal in a plurality of regions within the facial external position. And the difference signal of
Calculating a phase difference between the difference signal of the facial part and the difference signal of the external face position, calculating a distance between the facial part and the external face position, and transmitting a pulse based on the phase difference and the distance A biological information analysis system characterized by calculating a velocity and calculating the blood pressure based on the pulse propagation velocity.
前記画像データは指部位の画像データを含み、
前記複数領域は前記指部位における領域を含み、
前記データ処理部は、前記指部位の画像データに基づき個人認証を行い、前記認証された個人と前記生体情報とを関連づけて出力することを特徴とする生体情報分析システム。The biological information analysis system according to claim 1,
The image data includes image data of a finger part,
The plurality of regions includes a region in the finger part,
The biometric information analysis system, wherein the data processing unit performs personal authentication based on image data of the finger part, and outputs the authenticated individual and the biometric information in association with each other.
前記画像データは指部位の画像データと、手首部位の画像データとを含み、
前記代表色算出部は、前記複数領域を、前記指部位と前記手首部位とにおいてそれぞれ2領域以上設定し、
前記設定の際には、前記指部位内の複数領域と前記手首部位内の複数領域とを前記複数領域の各々における血流方向に沿って2領域以上並べ、
前記色情報に基づいて前記指部位と前記手首部位とにおける各領域の代表色を各々算出し、
前記血圧算出部は、前記算出された基本波に基づき、前記指部位内の複数領域における差信号である指部位の差信号と、前記手首部位内の複数領域における差信号である手首部位の差信号と、を算出し、
前記出力部は、前記指部位の画像データに基づき個人認証を行い、前記認証された個人と前記血圧とを互いに関連づけて出力することを特徴とする生体情報分析システム。The biological information analysis system according to claim 4,
The image data includes image data of a finger part and image data of a wrist part,
The representative color calculation unit sets the plurality of regions in two or more regions in the finger part and the wrist part,
In the setting, a plurality of regions in the finger region and a plurality of regions in the wrist region are arranged in two or more regions along the blood flow direction in each of the plurality of regions,
Based on the color information, to calculate the representative color of each region in the finger part and the wrist part, respectively,
The blood pressure calculation unit, based on the calculated fundamental wave, a difference between a finger part that is a difference signal in a plurality of areas in the finger part and a difference between a wrist part that is a difference signal in a plurality of areas in the wrist part Signal, and
The output unit performs personal authentication based on image data of the finger part, and outputs the authenticated individual and the blood pressure in association with each other.
前記顔外部位は手のひらの部位であって、
前記画像データは一つの撮像装置にて撮像されていることを特徴とする生体情報分析システム。The biological information analysis system according to claim 6,
The face external position is a palm part,
The biological information analysis system, wherein the image data is captured by a single imaging device.
前記データ処理部は、前記生体情報が予め定められた条件を満たさない場合、異常状態であることを通知することを特徴とする生体情報分析システム。The biological information analysis system according to claim 1,
The data processing unit is characterized by notifying that the biological information is in an abnormal state when the biological information does not satisfy a predetermined condition.
前記データ処理部は、前記複数領域と、前記生体情報と、異常状態であることを通知する異常送信アイコンと、を画面に表示することを特徴とする生体情報分析システム。The biological information analysis system according to claim 10,
The data processing unit displays the plurality of areas, the biological information, and an abnormal transmission icon for notifying an abnormal state on a screen.
前記データ処理部は、前記差信号を出力することを特徴とする生体情報分析システム。The biological information analysis system according to claim 1,
The biological information analysis system, wherein the data processing unit outputs the difference signal.
前記画像データは乗り物内に関する第一の画像データと、乗り物外に関する第二の画像データと、を含み、
前記第一の画像データは顔部位に関するデータを含み、
前記データ処理部は、
前記第一の画像データから座席領域を検出し、
前記第二の画像データから時刻情報と天候情報の何れか又は両方を取得し、前記時刻情報又は天候情報の何れか又は両方に基づいて参照画像を読み込み、
前記参照画像を用いて前記第一の画像データの座席領域の画像データを補正し、
前記補正された座席領域の画像データに基づいて、前記生体情報を出力することを特徴とする生体情報分析システム。The biological information analysis system according to claim 1,
The image data includes first image data relating to the inside of the vehicle, and second image data relating to the outside of the vehicle,
The first image data includes data relating to a facial part,
The data processing unit
Detecting a seating area from the first image data;
Obtain either or both of the time information and weather information from the second image data, read a reference image based on either or both of the time information and weather information,
Correcting the image data of the seat area of the first image data using the reference image,
The biological information analysis system, wherein the biological information is output based on the corrected image data of the seat area.
さらに赤外線センサアレイを備え、
前記データ処理部は、前記赤外線センサアレイから領域と前記領域における温度を含む温度情報を取得し、前記温度情報と前記生体情報とを出力することを特徴とする生体情報分析システム。The biological information analysis system according to claim 1,
In addition, an infrared sensor array
The data processing unit acquires a temperature information including a region and a temperature in the region from the infrared sensor array, and outputs the temperature information and the biological information.
さらに前記画像データを撮像する撮像部と、前記撮像部を移動させる移動部とを備え、
前記移動部は、前記対称度が予め定められた値よりも低い場合、前記撮像部を移動させることを特徴とする生体情報分析システム。The biological information analysis system according to claim 3,
Furthermore, an imaging unit that images the image data, and a moving unit that moves the imaging unit,
The biological information analysis system, wherein the moving unit moves the imaging unit when the degree of symmetry is lower than a predetermined value.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/061184 WO2016163019A1 (en) | 2015-04-10 | 2015-04-10 | Biological information analyzing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016163019A1 true JPWO2016163019A1 (en) | 2017-08-10 |
JP6329696B2 JP6329696B2 (en) | 2018-05-23 |
Family
ID=57072345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017511431A Active JP6329696B2 (en) | 2015-04-10 | 2015-04-10 | Biological information analysis system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6329696B2 (en) |
WO (1) | WO2016163019A1 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6817782B2 (en) * | 2016-10-31 | 2021-01-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Pulse detection device and pulse detection method |
CN109982633B (en) * | 2016-11-10 | 2022-06-07 | 夏普株式会社 | Pulse detection device, image analysis device, and biological information generation system |
JP2018153555A (en) * | 2017-03-21 | 2018-10-04 | パナソニックIpマネジメント株式会社 | Pulse wave velocity measurement system, imaging device and pulse wave velocity measurement method |
JP6796525B2 (en) * | 2017-03-23 | 2020-12-09 | 株式会社日立製作所 | Image processing equipment, image processing system and image processing method |
JP7054800B2 (en) * | 2017-04-26 | 2022-04-15 | パナソニックIpマネジメント株式会社 | Deep body temperature measuring device, deep body temperature measuring system and deep body temperature measuring method |
JP7056008B2 (en) * | 2017-04-27 | 2022-04-19 | コニカミノルタ株式会社 | Physical condition analyzer and the program |
JP7068339B2 (en) * | 2017-12-15 | 2022-05-16 | シャープ株式会社 | Blood pressure measuring device and blood pressure measuring method |
US11864875B2 (en) | 2018-04-23 | 2024-01-09 | Sharp Kabushiki Kaisha | Data analysis device |
JP7364179B2 (en) * | 2019-01-29 | 2023-10-18 | 新東工業株式会社 | robot |
JP2020162873A (en) * | 2019-03-29 | 2020-10-08 | 株式会社エクォス・リサーチ | Pulse wave detection device and pulse wave detection program |
CN113939226A (en) * | 2019-06-07 | 2022-01-14 | 大金工业株式会社 | Determination system |
JP6778348B1 (en) * | 2020-05-19 | 2020-10-28 | 株式会社イーバイピー | Palm vein identification device with body temperature measurement function |
WO2022137555A1 (en) * | 2020-12-25 | 2022-06-30 | 株式会社ソニー・インタラクティブエンタテインメント | Pulse detection device and pulse detection method |
WO2023127623A1 (en) * | 2021-12-28 | 2023-07-06 | シャープ株式会社 | Terminal device |
WO2023189154A1 (en) * | 2022-03-28 | 2023-10-05 | テルモ株式会社 | Intracardiac pressure estimation device, intracardiac pressure estimation system, intracardiac pressure estimation method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007313358A (en) * | 2007-08-07 | 2007-12-06 | Hitachi Ltd | Apparatus |
WO2012073016A1 (en) * | 2010-11-30 | 2012-06-07 | University Of Lincoln | A response detection system and associated methods |
US20130046192A1 (en) * | 2011-08-19 | 2013-02-21 | Yue-Der LIN | Image-based pwv measurement device and method |
WO2014030439A1 (en) * | 2012-08-20 | 2014-02-27 | オリンパス株式会社 | Biological state-monitoring system, biological state-monitoring method, and program |
JP2014188237A (en) * | 2013-03-27 | 2014-10-06 | Fujitsu Ltd | Pulse wave detection device, pulse wave detection method, and pulse wave detection program |
JP2014198198A (en) * | 2013-03-29 | 2014-10-23 | 富士通株式会社 | Blood flow index calculation program, blood flow index calculation device, and blood flow index calculation method |
WO2015045554A1 (en) * | 2013-09-26 | 2015-04-02 | シャープ株式会社 | Bio-information-acquiring device and bio-information-acquiring method |
-
2015
- 2015-04-10 JP JP2017511431A patent/JP6329696B2/en active Active
- 2015-04-10 WO PCT/JP2015/061184 patent/WO2016163019A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007313358A (en) * | 2007-08-07 | 2007-12-06 | Hitachi Ltd | Apparatus |
WO2012073016A1 (en) * | 2010-11-30 | 2012-06-07 | University Of Lincoln | A response detection system and associated methods |
US20130046192A1 (en) * | 2011-08-19 | 2013-02-21 | Yue-Der LIN | Image-based pwv measurement device and method |
WO2014030439A1 (en) * | 2012-08-20 | 2014-02-27 | オリンパス株式会社 | Biological state-monitoring system, biological state-monitoring method, and program |
JP2014188237A (en) * | 2013-03-27 | 2014-10-06 | Fujitsu Ltd | Pulse wave detection device, pulse wave detection method, and pulse wave detection program |
JP2014198198A (en) * | 2013-03-29 | 2014-10-23 | 富士通株式会社 | Blood flow index calculation program, blood flow index calculation device, and blood flow index calculation method |
WO2015045554A1 (en) * | 2013-09-26 | 2015-04-02 | シャープ株式会社 | Bio-information-acquiring device and bio-information-acquiring method |
Also Published As
Publication number | Publication date |
---|---|
WO2016163019A1 (en) | 2016-10-13 |
JP6329696B2 (en) | 2018-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6329696B2 (en) | Biological information analysis system | |
JP6727599B2 (en) | Biometric information display device, biometric information display method, and biometric information display program | |
US10113913B2 (en) | Systems for collecting thermal measurements of the face | |
US11154203B2 (en) | Detecting fever from images and temperatures | |
US9854976B2 (en) | Pulse wave velocity measurement method | |
JP6268193B2 (en) | Pulse wave measuring device, portable device, medical device system, and biological information communication system | |
US10791938B2 (en) | Smartglasses for detecting congestive heart failure | |
EP3057486B1 (en) | Automatic camera adjustment for remote photoplethysmography | |
EP3229676A1 (en) | Method and apparatus for physiological monitoring | |
US11850026B2 (en) | Remote portable vital signs monitoring | |
CN105869144A (en) | Depth image data-based non-contact respiration monitoring method | |
KR20160108967A (en) | Device and method for bio-signal measurement | |
Wallace et al. | Contactless remote assessment of heart rate and respiration rate using video magnification | |
EP3391340A1 (en) | A method, information processing apparatus and server for determining a physiological parameter of an individual | |
US10292594B2 (en) | Method and system for contactless detection of cardiac activity | |
Kassab et al. | Effects of region of interest size on heart rate assessment through video magnification | |
Ruminski et al. | Estimation of respiration rate using an accelerometer and thermal camera in eGlasses | |
Wiede et al. | Signal fusion based on intensity and motion variations for remote heart rate determination | |
US20230060676A1 (en) | Multimodal diagnosis system, method and apparatus | |
US20220409120A1 (en) | Information Processing Method, Computer Program, Information Processing Device, and Information Processing System | |
CN108451494B (en) | Method and system for detecting time-domain cardiac parameters using pupil response | |
CN108720825B (en) | Multi-camera-based seamless detection method for non-contact vital sign parameters | |
WO2017045976A1 (en) | Device and method for migraine monitoring | |
CA3084779A1 (en) | Remote portable vital signs monitoring | |
CN108451496B (en) | Method and system for detecting information of brain-heart connectivity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170321 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170321 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6329696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |