JPWO2016163019A1 - Biological information analysis system - Google Patents

Biological information analysis system Download PDF

Info

Publication number
JPWO2016163019A1
JPWO2016163019A1 JP2017511431A JP2017511431A JPWO2016163019A1 JP WO2016163019 A1 JPWO2016163019 A1 JP WO2016163019A1 JP 2017511431 A JP2017511431 A JP 2017511431A JP 2017511431 A JP2017511431 A JP 2017511431A JP WO2016163019 A1 JPWO2016163019 A1 JP WO2016163019A1
Authority
JP
Japan
Prior art keywords
regions
biological information
image data
analysis system
information analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017511431A
Other languages
Japanese (ja)
Other versions
JP6329696B2 (en
Inventor
石井 智之
智之 石井
影山 昌広
昌広 影山
克行 中村
克行 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016163019A1 publication Critical patent/JPWO2016163019A1/en
Application granted granted Critical
Publication of JP6329696B2 publication Critical patent/JP6329696B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/022Measuring pressure in heart or blood vessels by applying pressure to close blood vessels, e.g. against the skin; Ophthalmodynamometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals

Abstract

身体の画像から生体情報を取得する情報システムにおいて、生体における微小な信号変化を画像でとらえ生体情報を取得するため、外部からのノイズの影響を受けやすく、安定的な測定が困難である。そこで、本発明では、血流に沿って近接する二領域ないしは三領域の画像情報の差分の信号を解析することにより、外部からのノイズを抑えて脈拍数、脈波形、脈波伝播速度、血圧等の生体情報を計測する。これにより高精度の生体情報を非接触に取得する事が出来る。In an information system that acquires biological information from an image of a body, since the biological information is acquired by capturing a minute signal change in the living body with an image, it is easily affected by external noise, and stable measurement is difficult. Therefore, in the present invention, by analyzing the signal of the difference between the image information of two or three regions adjacent to each other along the blood flow, the pulse rate, pulse waveform, pulse wave velocity, blood pressure can be suppressed while suppressing external noise. Biometric information such as is measured. Thereby, highly accurate biological information can be acquired in a non-contact manner.

Description

本発明は、生体情報を分析するシステムに関する。   The present invention relates to a system for analyzing biological information.

本人に不快感や手間少なく脈拍や血圧などの生体情報を取得する方法として、カメラを利用した非接触のモニタリングがある。カメラで撮影した顔画像を用い、顔画像中の血流の色の時間変化に対して分析することで、脈拍数を推定する技術が知られている。   There is non-contact monitoring using a camera as a method for acquiring biological information such as a pulse and blood pressure with less discomfort and trouble. There is known a technique for estimating a pulse rate by analyzing a temporal change in the color of blood flow in a face image using a face image taken by a camera.

通常、血圧の測定は、血管に対して加圧を行いながら圧力や音によって血流の状態をモニタリングすることで、血流が止まる圧力と流れ始める圧力の境界を計測することで行う。加圧を行うと不快感が伴うため、この通常の方式は、高頻度の計測や常時計測には向いていない。加圧を行わずに血圧を推定する方法として、脈波伝播速度と血圧の相関に着目し、脈波伝播速度計測を行う方法がある。特許文献1には脈波伝播速度を手の平及び顔の画像を計測することで推定する技術が開示されている。また、脈波伝播速度(pulse wave velocity, PWV)と動脈壁の増分弾性係数(incremental elastic modulus)との関係を表す「Moens-Korteweg の式」と、非特許文献1に記載されている「動脈圧 と動脈内径 の関係式」を用いることにより、脈波伝搬速度から血圧を推定できることが良く知られている。   Usually, blood pressure is measured by measuring the boundary between the pressure at which blood flow stops and the pressure at which it begins to flow by monitoring the state of blood flow with pressure and sound while applying pressure to the blood vessel. This pressurization is not suitable for high-frequency measurement or constant measurement because it causes discomfort when pressurized. As a method of estimating blood pressure without applying pressure, there is a method of measuring the pulse wave velocity by paying attention to the correlation between the pulse wave velocity and the blood pressure. Patent Document 1 discloses a technique for estimating a pulse wave propagation speed by measuring palm and face images. In addition, the “Moens-Korteweg equation” representing the relationship between the pulse wave velocity (PWV) and the incremental elastic modulus of the arterial wall is described in “Arterial”. It is well known that the blood pressure can be estimated from the pulse wave velocity by using the relational expression between the pressure and the artery inner diameter.

WO2014/136310 A1WO2014 / 136310 A1

K Hayashi, S Nagasawa, Y Naruo, A Okumura, “Mechanical properties of human cerebral arteries.Biorheology”, Vol.17, No.3, pp.211−218, 1980.K Hayashi, S Nagasawa, Y Naruo, A Okumura, “Mechanical properties of human cerebral arteries. Biorheology”, Vol. 17, no. 3, pp. 211-218, 1980.

前述のように、非接触で不快感や手間なく脈拍数計測や脈波伝播速度計測による血圧推定を行う手段として、画像を用いる方法が考えられる。しかしながら、この方法は時系列画像のわずかな信号の変化を検知する必要があり、実環境で使用する場合に外部環境の影響を受けやすいという課題がある。使用される環境としては、例えば、家庭、車、介護施設、病院などがある。天候や季節、撮影時刻により、屋内においても様々な明るさとなる。また、窓や照明の配置により非一様な明るさになることがある。蛍光灯などの照明やディスプレイのフリッカノイズによる明るさの変化もノイズ源である。そこで、本発明は、画像を用いて生体情報を検知するシステムにおいて、外部ノイズに対して安定的に生体情報を取得する手段の提供を目的とする。   As described above, a method using an image can be considered as a means for estimating blood pressure by pulse rate measurement or pulse wave velocity measurement without contact and without discomfort and effort. However, this method needs to detect a slight signal change in a time-series image, and has a problem that it is easily influenced by the external environment when used in an actual environment. Examples of the environment used include a home, a car, a nursing facility, and a hospital. Depending on the weather, the season, and the shooting time, the brightness will vary even indoors. In addition, non-uniform brightness may occur depending on the arrangement of windows and lighting. Changes in brightness due to lighting such as fluorescent lamps and flicker noise of displays are also noise sources. Accordingly, an object of the present invention is to provide means for stably acquiring biological information against external noise in a system that detects biological information using an image.

上記課題を解決するために、身体情報の色情報を含む画像データの入力を受け付け、画像データに基づいて生体情報を出力するデータ処理部を備え、
データ処理部は、色情報に基づき身体における複数領域における代表色を各々算出し、代表色に基づき複数領域における基本波を各々抽出し、複数領域のうち近接する領域間において基本波の差信号を算出し、差信号の周波数に基づいて脈拍情報を算出し、脈拍情報を生体情報として出力することを特徴とする生体情報分析システムを提供する。
In order to solve the above problem, the image processing apparatus includes a data processing unit that receives input of image data including color information of physical information and outputs biometric information based on the image data.
The data processing unit calculates each representative color in a plurality of regions in the body based on the color information, extracts each fundamental wave in the plurality of regions based on the representative color, and outputs a fundamental wave difference signal between adjacent regions of the plurality of regions. A biological information analysis system is provided that calculates, calculates pulse information based on a frequency of a difference signal, and outputs the pulse information as biological information.

本発明によれば、外環境などのノイズ下においても、画像処理にて脈波や血圧などの生体値を精度よく測定する事が出来る。   According to the present invention, biological values such as pulse waves and blood pressure can be accurately measured by image processing even under noise such as an external environment.

システムの全体構成を示す概要図の例である。(実施例1)It is an example of the schematic diagram which shows the whole structure of a system. Example 1 撮影した画像データから脈拍数を算出する処理フローの例である。(実施例1)It is an example of the processing flow which calculates a pulse rate from the image | photographed image data. Example 1 撮影した画像データから脈拍数を算出する処理フローの例である。(実施例1)It is an example of the processing flow which calculates a pulse rate from the image | photographed image data. Example 1 撮影した画像データから脈拍数を算出する処理フローの例である。(実施例1)It is an example of the processing flow which calculates a pulse rate from the image | photographed image data. Example 1 撮影した画像データから脈波伝播速度を算出する処理フローの例である。(実施例1)It is an example of the processing flow which calculates a pulse wave propagation velocity from the image | photographed image data. Example 1 異なる計測部位の場合を説明する図の例である。(実施例1)It is an example of the figure explaining the case of a different measurement site | part. Example 1 異なる計測部位の場合を説明する図の別の例である。(実施例1)It is another example of the figure explaining the case of a different measurement site | part. Example 1 異なる計測部位の場合を説明する図の別の例である。(実施例1)It is another example of the figure explaining the case of a different measurement site | part. Example 1 異なる計測部位の場合を説明する図の別の例である。(実施例1)It is another example of the figure explaining the case of a different measurement site | part. Example 1 データ格納部に格納されるデータ種を説明する図の例である。(実施例1)It is an example of the figure explaining the data kind stored in a data storage part. Example 1 本システムを用いた健康サービスシステムにおける処理フローの概要図の例である。(実施例1)It is an example of the schematic diagram of the processing flow in the health service system using this system. Example 1 本システムを用いた健康サービスシステムにおいて表示部に表示される情報の例を示した図の例である。(実施例1)It is the example of the figure which showed the example of the information displayed on a display part in the health service system using this system. Example 1 本システムを用いた健康サービスシステムにおいて表示部に表示される情報の例を示した図の例である。(実施例1)It is the example of the figure which showed the example of the information displayed on a display part in the health service system using this system. Example 1 システムの構成を示す概要図の例である。(実施例2)It is an example of the schematic diagram which shows the structure of a system. (Example 2) 撮影した画像データから生体情報を算出する処理フローの例である。(実施例2)It is an example of the processing flow which calculates biometric information from the image | photographed image data. (Example 2) システムの構成を示す概要図の例である。(実施例3)It is an example of the schematic diagram which shows the structure of a system. (Example 3) システムの全体構成を示す概要図の例である。(実施例4)It is an example of the schematic diagram which shows the whole structure of a system. Example 4 本システムを用いて得られるデータの処理を説明する図の例である。(実施例4)It is an example of a figure explaining processing of data obtained using this system. Example 4 本システムを見守りロボットに組み込んだ例を説明する図の例である。(実施例4)It is an example of the figure explaining the example which watched this system and was incorporated in the robot. Example 4 本システムを用いた健康サービスシステムにおいて表示部に表示される情報の例を示した図の例である。(実施例1)It is the example of the figure which showed the example of the information displayed on a display part in the health service system using this system. Example 1 本システムを用いた健康サービスシステムにおいて計測した基本波及び差分信号の例を示した図の例である。(実施例1)It is the example of the figure which showed the example of the fundamental wave and difference signal which were measured in the health service system using this system. Example 1 本システムを用いた健康サービスシステムにおいて表示部に表示される情報の例を示した図の例である。(実施例1)It is the example of the figure which showed the example of the information displayed on a display part in the health service system using this system. Example 1

以下、添付図面を参照して本発明の実施例について説明する。なお、添付図面は本発明の原理に則った具体的な実施例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The accompanying drawings show specific embodiments in accordance with the principle of the present invention, but these are for the understanding of the present invention, and are never used to interpret the present invention in a limited manner. is not.

<システムの構成>
図1は、本発明の第1実施例に係る情報システムの機器構成を示した図である。撮像部(カメラ部)101及びデータ処理部102、通信部103、表示部104よりなる。データ処理部102は、それぞれ接続されているCPU111、メモリ112、記憶装置113などを含む。記憶装置113に格納されたプログラムをメモリ112に読みだしてCPU111にて実行する事でデータを処理する。撮像部のカメラ101は独立の形状としているが、データ処理部102他と一体の形状としてもよい。例えばスマートフォンは撮像部及びデータ処理部、通信部、表示部が全て一体化しているが、このような機器を用いてもよい。この場合、ローカル環境にて簡易に生体情報を取得し分析できる。さらに、データ処理の途中段階のデータを、通信部を介して外部に送信し、残りのデータ処理を外部で行ってもよい。この場合は、ローカル環境に計算資源を置く必要がなくなるという効果がある。カメラの設置場所は、例えば日常的に使用する場所であり、観察対象105の皮膚がカメラ101の前に来やすい形に設置することが望ましい。
<System configuration>
FIG. 1 is a diagram showing a device configuration of an information system according to the first embodiment of the present invention. An imaging unit (camera unit) 101, a data processing unit 102, a communication unit 103, and a display unit 104 are included. The data processing unit 102 includes a CPU 111, a memory 112, a storage device 113, and the like connected thereto. Data is processed by reading the program stored in the storage device 113 into the memory 112 and executing it by the CPU 111. The camera 101 of the imaging unit has an independent shape, but may have a shape integrated with the data processing unit 102 and the like. For example, in the smartphone, the imaging unit, the data processing unit, the communication unit, and the display unit are all integrated, but such a device may be used. In this case, biometric information can be easily acquired and analyzed in the local environment. Furthermore, data in the middle of data processing may be transmitted to the outside via the communication unit, and the remaining data processing may be performed externally. In this case, there is an effect that it is not necessary to place computing resources in the local environment. The installation location of the camera is, for example, a daily use location, and it is desirable to install the camera in a form in which the skin of the observation target 105 can easily come in front of the camera 101.

ここでは、例として洗面所の鏡の上部にカメラを設置した。通常建物内で洗面所は陽のあたらない場所や当たりにくい場所に設置されることが多く、天気や時刻による外光変化の影響が比較的小さく、安定した撮影が容易であるという特徴がある。他に、家庭では居間のテレビ画面付近、鏡台、トイレの便座前などである。事務所に於いてはPCのディスプレイ付近に設置する。また、服薬支援や、会話を行うロボットに撮像部を設置してもよい。服薬行為や会話を通じロボットと正対することとなるため、顔画像が撮影しやすいという特徴がある。通信部103はネットワーク106に接続されており、ネットワーク経由でサービスサーバ107とデータ通信が可能である。サービスサーバはデータ格納部108に接続されており、計測した情報、ユーザのプロファイル情報、ユーザ毎に設定される血圧推定用のパラメータや健康管理サービス用の異常検知のためのパラメータ情報などが格納される。   Here, as an example, a camera was installed above the mirror in the bathroom. In general, a washroom is often installed in a place where it is not exposed to sunlight or in a place where it is difficult to hit, and the effect of changes in external light due to the weather and time is relatively small, and stable shooting is easy. In addition, at home, near the TV screen in the living room, in the mirror stand, in front of the toilet seat. In the office, install near the PC display. Moreover, you may install an imaging part in the robot which is used for medication support or conversation. Since it faces the robot through medication and conversation, it is easy to capture facial images. The communication unit 103 is connected to the network 106 and can perform data communication with the service server 107 via the network. The service server is connected to the data storage unit 108 and stores measured information, user profile information, parameters for blood pressure estimation set for each user, parameter information for abnormality detection for health management services, and the like. The

これらデータをサーバからアクセスでるデータ格納部108に蓄積することで、ユーザの計測を色々な場所で行った場合でも必要なパラメータを利用することができる。ここで、データ格納部108にこれら全ての情報を蓄積するのではなく、外部の蓄積部でデータ蓄積を行い、必要に応じて通信にてデータ取得を行うのでもよい。また、ローカルシステム110内にデータ処理部に接続されたデータ格納部を持ち、情報の一部を保持してもよい。ローカルシステムにデータ処理に必要なパラメータを持つことでデータ処理を高速化することが可能である。また、サービスサーバは契約を行った外部機関の情報システム109と通信を行うことができる。
<データ処理>
まず本発明の概要を示す。脈波などの生体情報は、顔などの身体表面における血流の色画像の時系列変化の信号である基本波から取得する事ができるが、外環境などノイズ源の存在下で取得した血流の色画像には、様々なノイズが含まれ、脈波の推定に影響を及ぼす。本発明では、身体表面にて近接する複数の領域での代表的な色である代表色を算出し、代表色の時間変化を示す信号である基本波の差分である差信号を算出し、算出された差信号を用いて脈波などの生体情報を算出する。これは、近接する領域では、各々の信号の振幅やノイズはほぼ同程度であると近似可能であるため、差信号へのノイズの影響が抑えられ、差信号から脈波などの生体情報が取得できるようになる。以下、詳細に説明を行う。
By accumulating these data in the data storage unit 108 that can be accessed from the server, necessary parameters can be used even when the user performs measurements at various locations. Here, instead of storing all these pieces of information in the data storage unit 108, data may be stored in an external storage unit, and data may be acquired by communication as necessary. Further, the local system 110 may have a data storage unit connected to the data processing unit, and may hold a part of the information. By having parameters necessary for data processing in the local system, it is possible to speed up data processing. Further, the service server can communicate with the information system 109 of the contracted external organization.
<Data processing>
First, the outline of the present invention will be described. Biological information such as pulse waves can be acquired from the fundamental wave, which is a time-series change signal of the color image of blood flow on the body surface such as the face, but blood flow acquired in the presence of noise sources such as the external environment. The color image includes various noises and affects the estimation of the pulse wave. In the present invention, a representative color that is a representative color in a plurality of regions that are close to each other on the body surface is calculated, and a difference signal that is a difference between fundamental waves that is a signal indicating a temporal change of the representative color is calculated and calculated. Biological information such as a pulse wave is calculated using the difference signal. This is because it can be approximated that the amplitude and noise of each signal are almost the same in the adjacent area, so the influence of noise on the difference signal is suppressed, and biological information such as pulse waves is acquired from the difference signal become able to. Details will be described below.

図2にカメラで撮影した画像データの処理フローを示す。図2は、一例として、観察対象105を顔とした場合の処理フローを示している。図2において、画像に映った観察対象105の領域を、一般的な顔検知技術等によって抽出したのちに、データ処理部102内の代表色算出部201により、領域内の代表色を算出する。ここで、代表色とは、例えば、領域内の画素ごとの信号値(白黒画像の場合は輝度値、カラー画像の場合はR(レッド)、G(グリーン)、B(ブルー)、C(シアン)、M(マゼンタ)、Y(イエロー)などの中の1色、あるいは複数の色を混合あるいは平均した信号値)を合計し、領域内の画素数で除算した値(すなわち、領域内の平均値)である。代表色を算出する際には、領域の輝度分布などに応じて領域内の位置で重みを付けたうえで平均をとる場合や、領域内の特定位置の色をとるなどしてもよい。   FIG. 2 shows a processing flow of image data captured by the camera. FIG. 2 shows a processing flow when the observation target 105 is a face as an example. In FIG. 2, after extracting the region of the observation target 105 shown in the image by a general face detection technique or the like, the representative color calculation unit 201 in the data processing unit 102 calculates the representative color in the region. Here, the representative color is, for example, a signal value for each pixel in the region (luminance value for a monochrome image, R (red), G (green), B (blue), C (cyan for a color image). ), M (magenta), Y (yellow), etc., or a signal value obtained by mixing or averaging multiple colors) and dividing by the number of pixels in the area (that is, the average in the area) Value). When calculating the representative color, an average may be taken after weighting at a position in the area according to the luminance distribution of the area, or a color at a specific position in the area may be taken.

代表色算出部202にて出力された代表色から、基本波抽出部202により、基本波を抽出する。ここで、基本波とは、前記出力された色の時系列変化を示す信号である。また、代表色の信号から高調波やインパルス性のノイズ等を分離し、脈波と同期した正弦波に近い成分を多く含む信号として抽出してもよい。なお、基本波抽出部202は、脈波の周波数に近い約1〜2Hzを通過帯域とするバンドパスフィルタ(BPF)や、フーリエ変換の結果から約1〜2Hzの成分だけを抽出して逆フーリエ変換することなどにより、一般的な技術によって実現できるため、詳細な図示は省略する。   The fundamental wave is extracted by the fundamental wave extraction unit 202 from the representative color output by the representative color calculation unit 202. Here, the fundamental wave is a signal indicating the time-series change of the output color. Further, harmonics, impulsive noise, and the like may be separated from the representative color signal, and extracted as a signal containing many components close to a sine wave synchronized with the pulse wave. The fundamental wave extraction unit 202 extracts a bandpass filter (BPF) having a pass band of about 1 to 2 Hz close to the frequency of the pulse wave, or a component of about 1 to 2 Hz from the result of Fourier transform, and performs an inverse Fourier transform. Since the conversion can be realized by a general technique, the detailed illustration is omitted.

続いて、周波数推定部203にて、ゼロクロス計数やフーリエ変換、自己相関などを利用して、基本波の周波数を推定し、脈拍数204(すなわち、1分間あたりの基本波のサイクル数)を出力する。   Subsequently, the frequency estimation unit 203 estimates the frequency of the fundamental wave using zero cross counting, Fourier transform, autocorrelation, etc., and outputs the pulse rate 204 (that is, the number of cycles of the fundamental wave per minute). To do.

一例として、ゼロクロス計数を用いた周波数推定の方法を、図2内に示す。ゼロクロスとは、信号が正から負に、あるいは負から正に変化する箇所のことであり、観測時間内(t0秒間)におけるゼロクロスの回数を計測し、60/(t0×2)を乗じることによって、ゼロクロス回数から基本波の周波数(すなわち、脈拍数)に変換することができる。ここで、「60」は1分間の秒数であり、「2」は1周期あたりのゼロクロス回数である。   As an example, a frequency estimation method using zero-crossing is shown in FIG. Zero crossing is a point where the signal changes from positive to negative, or from negative to positive, by measuring the number of zero crossings within the observation time (t0 seconds) and multiplying by 60 / (t0 × 2). The frequency of zero crossing can be converted to the frequency of the fundamental wave (that is, the pulse rate). Here, “60” is the number of seconds per minute, and “2” is the number of zero crossings per cycle.

なお、フーリエ変換を用いた周波数推定では、信号を複数の周波数成分に分離し、最も大きな振幅値(=√(実数値の2乗+虚数値の2乗))を持つ周波数を脈拍数とする。この場合、基本波抽出部202でフーリエ変換を用いれば、その結果をそのまま用いて周波数推定できるため、前述した逆フーリエ変換は不要である。   In frequency estimation using Fourier transform, the signal is separated into multiple frequency components, and the pulse with the highest amplitude value (= √ (real value squared + imaginary value squared)) is used as the pulse rate. . In this case, if the fundamental wave extraction unit 202 uses the Fourier transform, the frequency can be estimated using the result as it is, and thus the inverse Fourier transform described above is unnecessary.

また、自己相関を用いた周波数推定では、信号を時間的に1サンプル(1標本点)ずつずらしながら、ずらす前の信号との相関値を求め、最も相関が高くなったときの時間差の逆数を、脈拍数とするものである。   Also, in frequency estimation using autocorrelation, the signal is shifted by one sample (one sample point) in time, the correlation value with the signal before shifting is obtained, and the reciprocal of the time difference when the correlation is highest is obtained. , The pulse rate.

以上述べたような、ゼロクロス計数、フーリエ変換、自己相関をそれぞれ用いた周波数推定方法は、一般的な技術によって実現できるため、詳細な図示は省略する。   Since the frequency estimation method using zero cross count, Fourier transform, and autocorrelation as described above can be realized by a general technique, detailed illustration is omitted.

なお、画像から観察対象105の領域を抽出する処理(同図の場合では顔検知)をデータ処理部102の一部として組み込んでもよいことは明らかである。   It should be noted that the process of extracting the region of the observation target 105 from the image (face detection in the case of the figure) may be incorporated as part of the data processing unit 102.

図3に、外光などによるノイズ(すなわち、前述したような蛍光灯などの照明やディスプレイのフリッカノイズ(ちらつき)による明るさの変化)があるときにも、精度よく脈拍数を推定することができる画像データの処理フローを示す。 図3において、画像に映った観察対象105の領域を、一般的な顔検知技術等によって抽出したのちに、血流方向301に沿ってn(ただし、nは2以上の整数)個のより小さな領域(同図では、領域#1(303)、領域#2(304))に分割し、各画像データをデータ処理部102にて処理する。この血流方向301として、例えば顔の表面に近い部分では、首の左右にある頸動脈から頭部に上がってきた血液が、顔の中央部に向かって水平に流れることが知られており、顔が映っている画像内の鼻の位置と方向(長手方向)を検出し、その方向と略直交する方向を血流方向301とすればよい。さらに、顔(観察対象105)の領域を、鼻の位置を境界として左右2つの領域に分割し、左右どちらか一方の領域を新たな観察対象105として、さらに小さな領域303、304に分割してもよい。   FIG. 3 can accurately estimate the pulse rate even when there is noise due to external light or the like (that is, changes in brightness due to lighting such as a fluorescent lamp as described above or flicker noise (flicker) of the display). The processing flow of possible image data is shown. In FIG. 3, after extracting the region of the observation target 105 shown in the image by a general face detection technique or the like, n (where n is an integer of 2 or more) smaller along the blood flow direction 301. The image data is divided into regions (region # 1 (303) and region # 2 (304) in the figure), and each image data is processed by the data processing unit 102. As this blood flow direction 301, for example, in the part near the surface of the face, it is known that blood that has risen from the carotid artery on the left and right of the neck to the head flows horizontally toward the center of the face, The position and direction (longitudinal direction) of the nose in the image showing the face may be detected, and the direction substantially orthogonal to that direction may be set as the blood flow direction 301. Furthermore, the face (observation target 105) region is divided into two left and right regions with the nose position as the boundary, and either the left or right region is divided into smaller regions 303 and 304 as the new observation target 105. Also good.

データ処理部102では、前述した代表色算出部201と同様の代表色算出部305、306により、領域ごとの代表色を算出する。なお、各領域の大きさは、すべて同じでもよいし、異なっていてもよい。例えば、各領域の血流方向301と略直交する方向の長さ(第1の長さ)は、顔(観察対象105)の領域をはみ出さない最大の長さとし、血流方向301と略平行の方向の長さ(第2の長さ)は、各領域の面積(すなわち、第1の長さと第2の長さの積)がほぼ同一になるように設定してもよい。   In the data processing unit 102, representative colors for each region are calculated by representative color calculation units 305 and 306 similar to the representative color calculation unit 201 described above. The size of each region may be the same or different. For example, the length (first length) in the direction substantially orthogonal to the blood flow direction 301 of each region is the maximum length that does not protrude from the region of the face (observation target 105), and is substantially parallel to the blood flow direction 301 The length in the direction (second length) may be set so that the area of each region (that is, the product of the first length and the second length) is substantially the same.

各領域の代表色は、領域ごとの血流量に応じて変化するとともに、外光など302によるノイズも含んでいる。このとき、血流量に応じて変化する代表色の成分は、血流方向に沿った領域ごとに、血流速度に応じた位相差を持つのに対し、外光など302に応じて変化する代表色の成分は、観察対象105の全体でほぼ一定の変化をもたらすと考えられる。この性質を利用して、外光など302によるノイズを低減しながら、脈拍数311を精度よく推定できるようにする。以下、この詳細について説明する。   The representative color of each region changes according to the blood flow volume for each region, and also includes noise due to 302 such as external light. At this time, the representative color component that changes according to the blood flow volume has a phase difference according to the blood flow velocity for each region along the blood flow direction, whereas the representative color component that changes according to 302 such as external light. The color component is considered to cause a substantially constant change in the entire observation target 105. By utilizing this property, the pulse rate 311 can be accurately estimated while reducing noise caused by 302 such as external light. The details will be described below.

図3において、代表色算出部305、306から出力された領域ごとの代表色から、前述した基本波抽出部(202)と同様の基本波抽出部307、308により、それぞれの基本波(信号#1、信号#2)を抽出する。一つの基本波抽出部内でそれぞれの基本波を抽出するようにしても良い。   In FIG. 3, the fundamental wave extraction units 307 and 308 similar to the fundamental wave extraction unit (202) described above are used for the respective fundamental waves (signal #) from the representative colors output from the representative color calculation units 305 and 306. 1. Extract signal # 2). Each fundamental wave may be extracted within one fundamental wave extraction unit.

続いて、減算器309によって信号#1と信号#2の差信号を生成し、前述した周波数推定部203と同様の周波数推定部310を用いて、この差信号の周波数(すなわち、脈拍数311)を推定することにより、外光など302によるノイズを低減できるようになる。   Subsequently, a difference signal between the signal # 1 and the signal # 2 is generated by the subtractor 309, and the frequency of the difference signal (that is, the pulse rate 311) is generated using the frequency estimation unit 310 similar to the frequency estimation unit 203 described above. By estimating the noise, noise caused by 302 such as outside light can be reduced.

ここで、基本波(正弦波)からなる信号#1をA1cos(ωt+θ1)+n1と表し、信号#2をA2cos(ωt+θ2)+n2と表すことにする。A1およびA2は各信号の振幅を表し、θ1およびθ2は各信号の位相(初期位相)を表し、n1およびn2は各信号に含まれる外光などによるノイズを表すものとする。なお、ωは基本波の角周波数であり、信号#1および信号#2に共通とする。   Here, the signal # 1 composed of the fundamental wave (sine wave) is represented as A1cos (ωt + θ1) + n1, and the signal # 2 is represented as A2cos (ωt + θ2) + n2. A1 and A2 represent the amplitude of each signal, θ1 and θ2 represent the phase (initial phase) of each signal, and n1 and n2 represent noise due to external light included in each signal. Note that ω is the angular frequency of the fundamental wave, and is common to the signal # 1 and the signal # 2.

このとき、近接する複数の領域の間では、各信号の振幅がほぼ等しく、外光などによるノイズ成分の大きさもほぼ等しいと考えてよい。この近似は顔のような大きさ以下の範囲であれば、十分近似可能と出来る。そこで、近似的にA1=A2=A、およびn1=n2=nと置くと、信号#1と信号#2の差信号(信号#2-信号#1)は、以下の数1のように計算することができる。
(数1)
差信号(信号#2-信号#1)=(A2cos(ωt+θ2)+n2)-(A1cos(ωt+θ1)+n1)
≒ A(cos(ωt+θ2)-cos(ωt+θ1))+(n-n)
= -2Asin(ωt+(θ2+θ1)/2)sin((θ2-θ1)/2)
信号#1と信号#2の間の位相差δ(=θ2-θ1)は、血流方向(301)に沿った領域#1と領域#2の距離(位置の差)にほぼ比例するため、sin((θ2-θ1)/2)の値、および(-2Asin((θ2-θ1)/2))の値も常にほぼ一定(const.)と考えてよい。従って、差信号≒sin(ωt+(θ2+θ1)/2)×const.となるため、外光など302によるノイズをキャンセルしながら、周波数推定部310を用いて脈拍数を推定できるようになる。
At this time, it may be considered that the amplitude of each signal is substantially equal between the plurality of adjacent regions, and the magnitude of the noise component due to external light or the like is also substantially equal. This approximation can be sufficiently approximated as long as it is a face size or less. Therefore, if approximately A1 = A2 = A and n1 = n2 = n, the difference signal between signal # 1 and signal # 2 (signal # 2-signal # 1) is calculated as can do.
(Equation 1)
Difference signal (Signal # 2-Signal # 1) = (A2cos (ωt + θ2) + n2)-(A1cos (ωt + θ1) + n1)
≒ A (cos (ωt + θ2) -cos (ωt + θ1)) + (nn)
= -2Asin (ωt + (θ2 + θ1) / 2) sin ((θ2-θ1) / 2)
Since the phase difference δ (= θ2-θ1) between the signal # 1 and the signal # 2 is almost proportional to the distance (positional difference) between the region # 1 and the region # 2 along the blood flow direction (301), The value of sin ((θ2-θ1) / 2) and the value of (-2Asin ((θ2-θ1) / 2)) may always be considered to be almost constant (const.). Therefore, since the difference signal≈sin (ωt + (θ2 + θ1) / 2) × const., It is possible to estimate the pulse rate using the frequency estimation unit 310 while canceling noise caused by 302 such as outside light.

図4に、血流方向をさらに利用して、カメラの撮像素子におけるショット雑音や熱雑音のようなランダム性のノイズ(以下、ランダムノイズ)の影響を軽減したデータ処理部102の一例を示す。前述のように、顔の表面に近い部分では、首の左右にある頸動脈から頭部に上がってきた血液が、顔の中央部に向かって水平に流れることが知られている。したがって、図4に示すように、顔の中央部(鼻)で鼻の長手方向に沿った垂直線を軸401とすると、ほぼ左右対称の血流方向となる。そこで、図4に示すように、軸抽出処理400により顔の軸を抽出し、代表色算出部406によって、軸401に近い領域では、領域#1A(402)と領域#1B(403))どうしを合わせた代表色を算出するとともに、代表色算出部407によって、軸(401)から遠い領域では、領域#2A(404)と領域#2B(405))どうしを合わせた代表色を算出し、前述した基本波抽出部307、308、減算器309、および周波数推定部310によって脈拍数408を推定することにより、図4中に示した信号#1と信号#2の位相関係を保ったまま、各代表色を算出する際の画素数をより多くすることができるようになる。このとき、血流量に応じて変化する代表色の変化量は領域#1A(402)と領域#1B(403)で略同一であるのに対し、ランダムノイズに応じて変化する代表色の変化量は領域#1A(402)と領域#1B(403)で無相関であるため、例えば、領域#1A(402)と領域#1B(403)の面積(画素数)を同一とした場合、SN比が約3dB改善され、ランダムノイズに対してより頑健にすることができるようになる。   FIG. 4 shows an example of the data processing unit 102 that further reduces the influence of random noise (hereinafter referred to as random noise) such as shot noise and thermal noise in the imaging element of the camera by further utilizing the blood flow direction. As described above, it is known that blood that has risen from the carotid arteries on the left and right sides of the neck to the head flows horizontally toward the center of the face near the face surface. Therefore, as shown in FIG. 4, when the vertical line along the longitudinal direction of the nose at the center (nose) of the face is taken as the axis 401, the blood flow direction is almost symmetrical. Therefore, as shown in FIG. 4, the face axis is extracted by the axis extraction processing 400, and the area # 1A (402) and the area # 1B (403) are compared between the areas close to the axis 401 by the representative color calculation unit 406. The representative color calculation unit 407 calculates a representative color that combines region # 2A (404) and region # 2B (405) in a region far from the axis (401), By estimating the pulse rate 408 by the fundamental wave extraction units 307 and 308, the subtractor 309, and the frequency estimation unit 310 described above, the phase relationship between the signal # 1 and the signal # 2 shown in FIG. It becomes possible to increase the number of pixels when calculating each representative color. At this time, the change amount of the representative color that changes according to the blood flow is substantially the same in the region # 1A (402) and the region # 1B (403), whereas the change amount of the representative color that changes according to the random noise. Since region # 1A (402) and region # 1B (403) are uncorrelated, for example, if the area (number of pixels) of region # 1A (402) and region # 1B (403) is the same, the SN ratio Is improved by about 3 dB and can be made more robust against random noise.

なお、観察対象の顔の左右対称性が低い場合や、顔の中央部(鼻)で鼻の長手方向に沿った軸401の検出精度が不充分の場合、顔の左右の血流量が大きく異なる場合などでは、図4に示した構成のように顔の左右の領域の代表色を用いず、図3に示した構成のように顔の左右どちらか片側の領域だけの代表色を用いたほうが、脈拍数を精度良く推定できる。したがって、代表色算出部(406)(407)の前に、領域#1A(402)と領域#1B(403)の各代表色を比較、又は、領域#2A(404)と領域#2B(405)の各代表色を比較する対称度算出処理(409)を行い、各比較結果(差の絶対値)が予め定めた閾値よりも小さいときにだけ、顔の左右両方の領域の代表色を用い、各比較結果(差の絶対値)が予め定めた閾値よりも大きいときには、顔の左右のどちらか一方の領域の代表色を用いるように、データ処理部102を構成してもよい。   In addition, when the left-right symmetry of the face to be observed is low, or when the detection accuracy of the axis 401 along the longitudinal direction of the nose is insufficient at the center (nose) of the face, the left and right blood flow rates of the face differ greatly In some cases, it is better not to use the representative colors of the left and right areas of the face as in the configuration shown in FIG. 4, but to use the representative colors of only the left and right areas of the face as in the configuration shown in FIG. The pulse rate can be estimated with high accuracy. Therefore, before the representative color calculators (406) and (407), the representative colors of the region # 1A (402) and the region # 1B (403) are compared, or the region # 2A (404) and the region # 2B (405) ) Is used to calculate the degree of symmetry (409) for comparing each representative color, and only when the comparison result (absolute value of the difference) is smaller than a predetermined threshold, the representative colors of both the left and right regions of the face are used. When each comparison result (absolute value of the difference) is larger than a predetermined threshold, the data processing unit 102 may be configured to use the representative color of either the left or right region of the face.

図5に、外光などによるノイズの影響を抑えながら血圧を算出する処理フローを示す。血圧の算出には脈波伝搬速度が必要であるが、顔の皮膚表面だけで脈波を計測して脈波伝播速度を計算する場合には、2点間の距離が近くなるため、脈波が伝播する時間が短くなり、2点間の信号の位相差が極めて小さくなることから、外光などによるノイズの影響を少なからず受けることになる。例えば、図2に示したようなゼロクロス205の位置(時間)は、信号に正の値を持つノイズが加わると、信号波形の立ち上がりにおけるゼロクロスの位置は左方向に移動し(すなわち、位相が進み)、信号波形の立下りにおけるゼロクロスの位置は右方向に移動する(すなわち、位相が遅れる)ことになり、位相差から求める脈波伝搬速度に誤差が含まれることになる。以下、3点以上で脈波を計測することによって、外光などによるノイズの影響を抑える技術について説明する。   FIG. 5 shows a processing flow for calculating blood pressure while suppressing the influence of noise due to external light or the like. The calculation of blood pressure requires a pulse wave velocity, but when calculating the pulse wave velocity by measuring the pulse wave only on the skin surface of the face, the distance between the two points is close. Since the propagation time of the signal becomes shorter and the signal phase difference between the two points becomes extremely small, it is affected by noise caused by external light. For example, the position (time) of the zero cross 205 shown in FIG. 2 moves to the left (ie, the phase advances) when noise having a positive value is added to the signal. ), The position of the zero cross at the falling edge of the signal waveform moves to the right (that is, the phase is delayed), and an error is included in the pulse wave propagation velocity obtained from the phase difference. Hereinafter, a technique for suppressing the influence of noise caused by external light by measuring pulse waves at three or more points will be described.

図5において、画像に映った観察対象105の領域を、血流方向に沿って略等間隔に配置されたm(ただし、mは3以上の整数)個のより小さな領域(図5)では、領域#1(501)、領域#2(502)、領域#3(503))に分割し、各画像データをデータ処理部102にて処理する。データ処理部102では、前述した代表色算出部201と同様の代表色算出部504、505、506により、領域ごとの代表色を算出する。なお、各領域の大きさは、すべて同じでもよいし、異なっていてもよい。代表色算出部504、505、506から出力された領域ごとの代表色から、前述した基本波抽出部202と同様の基本波抽出部507、508、509により、それぞれの基本波(信号#1、信号#2、信号#3)を抽出する。   In FIG. 5, the region of the observation target 105 shown in the image is represented by m (where m is an integer of 3 or more) smaller regions (FIG. 5) arranged at approximately equal intervals along the blood flow direction. Region # 1 (501), region # 2 (502), region # 3 (503)), and the image processing unit 102 processes each image data. In the data processing unit 102, representative colors for each region are calculated by representative color calculation units 504, 505, and 506 similar to the representative color calculation unit 201 described above. The size of each region may be the same or different. From the representative colors for each region output from the representative color calculators 504, 505, and 506, the fundamental waves (signal # 1, signal # 1, Signal # 2 and signal # 3) are extracted.

続いて、減算器509によって信号#1と信号#2の差信号#a(=信号#2-信号#1)を生成するとともに、減算器510によって信号#2と信号#3の差信号#b(=信号#3-信号#2)を生成し、時間差推定部511にて差信号#aと差信号#bの間の時間差を求める。   Subsequently, the subtracter 509 generates a difference signal #a (= signal # 2−signal # 1) between the signal # 1 and the signal # 2, and the subtracter 510 generates a difference signal #b between the signal # 2 and the signal # 3. (= Signal # 3−signal # 2) is generated, and the time difference estimation unit 511 obtains the time difference between the difference signal #a and the difference signal #b.

このとき、前述のように、近接する複数の領域の間では、各信号の振幅がほぼ等しく、外光などによるノイズ成分の大きさもほぼ等しいと考えてよいため、近似的にA1=A2=A、およびn1=n2=nと置くと、差信号#aは以下のように表すことができる。
(数2)
差信号#a = (A2 cos(ωt+θ2) + n2) - (A1 cos(ωt+θ1) + n1)
≒ A(cos(ωt+θ2)-cos(ωt+θ1))+(n-n)
= -2Asin(ωt+(θ2+θ1)/2)sin((θ2-θ1)/2)
= sin(ωt+(θ2+θ1)/2)) × const.#a
ここで、const.#a=-2Asin((θ2-θ1)/2)としている。
同様に、A2=A3=A、およびn2=n3=nと置くと、差信号#bは以下のように表すことができる。
(数3)
差信号#b = (A3 cos(ωt+θ3) + n3) - (A2 cos(ωt+θ2) + n2)
≒ A(cos(ωt+θ3)-cos(ωt+θ2))+(n-n)
= -2Asin(ωt+(θ3+θ2)/2)sin((θ3-θ2)/2)
=sin(ωt+(θ3+θ2)/2)) × const.#b
同様に、const.#b = -2Asin((θ3-θ2)/2)としている。
ここで、領域#1(501)、領域#2(502)、領域#3(503))が略等間隔に配置されていれば、-2Asin((θ2-θ1)/2)≒-2Asin((θ3-θ2)/2)、すなわちconst.#a≒const.#bとなり差信号#aおよび差信号#bでは、外光など302によるノイズがキャンセルされるため、時間差推定部511にて、後述するゼロクロス位置、フーリエ変換、相互相関、等を用いることによって、差信号#aと差信号#bの間の位相差(すなわち、(θ3+θ2)/2 - (θ2+θ1)/2 = (θ3-θ1)/2)を精度よく求めることができ、位相差(単位:ラジアン)を基本波(すなわち脈拍)の周波数(単位:Hz)で除算し、さらに2πで除算することによって、差信号#aと差信号#bの間の時間差を求めることができる。
At this time, as described above, it may be considered that the amplitude of each signal is substantially equal between the plurality of adjacent regions, and the magnitude of the noise component due to external light or the like is approximately equal, so approximately A1 = A2 = A , And n1 = n2 = n, the difference signal #a can be expressed as follows.
(Equation 2)
Difference signal #a = (A2 cos (ωt + θ2) + n2)-(A1 cos (ωt + θ1) + n1)
≒ A (cos (ωt + θ2) -cos (ωt + θ1)) + (nn)
= -2Asin (ωt + (θ2 + θ1) / 2) sin ((θ2-θ1) / 2)
= Sin (ωt + (θ2 + θ1) / 2)) × const. # A
Here, const. # A = -2Asin ((θ2-θ1) / 2).
Similarly, when A2 = A3 = A and n2 = n3 = n, the difference signal #b can be expressed as follows.
(Equation 3)
Difference signal #b = (A3 cos (ωt + θ3) + n3)-(A2 cos (ωt + θ2) + n2)
≒ A (cos (ωt + θ3) -cos (ωt + θ2)) + (nn)
= -2Asin (ωt + (θ3 + θ2) / 2) sin ((θ3-θ2) / 2)
= Sin (ωt + (θ3 + θ2) / 2)) × const. # B
Similarly, const. # B = -2Asin ((θ3-θ2) / 2).
Here, if region # 1 (501), region # 2 (502), region # 3 (503)) are arranged at approximately equal intervals, -2Asin ((θ2-θ1) / 2) ≈-2Asin ( (θ3-θ2) / 2), that is, const. # a≈const. # b, and in difference signal #a and difference signal #b, noise due to 302 such as outside light is canceled. By using the zero-cross position, Fourier transform, cross-correlation, etc., which will be described later, the phase difference between the difference signal #a and the difference signal #b (that is, (θ3 + θ2) / 2-(θ2 + θ1) / 2 = (θ3-θ1) / 2) can be obtained accurately, and the difference is obtained by dividing the phase difference (unit: radians) by the fundamental wave (ie, pulse) frequency (unit: Hz) and then dividing by 2π. The time difference between the signal #a and the difference signal #b can be obtained.

例えば、ゼロクロス位置を用いる方法では、差信号#aと差信号#bの間で、図2に示したようなゼロクロス205の位置(時間)の差を求め、複数のゼロクロス位置の差の平均値を時間差とすればよい。また、フーリエ変換を用いる方法では、差信号#aと差信号#bをそれぞれ周波数成分に分解し、最も大きな振幅値を持つ周波数成分の位相の差(=arctan(差信号#bの最大振幅周波数成分の虚数値/実数数)- arctan(差信号#aの最大振幅周波数成分の虚数値/実数数))を最大振幅周波数の値で除算し、さらに2πで除算して時間差とすればよい。また、相互相関を用いる方法では、差信号#bを時間的に1サンプル(1標本点)ずつずらしながら、差信号#aとの間の相関値を求め、最も相関が高くなったときの時間差を求めればよい。これらの位相差あるいは時間差の推定方法は、一般的な技術によって実現できるため、詳細な図示は省略する。   For example, in the method using the zero cross position, the difference in position (time) of the zero cross 205 as shown in FIG. 2 is obtained between the difference signal #a and the difference signal #b, and the average value of the differences between the plurality of zero cross positions is obtained. Is a time difference. In the method using the Fourier transform, the difference signal #a and the difference signal #b are each decomposed into frequency components, and the phase difference of the frequency component having the largest amplitude value (= arctan (the maximum amplitude frequency of the difference signal #b (Component imaginary value / real number) -arctan (imaginary value / real number of maximum amplitude frequency component of difference signal #a)) is divided by the value of the maximum amplitude frequency, and further divided by 2π to obtain the time difference. In the method using cross-correlation, the difference signal #b is shifted by one sample (one sample point) in time, the correlation value with the difference signal #a is obtained, and the time difference when the correlation is the highest is obtained. You can ask for. Since the estimation method of these phase differences or time differences can be realized by a general technique, detailed illustration is omitted.

脈波伝播速度計算部512では、各領域間の実際の距離を、前述した時間差推定部511で求めた時間差で除算することにより、脈波伝播速度を求める。   Pulse wave propagation velocity calculation unit 512 obtains the pulse wave propagation velocity by dividing the actual distance between the regions by the time difference obtained by time difference estimation unit 511 described above.

撮影された観察対象105の両眼間の画素数と、領域#1と領域#2の各重心位置の間の血流方向に沿った画素数、および領域#2と領域#3の各中心位置の間の血流方向に沿った画素数を用いて、血流方向に沿った領域#1と領域#2の間の実際の距離、および領域#2と領域#3の間の実際の距離を計算で求めることができる。例えば、平均的な人間の顔の両眼間の距離は約6.5cmであるとして、両眼間の画素数を100画素とし、領域#1と領域#2の各中心位置の間の血流方向に沿った画素数を30画素とすると、血流方向に沿った領域#1と領域#2の間の実際の距離は、約2cm(=6.5×30/100)と計算できる。両眼間の距離は人種や年齢、性別、画像処理などから求めても良い。   The number of pixels between the two eyes of the observed observation object 105, the number of pixels along the blood flow direction between the center of gravity positions of region # 1 and region # 2, and the center positions of region # 2 and region # 3 The actual distance between region # 1 and region # 2 and the actual distance between region # 2 and region # 3 along the blood flow direction It can be calculated. For example, assuming that the distance between both eyes of an average human face is about 6.5 cm, the number of pixels between both eyes is 100 pixels, and the blood flow direction between each central position of region # 1 and region # 2 Assuming that the number of pixels along 30 is 30 pixels, the actual distance between the region # 1 and the region # 2 along the blood flow direction can be calculated as about 2 cm (= 6.5 × 30/100). You may obtain | require the distance between both eyes from race, age, sex, image processing, etc.

前述のように、差信号#aと差信号#bの間の位相差((θ3-θ1)/2)から求めた時間差は、領域#3と領域#1の間の時間差を示すことから、前記同様に血流方向に沿った領域#3と領域#1の間の実際の距離を求め、この距離を領域#3と領域#1の間の時間差で除算することにより、脈波伝播速度計算部512で脈波伝播速度を計算できる。このようにして求めた脈波伝播速度から血圧513への変換は、例えば、前述したMoens-Kortewegの式や、動脈圧と動脈内径の関係式などを用いればよい。   As described above, the time difference obtained from the phase difference ((θ3-θ1) / 2) between the difference signal #a and the difference signal #b indicates the time difference between the region # 3 and the region # 1. Calculate the pulse wave velocity by calculating the actual distance between region # 3 and region # 1 along the direction of blood flow and dividing this distance by the time difference between region # 3 and region # 1. The pulse wave velocity can be calculated in part 512. The conversion from the pulse wave velocity thus obtained to the blood pressure 513 may be performed using, for example, the aforementioned Moens-Korteweg equation or the relationship between the arterial pressure and the inner diameter of the artery.

以上述べたように、血流に沿った2領域ないしは3領域の画像情報の差分の信号を解析することにより、外光などによるノイズをキャンセルすることで脈拍数、脈波形、脈波伝播速度等を精度良く計測することができるようになる。   As described above, the pulse rate, pulse waveform, pulse wave velocity, etc. are canceled by analyzing the difference signal between the image information of two or three regions along the blood flow, and canceling noise caused by external light. Can be measured with high accuracy.

図6は、計測部位を顔以外も含めて別に取った例を示す。計測部位は皮膚が露出しているところに採る。日常服で覆われていない部分としては、首から上、手、足が考えられる。但し、入浴時などで他の部位が露出している場合にはこの限りではない。また、後述するように、必ずしも連続していない複数個所を計測部位に採ってもよい。計測部位が連続していない場合、下記に述べるように脈波伝搬速度の算出の精度が良くなる。連続していない皮膚表面を計測部位に採る場合でも、同一のカメラの視野に収まるような撮影を行うのが望ましい。これは信号間の同期を取るのが容易だからである。また、外光などによるノイズの影響の出方も計測部位間で同様になると期待できるからである。顔の横にカメラを設置し、計測領域を頬の二領域t1、t2に、及び首の二領域t3、t4とする。頬の二領域t1、t2の画像の差分信号と、首の二領域t3、t4の画像の差分信号を各々分析する。この基本周波数成分の角速度ωを用いて脈拍数を求めることができる。また、この二つの差分信号間の位相差と角速度ωから、脈波伝播時間ΔTを求めることができる。   FIG. 6 shows an example in which the measurement site is taken separately including other than the face. The measurement site is taken where the skin is exposed. Possible parts that are not covered with everyday clothes are the neck, top, hands, and feet. However, this does not apply when other parts are exposed during bathing. Further, as will be described later, a plurality of locations that are not necessarily continuous may be taken as the measurement site. When the measurement site is not continuous, the accuracy of calculation of the pulse wave velocity is improved as described below. Even when a non-continuous skin surface is taken as a measurement site, it is desirable to perform imaging so as to be within the field of view of the same camera. This is because it is easy to synchronize between signals. Moreover, it is because it can be expected that the influence of noise due to external light or the like will be the same between measurement sites. A camera is installed beside the face, and the measurement areas are defined as two cheek areas t1 and t2 and two neck areas t3 and t4. The difference signals of the images of the cheek two areas t1 and t2 and the difference signals of the neck two areas t3 and t4 are analyzed. The pulse rate can be obtained using the angular velocity ω of the fundamental frequency component. Further, the pulse wave propagation time ΔT can be obtained from the phase difference between the two difference signals and the angular velocity ω.

脈波伝播速度は、例えば二領域t1、t2の中点と二領域t3、t4の中点の間を血流が流れる距離をΔTで割ったものである。ここで、距離は、二領域t1、t2の中点と二領域t3、t4の中点を含む直角三角形t5の二辺を加えることで算出する。人体に於いては心臓から拍出され頚動脈を流れてきた血流(血流方向t51)は顔側面で流れをほぼ直角に変え、頬では横方向に流れる(血流方向t50)。従って直角三角形の斜辺ではなく、直角を挟む二辺の和にて計算する。もともと複数の計測部位を頬の中のみで取った場合に比べ、一方を首に取ると距離が大きくなるが、ここではそれだけではなく、斜辺ではなく二辺の和となることでより大きな距離となるという特徴がある。例えば、直角三角形がほぼ直角二等辺三角形となっている場合には、斜辺よりも1.4倍の距離となる。距離が大きいと距離の推定に一定量の誤差があっても相対的に誤差が小さくなり、結果として脈波伝播速度の算出誤差も小さくなる。また、二つの差分信号間の位相差も大きくなり、結果位相差の算出誤差、従って脈波伝播時間ΔTの算出誤差も小さくなる。このため、脈波伝播速度の計測誤差も小さくなり、血圧の算出誤差も小さくなるという特徴がある。   The pulse wave velocity is, for example, the distance of blood flow divided by ΔT between the midpoint of the two regions t1 and t2 and the midpoint of the two regions t3 and t4. Here, the distance is calculated by adding two sides of a right triangle t5 including the midpoint of the two regions t1 and t2 and the midpoint of the two regions t3 and t4. In the human body, the blood flow (blood flow direction t51) flowing from the heart and flowing through the carotid artery changes the flow to a substantially right angle on the side of the face and flows laterally on the cheek (blood flow direction t50). Therefore, the calculation is based on the sum of two sides sandwiching a right angle, not the hypotenuse of a right triangle. Compared to the case where multiple measurement parts were originally taken only in the cheek, the distance increases when one is taken on the neck, but here it is not only that, but the sum of the two sides instead of the hypotenuse increases the distance. There is a feature that becomes. For example, when the right triangle is a substantially right isosceles triangle, the distance is 1.4 times longer than the hypotenuse. When the distance is large, the error is relatively small even if there is a certain amount of error in the distance estimation, and as a result, the calculation error of the pulse wave propagation velocity is also small. Further, the phase difference between the two differential signals also increases, and as a result, the calculation error of the phase difference, and hence the calculation error of the pulse wave propagation time ΔT, also decreases. For this reason, the measurement error of the pulse wave velocity is reduced, and the calculation error of the blood pressure is also reduced.

図7は計測部位をさらに別に取った例を示す。指を観察する位置に撮像部を設置する。連続する二領域t14、t15の画像や、三領域t14、t15、t16の画像から脈拍数、脈波伝播速度を計測する手法は前述の通りである。顔画像を用いる場合と比べて髪形、化粧などの影響を受けにくいという特徴がある。また、顔は日焼けなどにより肌の色が変化するのに対し、通常指の内側は色があまり変化しないため、安定的に計測ができるという特徴がある。またこの際、撮像部と指を使った個人認証が可能であり、指紋パターンt23や、赤外線照射によって観察する指静脈のパターンを用いると、指の計測だけで観察対象の同定とバイタル情報取得が両方ともできる。例えば図7に示すように、データ処理部は、指部位の画像データの入力を受付け(701)、前述の方法により画像データから脈波や脈波伝搬速度、血圧などの生体情報を算出し(702)、さらに画像データから個人認証を行い(703)、生体情報と認証された個人とを関連づけて出力する(704)。これにより、例えば病院データベースが未整備な環境下や名寄せが複雑であるなど氏名での管理が難しい環境下での健康情報管理などが容易になる。図8は計測部位を指の二領域t17、t18と手首の二領域t19、t20に取った例を示す。図7に示した指のみで計測する場合と比較し、計測部位間の距離がより大きいため、図6の説明と同様に脈波伝播速度の計測誤差が小さくなるという特徴がある。   FIG. 7 shows an example in which another measurement site is taken. An imaging unit is installed at a position where a finger is observed. The method for measuring the pulse rate and the pulse wave velocity from the images of the continuous two regions t14 and t15 and the images of the three regions t14, t15 and t16 is as described above. Compared to the case of using a face image, it is less susceptible to the effects of hairstyle, makeup, and the like. In addition, while the face changes in skin color due to sunburn or the like, the color of the inside of a finger usually does not change so much, so that it can be measured stably. At this time, personal authentication using the imaging unit and the finger is possible, and using the fingerprint pattern t23 and the finger vein pattern observed by infrared irradiation, the identification of the observation target and the vital information acquisition can be performed only by measuring the finger. Both are possible. For example, as shown in FIG. 7, the data processing unit accepts input of image data of a finger part (701), and calculates biological information such as a pulse wave, a pulse wave propagation speed, and blood pressure from the image data by the above-described method ( 702) Further, the personal authentication is performed from the image data (703), and the biometric information and the authenticated individual are output in association with each other (704). This facilitates health information management in an environment where it is difficult to manage by name, for example, in an environment where the hospital database is not well-developed or where name identification is complicated. FIG. 8 shows an example in which measurement regions are taken in two regions t17 and t18 of the finger and two regions t19 and t20 of the wrist. Compared with the case of measuring with only the finger shown in FIG. 7, the distance between the measurement parts is larger, so that the measurement error of the pulse wave velocity is reduced as in the description of FIG. 6.

図9も計測部位をさらに別に取った例である。顔の横に手のひらを持ってきて計測する。顔の計測領域t21、手のひらの計測領域t22は心臓からの距離が大きく異なることから、やはり図6の説明と同様に脈波伝播速度の計測誤差が小さくなるという特徴がある。顔と手のひらは心臓からの距離が大きく異なりながら、同一画面内に並んで撮影することが容易な部位である。複数の観察部位を異なるカメラで撮影する場合にも本発明の情報処理は有効であるが、より正しい結果を得るためには、撮影する画像の時刻を正確に合わせられるように撮像システムを構成するとよい。一方、図9のように同一画面内に計測対象を並べて撮影できれば、異なる画像の時刻同期を行う必要がないため、システムを簡易にできるという特徴がある。
<健康管理サービスシステムの例>
次に検知した生体情報のデータ処理技術及び生体上を用いたサービスシステムの例を説明する。例として顔画像を使った場合について説明するが、他の計測部位の場合でも同様のサービスの流れである。また、認証方法については顔画像で行うが、指などの場合指紋認証や指静脈認証に手段を読み替えればよい。図10を用いて、まずデータ格納部108に納められるデータ内容を説明する。個人毎のIDで区別され、個人認証用の特徴量データユーザプロファイル 血圧推定用のパラメータ、加入している外部サービスに関する情報、異常検知するための判定パラメータ、過去のバイタルデータ、過去の顔色データやその他体調データ、過去に表示したメッセージ履歴などを保持している。
FIG. 9 is also an example in which another measurement site is taken. Bring your palm next to your face and measure. Since the face measurement region t21 and the palm measurement region t22 are greatly different from each other in the distance from the heart, the measurement error of the pulse wave velocity is also reduced as in the description of FIG. The face and palm are parts that can be easily photographed side by side in the same screen, although the distance from the heart is greatly different. The information processing of the present invention is also effective when photographing a plurality of observation sites with different cameras, but in order to obtain a more accurate result, the imaging system is configured so that the time of the image to be photographed can be accurately adjusted. Good. On the other hand, if the measurement objects can be photographed side by side in the same screen as shown in FIG. 9, there is no need to synchronize the time of different images, and the system can be simplified.
<Example of health management service system>
Next, an example of a data processing technique for detected biological information and a service system using the living body will be described. As an example, a case where a face image is used will be described. However, the service flow is the same for other measurement sites. The authentication method is performed using a face image, but in the case of a finger or the like, the means may be replaced with fingerprint authentication or finger vein authentication. First, data contents stored in the data storage unit 108 will be described with reference to FIG. Characteristic data for personal authentication distinguished by ID for each individual User profile Blood pressure estimation parameters, information about subscribed external services, judgment parameters for detecting abnormalities, past vital data, past facial color data, Other physical condition data and past message history are stored.

ここで、血圧推定用のパラメータの登録方法を説明しておく。リファレンスとなる血圧測定装置を用意し、脈波と血圧について同時に測定を行う。このような計測を異なるタイミングで行うことで脈波伝播速度と血圧の対応関係を学習する。この対応付けのパラメータは、計測対象者の動脈硬化度などの血管の状態を表しており、健康状態の指標として使うことができる。血圧推定用のパラメータは、脈波から血圧を算出する際に、各係数の調整等に用いる。個人によって異なるため、個人毎に取得しておくとよい。また、本パラメータを用いずに母集団の平均値などをパラメータとして用い得て、脈波から血圧を推定しても良い。   Here, a method for registering parameters for blood pressure estimation will be described. A blood pressure measurement device as a reference is prepared, and the pulse wave and blood pressure are measured simultaneously. By performing such measurement at different timings, the correspondence relationship between the pulse wave velocity and the blood pressure is learned. This association parameter represents the state of the blood vessel such as the degree of arteriosclerosis of the measurement subject, and can be used as an index of health. The parameter for blood pressure estimation is used for adjusting each coefficient when calculating blood pressure from the pulse wave. Since it differs depending on the individual, it is recommended to obtain it for each individual. Further, the blood pressure may be estimated from the pulse wave by using the average value of the population as a parameter without using this parameter.

次にサービスシステムの処理フローを図11を用いて説明する。ローカルシステム110にてまず顔領域を検知t25し、特徴量を取り出した後暗号化してサービスサーバに送る。サービスサーバにてデータ格納部108内に保持している特徴量データと比較することで認証処理を行う。登録されていない特徴量である場合、非登録者である旨のメッセージを作成する。尚、ローカルシステム110の使用者が一人に限定される場合、認証プロセスを省くことが可能であり、システムの機器IDなどを用いて個人IDに紐付ければよい。例えばローカルシステム110がスマートフォンの場合、通常利用者は一人に特定できる。あるいはより簡易的に本人にID、パスワードを入力させ、入力されたIDを使って個人IDに紐付けてもよい。これ以降は認証されたIDに紐付けられたその人独自のデータを用いて処理を行う。   Next, the processing flow of the service system will be described with reference to FIG. The local system 110 first detects a face area t25, extracts the feature amount, encrypts it, and sends it to the service server. Authentication processing is performed by comparing the feature amount data held in the data storage unit 108 in the service server. If the feature quantity is not registered, a message indicating that the person is a non-registered person is created. Note that when the number of users of the local system 110 is limited to one, the authentication process can be omitted, and the personal ID can be associated with the device ID of the system. For example, when the local system 110 is a smartphone, a normal user can be identified by one person. Alternatively, the user may more simply input the ID and password, and use the input ID to link the personal ID. From this point on, processing is performed using the data unique to the person associated with the authenticated ID.

計測したデータはローカルシステム110にて画像データ処理を行い、前述のようにノイズの影響を弱めながら、代表色などの顔色特徴の情報、脈拍数、脈波伝播速度の算出t28を行う。結果は通信部103を介してネットワーク106経由でサービスサーバ107に送られる。送られてきたデータに対し、脈波伝播速度とその人の血圧推定用のパラメータt27を用いて血圧推定t29を行う。顔色特徴、脈拍数や脈波伝播速度、推定した血圧、計測時刻や場所の情報等のデータをデータ格納部108に格納するt30。この時、天気、気温、気圧、湿度などの環境データを併せて蓄積しても良い。これら環境データは、本システムにセンサを組み込んで実測してもよいし、簡易的に時刻及び場所情報を使って外部サービスから取得してもよい。これら環境データを併せて記録し、集まったデータを解析することで、ノイズを抑えてより精度の高い生体情報から体調変化の隠れた要因を見出すことが可能であり、本人の予防行動に結び付けるなど、新たな医学的知見を得たりすることができる。   The measured data is subjected to image data processing in the local system 110, and the facial color feature information such as the representative color, the pulse rate, and the pulse wave velocity are calculated t28 while reducing the influence of noise as described above. The result is sent to the service server 107 via the network 106 via the communication unit 103. A blood pressure estimation t29 is performed on the transmitted data using the pulse wave propagation speed and the parameter t27 for estimating the blood pressure of the person. Data such as facial color features, pulse rate and pulse wave velocity, estimated blood pressure, measurement time and location information is stored in the data storage unit t30. At this time, environmental data such as weather, temperature, atmospheric pressure, and humidity may be accumulated together. These environmental data may be actually measured by incorporating a sensor into the system, or may be obtained from an external service simply using time and location information. By recording these environmental data together and analyzing the collected data, it is possible to find the hidden factors of physical condition change from more accurate biological information by suppressing noise, and linked to the preventive action of the person New medical knowledge can be obtained.

これら最新のデータと過去の履歴データを用いて可視化処理t31を行う。ここで、データ格納部108に蓄積されている異常判定のアルゴリズム及び判定基準値に従い計測結果、あるいは計算した特徴量を用いて異常判定t32を行う。例えば、脈拍数の下限、上限、推定血圧の下限、上限を個人ごとに設定しておき、下限を下回った場合や上限を上回った場合に警告を出しあらかじめ設定された外部機関に通知を行う。この下限、上限は医師などにより、個人の特性を考慮して決められる。また、異常検知のアルゴリズムとして、さらに脈拍数や血圧の前回測定値から変化量、長期間平均値からの変化量、同様な時間帯における長期間平均からの変化量が予め定められた一定量以上になった場合を異常としてもよい。異常と判定された場合、加入外部サービス情報に基づき外部機関の情報システム109に異常通知t33を行う。外部機関109は、例として、病院、警備会社、家族の自宅などがある。図1では外部機関への通知をネットワーク経由としたが、電話回線など、生体情報を収集するためのネットワークと異なる手段を用いてもよい。このようにして、ノイズを抑えてより精度の高い生体情報の取得を起点として、個々人の体調管理を効率よく行うことが出来る。   Visualization processing t31 is performed using these latest data and past history data. Here, the abnormality determination t32 is performed using the measurement result or the calculated feature amount according to the abnormality determination algorithm and the determination reference value accumulated in the data storage unit. For example, the lower limit and upper limit of the pulse rate and the lower limit and upper limit of the estimated blood pressure are set for each individual, and a warning is issued when the lower limit is exceeded or the upper limit is exceeded, and a preset external organization is notified. The lower and upper limits are determined by a doctor or the like in consideration of individual characteristics. In addition, as an abnormality detection algorithm, the amount of change from the previous measured value of pulse rate and blood pressure, the amount of change from the long-term average value, the amount of change from the long-term average in the same time zone is more than a predetermined amount It is good also as abnormal when it becomes. If it is determined that there is an abnormality, an abnormality notification t33 is sent to the information system 109 of the external organization based on the subscribed external service information. Examples of the external organization 109 include a hospital, a security company, and a family home. In FIG. 1, the notification to the external organization is made via the network, but means different from the network for collecting biometric information such as a telephone line may be used. In this way, it is possible to efficiently manage the physical condition of an individual, starting from obtaining more accurate biological information while suppressing noise.

次に、異常な場合、正常な場合ともに、本人向けのメッセージを作成し、可視化処理結果とともにローカルシステム110の表示部104に表示する。ここで表示方法について説明する。   Next, a message for the user is created both in an abnormal case and in a normal case, and displayed on the display unit 104 of the local system 110 together with the visualization processing result. Here, a display method will be described.

図12は表示方法の一例を示したものである。撮影した顔画像の上に観察領域501、502、503の輪郭を重ねて描き、計測した脈波伝播速度に対応する速度で各領域内を順次色が変化する処理を行う。併せて計測結果から計算された脈拍数、推定血圧などの情報をメッセージ部t36に表示する。さらに、システムからのメッセージもメッセージ部t36に表示する。図12では、過去の履歴をグラフ表示する画面への切り替えアイコンt37、体調不良の自覚がある場合に外部に通知を行うためのアイコンt38を配置した。外部への通知アイコンt38を選択した場合、自動判定した異常通知のt33と同様に外部機関へ通知を行う。また、通知アイコンt38を選択した場合に通知先、通知内容などを選択する機能を用意しても良い。このようにして、観察領域と生体情報を把握すると同時に通知機能を用いたり、過去履歴も確認できる。   FIG. 12 shows an example of the display method. The outlines of the observation areas 501, 502, and 503 are drawn on the photographed face image, and the color is sequentially changed in each area at a speed corresponding to the measured pulse wave propagation speed. In addition, information such as the pulse rate and estimated blood pressure calculated from the measurement result is displayed on the message part t36. Further, a message from the system is also displayed in the message part t36. In FIG. 12, an icon t37 for switching to a screen displaying a past history as a graph and an icon t38 for notifying the outside when there is a consciousness of poor physical condition are arranged. When the notification icon t38 to the outside is selected, the notification is made to the external organization in the same manner as the automatically determined abnormality notification t33. In addition, when the notification icon t38 is selected, a function of selecting a notification destination, notification content, and the like may be prepared. In this way, the user can grasp the observation area and the biological information, and at the same time use the notification function or check the past history.

図13は直感的にわかり易い表示方法の他の例を示したものである。脈波伝播速度を表示するのに観察領域501、502、503そのものではなく、矢印t39で可視化を図ったものである。ここでも、例として、矢印の尾部t40から先端部t41にかけて脈波伝播速度と対応する速度で色が移動するように表示する。これにより直感的にわかりやすく血流を表示することが可能である。尚、ここでは矢印t39の形状としたが、長方形など他の形状でもよい。   FIG. 13 shows another example of a display method that is intuitively easy to understand. In order to display the pulse wave propagation velocity, visualization is made with the arrow t39 instead of the observation regions 501, 502, and 503 itself. Here, as an example, the display is performed so that the color moves from the tail part t40 of the arrow to the tip part t41 at a speed corresponding to the pulse wave propagation speed. This makes it possible to display blood flow intuitively and easily. In addition, although it was set as the shape of arrow t39 here, other shapes, such as a rectangle, may be sufficient.

図20は、計測結果の脈波形を図13とは異なる表示方法として、波形の形t52で示したものである。この脈波形は領域#1(501)の波形信号#1や領域#2の波形信号#2をそのまま表示すると、外光などによるノイズt53が乗ってしまい、見難い波形となり、また脈拍数や脈波伝播速度計算の妨げにもなる。本実施例の方法に従い差分波形t52を表示することで、ノイズを低減して見やすい波形が表示でき、併せて正確な脈拍数や脈波伝播速度計算が可能となる。   FIG. 20 shows the waveform of the measurement result as a waveform form t52 as a display method different from FIG. If the waveform signal # 1 in the region # 1 (501) or the waveform signal # 2 in the region # 2 is displayed as it is, the pulse waveform becomes difficult to see due to the noise t53 due to outside light, and the pulse rate and pulse It also interferes with wave propagation velocity calculations. By displaying the differential waveform t52 in accordance with the method of the present embodiment, it is possible to display a waveform that is easy to see by reducing noise, and at the same time, an accurate pulse rate and pulse wave velocity can be calculated.

グラフ表示する画面への切り替えアイコンt37を選択した場合の画面表示例を図22に示す。推定血圧を示したグラフである。医師等の指導を受けて設定した範囲1(t54)、範囲2(t55)、範囲3(t56)は各々血圧が低目である領域、正常領域、高めである領域を示している。血圧は日内変動を考慮し、一日朝晩の二回測るものとした。横軸は日付であり、血圧変動の傾向をグラフで把握することが可能である。この範囲に応じてメッセージ部t36に「血圧が高い可能性があります」などのメッセージを表示し、例えば血圧計によるより正確な計測の実施を促す。ここで図22の例では一週間程度の範囲を示しているが、より長期の範囲を表示しても良い。例えば、過去の血圧プロットを週の平均値などにして、プロット数を抑えて見やすさを保ちながらより長期の範囲を表示してもよい。このようにして、より正確な推定血圧の変動と所定の範囲との関係を、容易に理解する事が可能となる。   FIG. 22 shows a screen display example when the switch icon t37 to the screen for displaying the graph is selected. It is the graph which showed the estimated blood pressure. Range 1 (t54), range 2 (t55), and range 3 (t56) set under the guidance of a doctor or the like indicate a region where the blood pressure is low, a normal region, and a region where the blood pressure is high. The blood pressure was measured twice a day in the morning and evening, taking into account diurnal fluctuations. The horizontal axis is the date, and the tendency of blood pressure fluctuation can be grasped with a graph. In accordance with this range, a message such as “There is a possibility that blood pressure is high” is displayed on the message part t36, and for example, a more accurate measurement is urged by a blood pressure monitor. Here, although the range of about one week is shown in the example of FIG. 22, a longer range may be displayed. For example, a past blood pressure plot may be set to an average value for a week or the like, and a longer period range may be displayed while keeping the visibility by reducing the number of plots. In this way, it is possible to easily understand the more accurate relationship between the estimated blood pressure fluctuation and the predetermined range.

継続蓄積された生体情報は本人の他、本人が許可した人、組織が閲覧できることができるように権限管理を行う。例えば、持病があり、定期的に病院を受診する際に医師が前回受診から今回までの家庭における状態をチェックし、状態判断の補助に使う。血圧はその時々で変化し、日内変動もあることから、受診時の測定データのみを用いるのに比べて、より詳細に状態を把握することが出来るという特徴がある。また、一日に複数回計測を行うことにより、脈拍数や推定血圧の日内変動のテーブルを作成することが可能である。特に血圧の日内変動の特異パターンは、脳血管障害や心肥大などの合併症や臓器障害などの病気のリスクと関係があることがわかっているため、より正確な血圧変動の把握が容易になることは、病気のリスクの早期発見に効果がある。   The biometric information continuously stored is managed so that it can be viewed by the person or organization authorized by the person, in addition to the person himself / herself. For example, if you have chronic illness and regularly visit a hospital, a doctor checks the status of your home from the previous visit to this time and uses it to assist you in determining your status. Since blood pressure changes from time to time and there are daily fluctuations, it is characterized in that the state can be grasped in more detail than using only the measurement data at the time of consultation. Moreover, it is possible to create a table of daily fluctuations of the pulse rate and estimated blood pressure by measuring a plurality of times a day. In particular, it is known that the peculiar pattern of circadian variation in blood pressure is related to the risk of diseases such as complications such as cerebrovascular disorders and cardiac hypertrophy and organ disorders, making it easier to grasp blood pressure fluctuations more accurately. This is effective for early detection of the risk of illness.

図14は、本発明の実施例2に係る情報システムの機器構成を示した図である。本実施形態にかかる情報システムは、第一の撮像部N1、第二の撮像部N3、データ処理部N2よりなる。第一の撮像部N1は車室内に設置されたカメラであり、撮像対象N5は車などの乗り物のドライバである。第二の撮像部N3は車室内外に設置されたカメラであり、撮像対象N4は自車両周辺の車両、歩行者、および空・建物・道路などの背景である。車室内のカメラ映像は時間帯や天候の変化に起因する外乱の影響を受けるため、ノイズの影響を抑えて顔色を計測することが困難となる。本実施形態では、第二の撮像部N3によって外乱の要因となる時間帯や天候を判定し、それぞれに適したノイズ低減処理を行うことで好適に脈拍数や脈波伝播速度を測定する。以下、詳細な処理フローについて説明する。   FIG. 14 is a diagram illustrating a device configuration of the information system according to the second embodiment of the present invention. The information system according to the present embodiment includes a first imaging unit N1, a second imaging unit N3, and a data processing unit N2. The first imaging unit N1 is a camera installed in the vehicle interior, and the imaging target N5 is a driver of a vehicle such as a car. The second imaging unit N3 is a camera installed outside and inside the vehicle interior, and the imaging target N4 is a background of vehicles, pedestrians, sky, buildings, roads, etc. around the host vehicle. Since the camera image in the passenger compartment is affected by disturbance caused by changes in time zone and weather, it is difficult to measure the face color while suppressing the influence of noise. In the present embodiment, the second imaging unit N3 determines the time zone and the weather that cause the disturbance, and performs the noise reduction process suitable for each to suitably measure the pulse rate and the pulse wave velocity. Hereinafter, a detailed processing flow will be described.

図15に本実施形態におけるデータ処理部N2の動作処理のフローチャートを示す。   FIG. 15 shows a flowchart of the operation processing of the data processing unit N2 in this embodiment.

ステップN2001において、データ処理部N2は、第一の撮像部N1から出力された画像を読み込む。ステップN2002において、データ処理部N2は、例えば実施例1と同じ方法で顔領域を検出する。ステップN2003において、データ処理部N2は、前記ステップN2002で検出された顔領域近傍における座席領域(例えば、ヘッドレスト部や座席上部)を検出する。具体的には、まず工場出荷時やカメラ取り付け時に作成しておいた背景画像(ドライバが座ってない車室内画像)から、第一の撮像部N1から出力された画像を減算し、移動物体のみの画像を作成する。次に、第一の撮像部N1から出力された画像から、前記作成した移動物体のみの画像を減算し、静止物体のみの画像を作成する。最後に、前記作成した静止物体のみの画像から、ヘッドレストや座席上部に該当する注目領域を切り出して座席領域画像を作成する。   In step N2001, the data processing unit N2 reads the image output from the first imaging unit N1. In step N2002, the data processing unit N2 detects the face area by the same method as in the first embodiment, for example. In step N2003, the data processing unit N2 detects a seat area (for example, a headrest part or an upper seat) in the vicinity of the face area detected in step N2002. Specifically, first, the image output from the first imaging unit N1 is subtracted from the background image (vehicle interior image where the driver is not sitting) created at the time of factory shipment or camera installation, and only the moving object is subtracted. Create an image of Next, the image of only the moving object created is subtracted from the image output from the first imaging unit N1, thereby creating an image of only a stationary object. Finally, a region of interest corresponding to the headrest or the upper part of the seat is cut out from the created image of only the stationary object to create a seat region image.

ステップN2004〜N2007では車室外カメラ画像の処理を行う。ステップN2004において、データ処理部N2は、第二の撮像部N3から出力された画像を読み込む。ステップN2002において、データ処理部N2は、画像の平均輝度の時系列変化を解析して時間帯(昼/夜)を判定する。例えば、平均輝度が一定時間低い状態が続く場合は夜と判定する。朝/昼/夕/夜のように利用環境にあわせて細分化して判定することも可能である。ステップN2006において、データ処理部N2は、雨滴や高輝度領域、スミア(白飛び)の有無などを解析して天候(晴/雨)を判定する。例えば、レンズ表面に水滴が付着する場合は雨と判定し、太陽光によるスミアが発生する場合は快晴と判定する。この場合も、晴/曇/雨/霧のように細分化して判定してもよい。ステップN2007において、データ処理部N2は、前記判定された時間帯や天候別の座席領域画像として予め作成されている画像又は生成される画像を参照画像として読み込む。   In steps N2004 to N2007, the camera image outside the vehicle compartment is processed. In step N2004, the data processing unit N2 reads the image output from the second imaging unit N3. In step N2002, the data processing unit N2 determines a time zone (day / night) by analyzing a time-series change in the average luminance of the image. For example, when the average luminance continues to be low for a certain time, it is determined that the night. It is also possible to subdivide and judge according to the usage environment such as morning / daytime / evening / night. In step N2006, the data processing unit N2 determines the weather (sunny / rainy) by analyzing the presence of raindrops, high-intensity areas, smear (out-of-white), and the like. For example, when a water droplet adheres to the lens surface, it is determined as rain, and when smear due to sunlight occurs, it is determined as clear. Also in this case, it may be determined by subdividing such as clear / cloudy / rain / mist. In step N2007, the data processing unit N2 reads, as a reference image, an image created in advance as a seat area image for each determined time zone or weather, or a generated image.

ステップN2008において、データ処理部N2は、前記読み込んだ参照画像と前記作成した座席領域画像の平均輝度差分を算出することで、現在の顔画像にのったノイズ成分を算出する。また、座席領域画像は対応付けた時間帯・天候別にRAMに保存しておく。ステップN2009において、データ処理部N2は、顔画像から前記算出したノイズ成分(RGB輝度値)を減算する。ステップN2010において、データ処理部N2は、実施例1で記述した方法により脈波や血圧値を算出する。   In step N2008, the data processing unit N2 calculates an average luminance difference between the read reference image and the created seat area image, thereby calculating a noise component on the current face image. Also, the seat area image is stored in the RAM according to the associated time zone and weather. In step N2009, the data processing unit N2 subtracts the calculated noise component (RGB luminance value) from the face image. In step N2010, the data processing unit N2 calculates a pulse wave and a blood pressure value by the method described in the first embodiment.

以上説明した実施例2では、第二の撮像部を設けて天候・時間帯を解析することで、顔色にのったノイズ成分を算出できるため、外乱の大きい車載システム上でもさらに好適に血圧値を算出することができる。また、本実施例で説明した血圧算出方法を用いることで、運転前の健康状態チェックシステムや、運転中の異常検知システムなどとして活用することができる。   In the second embodiment described above, since the noise component on the face color can be calculated by providing the second imaging unit and analyzing the weather / time zone, the blood pressure value is more preferably used even on an in-vehicle system with a large disturbance. Can be calculated. Further, by using the blood pressure calculation method described in the present embodiment, it can be used as a health check system before driving, an abnormality detection system during driving, and the like.

図16は、本発明の実施例3に係る情報システムの撮像部を説明する図である。撮像部(カメラ部)t7は赤外線カメラである。情報システムにはこの撮像部t7の他に、実施例1で述べたデータ処理部102や表示部104、通信部103などを含んでいる。赤外線カメラは暗い場所でも撮影可能である。赤外線領域の光を検知して撮影した画像であっても、撮影した画像のデータ処理は実施例1と同様に行えばよい。周囲が暗い状況では信号強度が小さく、従ってノイズ耐性が下がるため、本発明がより有効である。また、周囲を含め明瞭な画像を得るためには、赤外線照射器t6と組み合わせても良い。周囲環境が明るくなくても計測可能であることから、ベッドに横たわった人t8の常時モニタリングに適する。例えば、入院患者や家庭や介護施設での就寝時の常時モニタリングを行うことができる。また、赤外線照射器をランダムドットパターンにすることで、既知のデプスカメラ技術による三次元計測が可能となる。この場合は、胸部形状の時系列変化を観測できるため、前記と同様の周波数解析手法によって呼吸数を計測することができる。   FIG. 16 is a diagram illustrating the imaging unit of the information system according to the third embodiment of the present invention. The imaging unit (camera unit) t7 is an infrared camera. In addition to the imaging unit t7, the information system includes the data processing unit 102, the display unit 104, the communication unit 103, and the like described in the first embodiment. An infrared camera can shoot in dark places. Even for an image captured by detecting light in the infrared region, data processing of the captured image may be performed in the same manner as in the first embodiment. The present invention is more effective because the signal strength is small in a dark environment and the noise resistance is reduced. Further, in order to obtain a clear image including the surroundings, it may be combined with the infrared irradiator t6. Since it can be measured even if the surrounding environment is not bright, it is suitable for constant monitoring of the person t8 lying on the bed. For example, it is possible to perform continuous monitoring at the time of going to bed in an inpatient, a home or a care facility. In addition, by using an infrared irradiator as a random dot pattern, three-dimensional measurement using a known depth camera technique becomes possible. In this case, since the time series change of the chest shape can be observed, the respiration rate can be measured by the same frequency analysis method as described above.

図17は、本発明の実施例4に係る情報システムの撮像部とデータ処理部とを説明する図である。撮像部(カメラ部)101と赤外線センサアレイt9の組合せになっている。ここでは例として焦電素子を用いた赤外線センサを8×8のマトリックス状に並べたセンサアレイを用いた。素子の種別やセンサアレイの個数、並べ方は左記と異なっていても良い。撮像部(カメラ部)1と赤外線センサアレイt9は軸を合わせ、同じ方向を撮影するように調整を行っている。 焦電素子はキャリブレーションを行うことで対象物の温度を測ることができる。従って、ここまで述べた実施例1乃至3記載の方法でノイズを抑えた上で計測される脈拍数、推定血圧、呼吸数に加え、体表面温度を計測することが可能であり、基本的なバイタル情報を取得可能である。尚、ここでは赤外線センサとして焦電素子を用いたが、他の方式の赤外線センサを用いても良い。ここで、体表面温度は所謂体温と異なり、外気の影響を受けるため正確性は劣るが、体温と強い相関を持つのは明らかである。従って発熱などの健康状態の変化を捉えることができる。特に、毎回同じ部位の体表面をモニタすることで変化を捉えることは体調の変化の検知に有効である。   FIG. 17 is a diagram for explaining the imaging unit and the data processing unit of the information system according to the fourth embodiment of the present invention. The combination is an imaging unit (camera unit) 101 and an infrared sensor array t9. Here, as an example, a sensor array in which infrared sensors using pyroelectric elements are arranged in an 8 × 8 matrix is used. The type of element, the number of sensor arrays, and how to arrange them may be different from those on the left. The imaging unit (camera unit) 1 and the infrared sensor array t9 are aligned so that the images are taken in the same direction. The pyroelectric element can measure the temperature of the object by performing calibration. Therefore, it is possible to measure the body surface temperature in addition to the pulse rate, the estimated blood pressure, and the respiratory rate that are measured while suppressing noise by the methods described in the first to third embodiments. Vital information can be acquired. Although a pyroelectric element is used here as an infrared sensor, other types of infrared sensors may be used. Here, the body surface temperature is different from so-called body temperature and is affected by the outside air, so the accuracy is inferior, but it is clear that it has a strong correlation with the body temperature. Therefore, changes in health conditions such as fever can be captured. In particular, capturing changes by monitoring the body surface of the same part each time is effective in detecting changes in physical condition.

カメラの像とセンサアレイで得られる像t11を重ね併せて表示した例を図18に示す。カメラ画像に対して顔認識を行った結果t10も重ねて示している。部位に対する画像認識結果を用いることで、赤外線センサがどの部位の温度を計測しているかの対応付けが可能になる。従って、部位やマトリックスの位置を選択する入力を受付け、8×8のマトリックスの中から所望の部位に対応する測定結果を使う。ここでは、額に対応する部位t12及びt13の計測結果の平均を用いて体調のモニタリングに使った。他の部位、例えば頬や横を向いたときの首筋などをモニタに用いても良く、測定部位の情報とともに蓄積する。   FIG. 18 shows an example in which the camera image and the image t11 obtained by the sensor array are displayed in a superimposed manner. The result t10 of face recognition on the camera image is also shown. By using the image recognition result for the part, it is possible to associate which part the temperature is measured by the infrared sensor. Therefore, an input for selecting the position of the part or the matrix is accepted, and the measurement result corresponding to the desired part is used from the 8 × 8 matrix. Here, the average of the measurement results of the parts t12 and t13 corresponding to the forehead was used to monitor the physical condition. Other parts, such as the cheeks or the neck when facing sideways, may be used for the monitor, and are stored together with the information on the measurement part.

本実施例のシステムは遠隔でノイズを低減しながら生体情報を取得できるため、遠隔医療にも適する。例えばテレビ電話で医師と遠隔で会話する際に、計測情報を医師側に表示することで、医師が定量的な状態データを把握しながら問診等を行うことができる。また、蓄積した情報も表示することで、前回会話してから今回までの間の情報を把握することができ、より対象者の状態を正確に把握することができるという特徴がある。   Since the system of this embodiment can acquire biological information while reducing noise remotely, it is also suitable for telemedicine. For example, when talking remotely with a doctor on a videophone, the measurement information is displayed on the doctor side, so that the doctor can make an inquiry while grasping quantitative state data. In addition, by displaying the accumulated information, it is possible to grasp information from the previous conversation until this time, and more accurately grasp the state of the target person.

非接触でノイズを低減しながら生体情報が取れることは、例えばウイルス感染の治療の際にも有効である。医師や看護師などのスタッフは患者に触れることなく情報を取得することが可能である。また、常時情報を取得できるため、異変が起きた際に早期に自動検出することが可能であり、迅速な対処ができるという特徴がある。類似の使用方法として、インフルエンザ流行時の一次スクリーニングがある。感染が疑われる来院者を隔離した小部屋にて本実施例のシステムでバイタルチェックを行い、インフルエンザが疑われる人と、通常の風邪などの患者を振り分けて別の部屋に通すことで、インフルエンザに罹っていない人とインフルエンザ患者の接触を防ぐことが出来、病院での感染を防ぐことが可能である。また、病院等の小部屋ではなく、本実施例のシステムを家庭に置いて判断を行っても良い。また、この際に病院窓口もインフルエンザ対応の窓口とそれ以外の窓口を分けるとよい。病院に行く前に判断をつけることで、始めから適切な窓口に向かうことで、やはり病院での感染を防ぐことが可能である。さらに、病院の待合室に本実施例のシステムを設置し、診察前にバイタル情報のチェックを行うことも有効である。来院者の負担少なくノイズを低減した上でバイタル情報のチェックを行うことが出来、さらに病院側としては診察時に熱や脈などを測る手間が省けるため、診察効率を上げることが可能である。   Taking biometric information while reducing noise without contact is also effective, for example, in the treatment of virus infection. Staff such as doctors and nurses can obtain information without touching the patient. In addition, since the information can always be acquired, it is possible to automatically detect early when an abnormality occurs, and to take quick action. A similar method of use is primary screening during influenza epidemics. In a small room that isolates a visitor who is suspected of being infected, a vital check is performed using the system of this example, and the person who is suspected of influenza and a patient with a common cold are separated and passed to another room. It can prevent contact between an unaffected person and an influenza patient, and can prevent infection in a hospital. Further, instead of a small room such as a hospital, the system of this embodiment may be placed at home to make a determination. At this time, it is advisable to separate the hospital counter for influenza and other counters. By making judgments before going to the hospital, it is possible to prevent infection in the hospital by going to the appropriate window from the beginning. Furthermore, it is also effective to install the system of this embodiment in a waiting room of a hospital and check vital information before the examination. Vital information can be checked after reducing noise with less burden on the visitor, and the hospital side can save time and effort to measure heat and pulse at the time of the examination, so the examination efficiency can be improved.

図19は図17に示したシステムを人などを対象とした見守り用のロボット(以下、見守りロボット)と一体に組み込んだ例である。見守りロボットt40は、カメラ101、赤外線センサアレイt9、表示部104を有し、さらにマイクt41、スピーカt42、薬の取り出し口t43、通信部t44を備えている。データ処理部を内部に有しても良いし、通信部104を介して外部に情報を送信し、外部にて処理された情報を取得して表示部104に表示しても良い。ロボットは対話機能を有し、これにより一定時間観察対象者がロボットに正対することになるため、画像を撮影することで生体情報を取得できる。図19には居間などでの据え置き型のロボットの例を示したが、移動機能を有してもよい。移動機能があれば、異なる生活シーンにおいて画像情報を取得することが可能となり、より多くの情報を取得できるという特徴がある。また、カメラから取得する画像データにおける顔の対称度などを評価し、予め定められた条件を満たすように撮影に適した位置にカメラを移動させることが可能である。このようにして日当たりや振動など画像に多くのノイズが乗る環境を可能な限り避けて撮影することが可能であり、予めノイズの影響を下げた環境下のカメラを用いて、実施例1〜3の手法でさらにノイズを低減して生体情報を取得する事が可能である。   FIG. 19 shows an example in which the system shown in FIG. 17 is integrated with a watching robot (hereinafter referred to as watching robot) for a person or the like. The watching robot t40 includes a camera 101, an infrared sensor array t9, and a display unit 104, and further includes a microphone t41, a speaker t42, a medicine outlet t43, and a communication unit t44. A data processing unit may be included inside, or information may be transmitted to the outside via the communication unit 104, and information processed outside may be acquired and displayed on the display unit 104. Since the robot has an interactive function, the observation target person faces the robot for a certain period of time, so that biological information can be acquired by taking an image. FIG. 19 shows an example of a stationary robot in a living room or the like, but it may have a moving function. If there is a moving function, it is possible to acquire image information in different life scenes, and there is a feature that more information can be acquired. Further, the degree of symmetry of the face in the image data acquired from the camera can be evaluated, and the camera can be moved to a position suitable for photographing so as to satisfy a predetermined condition. In this way, it is possible to shoot while avoiding as much as possible an environment where a lot of noise is on the image, such as sunlight and vibration, and using the camera in an environment where the influence of noise has been reduced in advance, Embodiments 1 to 3 are used. It is possible to obtain biometric information by further reducing noise by this method.

次に服薬支援機能について説明する。例えばヘルパーや調剤薬局のスタッフが見守りロボット内部に必要な薬をセットしておく。薬を飲む時間になると、ロボットがスピーカt42から音声で呼びかけ、表示部104への表示を行う。本人がロボットt40の前に来て画像認証等で本人確認ができると薬の取り出し口から一回の服薬する分量の薬が出て来て、服薬履歴に記録を行う。ここで、例えば同居している夫婦で各々服薬している場合などがあるため、本人認証を行うことで、同じ服薬ロボットを使いながらも相互に誤って薬を飲んでしまうことを回避することができる。服薬履歴や現在どのくらいの薬がロボット内部に残っているかの情報は通信部を介して外部に送信され、ヘルパーや調剤薬局、かかりつけの医師等が遠隔にて確認することができる。本システムではノイズを抑制してバイタル情報を取得できるのに加え、マイクt41を用いて音声情報を取得できる。他の情報と同様に音声の特徴量も継続記録することで、より多くの情報から体調変化を捉えることが出来、異常検出の精度が向上する。このように、服薬履歴とノイズの影響を抑えた高精度な生体情報を継続的に蓄積したデータが取得でき、データ解析を行うことで中長期の服薬の効果や副作用を解析することが可能である。   Next, the medication support function will be described. For example, a helper or a dispensary pharmacy staff watches and sets necessary medicines inside the robot. When it is time to take medicine, the robot calls out from the speaker t42 and displays on the display unit 104. When the person arrives in front of the robot t40 and can confirm the identity by image authentication or the like, the amount of medicine to be taken once comes out from the medicine outlet and records in the medication history. Here, for example, there are cases where couples who live together are taking medicine, so by performing identity authentication, it is possible to avoid taking medicine by mistake while using the same medication robot it can. Information on the medication history and how much medicine is currently left inside the robot is transmitted to the outside via the communication unit, and can be remotely confirmed by a helper, a dispensing pharmacy, a family doctor, or the like. In addition to being able to acquire vital information while suppressing noise, this system can acquire audio information using the microphone t41. By continuously recording the feature amount of the voice as well as other information, it is possible to capture the physical condition change from more information, and the accuracy of abnormality detection is improved. In this way, it is possible to obtain data that continuously accumulates highly accurate biological information that suppresses the influence of medication history and noise, and it is possible to analyze the effects and side effects of medium- to long-term medication by performing data analysis. is there.

101 撮像部、102 データ処理部、
103 通信部、104 表示部、105 観察対象、106 ネットワーク
107 サービスサーバ、108 データ格納部、109 外部機関
301 血流方向、302 外光などのノイズ源
303、304 計測領域、305、306 代表色算出処理
307、308 基本波抽出処理、309 減算器、310 周波数推定処理
101 imaging unit, 102 data processing unit,
103 Communication unit, 104 Display unit, 105 Observation target, 106 Network
107 Service server, 108 Data storage, 109 External organization
301 Blood flow direction, 302 Noise sources such as external light
303, 304 Measurement area, 305, 306 Representative color calculation processing
307, 308 fundamental wave extraction processing, 309 subtractor, 310 frequency estimation processing

Claims (15)

色情報を含む画像データの入力を受け付け、前記画像データに基づいて生体情報を出力するデータ処理部を備え、
前記データ処理部は、前記色情報に基づき複数領域における代表色を各々算出する代表色算出部と、
前記代表色に基づき前記複数領域における前記代表色の時間変化を示す基本波を各々抽出する基本波抽出部と、
前記複数領域のうち近接する領域間において前記基本波の差信号を算出し、前記差信号の周波数に基づいて脈拍情報を算出する脈拍情報算出部と、
前記脈拍情報を前記生体情報として出力する出力部と、
を備えることを特徴とする生体情報分析システム。
A data processing unit that receives input of image data including color information and outputs biometric information based on the image data;
The data processing unit is configured to calculate a representative color in each of a plurality of regions based on the color information;
A fundamental wave extraction unit that extracts a fundamental wave indicating temporal change of the representative color in the plurality of regions based on the representative color;
Calculating a difference signal of the fundamental wave between adjacent regions of the plurality of regions, and calculating a pulse information based on a frequency of the difference signal;
An output unit for outputting the pulse information as the biological information;
A biological information analysis system comprising:
請求項1に記載の生体情報分析システムであって、
前記画像データは顔部位のデータを含み、
前記データ処理部は、前記顔部位内の鼻の長手方向に沿った軸を抽出する軸抽出部をさらに備え、
前記代表色算出部は、前記複数領域を、前記軸の垂直方向に沿って前記軸の両側で前記軸から略等距離の位置に各々2箇所設定し、
前記代表色の算出の際には、前記複数領域のうち、前記軸の両側に設けられ且つ前記軸から略等距離の領域同士の代表色を用いて算出することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 1,
The image data includes facial part data,
The data processing unit further includes an axis extracting unit that extracts an axis along the longitudinal direction of the nose in the face part,
The representative color calculation unit sets the plurality of regions at two positions at approximately equal distances from the axis on both sides of the axis along the vertical direction of the axis,
When calculating the representative color, the biological information analysis system is characterized in that, among the plurality of regions, the representative color is calculated using representative colors of regions provided on both sides of the axis and substantially equidistant from the axis. .
請求項1に記載の生体情報分析システムであって、
前記データ処理部は、
前記顔部位内の鼻の長手方向に沿った軸を抽出する軸抽出部と、
前記軸の抽出において前記顔の形状と血流量の何れか又は両方に基づいた対称度を算出する対称度算出部と、をさらに備え、
前記代表色算出部は、前記対称度が予め定められた閾値よりも高い場合に、前記軸の垂直方向に沿って前記軸の両側で前記軸から略等距離の位置に前記複数領域を各々2箇所設定し、
前記代表色の算出の際に、前記軸の両側に設けられた前記軸から略等距離の2領域の代表色用いて算出することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 1,
The data processing unit
An axis extraction unit for extracting an axis along the longitudinal direction of the nose in the face part;
A degree-of-symmetry calculator that calculates a degree of symmetry based on either or both of the face shape and blood flow in the extraction of the axis, and
The representative color calculation unit sets each of the plurality of regions to two positions at approximately equidistant positions on both sides of the axis along the vertical direction of the axis when the degree of symmetry is higher than a predetermined threshold. Set the location,
The biological information analysis system according to claim 1, wherein the representative color is calculated using representative colors of two regions that are substantially equidistant from the axis provided on both sides of the axis.
色情報を含む画像データの入力を受け付け、前記画像データに基づいて生体情報を出力するデータ処理部を備え、
前記データ処理部は、前記色情報に基づき複数領域における代表色を各々算出する代表色算出部と、
前記代表色に基づき前記複数領域における前記代表色の時間変化を示す基本波を各々抽出する基本波抽出部と、
前記複数領域のうち近接する領域間において前記基本波の差信号を二つ算出し、前記算出された二つの差信号の間の位相差を算出し、前記複数領域間の距離を算出し、前記位相差と前記距離とに基づいて前記脈拍伝搬速度を算出し、前記脈拍伝搬速度に基づいて前記血圧を算出する血圧算出部と、
前記血圧を前記生体情報として出力する出力部と、
を備えることを特徴とする生体情報分析システム。
A data processing unit that receives input of image data including color information and outputs biometric information based on the image data;
The data processing unit is configured to calculate a representative color in each of a plurality of regions based on the color information;
A fundamental wave extraction unit that extracts a fundamental wave indicating temporal change of the representative color in the plurality of regions based on the representative color;
Calculate two difference signals of the fundamental wave between adjacent regions of the plurality of regions, calculate a phase difference between the two calculated difference signals, calculate a distance between the plurality of regions, A blood pressure calculation unit that calculates the pulse propagation velocity based on the phase difference and the distance, and calculates the blood pressure based on the pulse propagation velocity;
An output unit for outputting the blood pressure as the biological information;
A biological information analysis system comprising:
請求項4に記載の生体情報分析システムであって、
前記画像データは顔部位に関するデータを含み、
前記代表色算出部は、前記画像データから前記顔部位内の鼻の長手方向に沿った軸を抽出し、前記複数領域を前記軸の片側に前記軸の垂直方向に沿って接する3領域として設定し、前記色情報に基づいて前記複数領域の各々について前記代表色を算出することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 4,
The image data includes data relating to a facial part,
The representative color calculation unit extracts an axis along the longitudinal direction of the nose in the face part from the image data, and sets the plurality of areas as three areas that contact one side of the axis along the vertical direction of the axis. And the representative color is calculated for each of the plurality of regions based on the color information.
請求項4に記載の生体情報分析システムであって、
前記画像データは顔部位に関するデータと、顔以外の部位である顔外部位に関するデータと、を含み、
前記代表色算出部は、前記画像データから、前記複数領域を前記顔部位と前記顔外部位とにおいてそれぞれ2領域以上設定し、前記設定の際には、前記顔部位内の複数領域と前記顔外部位内の複数領域とを前記複数領域の各々における血流方向に沿って2領域以上並べ、前記色情報に基づいて前記顔部位と前記顔外部位とにおける各領域の代表色を算出し、
前記血圧算出部は、前記算出された基本波に基づき、前記顔部位内の複数領域における差信号である顔部位の差信号と、前記顔外部位内の複数領域における差信号である顔外部位の差信号と、を算出し、
前記顔部位の差信号と前記顔外部位の差信号との間の位相差を算出し、前記顔部位と前記顔外部位の距離を算出し、前記位相差と前記距離とに基づいて脈拍伝搬速度を算出し、前記脈拍伝搬速度に基づいて前記血圧を算出することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 4,
The image data includes data relating to a facial part, and data relating to a face external position that is a part other than the face,
The representative color calculation unit sets two or more regions in the face part and the face external position from the image data, and sets the plurality of regions in the face part and the face in the setting. Arranging two or more regions along the blood flow direction in each of the plurality of regions, and calculating a representative color of each region in the face part and the face external position based on the color information,
The blood pressure calculation unit, based on the calculated fundamental wave, a facial part difference signal that is a difference signal in a plurality of regions within the facial part and a facial external position that is a difference signal in a plurality of regions within the facial external position. And the difference signal of
Calculating a phase difference between the difference signal of the facial part and the difference signal of the external face position, calculating a distance between the facial part and the external face position, and transmitting a pulse based on the phase difference and the distance A biological information analysis system characterized by calculating a velocity and calculating the blood pressure based on the pulse propagation velocity.
請求項1に記載の生体情報分析システムであって、
前記画像データは指部位の画像データを含み、
前記複数領域は前記指部位における領域を含み、
前記データ処理部は、前記指部位の画像データに基づき個人認証を行い、前記認証された個人と前記生体情報とを関連づけて出力することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 1,
The image data includes image data of a finger part,
The plurality of regions includes a region in the finger part,
The biometric information analysis system, wherein the data processing unit performs personal authentication based on image data of the finger part, and outputs the authenticated individual and the biometric information in association with each other.
請求項4に記載の生体情報分析システムであって、
前記画像データは指部位の画像データと、手首部位の画像データとを含み、
前記代表色算出部は、前記複数領域を、前記指部位と前記手首部位とにおいてそれぞれ2領域以上設定し、
前記設定の際には、前記指部位内の複数領域と前記手首部位内の複数領域とを前記複数領域の各々における血流方向に沿って2領域以上並べ、
前記色情報に基づいて前記指部位と前記手首部位とにおける各領域の代表色を各々算出し、
前記血圧算出部は、前記算出された基本波に基づき、前記指部位内の複数領域における差信号である指部位の差信号と、前記手首部位内の複数領域における差信号である手首部位の差信号と、を算出し、
前記出力部は、前記指部位の画像データに基づき個人認証を行い、前記認証された個人と前記血圧とを互いに関連づけて出力することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 4,
The image data includes image data of a finger part and image data of a wrist part,
The representative color calculation unit sets the plurality of regions in two or more regions in the finger part and the wrist part,
In the setting, a plurality of regions in the finger region and a plurality of regions in the wrist region are arranged in two or more regions along the blood flow direction in each of the plurality of regions,
Based on the color information, to calculate the representative color of each region in the finger part and the wrist part, respectively,
The blood pressure calculation unit, based on the calculated fundamental wave, a difference between a finger part that is a difference signal in a plurality of areas in the finger part and a difference between a wrist part that is a difference signal in a plurality of areas in the wrist part Signal, and
The output unit performs personal authentication based on image data of the finger part, and outputs the authenticated individual and the blood pressure in association with each other.
請求項6に記載の生体情報分析システムであって、
前記顔外部位は手のひらの部位であって、
前記画像データは一つの撮像装置にて撮像されていることを特徴とする生体情報分析システム。
The biological information analysis system according to claim 6,
The face external position is a palm part,
The biological information analysis system, wherein the image data is captured by a single imaging device.
請求項1に記載の生体情報分析システムであって、
前記データ処理部は、前記生体情報が予め定められた条件を満たさない場合、異常状態であることを通知することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 1,
The data processing unit is characterized by notifying that the biological information is in an abnormal state when the biological information does not satisfy a predetermined condition.
請求項10に記載の生体情報分析システムであって、
前記データ処理部は、前記複数領域と、前記生体情報と、異常状態であることを通知する異常送信アイコンと、を画面に表示することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 10,
The data processing unit displays the plurality of areas, the biological information, and an abnormal transmission icon for notifying an abnormal state on a screen.
請求項1に記載の生体情報分析システムであって、
前記データ処理部は、前記差信号を出力することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 1,
The biological information analysis system, wherein the data processing unit outputs the difference signal.
請求項1に記載の生体情報分析システムであって、
前記画像データは乗り物内に関する第一の画像データと、乗り物外に関する第二の画像データと、を含み、
前記第一の画像データは顔部位に関するデータを含み、
前記データ処理部は、
前記第一の画像データから座席領域を検出し、
前記第二の画像データから時刻情報と天候情報の何れか又は両方を取得し、前記時刻情報又は天候情報の何れか又は両方に基づいて参照画像を読み込み、
前記参照画像を用いて前記第一の画像データの座席領域の画像データを補正し、
前記補正された座席領域の画像データに基づいて、前記生体情報を出力することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 1,
The image data includes first image data relating to the inside of the vehicle, and second image data relating to the outside of the vehicle,
The first image data includes data relating to a facial part,
The data processing unit
Detecting a seating area from the first image data;
Obtain either or both of the time information and weather information from the second image data, read a reference image based on either or both of the time information and weather information,
Correcting the image data of the seat area of the first image data using the reference image,
The biological information analysis system, wherein the biological information is output based on the corrected image data of the seat area.
請求項1に記載の生体情報分析システムであって、
さらに赤外線センサアレイを備え、
前記データ処理部は、前記赤外線センサアレイから領域と前記領域における温度を含む温度情報を取得し、前記温度情報と前記生体情報とを出力することを特徴とする生体情報分析システム。
The biological information analysis system according to claim 1,
In addition, an infrared sensor array
The data processing unit acquires a temperature information including a region and a temperature in the region from the infrared sensor array, and outputs the temperature information and the biological information.
請求項3に記載の生体情報分析システムであって、
さらに前記画像データを撮像する撮像部と、前記撮像部を移動させる移動部とを備え、
前記移動部は、前記対称度が予め定められた値よりも低い場合、前記撮像部を移動させることを特徴とする生体情報分析システム。
The biological information analysis system according to claim 3,
Furthermore, an imaging unit that images the image data, and a moving unit that moves the imaging unit,
The biological information analysis system, wherein the moving unit moves the imaging unit when the degree of symmetry is lower than a predetermined value.
JP2017511431A 2015-04-10 2015-04-10 Biological information analysis system Active JP6329696B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/061184 WO2016163019A1 (en) 2015-04-10 2015-04-10 Biological information analyzing system

Publications (2)

Publication Number Publication Date
JPWO2016163019A1 true JPWO2016163019A1 (en) 2017-08-10
JP6329696B2 JP6329696B2 (en) 2018-05-23

Family

ID=57072345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017511431A Active JP6329696B2 (en) 2015-04-10 2015-04-10 Biological information analysis system

Country Status (2)

Country Link
JP (1) JP6329696B2 (en)
WO (1) WO2016163019A1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6817782B2 (en) * 2016-10-31 2021-01-20 三星電子株式会社Samsung Electronics Co.,Ltd. Pulse detection device and pulse detection method
CN109982633B (en) * 2016-11-10 2022-06-07 夏普株式会社 Pulse detection device, image analysis device, and biological information generation system
JP2018153555A (en) * 2017-03-21 2018-10-04 パナソニックIpマネジメント株式会社 Pulse wave velocity measurement system, imaging device and pulse wave velocity measurement method
JP6796525B2 (en) * 2017-03-23 2020-12-09 株式会社日立製作所 Image processing equipment, image processing system and image processing method
JP7054800B2 (en) * 2017-04-26 2022-04-15 パナソニックIpマネジメント株式会社 Deep body temperature measuring device, deep body temperature measuring system and deep body temperature measuring method
JP7056008B2 (en) * 2017-04-27 2022-04-19 コニカミノルタ株式会社 Physical condition analyzer and the program
JP7068339B2 (en) * 2017-12-15 2022-05-16 シャープ株式会社 Blood pressure measuring device and blood pressure measuring method
US11864875B2 (en) 2018-04-23 2024-01-09 Sharp Kabushiki Kaisha Data analysis device
JP7364179B2 (en) * 2019-01-29 2023-10-18 新東工業株式会社 robot
JP2020162873A (en) * 2019-03-29 2020-10-08 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program
CN113939226A (en) * 2019-06-07 2022-01-14 大金工业株式会社 Determination system
JP6778348B1 (en) * 2020-05-19 2020-10-28 株式会社イーバイピー Palm vein identification device with body temperature measurement function
WO2022137555A1 (en) * 2020-12-25 2022-06-30 株式会社ソニー・インタラクティブエンタテインメント Pulse detection device and pulse detection method
WO2023127623A1 (en) * 2021-12-28 2023-07-06 シャープ株式会社 Terminal device
WO2023189154A1 (en) * 2022-03-28 2023-10-05 テルモ株式会社 Intracardiac pressure estimation device, intracardiac pressure estimation system, intracardiac pressure estimation method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007313358A (en) * 2007-08-07 2007-12-06 Hitachi Ltd Apparatus
WO2012073016A1 (en) * 2010-11-30 2012-06-07 University Of Lincoln A response detection system and associated methods
US20130046192A1 (en) * 2011-08-19 2013-02-21 Yue-Der LIN Image-based pwv measurement device and method
WO2014030439A1 (en) * 2012-08-20 2014-02-27 オリンパス株式会社 Biological state-monitoring system, biological state-monitoring method, and program
JP2014188237A (en) * 2013-03-27 2014-10-06 Fujitsu Ltd Pulse wave detection device, pulse wave detection method, and pulse wave detection program
JP2014198198A (en) * 2013-03-29 2014-10-23 富士通株式会社 Blood flow index calculation program, blood flow index calculation device, and blood flow index calculation method
WO2015045554A1 (en) * 2013-09-26 2015-04-02 シャープ株式会社 Bio-information-acquiring device and bio-information-acquiring method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007313358A (en) * 2007-08-07 2007-12-06 Hitachi Ltd Apparatus
WO2012073016A1 (en) * 2010-11-30 2012-06-07 University Of Lincoln A response detection system and associated methods
US20130046192A1 (en) * 2011-08-19 2013-02-21 Yue-Der LIN Image-based pwv measurement device and method
WO2014030439A1 (en) * 2012-08-20 2014-02-27 オリンパス株式会社 Biological state-monitoring system, biological state-monitoring method, and program
JP2014188237A (en) * 2013-03-27 2014-10-06 Fujitsu Ltd Pulse wave detection device, pulse wave detection method, and pulse wave detection program
JP2014198198A (en) * 2013-03-29 2014-10-23 富士通株式会社 Blood flow index calculation program, blood flow index calculation device, and blood flow index calculation method
WO2015045554A1 (en) * 2013-09-26 2015-04-02 シャープ株式会社 Bio-information-acquiring device and bio-information-acquiring method

Also Published As

Publication number Publication date
WO2016163019A1 (en) 2016-10-13
JP6329696B2 (en) 2018-05-23

Similar Documents

Publication Publication Date Title
JP6329696B2 (en) Biological information analysis system
JP6727599B2 (en) Biometric information display device, biometric information display method, and biometric information display program
US10113913B2 (en) Systems for collecting thermal measurements of the face
US11154203B2 (en) Detecting fever from images and temperatures
US9854976B2 (en) Pulse wave velocity measurement method
JP6268193B2 (en) Pulse wave measuring device, portable device, medical device system, and biological information communication system
US10791938B2 (en) Smartglasses for detecting congestive heart failure
EP3057486B1 (en) Automatic camera adjustment for remote photoplethysmography
EP3229676A1 (en) Method and apparatus for physiological monitoring
US11850026B2 (en) Remote portable vital signs monitoring
CN105869144A (en) Depth image data-based non-contact respiration monitoring method
KR20160108967A (en) Device and method for bio-signal measurement
Wallace et al. Contactless remote assessment of heart rate and respiration rate using video magnification
EP3391340A1 (en) A method, information processing apparatus and server for determining a physiological parameter of an individual
US10292594B2 (en) Method and system for contactless detection of cardiac activity
Kassab et al. Effects of region of interest size on heart rate assessment through video magnification
Ruminski et al. Estimation of respiration rate using an accelerometer and thermal camera in eGlasses
Wiede et al. Signal fusion based on intensity and motion variations for remote heart rate determination
US20230060676A1 (en) Multimodal diagnosis system, method and apparatus
US20220409120A1 (en) Information Processing Method, Computer Program, Information Processing Device, and Information Processing System
CN108451494B (en) Method and system for detecting time-domain cardiac parameters using pupil response
CN108720825B (en) Multi-camera-based seamless detection method for non-contact vital sign parameters
WO2017045976A1 (en) Device and method for migraine monitoring
CA3084779A1 (en) Remote portable vital signs monitoring
CN108451496B (en) Method and system for detecting information of brain-heart connectivity

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170321

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180420

R150 Certificate of patent or registration of utility model

Ref document number: 6329696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150