JP6102433B2 - Pulse wave detection program, pulse wave detection method, and pulse wave detection device - Google Patents
Pulse wave detection program, pulse wave detection method, and pulse wave detection device Download PDFInfo
- Publication number
- JP6102433B2 JP6102433B2 JP2013075351A JP2013075351A JP6102433B2 JP 6102433 B2 JP6102433 B2 JP 6102433B2 JP 2013075351 A JP2013075351 A JP 2013075351A JP 2013075351 A JP2013075351 A JP 2013075351A JP 6102433 B2 JP6102433 B2 JP 6102433B2
- Authority
- JP
- Japan
- Prior art keywords
- pulse wave
- face
- subject
- measurement
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 0 C1CC*CC1 Chemical compound C1CC*CC1 0.000 description 1
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、脈波検出プログラム、脈波検出方法および脈波検出装置に関する。 The present invention relates to a pulse wave detection program, a pulse wave detection method, and a pulse wave detection device.
被験者が撮影された画像から血液の体積の変動、いわゆる脈波を検出する技術が知られている。例えば、被験者の顔をビデオカメラで撮像し、撮像データから濃度を算出して心拍および呼吸数を測定する従来技術が提案されている。 Techniques for detecting blood volume fluctuations, so-called pulse waves, from images taken by a subject are known. For example, a conventional technique has been proposed in which a subject's face is imaged with a video camera, a concentration is calculated from the imaging data, and a heart rate and a respiration rate are measured.
ところで、脈波は、毛細血管の血流の変化に伴う皮膚部分の画像の輝度変化から検出する。この脈波に関係する輝度変化は、微少である。このため、脈波の検出では、脈波に関係する輝度変化を精度良く検出するため、顔の皮膚部を広く利用して輝度変化を測定したい。一方、顔の広い範囲を輝度変化の計測領域とした場合、画像に含まれる顔の周辺の背景が計測領域に含まれるようになり、背景の影響により輝度変化が大きくなって、脈波の検出精度が低下する場合がある。 By the way, the pulse wave is detected from the change in luminance of the image of the skin portion accompanying the change in blood flow of the capillary blood vessels. The luminance change related to the pulse wave is very small. For this reason, in detecting the pulse wave, in order to accurately detect the luminance change related to the pulse wave, it is desired to measure the luminance change widely using the skin portion of the face. On the other hand, when the luminance change measurement area is a wide area of the face, the background around the face included in the image is included in the measurement area, and the luminance change becomes large due to the influence of the background, and the pulse wave is detected. Accuracy may be reduced.
そこで、撮影される各フレームの画像について顔検出を行って顔領域を特定し、顔領域の中央部分を計測領域として、計測領域から輝度変化を測定することが考えられる。例えば、顔領域の外縁である顔枠から距離または比率により顔領域の中央に絞った中央部分を計測領域とすることが考えられる。 In view of this, it is conceivable to perform face detection on each frame image to identify a face area, and to measure a change in luminance from the measurement area using the central portion of the face area as a measurement area. For example, it is conceivable that the central portion narrowed down to the center of the face area by the distance or ratio from the face frame that is the outer edge of the face area is used as the measurement area.
しかしながら、顔枠からの距離または比率により計測領域を中央部分に絞った場合でも、脈波の検出精度が低下する場合がある。例えば、被験者の顔の向きにより、計測領域に背景が含まれる場合などがあり、脈波の検出精度が低下する。 However, even when the measurement region is narrowed down to the center portion depending on the distance or ratio from the face frame, the pulse wave detection accuracy may be reduced. For example, depending on the orientation of the face of the subject, the measurement region may include a background, and the pulse wave detection accuracy is reduced.
図18は、被験者の顔の向きによる計測領域の変化の一例を説明するための図である。図18の例では、被験者が正対した状態、被験者が上を向いた状態、被験者が右を向いた状態、被験者が下を向いた状態の画像がそれぞれ示されている。図18の例では、被験者の顔の眼、鼻、口、頬、額を含む顔領域の外縁である顔枠200から距離または比率により顔領域の中央に絞った中央部分を計測領域201としている。
FIG. 18 is a diagram for explaining an example of a change in the measurement region depending on the face orientation of the subject. In the example of FIG. 18, images of a state where the subject is directly facing, a state where the subject is facing up, a state where the subject is facing right, and a state where the subject is facing down are shown. In the example of FIG. 18, the
被験者が上を向いた状態の画像は、計測領域201に被験者の鼻や目の外縁、口が含まれる。また、被験者が右を向いた状態の画像は、計測領域201に背景や口が含まれる。また、被験者が下を向いた状態の画像は、計測領域201に鼻や目、口が含まれる。このような計測領域201を脈波の検出に用いた場合には、鼻部分の輝度の変化や、眼の瞬き、背景がノイズとなって心拍数の検出精度の低下を招く場合がある。
In the image with the subject facing upward, the
一側面では、脈波の検出精度の低下を抑制できる脈波検出プログラム、脈波検出方法および脈波検出装置を提供することを目的とする。 An object of one aspect is to provide a pulse wave detection program, a pulse wave detection method, and a pulse wave detection device that can suppress a decrease in detection accuracy of a pulse wave.
本発明の一側面によれば、脈波検出プログラムは、コンピュータに、撮像装置によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出する処理を実行させる。脈波検出プログラムは、コンピュータに、前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出する処理を実行させる。脈波検出プログラムは、コンピュータに、前記所定部位の位置および前記回転角度の検出結果から前記被験者の顔の脈波の計測領域の位置を算出する処理を実行させる。脈波検出プログラムは、コンピュータに、算出された計測領域から脈波を計測する処理を実行させる。 According to one aspect of the present invention, the pulse wave detection program causes a computer to execute processing for detecting a position of a predetermined part of the face of the subject in the image from an image of the subject taken by the imaging device. The pulse wave detection program causes a computer to execute a process of detecting a rotation angle of the face direction of the subject with respect to a predetermined direction from an image taken by the imaging device. The pulse wave detection program causes the computer to execute processing for calculating the position of the pulse wave measurement region of the subject's face from the position of the predetermined part and the detection result of the rotation angle. The pulse wave detection program causes a computer to execute processing for measuring a pulse wave from the calculated measurement region.
本発明の一側面によれば、脈波の検出精度の低下を抑制できる効果を奏する。 Advantageous Effects of Invention According to one aspect of the present invention, it is possible to suppress a decrease in pulse wave detection accuracy.
以下に、本願の開示する脈波検出プログラム、脈波検出方法および脈波検出装置の実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Hereinafter, embodiments of a pulse wave detection program, a pulse wave detection method, and a pulse wave detection device disclosed in the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the disclosed technology. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory.
[脈波検出装置の構成]
図1は、脈波検出装置の機能的構成を示すブロック図である。図1に示す脈波検出装置10は、太陽光や室内光などの環境光の下で生体に計測器具を接触させずに、被験者が撮影された画像を用いて被験者の脈波を検出する装置である。ここで言う「脈波」とは、血液の体積の変動、すなわち血流の増減を表す指標を指し、いわゆる心拍数や心拍波形などが含まれる。かかる脈波検出装置10の一態様としては、例えば、スマートフォン、PDA(Personal Digital Assistant)、携帯電話機等の携帯端末装置等である。脈波検出装置10の一態様としては、スマートフォンに脈波を検出するアプリケーションプログラムをプリインストールまたはインストールさせ、当該アプリケーションプログラムを動作させることによって実現される。なお、脈波検出装置10は、デスクトップ型PC(パーソナル・コンピュータ)、タブレット型PC、ノート型PCなどの情報処理装置であってもよい。
[Configuration of pulse wave detector]
FIG. 1 is a block diagram showing a functional configuration of the pulse wave detection device. A pulse
脈波検出装置10は、図1に示すように、カメラ20と、表示部21と、入力部22と、通信I/F(interface)部23と、記憶部24と、制御部25とを有する。なお、脈波検出装置10は、図1に示した機能部以外にも既知の携帯端末装置が有する各種の機能部を有することとしてもかまわない。例えば、脈波検出装置10は、アンテナ、キャリア網を介して通信を行うキャリア通信部、GPS(Global Positioning System)受信機などを有することとしてもかまわない。
As shown in FIG. 1, the pulse
カメラ20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いた撮像装置である。例えば、カメラ20には、R(red)、G(green)、B(blue)など3種以上の受光素子を搭載することができる。かかるカメラ20の実装例としては、デジタルカメラやWebカメラを外部端子を介して接続することとしてもよいし、携帯端末のようにカメラが出荷時から搭載されている場合にはそのカメラを流用できる。なお、ここでは、脈波検出装置10がカメラ20を有する場合を例示したが、ネットワーク経由または記憶デバイス経由で画像を取得できる場合には、必ずしも脈波検出装置10がカメラ20を有する必要はない。
The
表示部21は、各種情報を表示する表示デバイスである。表示部21としては、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)などの表示デバイスが挙げられる。表示部21は、各種情報を表示する。脈波検出装置10を通じて情報を表示する必要がなければ表示部21が無くても構わない。また、別の装置の表示部に表示することもできる。
The display unit 21 is a display device that displays various types of information. Examples of the display unit 21 include display devices such as an LCD (Liquid Crystal Display) and a CRT (Cathode Ray Tube). The display unit 21 displays various information. If it is not necessary to display information through the pulse
入力部22は、各種の情報を入力する入力デバイスである。例えば、入力部22としては、マウスやキーボード、脈波検出装置10に設けられた各種のボタンや、表示部21上に設けられた透過型のタッチセンサなどの入力デバイスが挙げられる。なお、図1の例では、機能的な構成を示したため、表示部21と入力部22を別に分けているが、例えば、タッチパネルなど表示部21と入力部22を一体的に設けたデバイスで構成してもよい。
The
通信I/F部23は、他の装置との間で通信制御を行うインタフェースである。かかる通信I/F部23の一態様としては、LANカードなどのネットワークインタフェースカードを採用できる。通信I/F部23は、不図示のネットワークを介して他の装置と各種情報を送受信する。例えば、通信I/F部23は、検出された脈波の情報をサーバ装置へ送信する。
The communication I /
記憶部24は、各種情報を記憶するデバイスである。例えば、記憶部24としては、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子や、ハードディスク、SSD(Solid State Drive)、光ディスクなどの記憶装置が挙げられる。 The storage unit 24 is a device that stores various types of information. For example, the storage unit 24 includes a semiconductor memory device such as a RAM (Random Access Memory) and a flash memory, and a storage device such as a hard disk, an SSD (Solid State Drive), and an optical disk.
記憶部24は、制御部25で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部24は、制御部25で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部24は、演算式情報30と、演算パラメータ情報31と、角度パラメータ情報32と、通過帯域情報33とを記憶する。
The storage unit 24 stores an OS (Operating System) executed by the
演算式情報30は、被験者の顔の脈波の計測領域の算出に用いる各種の演算式を記憶したデータである。演算パラメータ情報31は、各種の演算式に設定された各種のパラメータの値を記憶したデータである。
The
ここで、脈波に関係する輝度変化は、微少である。このため、脈波の検出では、脈波に関係する輝度変化を精度良く検出するため、顔の皮膚部を広く利用して輝度変化を測定することが好ましい。一方、顔の広い範囲を輝度変化の計測領域とした場合、画像に含まれる顔の周辺の背景が計測領域に含まれるようになり、背景の影響により輝度変化が大きくなって、脈波の検出精度が低下する場合がある。 Here, the luminance change related to the pulse wave is very small. For this reason, in detecting a pulse wave, it is preferable to measure the luminance change widely using the skin portion of the face in order to accurately detect the luminance change related to the pulse wave. On the other hand, when the luminance change measurement area is a wide area of the face, the background around the face included in the image is included in the measurement area, and the luminance change becomes large due to the influence of the background, and the pulse wave is detected. Accuracy may be reduced.
図2Aは、画像の各領域のヒストグラムの一例を示す図である。図2Aの例では、眼、鼻、口、頬、額を含む矩形領域70AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Aの例では、鼻、口を含む矩形領域70BのR、G、Bの各成分に画素値のヒストグラムが示されている。矩形領域70Aは、周辺の背景が含まれ、また、被験者の眼が映っている。この矩形領域70Aの画像を脈波の検出に用いた場合には、背景や眼の瞬きがノイズとなって心拍数の検出精度の低下を招く場合がある。また、矩形領域70Bは、被験者の口が映っている。この矩形領域70Bを画像を脈波の検出に用いた場合には、口の動きがノイズとなって心拍数の検出精度の低下を招く場合がある。
FIG. 2A is a diagram illustrating an example of a histogram of each region of an image. In the example of FIG. 2A, a histogram of pixel values is shown for each of the R, G, and B components of the
図2Bは、画像の各領域のヒストグラムの一例を示す図である。図2Bの例では、眼を含む矩形領域71AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Bの例では、鼻を含む矩形領域71BのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Bの例では、口を含む矩形領域71CのR、G、Bの各成分に画素値のヒストグラムが示されている。矩形領域71Aは、被験者の眼が映っている。この矩形領域71Aの画像を脈波の検出に用いた場合には、眼の瞬きがノイズとなって心拍数の検出精度の低下を招く場合がある。矩形領域71Aは、被験者の鼻が映っている。鼻部分は、光の当たり方による輝度の変化が大きい場合がある。この矩形領域71Bの画像を脈波の検出に用いた場合には、鼻部分の輝度変化がノイズとなって心拍数の検出精度の低下を招く場合がある。矩形領域71Cは、被験者の口が映っている。この矩形領域71Cの画像を脈波の検出に用いた場合には、口の動きがノイズとなって心拍数の検出精度の低下を招く場合がある。
FIG. 2B is a diagram illustrating an example of a histogram of each region of the image. In the example of FIG. 2B, a histogram of pixel values is shown for each of the R, G, and B components of the
図2Cは、画像の各領域のヒストグラムの一例を示す図である。図2Cの例では、右頬を含む矩形領域72AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Cの例では、左頬を含む矩形領域72BのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Cの例では、額を含む矩形領域72CのR、G、Bの各成分に画素値のヒストグラムが示されている。この矩形領域72A〜矩形領域72Cは、肌の色範囲を抽出できており、脈波の検出に好ましい領域である。
FIG. 2C is a diagram illustrating an example of a histogram of each region of the image. In the example of FIG. 2C, a histogram of pixel values is shown for each of the R, G, and B components of the
図2Dは、画像の各領域のヒストグラムの一例を示す図である。図2Dの例では、頭部の髪部分の矩形領域73AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Dの例では、背景部分の矩形領域73BのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Dの例では、被験者の衣服部分の矩形領域73CのR、G、Bの各成分に画素値のヒストグラムが示されている。この矩形領域73A〜矩形領域73Cは、何れも皮膚部がほとんど含まれていないため、脈波を検出することができない領域である。
FIG. 2D is a diagram illustrating an example of a histogram of each region of the image. In the example of FIG. 2D, a histogram of pixel values is shown for each of the R, G, and B components of the
このため、本実施例では、右頬、左頬および額の領域を計測領域として脈波の計測を行うものとしている。 For this reason, in this embodiment, pulse waves are measured using the right cheek, left cheek and forehead regions as measurement regions.
ところで、人は、顔に含まれる眼や耳、鼻、口、頬、額など顔の部位の配置のパターンが同様である。例えば、脈波の計測に好適な右頬、左頬の領域は、縦方向に対して眼と口の間付近に位置する。また、右頬の領域は、横方向に対して右眼の位置付近に位置する。左頬の領域は、横方向に対して左眼の位置付近に位置する。また、例えば、脈波の計測に好適な額の領域は、縦方向に対して眼の上方に位置する。また、額の領域は、横方向に対して右眼と左眼の間付近に位置する。よって、被験者の顔の部位の位置から他の部位の位置を推測することができる。図3は、顔の部位の配置のパターンを説明する図である。図3の例では、人の顔が眼、口、左頬が簡略化されて示されている。例えば、右眼の座標を(x1,y1)とし、左眼の座標を(x2,y2)とし、口の座標を(x3,y3)とした場合、左頬に該当する矩形領域の対向する2つの頂点P1、P2の座標(X1,Y1)、(X2,Y2)は、下記の式(1)、(2)のように表すことができる。 By the way, a person has the same arrangement pattern of facial parts such as eyes, ears, nose, mouth, cheeks, and forehead included in the face. For example, the right cheek region and the left cheek region suitable for pulse wave measurement are located in the vicinity between the eyes and the mouth with respect to the vertical direction. The right cheek region is located near the position of the right eye with respect to the horizontal direction. The left cheek region is located near the position of the left eye with respect to the horizontal direction. Further, for example, a forehead region suitable for pulse wave measurement is located above the eye with respect to the vertical direction. The forehead region is located in the vicinity between the right eye and the left eye with respect to the horizontal direction. Therefore, the position of the other part can be estimated from the position of the part of the face of the subject. FIG. 3 is a diagram for explaining an arrangement pattern of facial parts. In the example of FIG. 3, the human face is shown with the eyes, mouth, and left cheek simplified. For example, when the coordinates of the right eye are (x 1 , y 1 ), the coordinates of the left eye are (x 2 , y 2 ), and the coordinates of the mouth are (x 3 , y 3 ), it corresponds to the left cheek. The coordinates (X 1 , Y 1 ) and (X 2 , Y 2 ) of the two opposing vertices P1 and P2 of the rectangular area can be expressed as the following equations (1) and (2).
(X1,Y1)=(α・x1+(1−α)x2,β・y2+(1−β)y3)・・・(1)
(X2,Y2)=(γ・x1+(1−γ)x2,δ・y2+(1−δ)y3)・・・(2)
(X 1 , Y 1 ) = (α · x 1 + (1−α) x 2 , β · y 2 + (1−β) y 3 ) (1)
(X 2 , Y 2 ) = (γ · x 1 + (1−γ) x 2 , δ · y 2 + (1−δ) y 3 ) (2)
ここで、人は、それぞれ顔の部位の位置に違いがある。そこで、式(1)、(2)は、被験者に応じた計測領域の位置を算出するため、α、β、γ、δの各種のパラメータが設けられている。例えば、α=0、β=0.9の場合、頂点P1は、横方向が左眼の位置で、縦方向が眼と口の90%の高さの位置となる。 Here, each person has a difference in the position of the part of the face. Therefore, in Equations (1) and (2), various parameters of α, β, γ, and δ are provided in order to calculate the position of the measurement region corresponding to the subject. For example, when α = 0 and β = 0.9, the vertex P1 is the position of the left eye in the horizontal direction and the position of 90% height of the eyes and mouth in the vertical direction.
演算式情報30には、被験者の顔の所定部位から計測領域の算出に用いる演算式が記憶されている。本実施例では、所定部位として、眼、口の位置から計測領域として右頬、左頬、額の領域を算出する。このため、演算式情報30には、眼、口の位置から計測領域として右頬、左頬、額の領域を算出する演算式が記憶されている。例えば、演算式情報30には、上記の式(1)、(2)が記憶されている。なお、計測領域を算出する基準となる所定部位は、眼、口に限定されず、眼、鼻、口、眉、耳など何れの部位を用いてもよく、例えば、眼、鼻としてもよい。
The
演算パラメータ情報31には、各演算式に設けられたパラメータの値が記憶されている。例えば、演算パラメータ情報31には、上記の式(1)、(2)に設けられたα、β、γ、δの各種のパラメータの値が記憶されている。本実施例では、演算パラメータ情報31のパラメータの値は、後述するパラメータ格納部43により格納するものとするが、顔の部位の標準的な配置のパターンに応じたパラメータの値を予め求めて演算パラメータ情報31に記憶してもよい。
The calculation parameter information 31 stores parameter values provided in each calculation expression. For example, the calculation parameter information 31 stores values of various parameters α, β, γ, and δ provided in the above equations (1) and (2). In this embodiment, the parameter value of the calculation parameter information 31 is stored by the
角度パラメータ情報32は、画像内での被験者の顔の向きに応じて計測領域を補正するためのパラメータを記憶したデータである。
The
ここで、画像内での被験者の顔の向きに応じて、顔のそれぞれの領域のサイズは変化する。例えば、脈波の計測に好適な頬の領域は、被験者の顔の向きに応じて画像内のサイズが変化する。図4は、画像内での被験者の顔の横方向の向きによる領域のサイズの変化を説明する図である。図4の例では、人の顔が眼、鼻、口、右頬、左頬により簡略化されて示されている。図4の左側の例は、正対した状態を示している。図4の右側の例は、顔の向きが横方向に回転している状態を示している。図4の左側に示すように、正対した状態では、右頬が観察される右頬領域80Rと左頬が観察される左頬領域80Lは、略同一のサイズとなっている。一方、図4の右側に示すように、顔の向きが横方向に回転している状態では、右頬領域80Rと左頬領域80Lのサイズが変化し、一方が小さく、他方が大きくなる。図4の例では、右頬領域80Rのサイズが大きくなり、左頬領域80Lのサイズが小さく変化している。
Here, the size of each area of the face changes according to the orientation of the face of the subject in the image. For example, the cheek region suitable for pulse wave measurement changes in size in the image according to the orientation of the subject's face. FIG. 4 is a diagram for explaining a change in the size of the region depending on the horizontal direction of the face of the subject in the image. In the example of FIG. 4, a human face is shown simplified by eyes, nose, mouth, right cheek, and left cheek. The example on the left side of FIG. 4 shows a state of facing each other. The example on the right side of FIG. 4 shows a state in which the face is rotating in the horizontal direction. As shown on the left side of FIG. 4, in the state of facing, the
図5は、被験者の顔の横方向の向きの変化による領域のサイズの変化を説明する図である。図5の例では、上側に、正対した状態に対する被験者の顔の向きの横方向の回転角度θyに応じた右頬領域80Rの面積と左頬領域80Lの面積の変化が示されている。また、図5の例では、下側に、回転角度θyに応じた右頬領域80Rの横幅と左頬領域80Lの横幅の変化が示されている。例えば、顔の形状を楕円球と見なした場合、右頬領域80Rおよび左頬領域80Lは、図5の上側に示すように、回転角度θy=0から所定の範囲内で、回転角度θyと面積にリニアな関係があると見なすことができる。また、横方向のみの回転の場合、右頬領域80Rと左頬領域80Lの縦方向の縦幅を一定と見なすと、右頬領域80Rおよび左頬領域80Lは、回転角度θy=0から所定の範囲内で、回転角度θyと横方向の横幅にリニアな関係があると見なすことができる。
FIG. 5 is a diagram for explaining a change in the size of the region due to a change in the horizontal direction of the subject's face. In the example of FIG. 5, changes in the area of the
よって、被験者の顔の向きが横方向に変化した場合でも顔の横方向の回転角度θyから計測領域の位置を算出できる。例えば、下記の式(3)、(4)のように、回転角度θyに応じて、右頬の頂点P1の座標(X1,Y1)が、(X’1,Y’1)に変化し、右頬の頂点P2の座標(X2,Y2)が、(X’2,Y’2)に変化すると表すことができる。 Therefore, even when the orientation of the subject's face changes in the horizontal direction, the position of the measurement region can be calculated from the rotation angle θ y in the horizontal direction of the face. For example, as in the following formulas (3) and (4), the coordinates (X 1 , Y 1 ) of the apex P1 of the right cheek are changed to (X ′ 1 , Y ′ 1 ) according to the rotation angle θ y. It can be expressed that the coordinates (X 2 , Y 2 ) of the vertex P2 of the right cheek change to (X ′ 2 , Y ′ 2 ).
(X’1,Y’1)=(X1,Y1)・・・(3)
(X’2,Y’2)=(κ・X1+(1−κ)・X2,Y2)・・・(4)
(X ′ 1 , Y ′ 1 ) = (X 1 , Y 1 ) (3)
(X ′ 2 , Y ′ 2 ) = (κ · X 1 + (1−κ) · X 2 , Y 2 ) (4)
このκは、回転角度θyに応じて定められる。角度パラメータ情報32には、横方向の角度パラメータとして、回転角度θy毎にκの値が予め求められて記憶されている。例えば、回転角度θy=0°の場合、κ=0であり、回転角度θy=30°の場合、κ=1である。なお、回転角度θyが30度を越えると、右頬領域80Rおよび左頬領域80Lは、回転角度θyと横方向の横幅にリニアな関係がなくなる。そこで、回転角度θyが±30度の範囲内で計算を行うものとする。
This κ is determined according to the rotation angle θ y . In the
被験者の顔の縦方向の向きの変化についても同様に計測領域が変化する。 Similarly, the measurement area changes with respect to the change in the vertical direction of the subject's face.
図6は、画像内での被験者の顔の縦方向の向きによる領域のサイズの変化を説明する図である。図6の例では、人の顔が眼、鼻、口、左頬、額により簡略化されて示されている。図6に示す左頬が観察される左頬領域80L、額が観察される額領域81も顔の向きが、所謂チルトと呼ばれる縦方向に回転した場合、領域のサイズが変化する。
FIG. 6 is a diagram for explaining a change in the size of the region depending on the vertical direction of the face of the subject in the image. In the example of FIG. 6, a human face is shown simplified by eyes, nose, mouth, left cheek, and forehead. When the face orientation of the
図7は、被験者の顔の縦方向の向きの変化による領域のサイズの変化を説明する図である。図7の例では、上側に、正対した状態に対する被験者の顔の向きの縦方向の回転角度θxに応じた左頬領域80Lの面積と額領域81の面積の変化が示されている。また、図7の例では、下側に、回転角度θxに応じた左頬領域80Lの縦幅と額領域81の縦幅の変化が示されている。図7の上側に示すように、左頬領域80Lの面積は、回転角度θxが多くなるほどサイズが小さくなる。一方、額領域81の面積は、回転角度θxが多くなるほどサイズが大きくなる。例えば、顔の形状を楕円球と見なした場合、左頬領域80Lおよび額領域81は、回転角度θx=0から所定の範囲内で、回転角度θxと面積にリニアな関係があると見なすことができる。
FIG. 7 is a diagram for explaining a change in the size of the region due to a change in the vertical direction of the face of the subject. In the example of FIG. 7, the upper side, the change in the area of the
よって、被験者の顔の向きが縦方向に変化した場合でも顔の縦方向の回転角度θxから計測領域の位置を算出できる。例えば、下記の式(5)、(6)のように、顔の縦方向の向きの変化である回転角度θxに応じて、右頬の頂点P1の座標(X1,Y1)が、(X”1,Y”1)に変化し、右頬の頂点P2の座標(X2,Y2)が、(X”2,Y”2)に変化すると表すことができる。 Thus, it calculates the position of the measurement region from the rotational angle theta x longitudinal face even when the direction of the face of the subject is changed in the vertical direction. For example, as in the following formulas (5) and (6), the coordinates (X 1 , Y 1 ) of the apex P1 of the right cheek are changed according to the rotation angle θ x which is a change in the vertical direction of the face. (X "1, Y" 1 ) to change the coordinates of the vertices of the right cheek P2 (X 2, Y 2) is can be represented when changes (X "2, Y" 2 ).
(X”1,Y”1)=(X1,Y1)・・・(5)
(X”2,Y”2)=(X2,λ・Y1+(1−λ)・Y2)・・・(6)
(X ″ 1 , Y ″ 1 ) = (X 1 , Y 1 ) (5)
(X ″ 2 , Y ″ 2 ) = (X 2 , λ · Y 1 + (1−λ) · Y 2 ) (6)
このλは、回転角度θxに応じて定められる。角度パラメータ情報32には、縦方向の角度パラメータとして、回転角度θx毎にλの値が予め求められて記憶されている。例えば、回転角度θx=0°の場合、λ=0であり、回転角度θx=15°の場合、λ=1である。なお、回転角度θxが15度を越えると、左頬領域80L、額領域81は、回転角度θxと縦方向の縦幅にリニアな関係がなくなる。そこで、回転角度θxが±15度の範囲内で計算を行うものとする。
This λ is determined according to the rotation angle θ x . In the
演算式情報30には、被験者の顔の向きの変化に応じて計測領域の補正に用いる演算式が記憶されている。本実施例では、右頬、左頬、額の計測領域としている。このため、演算式情報30には、右頬、左頬、額の領域の補正に用いる演算式が記憶されている。例えば、演算式情報30には、上記の式(4)〜(6)が記憶されている。
The
角度パラメータ情報32には、計測領域の補正の演算式で用いるパラメータの値が記憶される。例えば、角度パラメータ情報32には、上記の式(4)、(5)で用いる回転角度θy毎にκの値と、上記の式(5)、(6)で用いる回転角度θx毎にλの値とが記憶される。
The
通過帯域情報33は、計測領域毎に、標準的な肌の色の範囲を通過帯域として記憶したデータである。本実施例では、右頬、左頬、額の領域を計測領域としており、通過帯域情報33には、右頬、左頬、額の各領域の標準的な肌の色の範囲が通過帯域として記憶される。本実施例では、通過帯域情報33の通過帯域は、後述する通過帯域格納部44により格納されるものとするが、標準的な肌の色の範囲を予め求めて通過帯域情報33に記憶しているものとしてもよい。
The
制御部25は、脈波検出装置10を制御するデバイスである。制御部25としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部25は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部25は、各種のプログラムが動作することにより、各種の処理部として機能する。例えば、制御部25は、撮影制御部40と、顔部位検出部41と、顔向検出部42と、パラメータ格納部43と、通過帯域格納部44と、算出部45と、計測部46と、出力制御部47とを有する。
The
撮影制御部40は、カメラ20を制御して画像の撮影を制御する処理部である。例えば、撮影制御部40は、脈波の検出を行う場合やキャリブレーションを行う場合、カメラ20を制御して連続的に画像の撮影を行う。例えば、撮影制御部40は、入力部22に対して脈波の検出開始を指示する所定操作またはキャリブレーションの実行を指示する所定操作が行われた場合、カメラ20を制御して所定のフレームレートで連続的に画像の撮影を行う。フレームレートは、人の脈波をサンプリング可能な周期であればよい。本実施例では、カメラ20により動画撮影を行い、撮影される各画像から脈波の検出を行うものとしている。フレームレートとしては、例えば、24fps(frame per second)、30fps、60fpsなどの一般的な動画の撮影周期が挙げられる。なお、撮影制御部40は、カメラ20が撮影する画像を表示部21に表示させてもよい。
The
顔部位検出部41は、カメラ20により被験者が撮影された画像から顔の所定部位を検出する処理部である。この顔の部位の検出の手法は、何れであってよい。本実施例では、顔の所定部位として、例えば、眼と口を検出するものとするがその他の部位であってもよい。例えば、顔部位検出部41は、画像にテンプレートマッチング等の画像処理を実行することによって被験者の眼や、鼻、口などの所定部位を検出する。そして、顔部位検出部41は、画像内での被験者の顔の所定部位の位置を検出する。例えば、顔部位検出部41は、所定部位の重心位置や中心位置など所定の位置を、所定部位の位置として検出する。
The face part detection unit 41 is a processing unit that detects a predetermined part of the face from an image taken by the subject with the
また、顔部位検出部41は、計測領域の位置を算出する際に用いる各種のパラメータのキャリブレーションを行う場合、計測領域の位置を検出する。本実施例では、顔部位検出部41は、例えば、右頬、左頬、額の各領域の位置を検出する。 The face part detection unit 41 detects the position of the measurement region when performing calibration of various parameters used when calculating the position of the measurement region. In the present embodiment, the face part detection unit 41 detects the positions of the right cheek, left cheek, and forehead regions, for example.
顔向検出部42は、カメラ20により被験者が撮影された画像から所定の向きに対する顔の向きの回転角度を検出する処理部である。この顔の向きの検出の手法は、何れであってよい。本実施例では、所定の向きに対する顔の向きとして、被験者がカメラ20に正対した状態の向きに対する顔の向きの回転角度θx、θyを検出する。例えば、画像内で口は、図4の左側に示すように、顔が正対した状態では、左右の眼の中心付近に位置する。また、画像内で口は、図4の右側に示すように、顔が左方向を向いた状態では、左右の眼の中心よりも左側に位置し、回転角度が大きいほど中心からのずれも大きくなる。そこで、例えば、顔向検出部42は、左右の眼の中心からの口の位置のずれから顔の向きの横方向の回転角度θyを検出する。また、例えば、顔が正対した状態の眼や、鼻、口などの各種部位の配置パターンを記憶し、撮影された画像での各種部位の配置パターンの変化から顔の向きの回転角度θx、θyを検出してもよい。なお、所定の向きは、被験者がカメラ20に正対した状態の向きに限定されず、例えば、被験者がカメラ20に対して顔を傾けた状態の向きを基準として回転角度を求めてもよい。
The face
パラメータ格納部43は、被験者に合わせたキャリブレーションを行う処理部である。例えば、パラメータ格納部43は、入力部22に対して脈波の検出開始を指示する所定操作が行われると、キャリブレーションを行うため、カメラ20に対して被験者が正対するように促す。例えば、パラメータ格納部43は、表示部21にメッセージを表示して、被験者がカメラ20に対して正対するように促す。これにより、カメラ20では、カメラ20に対して正対した状態の被験者が撮影される。上述の顔部位検出部41は、撮影された画像から所定部位の位置および計測領域の位置を検出する。本実施例では、顔部位検出部41は、例えば、所定部位として眼、口の位置を検出し、計測領域として右頬、左頬、額の各領域の位置を検出する。
The
パラメータ格納部43は、演算式情報30に記憶された、顔の所定部位から計測領域の算出する演算式に、顔部位検出部41により検出される所定部位の位置および計測領域の位置を代入して、各演算式に設けられた各種のパラメータの値を算出する。例えば、パラメータ格納部43は、右眼の座標(x1,y1)、左眼の座標(x2,y2)、口の座標(x3,y3)、左頬領域の頂点P1、P2の座標(X1,Y1)、(X2,Y2)を式(1)、(2)に代入してα、β、γ、δの各種のパラメータの値を算出する。パラメータ格納部43は、算出した各パラメータの値を演算パラメータ情報31に格納する。なお、顔向検出部42が顔が正対した状態の各種部位の配置パターンから顔の向きを検出する場合、パラメータ格納部43は、カメラ20に対して正対した状態の被験者の各種部位の配置パターンを求めて記憶部24に格納してもよい。
The
通過帯域格納部44は、通過帯域情報33を設定する処理部である。例えば、通過帯域格納部44は、被験者に合わせたキャリブレーションを行う際に、カメラ20により撮影された被験者の顔が正対した状態の画像から、計測領域毎に、計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求める。そして、通過帯域格納部44は、各計測領域について、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定し、特定した波長成分毎の標準的な画素値の範囲を通過帯域として通過帯域情報33に設定する。
The passband storage unit 44 is a processing unit that sets the
図8は、通過帯域を説明する図である。図8の例では、左頬領域80LのR、G、Bの各成分に画素値のヒストグラムを求めた例が示されている。通過帯域格納部44は、R、G、Bの各成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定する。例えば、通過帯域格納部44は、ヒストグラムにおいてピークの画素値を基準に、ピークの頻度の所定の割合の頻度となる画素値の範囲の標準的な画素値の範囲を特定する。例えば、通過帯域格納部44は、ピークの頻度の半分となる、所謂、半値幅の範囲を標準的な画素値の範囲を特定する。なお、標準的な画素値の範囲は、ピークの画素値を中心とした所定幅の範囲としてもよい。
FIG. 8 is a diagram illustrating the passband. In the example of FIG. 8, an example in which a histogram of pixel values is obtained for each of the R, G, and B components of the
計測領域に含まれる被験者の肌の色は、撮影環境や、被験者自身の肌の色合いなどによって異なる。そこで、通過帯域格納部44は、実際に撮影された画像から被験者の肌の色の標準的な画素値の範囲を特定し、通過帯域として通過帯域情報33に設定することにより、実際の被験者の皮膚部分を抽出できるようになる。
The skin color of the subject included in the measurement region varies depending on the shooting environment, the skin tone of the subject himself, and the like. Therefore, the passband storage unit 44 specifies the range of the standard pixel value of the subject's skin color from the actually captured image, and sets it as the passband in the
算出部45は、顔部位検出部41により検出された顔の所定部位の位置から、カメラ20により被験者が撮影された画像内での脈波の計測領域の位置を算出する。例えば、算出部45は、顔の眼と口の位置から計測領域となる右頬、左頬、額の各領域の位置を算出する式を演算式情報30から読み出す。例えば、算出部45は、眼と口の位置から右頬の領域を算出する式として、上記の式(1)、(2)を演算式情報30から読み出す。これらの式には、個人に合わせて位置を調整するため、パラメータを設けている。このパラメータの値は、演算パラメータ情報31に記憶されている。例えば、演算パラメータ情報31には、上記の式(1)、(2)のパラメータα、β、γ、δの値が記憶されている。
The
算出部45は、演算パラメータ情報31からパラメータの値を読み出して式にセットし、式による演算を行って顔の所定部位の位置から計測領域の位置を算出する。例えば、算出部45は、式(1)、(2)のパラメータα、β、γ、δの値をセットし、顔部位検出部41により検出された右眼、左眼、口の各座標から左頬に該当する矩形領域の座標(X1,Y1)、(X2,Y2)を算出する。
The
算出部45は、顔向検出部42により検出された顔の向きの回転角度に応じて、計測領域の位置を補正する。例えば、算出部45は、顔の横方向の回転角度θyおよび顔の縦方向の回転角度θxに応じて、右頬、左頬、額の各領域の位置を補正するための式を演算式情報30から読み出す。例えば、算出部45は、顔の横方向の回転角度θyに応じて右頬の領域を補正するための式として、上記の式(3)、(4)を演算式情報30から読み出す。また、算出部45は、顔の縦方向の回転角度θxに応じて右頬の領域を補正するための式として、上記の式(5)、(6)を演算式情報30から読み出す。これらの式には、回転角度θy、回転角度θxに応じたパラメータを設けている。この回転角度θy、回転角度θxに応じたパラメータの値は、角度パラメータ情報32に記憶されている。例えば、角度パラメータ情報32には、回転角度θy毎に、上記の式(3)、(4)で用いられるκの値が記憶されている。また、角度パラメータ情報32には、回転角度θx毎に、上記の式(5)、(6)で用いられるλの値が記憶されている。
The
算出部45は、角度パラメータ情報32から、回転角度θy、回転角度θxに応じたパラメータの値を読み出して式にセットし、式による演算を行って計測領域の位置を補正する。例えば、算出部45は、角度パラメータ情報32から横方向の回転角度θyに応じたκの値を読み出して式(3)、(4)にセットする。そして、算出部45は、式(3)、(4)に右頬に該当する形領域の座標(X1,Y1)、(X2,Y2)を代入して横方向の回転による補正後の右頬の形領域の座標(X’1,Y’1)、(X’2,Y’2)を算出する。また、算出部45は、角度パラメータ情報32から縦方向の回転角度θxに応じたλの値を読み出して式(5)、(6)にセットする。そして、算出部45は、横方向の補正後の座標(X’1,Y’1)を(X1,Y1)に代入し、横方向の補正後の座標(X’2,Y’2)を(X2,Y2)にして、縦方向の回転による補正後の右頬の形領域の座標(X”1,Y”1)、(X”2,Y”2)を算出する。なお、計測領域の位置について、横方向の位置の補正を行った後に、縦方向の位置を補正する場合について説明したが、縦方向の位置の補正を行った後に、横方向の位置を補正してもよい。
The
計測部46は、カメラ20により撮影された各画像から脈波を計測する処理部である。計測部46は、カメラ20により撮影された画像の算出部45により算出、補正された計測領域に含まれる各波長成分の信号から脈波を計測する。例えば、計測部46は、計測領域毎に、計測領域に含まれる各画素から波長成分が通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出する。そして、計測部46は、抽出した各画素の波長成分別の代表値の信号から、各波長成分の間で脈波が採り得る脈波周波数帯以外の特定周波数帯の成分が互いに相殺された信号の波形を脈波として計測する。
The
一態様としては、計測部46は、画像に含まれる3つの波長成分、すなわちR成分、G成分およびB成分のうち血液の吸光特定が異なるR成分とG成分の2つの波長成分の代表値の時系列データを用いて、波形を検出する。
As one aspect, the
これを説明すると、顔表面には、毛細血管が流れており、心拍により血管に流れる血流が変化すると、血流で吸収される光量も心拍に応じて変化するため、顔からの反射によって得られる輝度も心拍に伴って変化する。かかる輝度の変化量は小さいが、顔領域全体の平均輝度を求めると、輝度の時系列データには脈波成分が含まれる。ところが、輝度は、脈波以外に体動等によっても変化し、これが、脈波検出のノイズ成分、いわゆる体動アーチファクトとなる。そこで、血液の吸光特性の異なる2種類以上の波長、例えば吸光特性が高いG成分(525nm程度)、吸光特性が低いR成分(700nm程度)で脈波を検出する。心拍は、0.5Hz〜4Hz、1分あたりに換算すれば30bpm〜240bpmの範囲であるので、それ以外の成分はノイズ成分とみなすことができる。ノイズには、波長特性は無い、あるいはあっても極小であると仮定すると、G信号およびR信号の間で0.5Hz〜4Hz以外の成分は等しいはずであるが、カメラの感度差により大きさが異なる。それゆえ、0.5Hz〜4Hz以外の成分の感度差を補正して、G成分からR成分を減算すれば、ノイズ成分は除去されて脈波成分のみを取り出すことができる。 To explain this, there are capillaries on the face surface, and when the blood flow flowing through the blood vessels changes due to the heartbeat, the amount of light absorbed by the bloodstream also changes according to the heartbeat. The brightness that is produced also changes with the heartbeat. Although the amount of change in luminance is small, when the average luminance of the entire face region is obtained, the time-series data of luminance includes a pulse wave component. However, the luminance also changes due to body movement in addition to the pulse wave, and this becomes a noise component of pulse wave detection, so-called body movement artifact. Therefore, a pulse wave is detected with two or more wavelengths having different light absorption characteristics of blood, for example, a G component having a high light absorption characteristic (about 525 nm) and an R component having a low light absorption characteristic (about 700 nm). Since the heart rate is in the range of 30 bpm to 240 bpm when converted to 0.5 Hz to 4 Hz per minute, other components can be regarded as noise components. Assuming that noise does not have wavelength characteristics or is minimal even if it is present, components other than 0.5 Hz to 4 Hz should be equal between the G signal and the R signal. Is different. Therefore, by correcting the sensitivity difference between components other than 0.5 Hz to 4 Hz and subtracting the R component from the G component, the noise component can be removed and only the pulse wave component can be extracted.
例えば、G成分及びR成分は、下記の式(7)および下記の式(8)によって表すことができる。下記の式(7)における「Gs」は、G信号の脈波成分を指し、「Gn」は、G信号のノイズ成分を指し、また、下記の式(8)における「Rs」は、R信号の脈波成分を指し、「Rn」は、R信号のノイズ成分を指す。また、ノイズ成分は、G成分およびR成分の間で感度差があるので、感度差の補正係数kは、下記の式(9)によって表される。 For example, the G component and the R component can be represented by the following formula (7) and the following formula (8). “Gs” in the following equation (7) indicates the pulse wave component of the G signal, “Gn” indicates the noise component of the G signal, and “Rs” in the following equation (8) indicates the R signal. “Rn” indicates the noise component of the R signal. Further, since the noise component has a sensitivity difference between the G component and the R component, the correction coefficient k for the sensitivity difference is expressed by the following equation (9).
Ga=Gs+Gn・・・(7)
Ra=Rs+Rn・・・(8)
k=Gn/Rn・・・(9)
Ga = Gs + Gn (7)
Ra = Rs + Rn (8)
k = Gn / Rn (9)
感度差を補正してG成分からR成分を減算すると、脈波成分Sは、下記の式(10)となる。これを上記の式(7)及び上記の式(8)を用いて、Gs、Gn、Rs及びRnによって表される式へ変形すると、下記の式(11)となり、さらに、上記の式(9)を用いて、kを消し、式を整理すると下記の式(12)が導出される。 When the sensitivity difference is corrected and the R component is subtracted from the G component, the pulse wave component S is expressed by the following equation (10). When this is transformed into the formula represented by Gs, Gn, Rs and Rn using the above formula (7) and the above formula (8), the following formula (11) is obtained, and further, the above formula (9 ) To eliminate k and rearrange the equations, the following equation (12) is derived.
S=Ga−kRa・・・(10)
S=Gs+Gn−k(Rs+Rn)・・・(11)
S=Gs−(Gn/Rn)Rs・・・(12)
S = Ga-kRa (10)
S = Gs + Gn−k (Rs + Rn) (11)
S = Gs− (Gn / Rn) Rs (12)
ここで、G信号およびR信号は、吸光特性が異なり、Gs>(Gn/Rn)Rsである。したがって、上記の式(12)によってノイズが除去された脈波成分Sを算出することができる。 Here, the G signal and the R signal have different light absorption characteristics, and Gs> (Gn / Rn) Rs. Therefore, the pulse wave component S from which noise is removed can be calculated by the above equation (12).
図9は、G信号およびR信号の各信号のスペクトルの一例を示す図である。図9に示すグラフの縦軸は、信号強度を指し、また、横軸は、周波数(bpm)を指す。図9に示すように、G成分およびR成分は、撮像素子の感度が異なるので、両者の信号強度はそれぞれ異なる。その一方、R成分およびG成分は、いずれにおいても30bpm〜240bpmの範囲外、特に3bpm以上20bpm未満の特定周波数帯でノイズが現れることには変わりはない。このため、図9に示すように、3bpm以上20bpm未満の特定周波数帯に含まれる指定の周波数Fnに対応する信号強度をGn及びRnとして抽出できる。これらGn及びRnによって感度差の補正係数kを導出できる。 FIG. 9 is a diagram illustrating an example of the spectrum of each signal of the G signal and the R signal. The vertical axis of the graph shown in FIG. 9 indicates the signal intensity, and the horizontal axis indicates the frequency (bpm). As shown in FIG. 9, since the sensitivity of the image sensor differs between the G component and the R component, both signal intensities are different. On the other hand, in both the R component and the G component, there is no change in that noise appears outside the range of 30 bpm to 240 bpm, particularly in a specific frequency band of 3 bpm or more and less than 20 bpm. For this reason, as shown in FIG. 9, the signal intensity corresponding to the designated frequency Fn included in the specific frequency band of 3 bpm or more and less than 20 bpm can be extracted as Gn and Rn. The sensitivity difference correction coefficient k can be derived from these Gn and Rn.
図10は、G成分および補正係数kが乗算されたR成分の各信号のスペクトルの一例を示す図である。図10の例では、説明の便宜上、補正係数の絶対値を乗算した結果が図示されている。図10に示すグラフにおいても、縦軸は、信号強度を指し、また、横軸は、周波数(bpm)を指す。図10に示すように、G成分及びR成分の各信号のスペクトルに補正係数kが乗算された場合には、G成分およびR成分の各成分の間で感度が揃う。特に、特定周波数帯におけるスペクトルの信号強度は、大部分においてスペクトルの信号強度が略同一になっている。その一方で、実際に脈波が含まれる周波数の周辺領域60は、G成分およびR成分の各成分の間でスペクトルの信号強度が揃っていない。
FIG. 10 is a diagram illustrating an example of a spectrum of each signal of the R component multiplied by the G component and the correction coefficient k. In the example of FIG. 10, the result of multiplying the absolute value of the correction coefficient is shown for convenience of explanation. Also in the graph shown in FIG. 10, the vertical axis indicates the signal strength, and the horizontal axis indicates the frequency (bpm). As shown in FIG. 10, when the spectrum of each signal of the G component and the R component is multiplied by the correction coefficient k, the sensitivity is uniform between the components of the G component and the R component. In particular, the spectrum signal intensity in a specific frequency band is almost the same in most spectrum signals. On the other hand, in the
図11は、演算後のスペクトルの一例を示す図である。図11では、脈波が現れている周波数帯の視認性を上げる観点から縦軸である信号強度の尺度を大きくして図示している。図11に示すように、G信号のスペクトルから補正係数kの乗算後のR信号のスペクトルが差し引かれた場合には、G成分およびR成分の間での吸光特性の差によって脈波が現れる信号成分の強度が可及的に維持された状態でノイズ成分が低減されている。このようにしてノイズ成分だけが除去された脈波波形を検出することができる。 FIG. 11 is a diagram illustrating an example of a spectrum after calculation. In FIG. 11, the scale of the signal intensity, which is the vertical axis, is enlarged from the viewpoint of improving the visibility of the frequency band in which the pulse wave appears. As shown in FIG. 11, when the spectrum of the R signal after multiplication by the correction coefficient k is subtracted from the spectrum of the G signal, a signal in which a pulse wave appears due to a difference in light absorption characteristics between the G component and the R component. The noise component is reduced with the strength of the component maintained as much as possible. In this way, it is possible to detect a pulse wave waveform from which only noise components have been removed.
続いて、計測部46の機能的構成についてさらに具体的に説明する。図12は、計測部の機能的構成を示すブロック図である。図12に示すように、計測部46は、第1算出部51と、BPF(Band-Pass Filter)52R及び52Gと、抽出部53R及び53Gと、LPF(Low-Pass Filter)54R及び54Gとを有する。また、計測部46は、第2算出部55と、BPF56R及び56Gと、乗算部57と、演算部58と、検出部59とを有する。なお、図9〜図11の例では、周波数空間にて脈波を検出する例を説明したが、図12では、周波数成分への変換にかかる時間を削減する観点から、時系列空間にてノイズ成分をキャンセルして脈波を検出する場合の機能的構成を図示している。
Next, the functional configuration of the
第1算出部51は、計測領域毎に、計測領域に含まれる各画素から波長成分が通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出する。そして、第1算出部51は、R成分及びG成分ごとに、計測領域から抽出された各画素の画素値の代表値として平均値を算出する。なお、代表値は、計測対象の領域に含まれる各画素の画素値を代表する値であれば、平均値以外であってもよい。そして、第1算出部51は、各計測領域から算出されるR信号及びG信号の平均値を所定の時間、例えば1秒間や1分間などにわたって時系列にサンプリングし、サンプリングされたR信号及びG信号の時系列データを後段の機能部へ出力する。例えば、第1算出部51は、R信号の時系列データをBPF52R及びBPF56Rへ出力するとともに、G信号の時系列データをBPF52G及びBPF56Gへ出力する。
For each measurement region, the
BPF52R、BPF52G、BPF56R及びBPF56Gは、いずれも所定の周波数帯の信号成分だけを通過させてそれ以外の周波数帯の信号成分を除去するバンドパスフィルタである。これらBPF52R、BPF52G、BPF56R及びBPF56Gは、ハードウェアによって実装されることとしてもよいし、ソフトウェアによって実装されることとしてもよい。
Each of the
これらBPFが通過させる周波数帯の違いについて説明する。BPF52R及びBPF52Gは、ノイズ成分が他の周波数帯よりも顕著に現れる特定周波数帯の信号成分を通過させる。
The difference in the frequency band that the BPF passes will be described. The
かかる特定周波数帯は、脈波が採り得る周波数帯との間で比較することによって定めることができる。脈波が採り得る周波数帯の一例としては、0.5Hz以上4Hz以下である周波数帯、1分あたりに換算すれば30bpm以上240bpm以下である周波数帯が挙げられる。このことから、特定周波数帯の一例としては、脈波として計測され得ない0.5Hz未満及び4Hz超過の周波数帯を採用することができる。また、特定周波数帯は、脈波が採り得る周波数帯との間でその一部が重複することとしてもよい。例えば、脈波として計測されることが想定しづらい0.7Hz〜1Hzの区間で脈波が採り得る周波数帯と重複することを許容し、1Hz未満及び4Hz以上の周波数帯を特定周波数帯として採用することもできる。また、特定周波数帯は、1Hz未満及び4Hz以上の周波数帯を外縁とし、ノイズがより顕著に現れる周波数帯に絞ることもできる。例えば、ノイズは、脈波が採り得る周波数帯よりも高い高周波数帯よりも、脈波が採り得る周波数帯よりも低い低周波数帯でより顕著に現れる。このため、1Hz未満の周波数帯に特定周波数帯を絞ることもできる。また、空間周波数がゼロである直流成分の近傍には、各成分の撮像素子の感度の差が多く含まれるので、3bpm以上60bpm未満の周波数帯に特定周波数帯を絞ることもできる。さらに、人の体の動き、例えば瞬きや体の揺れの他、環境光のチラツキなどのノイズが現れやすい3bpm以上20bpm未満の周波数帯に特定周波数帯を絞ることもできる。 Such a specific frequency band can be determined by comparing with a frequency band that can be taken by a pulse wave. An example of a frequency band that can be taken by a pulse wave is a frequency band of 0.5 Hz to 4 Hz, and a frequency band of 30 bpm to 240 bpm when converted per minute. From this, as an example of the specific frequency band, a frequency band of less than 0.5 Hz and more than 4 Hz that cannot be measured as a pulse wave can be employed. Further, the specific frequency band may partially overlap with the frequency band that can be taken by the pulse wave. For example, it is allowed to overlap with the frequency band that the pulse wave can take in the section of 0.7 Hz to 1 Hz that is difficult to be measured as a pulse wave, and the frequency band of less than 1 Hz and 4 Hz or more is adopted as the specific frequency band. You can also Further, the specific frequency band can be narrowed down to a frequency band in which noise is more noticeable with the frequency band of less than 1 Hz and 4 Hz or more as the outer edge. For example, noise appears more noticeably in a low frequency band lower than a frequency band that can take a pulse wave, rather than a high frequency band that is higher than a frequency band that the pulse wave can take. For this reason, a specific frequency band can also be narrowed down to a frequency band of less than 1 Hz. Further, since there are many differences in the sensitivity of the image sensor of each component in the vicinity of the direct current component where the spatial frequency is zero, the specific frequency band can be narrowed down to a frequency band of 3 bpm or more and less than 60 bpm. Further, the specific frequency band can be narrowed down to a frequency band of 3 bpm to less than 20 bpm in which noise such as flickering of ambient light other than human body movement, for example, blinking or shaking of the body, is likely to appear.
ここでは、一例として、BPF52R及びBPF52Gが特定周波数帯として0.05Hz以上0.3Hz以下の周波数帯の信号成分を通過させる場合を想定して以下の説明を行う。なお、ここでは、特定周波数帯の信号成分を抽出するために、バンドパスフィルタを用いる場合を例示したが、一定の周波数未満の周波数帯の信号成分を抽出する場合などには、ローパスフィルタを用いることもできる。
Here, as an example, the following description will be given assuming that the
一方、BPF56R及びBPF56Gは、脈波が採り得る周波数帯、例えば1Hz以上4Hz以下の周波数帯の信号成分を通過させる。なお、以下では、脈波が採り得る周波数帯のことを「脈波周波数帯」と記載する場合がある。
On the other hand, the
抽出部53Rは、R信号の特定周波数帯の信号成分の絶対強度値を抽出する。例えば、抽出部53Rは、R成分の特定周波数帯の信号成分をべき乗する乗算処理を実行することによって特定周波数帯の信号成分の絶対強度値を抽出する。また、抽出部53Gは、G信号の特定周波数帯の信号成分の絶対強度値を抽出する。例えば、抽出部53Gは、G成分の特定周波数帯の信号成分をべき乗する乗算処理を実行することによって特定周波数帯の信号成分の絶対強度値を抽出する。
The
LPF54R及びLPF54Gは、特定周波数帯の絶対強度値の時系列データに対し、時間変化に応答させる平滑化処理を実行するローパスフィルタである。これらLPF54R及びLPF54Gは、LPF54Rへ入力される信号がR信号であり、LPF54Gへ入力される信号がG信号である以外に違いはない。かかる平滑化処理によって、特定周波数帯の絶対値強度R´n及びG´nが得られる。
The
第2算出部55は、LPF54Gによって出力されたG信号の特定周波数帯の絶対値強度G´nを、LPF54Rによって出力されたR信号の特定周波数帯の絶対値強度R´nで除する除算「G´n/R´n」を実行する。これによって、感度差の補正係数kを算出する。
The
乗算部57は、BPF56Rによって出力されたR信号の脈波周波数帯の信号成分に第2算出部55によって算出された補正係数kを乗算する。
The
演算部58は、乗算部57によって補正係数kが乗算されたR信号の脈波周波数帯の信号成分から、BPF56Gによって出力されたG信号の脈波周波数帯の信号成分を差し引く演算「k*Rs−Gs」を実行する。かかる演算によって得られた信号の時系列データは、脈波の波形に相当する。
The
検出部59は、演算後の脈波の波形の信号を用いて、被験者の脈波を検出する。一態様としては、検出部59は、信号の時系列データを脈波の検出結果として出力する。他の一態様としては、検出部59は、信号の時系列データにフーリエ変換を適用することによって周波数成分へ変換されたスペクトルから心拍数を検出することもできる。
The
図1に戻り、計測部46は、図12に示した計測処理を行って、計測対象の領域に含まれ、通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出し、抽出した各画素から脈波を計測する。ここで、被験者の顔の向きにより、計測領域に背景が含まれる場合がある。しかし、計測部46は、通過帯域の範囲内の各画素を抽出している。これにより、計測部46は、計測領域に通過帯域の範囲外の画素が含まれるようになっても精度良く脈波を計測できる。
Returning to FIG. 1, the
図13は、計測領域に背景が含まれる状態の一例を示す図である。図13の例では、被験者の顔が左向きに変化したことにより、左頬領域80Lに背景が含まれている。この背景部分は、輝度変化が大きい、ノイズとなる。また、図13の例では、左頬領域80Lに鼻が含まれている。この鼻部分も、光の当たり方による輝度の変化が大きく、ノイズとなる。このような左頬領域80Lから脈波を求める場合、ノイズにより脈波の検出精度が低下する。例えば、図13には、左頬領域80Lの各画素の各波長成分に画素値のヒストグラムが示されている。図13に示すように、左頬領域80Lにノイズが含まれることにより、ヒストグラムは、広い範囲に画素が分布している。
FIG. 13 is a diagram illustrating an example of a state in which the background is included in the measurement region. In the example of FIG. 13, the background of the
計測部46は、通過帯域の範囲内の各画素を抽出する。これにより、ノイズの画素が抽出されず、皮膚部分の画素が抽出されるようになるため、精度良く脈波を計測できる。図14は、通過帯域の画素を抽出した結果の一例を示す図である。図14の例は、図13に示した左頬領域80Lから通過帯域の画素を抽出した結果である。図14に示すように、背景部分および鼻部分の画素を除いて皮膚部分の画素が抽出されている。
The
出力制御部47は、計測部46により計測された脈波を出力する。例えば、出力制御部47は、計測部46により計測された脈波を表示部21に表示させる。なお、出力制御部47は、計測部46により計測された脈波の情報を他の装置へ送信してもよい。例えば、ネットワークを介して電子カルテサービスや診断サービスを提供するサーバへ、計測された脈波の情報を送信してもよい。例えば、診断サービスでは、高血圧の人物が頻脈、例えば100bpm以上である場合に狭心症や心筋梗塞の疑いがあると診断したり、心拍数を用いて不整脈や精神疾患、例えば緊張やストレスを診断したりする。これにより、院外、例えば在宅や在席でも脈拍のモニタリングサービスを提供できる。
The output control unit 47 outputs the pulse wave measured by the
[処理の流れ]
続いて、本実施例に係る脈波検出装置10により実行される処理について説明する。最初に、本実施例に係る脈波検出装置10により演算式の各種のパラメータおよび通過帯域を設定するキャリブレーション処理の流れについて説明する。図15は、キャリブレーション処理の手順を示すフローチャートである。このキャリブレーション処理は、例えば、入力部22に対してキャリブレーションの実行を指示する所定操作が行われたタイミングで実行される。
[Process flow]
Subsequently, processing executed by the pulse
図15に示すように、撮影制御部40は、カメラ20を制御して連続的に画像の撮影を開始する(S10)。パラメータ格納部43は、カメラ20に対して被験者が正対するように促す(S11)。例えば、パラメータ格納部43は、表示部21に「カメラ20に対して正対して下さい。」とのメッセージを表示して、被験者がカメラ20に対して正対するように促す。顔部位検出部41は、カメラ20により撮影された画像に対して顔領域の検出を行う(S12)。例えば、顔部位検出部41は、眼や、口の位置および右頬、左頬、額の各領域の位置を検出する。顔部位検出部41は、顔領域を検出できたか否かを判定する(S13)。顔領域を検出できていない場合(S13否定)、再度S12へ移行して次に撮影された画像に対して顔領域の検出を行う。
As shown in FIG. 15, the
一方、顔領域を検出できた場合(S13肯定)、顔向検出部42は、正対した状態に対する顔の向きを検出する(S14)。顔向検出部42は、顔の向きを正対した状態と見なせるか否かを判定する(S15)。例えば、顔向検出部42は、顔の向きの回転角度θx、θyがそれぞれゼロを基準に正対した状態と見なせる所定許容角度以内であるか否かを判定する。正対した状態ではない場合(S15否定)、再度S12へ移行して次に撮影された画像に対して顔領域の検出を行う。
On the other hand, when the face area can be detected (Yes in S13), the face
一方、正対した状態と見なせる場合(S15肯定)、パラメータ格納部43は、眼や、口の位置および右頬、左頬、額の各領域から、演算式情報30に記憶された、計測領域の算出する各演算式に設けられた各種のパラメータの値を算出する(S16)。パラメータ格納部43は、算出した各種のパラメータの値を演算パラメータ情報31に格納する(S17)。
On the other hand, when it can be regarded as a face-to-face state (S15 affirmative), the
通過帯域格納部44は、撮影された画像から、計測領域毎に、計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求める(S18)。通過帯域格納部44は、各計測領域について、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定して、特定した波長成分毎の標準的な画素値の範囲を通過帯域として通過帯域情報33に設定し(S19)、処理を終了する。
The passband storage unit 44 obtains a histogram of pixel values for each wavelength component from each pixel included in the measurement region for each measurement region from the captured image (S18). For each measurement region, the passband storage unit 44 specifies a standard pixel value range based on the peak pixel value for each wavelength component, and sets the standard pixel value range for each specified wavelength component. The
次に、本実施例に係る脈波検出装置10により脈波を検出する検出処理の流れについて説明する。図16は、検出処理の手順を示すフローチャートである。この検出処理は、例えば、入力部22に対して脈波の検出開始を指示する所定操作が行われたタイミングで実行される。
Next, the flow of detection processing for detecting a pulse wave by the pulse
図16に示すように、撮影制御部40は、カメラ20を制御して連続的に画像の撮影を開始する(S50)。顔部位検出部41は、カメラ20により撮影された画像に対して顔領域の検出を行う(S51)。例えば、顔部位検出部41は、眼や、口の位置を検出する。顔向検出部42は、正対した状態に対する顔の向きを検出する(S52)。
As shown in FIG. 16, the
顔部位検出部41は、検出された顔の向きが計測範囲内であるか否かを判定する(S53)。例えば、顔部位検出部41は、検出された回転角度θyが±30度の範囲内であり、回転角度θxが±15度の範囲内である場合、計測範囲内であると判定する。顔の向きが計測範囲内ではない場合(S53否定)、出力制御部47は、顔の向きが計測範囲内ではない旨の警告を表示部21に出力し(S54)、再度S51へ移行して次に撮影された画像に対して脈波の計測を行う。 The face part detection unit 41 determines whether or not the detected face orientation is within the measurement range (S53). For example, when the detected rotation angle θ y is within a range of ± 30 degrees and the rotation angle θ x is within a range of ± 15 degrees, the face part detection unit 41 determines that it is within the measurement range. When the face orientation is not within the measurement range (No at S53), the output control unit 47 outputs a warning to the display unit 21 that the face orientation is not within the measurement range (S54), and the process proceeds to S51 again. Next, the pulse wave is measured for the photographed image.
一方、顔の向きが計測範囲内である場合(S53肯定)、算出部45は、顔部位検出部41により検出された顔の眼や、口の位置から、撮影された画像内での脈波の計測領域の位置を算出する(S55)。算出部45は、顔向検出部42により検出された顔の向きの回転角度に応じて、計測領域の位置を補正する(S56)。
On the other hand, when the orientation of the face is within the measurement range (Yes in S53), the
計測部46は、撮影された画像の補正された計測領域に含まれる各波長成分の信号から脈波を計測する(S57)。例えば、計測部46は、計測領域毎に、計測領域に含まれる各画素から波長成分が通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出する。そして、計測部46は、抽出した各画素の波長成分別の代表値の信号から、各波長成分の間で脈波が採り得る脈波周波数帯以外の特定周波数帯の成分が互いに相殺された信号の波形を脈波として計測する。
The
出力制御部47は、処理終了であるか否かを判定する(S58)。例えば、出力制御部47は、入力部22に対して処理終了を指示する所定操作が行われた場合、処理終了であると判定(S58肯定)して処理を終了する。一方、出力制御部47は、処理終了を指示する所定操作が行われていない場合、処理終了ではないと判定(S58否定)して、計測部46による脈波の計測結果を表示部21に出力し(S59)、再度S51へ移行して次に撮影された画像に対して脈波の計測を行う。
The output control unit 47 determines whether or not the process is finished (S58). For example, when a predetermined operation for instructing the end of processing is performed on the
[実施例1の効果]
上述してきたように、本実施例に係る脈波検出装置10は、カメラ20によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出する。脈波検出装置10は、カメラ20によって撮影された画像から、所定の向きに対する被験者の顔の向きの回転角度を検出する。そして、脈波検出装置10は、所定部位の位置および回転角度の検出結果から被験者の顔の脈波の計測領域の位置を算出し、算出された計測領域から脈波を計測する。これにより、脈波検出装置10は、被験者の顔の向きに応じた計測領域の位置を求めて脈波を計測できるため、脈波の検出精度の低下を抑制できる。
[Effect of Example 1]
As described above, the pulse
また、本実施例に係る脈波検出装置10は、カメラ20によって画像が撮影される毎に、被験者の顔の所定部位の位置および被験者の顔の向きの回転角度を検出して、被験者の顔の脈波の計測領域の位置を算出する。これにより、脈波検出装置10は、撮影中に被験者の顔の向きが変化した場合でも安定して脈波を計測できる。
The pulse
また、本実施例に係る脈波検出装置10は、計測領域に含まれる画素のうち、各波長成分の画素値が、記憶部24に記憶された標準的な画素値の範囲となる画素から脈波を計測する。これにより、脈波検出装置10は、各波長成分の画素値が、標準的な画素値の範囲以外のノイズの画素が計測領域に含まれる場合でも安定して脈波を計測できる。
In addition, the pulse
また、本実施例に係る脈波検出装置10は、被験者の顔が正対した状態の画像の計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求める。そして、脈波検出装置10は、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定し、特定した波長成分毎の標準的な画素値の範囲を記憶部24に設定する。これにより、脈波検出装置10は、実際の被験者の皮膚部分の標準的な画素値の範囲を設定できるため、被験者の皮膚部分の画像を抽出できるようになる。
Further, the pulse
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.
上記の実施例では、入力信号としてR信号およびG信号の二種類を用いる場合を例示したが、異なる複数の光波長成分を持つ信号であれば任意の種類の信号および任意の数の信号を入力信号とすることができる。例えば、R、G、B、IRおよびNIRなどの光波長成分が異なる信号のうち任意の組合せの信号を2つ用いることもできるし、また、3つ以上用いることもできる。 In the above embodiment, the case where two types of R signal and G signal are used as the input signal is illustrated, but any type of signal and any number of signals can be input as long as the signals have a plurality of different optical wavelength components. It can be a signal. For example, two signals of any combination among signals having different optical wavelength components such as R, G, B, IR, and NIR can be used, or three or more signals can be used.
また、上記の実施例では、演算式の各種のパラメータおよび通過帯域を設定するキャリブレーションと、脈波の検出を別な処理として行う場合について説明したが、開示の装置はこれに限定されない。例えば、脈波を検出する検出処理の最初においてキャリブレーション処理を行うものとしてもよい。 In the above-described embodiments, the case where the calibration for setting various parameters of the arithmetic expression and the passband and the detection of the pulse wave are performed as separate processes has been described, but the disclosed apparatus is not limited thereto. For example, calibration processing may be performed at the beginning of detection processing for detecting a pulse wave.
また、上記の実施例では、キャリブレーション処理において被験者の向きを検出して正対しているか判定する場合について説明したが、開示の装置はこれに限定されない。例えば、被験者がカメラ20に対して正対するように促した後、一定期間後に被験者が正対しているものとして各種のパラメータの値を算出や、通過帯域の設定を行ってもよい。
Further, in the above-described embodiment, the case has been described in which the orientation of the subject is detected in the calibration process to determine whether or not the subject is facing, but the disclosed apparatus is not limited thereto. For example, after prompting the subject to face the
[分散および統合]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図1に示す撮影制御部40、顔部位検出部41、顔向検出部42、パラメータ格納部43、通過帯域格納部44、算出部45、計測部46および出力制御部47の各処理部が適宜統合または分割されてもよい。また、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。また、各処理部にて行なわれる各処理機能は、任意の一部の機能部を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の脈波検出装置10の機能を実現するようにしてもよい。
[Distribution and integration]
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific state of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, each processing unit of the
[脈波検出プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図17を用いて、上記の実施例と同様の機能を有する脈波検出プログラムを実行するコンピュータの一例について説明する。
[Pulse wave detection program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes a pulse wave detection program having the same function as that of the above-described embodiment will be described with reference to FIG.
図17は、脈波検出プログラムを実行するコンピュータの一例について説明するための図である。図17に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
FIG. 17 is a diagram for describing an example of a computer that executes a pulse wave detection program. As illustrated in FIG. 17, the computer 100 includes an operation unit 110a, a
HDD170には、上記の実施例1の撮影制御部40、顔部位検出部41、顔向検出部42、パラメータ格納部43、通過帯域格納部44、算出部45、計測部46および出力制御部47と同様の機能を発揮する脈波検出プログラム170aが予め記憶される。この脈波検出プログラム170aについては、図1に示した各々の機能部の各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納される必要はなく、処理に必要なデータのみがHDD170に格納されればよい。
The
そして、CPU150が、脈波検出プログラム170aをHDD170から読み出してRAM180に展開する。これによって、図17に示すように、脈波検出プログラム170aは、脈波検出プロセス180aとして機能する。この脈波検出プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、脈波検出プロセス180aは、図1または図12に示した各機能部にて実行される処理、例えば図15や図16に示す処理を含む。また、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されればよい。
Then, the CPU 150 reads the pulse wave detection program 170 a from the
なお、上記の脈波検出プログラム170aについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
Note that the pulse wave detection program 170a is not necessarily stored in the
10 脈波検出装置
20 カメラ
24 記憶部
25 制御部
30 演算式情報
31 演算パラメータ情報
32 角度パラメータ情報
33 通過帯域情報
40 撮影制御部
41 顔部位検出部
42 顔向検出部
43 パラメータ格納部
44 通過帯域格納部
45 算出部
46 計測部
47 出力制御部
DESCRIPTION OF
Claims (6)
撮像装置によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出し、
前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出し、
前記所定部位の位置と前記被験者の顔の脈波の計測領域の位置との関係を示した関係情報に基づいて、前記所定部位の位置から前記計測領域の位置を算出し、前記被験者の顔の向きの回転角度と計測領域の位置変化の関係を示した補正情報に基づいて、算出した前記計測領域の位置を、検出した前記回転角度に応じて補正して、前記被験者の顔の向きに応じた前記計測領域の位置を算出し、
前記被験者の顔の向きに応じて算出された計測領域から脈波を計測する
処理を実行させることを特徴とする脈波検出プログラム。 On the computer,
Detecting the position of the predetermined part of the face of the subject in the image from the image of the subject imaged by the imaging device;
From the image photographed by the imaging device, a rotation angle of the face direction of the subject with respect to a predetermined direction is detected,
Based on the relationship information indicating the relationship between the position of the predetermined part and the position of the measurement area of the pulse wave of the subject's face, the position of the measurement area is calculated from the position of the predetermined part, Based on the correction information indicating the relationship between the rotation angle of the direction and the position change of the measurement region, the calculated position of the measurement region is corrected according to the detected rotation angle, and according to the orientation of the face of the subject. and calculates the position of the measurement region,
A pulse wave detection program for executing a process of measuring a pulse wave from a measurement region calculated according to the orientation of the face of the subject .
ことを特徴とする請求項1に記載の脈波検出プログラム。 Each time an image is taken by the imaging device, the position of a predetermined part of the subject's face and the rotation angle of the orientation of the subject's face are detected, and the position of the pulse wave measurement region of the subject's face is calculated. The pulse wave detection program according to claim 1, wherein:
ことを特徴とする請求項1または2に記載の脈波検出プログラム。 In the processing for measuring the pulse wave, the pixel value of each wavelength component among the pixels included in the measurement region is stored in a storage unit that stores a range of standard pixel values used for pulse wave measurement for each wavelength component. The pulse wave detection program according to claim 1 or 2, wherein a pulse wave is measured from a pixel that falls within a range of stored standard pixel values.
前記被験者の顔が正対した状態の画像の前記計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求め、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定し、特定した波長成分毎の標準的な画素値の範囲を前記記憶部に設定する
処理をさらに実行させることを特徴とする請求項3に記載の脈波検出プログラム。 On the computer,
Obtain a histogram of pixel values for each wavelength component from each pixel included in the measurement region of the image of the subject's face facing up, and for each wavelength component, a standard pixel value based on the peak pixel value 4. The pulse wave detection program according to claim 3 , further comprising: executing a process of specifying a range and setting a standard pixel value range for each specified wavelength component in the storage unit. 5.
撮像装置によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出し、
前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出し、
前記所定部位の位置と前記被験者の顔の脈波の計測領域の位置との関係を示した関係情報に基づいて、前記所定部位の位置から前記計測領域の位置を算出し、前記被験者の顔の向きの回転角度と計測領域の位置変化の関係を示した補正情報に基づいて、算出した前記計測領域の位置を、検出した前記回転角度に応じて補正して、前記被験者の顔の向きに応じた前記計測領域の位置を算出し、
前記被験者の顔の向きに応じて算出された計測領域から脈波を計測する
処理を実行することを特徴とする脈波検出方法。 Computer
Detecting the position of the predetermined part of the face of the subject in the image from the image of the subject imaged by the imaging device;
From the image photographed by the imaging device, a rotation angle of the face direction of the subject with respect to a predetermined direction is detected,
Based on the relationship information indicating the relationship between the position of the predetermined part and the position of the measurement area of the pulse wave of the subject's face, the position of the measurement area is calculated from the position of the predetermined part, Based on the correction information indicating the relationship between the rotation angle of the direction and the position change of the measurement region, the calculated position of the measurement region is corrected according to the detected rotation angle, and according to the orientation of the face of the subject. and calculates the position of the measurement region,
A pulse wave detection method, comprising: performing a process of measuring a pulse wave from a measurement region calculated according to the orientation of the face of the subject .
前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出する顔向検出部と、
前記所定部位の位置と前記被験者の顔の脈波の計測領域の位置との関係を示した関係情報に基づいて、前記所定部位の位置から前記計測領域の位置を算出し、前記被験者の顔の向きの回転角度と計測領域の位置変化の関係を示した補正情報に基づいて、算出した前記計測領域の位置を、検出した前記回転角度に応じて補正して、前記被験者の顔の向きに応じた前記計測領域の位置を算出する算出部と、
前記被験者の顔の向きに応じて前記算出部により算出された計測領域から脈波を計測する計測部と、
を有することを特徴とする脈波検出装置。 A face part detection unit that detects a position of a predetermined part of the face of the subject in the image from an image of the subject photographed by the imaging device;
A face direction detection unit that detects a rotation angle of the face direction of the subject with respect to a predetermined direction from an image captured by the imaging device;
Based on the relationship information indicating the relationship between the position of the predetermined part and the position of the measurement area of the pulse wave of the subject's face, the position of the measurement area is calculated from the position of the predetermined part, Based on the correction information indicating the relationship between the rotation angle of the direction and the position change of the measurement region, the calculated position of the measurement region is corrected according to the detected rotation angle, and according to the orientation of the face of the subject. A calculation unit for calculating the position of the measurement area;
A measurement unit that measures a pulse wave from the measurement region calculated by the calculation unit according to the orientation of the face of the subject ;
A pulse wave detection device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013075351A JP6102433B2 (en) | 2013-03-29 | 2013-03-29 | Pulse wave detection program, pulse wave detection method, and pulse wave detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013075351A JP6102433B2 (en) | 2013-03-29 | 2013-03-29 | Pulse wave detection program, pulse wave detection method, and pulse wave detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014198201A JP2014198201A (en) | 2014-10-23 |
JP6102433B2 true JP6102433B2 (en) | 2017-03-29 |
Family
ID=52355512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013075351A Active JP6102433B2 (en) | 2013-03-29 | 2013-03-29 | Pulse wave detection program, pulse wave detection method, and pulse wave detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6102433B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3013220A4 (en) | 2013-06-26 | 2017-03-29 | Intel Corporation | Detection of a leading stroke risk indicator |
JP6455761B2 (en) * | 2015-03-31 | 2019-01-23 | 株式会社エクォス・リサーチ | Pulse wave detection device and pulse wave detection program |
JP6308161B2 (en) * | 2015-03-31 | 2018-04-11 | 株式会社エクォス・リサーチ | Pulse wave detection device and pulse wave detection program |
WO2016159150A1 (en) * | 2015-03-31 | 2016-10-06 | 株式会社エクォス・リサーチ | Pulse wave detection device and pulse wave detection program |
EP3359029A1 (en) * | 2015-10-06 | 2018-08-15 | Koninklijke Philips N.V. | Device, system and method for obtaining vital sign related information of a living being |
WO2017085894A1 (en) | 2015-11-20 | 2017-05-26 | 富士通株式会社 | Pulse wave analysis device, pulse wave analysis method, and pulse wave analysis program |
WO2017085895A1 (en) * | 2015-11-20 | 2017-05-26 | 富士通株式会社 | Information processing device, information processing method, and information processing program |
JP6865384B2 (en) * | 2016-02-17 | 2021-04-28 | パナソニックIpマネジメント株式会社 | Biological information detector |
CN107088071B (en) * | 2016-02-17 | 2021-10-15 | 松下知识产权经营株式会社 | Biological information detection device |
JP2017153773A (en) * | 2016-03-03 | 2017-09-07 | パナソニックIpマネジメント株式会社 | Biological information extraction device and biological information extraction system |
WO2017188099A1 (en) * | 2016-04-27 | 2017-11-02 | 旭化成株式会社 | Device, terminal and biometric information system |
CN107960989B (en) | 2016-10-20 | 2022-02-08 | 松下知识产权经营株式会社 | Pulse wave measurement device and pulse wave measurement method |
WO2018088358A1 (en) | 2016-11-10 | 2018-05-17 | シャープ株式会社 | Pulse wave detection device, image analysis device, and vital sign information generating system |
JP6957929B2 (en) * | 2017-03-28 | 2021-11-02 | 日本電気株式会社 | Pulse wave detector, pulse wave detection method, and program |
JP6373450B1 (en) * | 2017-05-23 | 2018-08-15 | 三菱電機株式会社 | Biometric device |
JP7020023B2 (en) * | 2017-09-25 | 2022-02-16 | 日本電気株式会社 | Mental and physical condition estimation device, mental and physical condition estimation method and program |
JP6878687B2 (en) * | 2018-03-27 | 2021-06-02 | シャープ株式会社 | Model setting device, non-contact blood pressure measuring device, model setting method, model setting program, and recording medium |
WO2019202671A1 (en) * | 2018-04-17 | 2019-10-24 | Nec Corporation | Pulse rate estimation apparatus, pulse rate estimation method, and computer-readable storage medium |
JP7204077B2 (en) | 2018-09-07 | 2023-01-16 | 株式会社アイシン | Pulse wave detection device, vehicle device, and pulse wave detection program |
JP7443044B2 (en) * | 2019-12-13 | 2024-03-05 | シャープ株式会社 | Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5446443B2 (en) * | 2009-05-15 | 2014-03-19 | 日産自動車株式会社 | Heart rate measuring apparatus and heart rate measuring method |
-
2013
- 2013-03-29 JP JP2013075351A patent/JP6102433B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014198201A (en) | 2014-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6102433B2 (en) | Pulse wave detection program, pulse wave detection method, and pulse wave detection device | |
JP6052027B2 (en) | Pulse wave detection device, pulse wave detection program, and pulse wave detection method | |
JP6256488B2 (en) | Signal processing apparatus, signal processing method, and signal processing program | |
JP6349075B2 (en) | Heart rate measuring device and heart rate measuring method | |
US20170112382A1 (en) | Pulse-wave detection method, pulse-wave detection device, and computer-readable recording medium | |
JP6547160B2 (en) | Pulse wave detection device and pulse wave detection program | |
JP5915757B2 (en) | Pulse wave detection method, pulse wave detection device, and pulse wave detection program | |
JP6167614B2 (en) | Blood flow index calculation program, blood flow index calculation device, and blood flow index calculation method | |
JP6098257B2 (en) | Signal processing apparatus, signal processing method, and signal processing program | |
JP6115263B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
WO2014155750A1 (en) | Blood flow index calculation method, blood flow index calculation program and blood flow index calculation device | |
JP7373298B2 (en) | Biological information detection device, biological information detection method, and biological information detection program | |
JP6142664B2 (en) | Pulse wave detection device, pulse wave detection program, pulse wave detection method, and content evaluation system | |
JP6393984B2 (en) | Pulse measuring device, pulse measuring method and pulse measuring program | |
JP6135255B2 (en) | Heart rate measuring program, heart rate measuring method and heart rate measuring apparatus | |
KR101787828B1 (en) | Heartrate measuring system using skin color filter | |
JP2021146061A (en) | Biological information acquisition device, biological information acquisition method and program | |
US11701011B2 (en) | Biological information detection device and biological information detection method | |
JP6488722B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
JP7106821B2 (en) | BIOLOGICAL SIGNAL ANALYZER, BIOLOGICAL SIGNAL ANALYSIS METHOD AND PROGRAM | |
JP7237768B2 (en) | Biological information detector | |
JP2018011641A (en) | Biological information measurement device, biological information measurement method, and biological information measurement system and program | |
US9978144B2 (en) | Biological information measurement apparatus, biological information measurement method, and computer-readable recording medium | |
US20230329570A1 (en) | Electronic device, storage medium for electronic device, and control method for electronic device | |
EP3981324A1 (en) | Assessment system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161012 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6102433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |