JP6102433B2 - Pulse wave detection program, pulse wave detection method, and pulse wave detection device - Google Patents

Pulse wave detection program, pulse wave detection method, and pulse wave detection device Download PDF

Info

Publication number
JP6102433B2
JP6102433B2 JP2013075351A JP2013075351A JP6102433B2 JP 6102433 B2 JP6102433 B2 JP 6102433B2 JP 2013075351 A JP2013075351 A JP 2013075351A JP 2013075351 A JP2013075351 A JP 2013075351A JP 6102433 B2 JP6102433 B2 JP 6102433B2
Authority
JP
Japan
Prior art keywords
pulse wave
face
subject
measurement
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013075351A
Other languages
Japanese (ja)
Other versions
JP2014198201A (en
Inventor
大輔 内田
大輔 内田
雅人 阪田
雅人 阪田
明大 猪又
明大 猪又
関口 英紀
英紀 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013075351A priority Critical patent/JP6102433B2/en
Publication of JP2014198201A publication Critical patent/JP2014198201A/en
Application granted granted Critical
Publication of JP6102433B2 publication Critical patent/JP6102433B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、脈波検出プログラム、脈波検出方法および脈波検出装置に関する。   The present invention relates to a pulse wave detection program, a pulse wave detection method, and a pulse wave detection device.

被験者が撮影された画像から血液の体積の変動、いわゆる脈波を検出する技術が知られている。例えば、被験者の顔をビデオカメラで撮像し、撮像データから濃度を算出して心拍および呼吸数を測定する従来技術が提案されている。   Techniques for detecting blood volume fluctuations, so-called pulse waves, from images taken by a subject are known. For example, a conventional technique has been proposed in which a subject's face is imaged with a video camera, a concentration is calculated from the imaging data, and a heart rate and a respiration rate are measured.

特開2005−218507号公報JP-A-2005-218507

ところで、脈波は、毛細血管の血流の変化に伴う皮膚部分の画像の輝度変化から検出する。この脈波に関係する輝度変化は、微少である。このため、脈波の検出では、脈波に関係する輝度変化を精度良く検出するため、顔の皮膚部を広く利用して輝度変化を測定したい。一方、顔の広い範囲を輝度変化の計測領域とした場合、画像に含まれる顔の周辺の背景が計測領域に含まれるようになり、背景の影響により輝度変化が大きくなって、脈波の検出精度が低下する場合がある。   By the way, the pulse wave is detected from the change in luminance of the image of the skin portion accompanying the change in blood flow of the capillary blood vessels. The luminance change related to the pulse wave is very small. For this reason, in detecting the pulse wave, in order to accurately detect the luminance change related to the pulse wave, it is desired to measure the luminance change widely using the skin portion of the face. On the other hand, when the luminance change measurement area is a wide area of the face, the background around the face included in the image is included in the measurement area, and the luminance change becomes large due to the influence of the background, and the pulse wave is detected. Accuracy may be reduced.

そこで、撮影される各フレームの画像について顔検出を行って顔領域を特定し、顔領域の中央部分を計測領域として、計測領域から輝度変化を測定することが考えられる。例えば、顔領域の外縁である顔枠から距離または比率により顔領域の中央に絞った中央部分を計測領域とすることが考えられる。   In view of this, it is conceivable to perform face detection on each frame image to identify a face area, and to measure a change in luminance from the measurement area using the central portion of the face area as a measurement area. For example, it is conceivable that the central portion narrowed down to the center of the face area by the distance or ratio from the face frame that is the outer edge of the face area is used as the measurement area.

しかしながら、顔枠からの距離または比率により計測領域を中央部分に絞った場合でも、脈波の検出精度が低下する場合がある。例えば、被験者の顔の向きにより、計測領域に背景が含まれる場合などがあり、脈波の検出精度が低下する。   However, even when the measurement region is narrowed down to the center portion depending on the distance or ratio from the face frame, the pulse wave detection accuracy may be reduced. For example, depending on the orientation of the face of the subject, the measurement region may include a background, and the pulse wave detection accuracy is reduced.

図18は、被験者の顔の向きによる計測領域の変化の一例を説明するための図である。図18の例では、被験者が正対した状態、被験者が上を向いた状態、被験者が右を向いた状態、被験者が下を向いた状態の画像がそれぞれ示されている。図18の例では、被験者の顔の眼、鼻、口、頬、額を含む顔領域の外縁である顔枠200から距離または比率により顔領域の中央に絞った中央部分を計測領域201としている。   FIG. 18 is a diagram for explaining an example of a change in the measurement region depending on the face orientation of the subject. In the example of FIG. 18, images of a state where the subject is directly facing, a state where the subject is facing up, a state where the subject is facing right, and a state where the subject is facing down are shown. In the example of FIG. 18, the measurement area 201 is a central portion that is narrowed down to the center of the face area by the distance or ratio from the face frame 200 that is the outer edge of the face area including the eyes, nose, mouth, cheek, and forehead of the subject's face. .

被験者が上を向いた状態の画像は、計測領域201に被験者の鼻や目の外縁、口が含まれる。また、被験者が右を向いた状態の画像は、計測領域201に背景や口が含まれる。また、被験者が下を向いた状態の画像は、計測領域201に鼻や目、口が含まれる。このような計測領域201を脈波の検出に用いた場合には、鼻部分の輝度の変化や、眼の瞬き、背景がノイズとなって心拍数の検出精度の低下を招く場合がある。   In the image with the subject facing upward, the measurement region 201 includes the nose of the subject, the outer edge of the eye, and the mouth. In addition, in the image with the subject facing right, the measurement area 201 includes a background and a mouth. Further, in the image in a state where the subject faces downward, the measurement area 201 includes a nose, eyes, and a mouth. When such a measurement region 201 is used for pulse wave detection, there are cases where the luminance of the nose changes, the blinking of the eyes, the background becomes noise, and the detection accuracy of the heart rate is lowered.

一側面では、脈波の検出精度の低下を抑制できる脈波検出プログラム、脈波検出方法および脈波検出装置を提供することを目的とする。   An object of one aspect is to provide a pulse wave detection program, a pulse wave detection method, and a pulse wave detection device that can suppress a decrease in detection accuracy of a pulse wave.

本発明の一側面によれば、脈波検出プログラムは、コンピュータに、撮像装置によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出する処理を実行させる。脈波検出プログラムは、コンピュータに、前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出する処理を実行させる。脈波検出プログラムは、コンピュータに、前記所定部位の位置および前記回転角度の検出結果から前記被験者の顔の脈波の計測領域の位置を算出する処理を実行させる。脈波検出プログラムは、コンピュータに、算出された計測領域から脈波を計測する処理を実行させる。   According to one aspect of the present invention, the pulse wave detection program causes a computer to execute processing for detecting a position of a predetermined part of the face of the subject in the image from an image of the subject taken by the imaging device. The pulse wave detection program causes a computer to execute a process of detecting a rotation angle of the face direction of the subject with respect to a predetermined direction from an image taken by the imaging device. The pulse wave detection program causes the computer to execute processing for calculating the position of the pulse wave measurement region of the subject's face from the position of the predetermined part and the detection result of the rotation angle. The pulse wave detection program causes a computer to execute processing for measuring a pulse wave from the calculated measurement region.

本発明の一側面によれば、脈波の検出精度の低下を抑制できる効果を奏する。   Advantageous Effects of Invention According to one aspect of the present invention, it is possible to suppress a decrease in pulse wave detection accuracy.

図1は、脈波検出装置の機能的構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of the pulse wave detection device. 図2Aは、画像の各領域のヒストグラムの一例を示す図である。FIG. 2A is a diagram illustrating an example of a histogram of each region of an image. 図2Bは、画像の各領域のヒストグラムの一例を示す図である。FIG. 2B is a diagram illustrating an example of a histogram of each region of the image. 図2Cは、画像の各領域のヒストグラムの一例を示す図である。FIG. 2C is a diagram illustrating an example of a histogram of each region of the image. 図2Dは、画像の各領域のヒストグラムの一例を示す図である。FIG. 2D is a diagram illustrating an example of a histogram of each region of the image. 図3は、顔の部位の配置のパターンを説明する図である。FIG. 3 is a diagram for explaining an arrangement pattern of facial parts. 図4は、画像内での被験者の顔の横方向の向きによる領域のサイズの変化を説明する図である。FIG. 4 is a diagram for explaining a change in the size of the region depending on the horizontal direction of the face of the subject in the image. 図5は、重み係数が乗算されたR成分及びG成分の各信号のスペクトルの一例を示す図である。FIG. 5 is a diagram illustrating an example of the spectrum of each signal of the R component and the G component multiplied by the weighting factor. 図6は、画像内での被験者の顔の縦方向の向きによる領域のサイズの変化を説明する図である。FIG. 6 is a diagram for explaining a change in the size of the region depending on the vertical direction of the face of the subject in the image. 図7は、被験者の顔の縦方向の向きの変化による領域のサイズの変化を説明する図である。FIG. 7 is a diagram for explaining a change in the size of the region due to a change in the vertical direction of the face of the subject. 図8は、通過帯域を説明する図である。FIG. 8 is a diagram illustrating the passband. 図9は、G信号およびR信号の各信号のスペクトルの一例を示す図である。FIG. 9 is a diagram illustrating an example of the spectrum of each signal of the G signal and the R signal. 図10は、G成分および補正係数kが乗算されたR成分の各信号のスペクトルの一例を示す図である。FIG. 10 is a diagram illustrating an example of a spectrum of each signal of the R component multiplied by the G component and the correction coefficient k. 図11は、演算後のスペクトルの一例を示す図である。FIG. 11 is a diagram illustrating an example of a spectrum after calculation. 図12は、計測部の機能的構成を示すブロック図である。FIG. 12 is a block diagram illustrating a functional configuration of the measurement unit. 図13は、計測領域に背景が含まれる状態の一例を示す図である。FIG. 13 is a diagram illustrating an example of a state in which the background is included in the measurement region. 図14は、通過帯域の画素を抽出した結果の一例を示す図である。FIG. 14 is a diagram illustrating an example of a result of extracting pixels in the passband. 図15は、キャリブレーション処理の手順を示すフローチャートである。FIG. 15 is a flowchart showing the procedure of the calibration process. 図16は、検出処理の手順を示すフローチャートである。FIG. 16 is a flowchart showing the procedure of the detection process. 図17は、脈波検出プログラムを実行するコンピュータの一例について説明するための図である。FIG. 17 is a diagram for describing an example of a computer that executes a pulse wave detection program. 図18は、被験者の顔の向きによる計測領域の変化の一例を説明するための図である。FIG. 18 is a diagram for explaining an example of a change in the measurement region depending on the face orientation of the subject.

以下に、本願の開示する脈波検出プログラム、脈波検出方法および脈波検出装置の実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Hereinafter, embodiments of a pulse wave detection program, a pulse wave detection method, and a pulse wave detection device disclosed in the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the disclosed technology. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory.

[脈波検出装置の構成]
図1は、脈波検出装置の機能的構成を示すブロック図である。図1に示す脈波検出装置10は、太陽光や室内光などの環境光の下で生体に計測器具を接触させずに、被験者が撮影された画像を用いて被験者の脈波を検出する装置である。ここで言う「脈波」とは、血液の体積の変動、すなわち血流の増減を表す指標を指し、いわゆる心拍数や心拍波形などが含まれる。かかる脈波検出装置10の一態様としては、例えば、スマートフォン、PDA(Personal Digital Assistant)、携帯電話機等の携帯端末装置等である。脈波検出装置10の一態様としては、スマートフォンに脈波を検出するアプリケーションプログラムをプリインストールまたはインストールさせ、当該アプリケーションプログラムを動作させることによって実現される。なお、脈波検出装置10は、デスクトップ型PC(パーソナル・コンピュータ)、タブレット型PC、ノート型PCなどの情報処理装置であってもよい。
[Configuration of pulse wave detector]
FIG. 1 is a block diagram showing a functional configuration of the pulse wave detection device. A pulse wave detection device 10 shown in FIG. 1 is a device that detects a pulse wave of a subject using an image taken by the subject without bringing a measuring instrument into contact with the living body under ambient light such as sunlight or room light. It is. The “pulse wave” here refers to an index representing fluctuations in blood volume, that is, increase or decrease in blood flow, and includes so-called heart rate and heart rate waveform. Examples of the pulse wave detection device 10 include a mobile terminal device such as a smartphone, a PDA (Personal Digital Assistant), and a mobile phone. One aspect of the pulse wave detection device 10 is realized by causing a smartphone to pre-install or install an application program for detecting a pulse wave and operating the application program. The pulse wave detection device 10 may be an information processing device such as a desktop PC (personal computer), a tablet PC, or a notebook PC.

脈波検出装置10は、図1に示すように、カメラ20と、表示部21と、入力部22と、通信I/F(interface)部23と、記憶部24と、制御部25とを有する。なお、脈波検出装置10は、図1に示した機能部以外にも既知の携帯端末装置が有する各種の機能部を有することとしてもかまわない。例えば、脈波検出装置10は、アンテナ、キャリア網を介して通信を行うキャリア通信部、GPS(Global Positioning System)受信機などを有することとしてもかまわない。   As shown in FIG. 1, the pulse wave detection device 10 includes a camera 20, a display unit 21, an input unit 22, a communication I / F (interface) unit 23, a storage unit 24, and a control unit 25. . Note that the pulse wave detection device 10 may include various functional units included in known mobile terminal devices in addition to the functional units illustrated in FIG. 1. For example, the pulse wave detection device 10 may include an antenna, a carrier communication unit that performs communication via a carrier network, a GPS (Global Positioning System) receiver, and the like.

カメラ20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いた撮像装置である。例えば、カメラ20には、R(red)、G(green)、B(blue)など3種以上の受光素子を搭載することができる。かかるカメラ20の実装例としては、デジタルカメラやWebカメラを外部端子を介して接続することとしてもよいし、携帯端末のようにカメラが出荷時から搭載されている場合にはそのカメラを流用できる。なお、ここでは、脈波検出装置10がカメラ20を有する場合を例示したが、ネットワーク経由または記憶デバイス経由で画像を取得できる場合には、必ずしも脈波検出装置10がカメラ20を有する必要はない。   The camera 20 is an imaging device using an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). For example, the camera 20 can be equipped with three or more light receiving elements such as R (red), G (green), and B (blue). As an implementation example of the camera 20, a digital camera or a Web camera may be connected via an external terminal, or the camera can be used when the camera is mounted from the time of shipment like a portable terminal. . In addition, although the case where the pulse wave detection device 10 has the camera 20 is illustrated here, the pulse wave detection device 10 does not necessarily have the camera 20 when an image can be acquired via a network or a storage device. .

表示部21は、各種情報を表示する表示デバイスである。表示部21としては、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)などの表示デバイスが挙げられる。表示部21は、各種情報を表示する。脈波検出装置10を通じて情報を表示する必要がなければ表示部21が無くても構わない。また、別の装置の表示部に表示することもできる。   The display unit 21 is a display device that displays various types of information. Examples of the display unit 21 include display devices such as an LCD (Liquid Crystal Display) and a CRT (Cathode Ray Tube). The display unit 21 displays various information. If it is not necessary to display information through the pulse wave detection device 10, the display unit 21 may be omitted. It can also be displayed on the display unit of another device.

入力部22は、各種の情報を入力する入力デバイスである。例えば、入力部22としては、マウスやキーボード、脈波検出装置10に設けられた各種のボタンや、表示部21上に設けられた透過型のタッチセンサなどの入力デバイスが挙げられる。なお、図1の例では、機能的な構成を示したため、表示部21と入力部22を別に分けているが、例えば、タッチパネルなど表示部21と入力部22を一体的に設けたデバイスで構成してもよい。   The input unit 22 is an input device that inputs various types of information. For example, as the input unit 22, an input device such as a mouse, a keyboard, various buttons provided on the pulse wave detection device 10, and a transmissive touch sensor provided on the display unit 21 can be cited. In the example of FIG. 1, since the functional configuration is shown, the display unit 21 and the input unit 22 are separately provided. For example, the display unit 21 and the input unit 22 such as a touch panel are integrally configured. May be.

通信I/F部23は、他の装置との間で通信制御を行うインタフェースである。かかる通信I/F部23の一態様としては、LANカードなどのネットワークインタフェースカードを採用できる。通信I/F部23は、不図示のネットワークを介して他の装置と各種情報を送受信する。例えば、通信I/F部23は、検出された脈波の情報をサーバ装置へ送信する。   The communication I / F unit 23 is an interface that controls communication with other devices. As an aspect of the communication I / F unit 23, a network interface card such as a LAN card can be employed. The communication I / F unit 23 transmits / receives various information to / from other devices via a network (not shown). For example, the communication I / F unit 23 transmits information on the detected pulse wave to the server device.

記憶部24は、各種情報を記憶するデバイスである。例えば、記憶部24としては、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子や、ハードディスク、SSD(Solid State Drive)、光ディスクなどの記憶装置が挙げられる。   The storage unit 24 is a device that stores various types of information. For example, the storage unit 24 includes a semiconductor memory device such as a RAM (Random Access Memory) and a flash memory, and a storage device such as a hard disk, an SSD (Solid State Drive), and an optical disk.

記憶部24は、制御部25で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部24は、制御部25で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部24は、演算式情報30と、演算パラメータ情報31と、角度パラメータ情報32と、通過帯域情報33とを記憶する。   The storage unit 24 stores an OS (Operating System) executed by the control unit 25 and various programs. Furthermore, the storage unit 24 stores various data used in programs executed by the control unit 25. For example, the storage unit 24 stores calculation formula information 30, calculation parameter information 31, angle parameter information 32, and passband information 33.

演算式情報30は、被験者の顔の脈波の計測領域の算出に用いる各種の演算式を記憶したデータである。演算パラメータ情報31は、各種の演算式に設定された各種のパラメータの値を記憶したデータである。   The calculation formula information 30 is data that stores various calculation formulas used for calculation of the pulse wave measurement region of the subject's face. The calculation parameter information 31 is data in which values of various parameters set in various arithmetic expressions are stored.

ここで、脈波に関係する輝度変化は、微少である。このため、脈波の検出では、脈波に関係する輝度変化を精度良く検出するため、顔の皮膚部を広く利用して輝度変化を測定することが好ましい。一方、顔の広い範囲を輝度変化の計測領域とした場合、画像に含まれる顔の周辺の背景が計測領域に含まれるようになり、背景の影響により輝度変化が大きくなって、脈波の検出精度が低下する場合がある。   Here, the luminance change related to the pulse wave is very small. For this reason, in detecting a pulse wave, it is preferable to measure the luminance change widely using the skin portion of the face in order to accurately detect the luminance change related to the pulse wave. On the other hand, when the luminance change measurement area is a wide area of the face, the background around the face included in the image is included in the measurement area, and the luminance change becomes large due to the influence of the background, and the pulse wave is detected. Accuracy may be reduced.

図2Aは、画像の各領域のヒストグラムの一例を示す図である。図2Aの例では、眼、鼻、口、頬、額を含む矩形領域70AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Aの例では、鼻、口を含む矩形領域70BのR、G、Bの各成分に画素値のヒストグラムが示されている。矩形領域70Aは、周辺の背景が含まれ、また、被験者の眼が映っている。この矩形領域70Aの画像を脈波の検出に用いた場合には、背景や眼の瞬きがノイズとなって心拍数の検出精度の低下を招く場合がある。また、矩形領域70Bは、被験者の口が映っている。この矩形領域70Bを画像を脈波の検出に用いた場合には、口の動きがノイズとなって心拍数の検出精度の低下を招く場合がある。   FIG. 2A is a diagram illustrating an example of a histogram of each region of an image. In the example of FIG. 2A, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 70A including the eye, nose, mouth, cheek, and forehead. In the example of FIG. 2A, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 70B including the nose and mouth. The rectangular area 70A includes a surrounding background, and the eyes of the subject are reflected. When the image of the rectangular area 70A is used for pulse wave detection, the background or blinking of the eyes may become noise, leading to a decrease in heart rate detection accuracy. The rectangular area 70B shows the mouth of the subject. When this rectangular region 70B is used for detecting a pulse wave, the movement of the mouth may become noise, leading to a decrease in heart rate detection accuracy.

図2Bは、画像の各領域のヒストグラムの一例を示す図である。図2Bの例では、眼を含む矩形領域71AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Bの例では、鼻を含む矩形領域71BのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Bの例では、口を含む矩形領域71CのR、G、Bの各成分に画素値のヒストグラムが示されている。矩形領域71Aは、被験者の眼が映っている。この矩形領域71Aの画像を脈波の検出に用いた場合には、眼の瞬きがノイズとなって心拍数の検出精度の低下を招く場合がある。矩形領域71Aは、被験者の鼻が映っている。鼻部分は、光の当たり方による輝度の変化が大きい場合がある。この矩形領域71Bの画像を脈波の検出に用いた場合には、鼻部分の輝度変化がノイズとなって心拍数の検出精度の低下を招く場合がある。矩形領域71Cは、被験者の口が映っている。この矩形領域71Cの画像を脈波の検出に用いた場合には、口の動きがノイズとなって心拍数の検出精度の低下を招く場合がある。   FIG. 2B is a diagram illustrating an example of a histogram of each region of the image. In the example of FIG. 2B, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 71A including the eye. In the example of FIG. 2B, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 71B including the nose. In the example of FIG. 2B, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 71C including the mouth. In the rectangular area 71A, the eyes of the subject are shown. When the image of the rectangular area 71A is used for pulse wave detection, blinking of the eyes may cause noise and decrease in heart rate detection accuracy. The rectangular area 71A shows the subject's nose. The nose portion may have a large change in luminance due to the way light strikes. When the image of the rectangular area 71B is used for pulse wave detection, the luminance change of the nose portion may become noise and cause a decrease in heart rate detection accuracy. The rectangular area 71C shows the mouth of the subject. When the image of the rectangular area 71C is used for pulse wave detection, the movement of the mouth may become noise, leading to a decrease in heart rate detection accuracy.

図2Cは、画像の各領域のヒストグラムの一例を示す図である。図2Cの例では、右頬を含む矩形領域72AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Cの例では、左頬を含む矩形領域72BのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Cの例では、額を含む矩形領域72CのR、G、Bの各成分に画素値のヒストグラムが示されている。この矩形領域72A〜矩形領域72Cは、肌の色範囲を抽出できており、脈波の検出に好ましい領域である。   FIG. 2C is a diagram illustrating an example of a histogram of each region of the image. In the example of FIG. 2C, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 72A including the right cheek. In the example of FIG. 2C, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 72B including the left cheek. In the example of FIG. 2C, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 72C including the forehead. The rectangular area 72A to the rectangular area 72C can extract a skin color range, and are preferable areas for detecting a pulse wave.

図2Dは、画像の各領域のヒストグラムの一例を示す図である。図2Dの例では、頭部の髪部分の矩形領域73AのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Dの例では、背景部分の矩形領域73BのR、G、Bの各成分に画素値のヒストグラムが示されている。また、図2Dの例では、被験者の衣服部分の矩形領域73CのR、G、Bの各成分に画素値のヒストグラムが示されている。この矩形領域73A〜矩形領域73Cは、何れも皮膚部がほとんど含まれていないため、脈波を検出することができない領域である。   FIG. 2D is a diagram illustrating an example of a histogram of each region of the image. In the example of FIG. 2D, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular region 73A of the hair portion of the head. In the example of FIG. 2D, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 73B of the background portion. In the example of FIG. 2D, a histogram of pixel values is shown for each of the R, G, and B components of the rectangular area 73C of the subject's clothes. Each of the rectangular area 73A to the rectangular area 73C is an area where a pulse wave cannot be detected because the skin portion is hardly included.

このため、本実施例では、右頬、左頬および額の領域を計測領域として脈波の計測を行うものとしている。   For this reason, in this embodiment, pulse waves are measured using the right cheek, left cheek and forehead regions as measurement regions.

ところで、人は、顔に含まれる眼や耳、鼻、口、頬、額など顔の部位の配置のパターンが同様である。例えば、脈波の計測に好適な右頬、左頬の領域は、縦方向に対して眼と口の間付近に位置する。また、右頬の領域は、横方向に対して右眼の位置付近に位置する。左頬の領域は、横方向に対して左眼の位置付近に位置する。また、例えば、脈波の計測に好適な額の領域は、縦方向に対して眼の上方に位置する。また、額の領域は、横方向に対して右眼と左眼の間付近に位置する。よって、被験者の顔の部位の位置から他の部位の位置を推測することができる。図3は、顔の部位の配置のパターンを説明する図である。図3の例では、人の顔が眼、口、左頬が簡略化されて示されている。例えば、右眼の座標を(x1,y1)とし、左眼の座標を(x2,y2)とし、口の座標を(x3,y3)とした場合、左頬に該当する矩形領域の対向する2つの頂点P1、P2の座標(X1,Y1)、(X2,Y2)は、下記の式(1)、(2)のように表すことができる。 By the way, a person has the same arrangement pattern of facial parts such as eyes, ears, nose, mouth, cheeks, and forehead included in the face. For example, the right cheek region and the left cheek region suitable for pulse wave measurement are located in the vicinity between the eyes and the mouth with respect to the vertical direction. The right cheek region is located near the position of the right eye with respect to the horizontal direction. The left cheek region is located near the position of the left eye with respect to the horizontal direction. Further, for example, a forehead region suitable for pulse wave measurement is located above the eye with respect to the vertical direction. The forehead region is located in the vicinity between the right eye and the left eye with respect to the horizontal direction. Therefore, the position of the other part can be estimated from the position of the part of the face of the subject. FIG. 3 is a diagram for explaining an arrangement pattern of facial parts. In the example of FIG. 3, the human face is shown with the eyes, mouth, and left cheek simplified. For example, when the coordinates of the right eye are (x 1 , y 1 ), the coordinates of the left eye are (x 2 , y 2 ), and the coordinates of the mouth are (x 3 , y 3 ), it corresponds to the left cheek. The coordinates (X 1 , Y 1 ) and (X 2 , Y 2 ) of the two opposing vertices P1 and P2 of the rectangular area can be expressed as the following equations (1) and (2).

(X1,Y1)=(α・x1+(1−α)x2,β・y2+(1−β)y3)・・・(1)
(X2,Y2)=(γ・x1+(1−γ)x2,δ・y2+(1−δ)y3)・・・(2)
(X 1 , Y 1 ) = (α · x 1 + (1−α) x 2 , β · y 2 + (1−β) y 3 ) (1)
(X 2 , Y 2 ) = (γ · x 1 + (1−γ) x 2 , δ · y 2 + (1−δ) y 3 ) (2)

ここで、人は、それぞれ顔の部位の位置に違いがある。そこで、式(1)、(2)は、被験者に応じた計測領域の位置を算出するため、α、β、γ、δの各種のパラメータが設けられている。例えば、α=0、β=0.9の場合、頂点P1は、横方向が左眼の位置で、縦方向が眼と口の90%の高さの位置となる。   Here, each person has a difference in the position of the part of the face. Therefore, in Equations (1) and (2), various parameters of α, β, γ, and δ are provided in order to calculate the position of the measurement region corresponding to the subject. For example, when α = 0 and β = 0.9, the vertex P1 is the position of the left eye in the horizontal direction and the position of 90% height of the eyes and mouth in the vertical direction.

演算式情報30には、被験者の顔の所定部位から計測領域の算出に用いる演算式が記憶されている。本実施例では、所定部位として、眼、口の位置から計測領域として右頬、左頬、額の領域を算出する。このため、演算式情報30には、眼、口の位置から計測領域として右頬、左頬、額の領域を算出する演算式が記憶されている。例えば、演算式情報30には、上記の式(1)、(2)が記憶されている。なお、計測領域を算出する基準となる所定部位は、眼、口に限定されず、眼、鼻、口、眉、耳など何れの部位を用いてもよく、例えば、眼、鼻としてもよい。   The calculation formula information 30 stores a calculation formula used to calculate a measurement region from a predetermined part of the subject's face. In this embodiment, the right cheek, left cheek, and forehead regions are calculated as the measurement regions from the positions of the eyes and mouth as the predetermined portions. For this reason, the calculation formula information 30 stores calculation formulas for calculating the right cheek, left cheek, and forehead areas as measurement areas from the positions of the eyes and mouth. For example, the arithmetic expression information 30 stores the above expressions (1) and (2). Note that the predetermined part serving as a reference for calculating the measurement region is not limited to the eye and the mouth, and any part such as the eye, nose, mouth, eyebrows, and ears may be used. For example, the eye or nose may be used.

演算パラメータ情報31には、各演算式に設けられたパラメータの値が記憶されている。例えば、演算パラメータ情報31には、上記の式(1)、(2)に設けられたα、β、γ、δの各種のパラメータの値が記憶されている。本実施例では、演算パラメータ情報31のパラメータの値は、後述するパラメータ格納部43により格納するものとするが、顔の部位の標準的な配置のパターンに応じたパラメータの値を予め求めて演算パラメータ情報31に記憶してもよい。   The calculation parameter information 31 stores parameter values provided in each calculation expression. For example, the calculation parameter information 31 stores values of various parameters α, β, γ, and δ provided in the above equations (1) and (2). In this embodiment, the parameter value of the calculation parameter information 31 is stored by the parameter storage unit 43 described later. However, the parameter value corresponding to the standard arrangement pattern of the facial part is obtained in advance and calculated. The parameter information 31 may be stored.

角度パラメータ情報32は、画像内での被験者の顔の向きに応じて計測領域を補正するためのパラメータを記憶したデータである。   The angle parameter information 32 is data that stores parameters for correcting the measurement region in accordance with the orientation of the subject's face in the image.

ここで、画像内での被験者の顔の向きに応じて、顔のそれぞれの領域のサイズは変化する。例えば、脈波の計測に好適な頬の領域は、被験者の顔の向きに応じて画像内のサイズが変化する。図4は、画像内での被験者の顔の横方向の向きによる領域のサイズの変化を説明する図である。図4の例では、人の顔が眼、鼻、口、右頬、左頬により簡略化されて示されている。図4の左側の例は、正対した状態を示している。図4の右側の例は、顔の向きが横方向に回転している状態を示している。図4の左側に示すように、正対した状態では、右頬が観察される右頬領域80Rと左頬が観察される左頬領域80Lは、略同一のサイズとなっている。一方、図4の右側に示すように、顔の向きが横方向に回転している状態では、右頬領域80Rと左頬領域80Lのサイズが変化し、一方が小さく、他方が大きくなる。図4の例では、右頬領域80Rのサイズが大きくなり、左頬領域80Lのサイズが小さく変化している。   Here, the size of each area of the face changes according to the orientation of the face of the subject in the image. For example, the cheek region suitable for pulse wave measurement changes in size in the image according to the orientation of the subject's face. FIG. 4 is a diagram for explaining a change in the size of the region depending on the horizontal direction of the face of the subject in the image. In the example of FIG. 4, a human face is shown simplified by eyes, nose, mouth, right cheek, and left cheek. The example on the left side of FIG. 4 shows a state of facing each other. The example on the right side of FIG. 4 shows a state in which the face is rotating in the horizontal direction. As shown on the left side of FIG. 4, in the state of facing, the right cheek region 80R where the right cheek is observed and the left cheek region 80L where the left cheek is observed have substantially the same size. On the other hand, as shown on the right side of FIG. 4, in the state where the face is rotated in the horizontal direction, the sizes of the right cheek region 80R and the left cheek region 80L change, and one is small and the other is large. In the example of FIG. 4, the size of the right cheek region 80R is increased, and the size of the left cheek region 80L is decreased.

図5は、被験者の顔の横方向の向きの変化による領域のサイズの変化を説明する図である。図5の例では、上側に、正対した状態に対する被験者の顔の向きの横方向の回転角度θyに応じた右頬領域80Rの面積と左頬領域80Lの面積の変化が示されている。また、図5の例では、下側に、回転角度θyに応じた右頬領域80Rの横幅と左頬領域80Lの横幅の変化が示されている。例えば、顔の形状を楕円球と見なした場合、右頬領域80Rおよび左頬領域80Lは、図5の上側に示すように、回転角度θy=0から所定の範囲内で、回転角度θyと面積にリニアな関係があると見なすことができる。また、横方向のみの回転の場合、右頬領域80Rと左頬領域80Lの縦方向の縦幅を一定と見なすと、右頬領域80Rおよび左頬領域80Lは、回転角度θy=0から所定の範囲内で、回転角度θyと横方向の横幅にリニアな関係があると見なすことができる。 FIG. 5 is a diagram for explaining a change in the size of the region due to a change in the horizontal direction of the subject's face. In the example of FIG. 5, changes in the area of the right cheek region 80R and the area of the left cheek region 80L according to the lateral rotation angle θ y of the face direction of the subject with respect to the facing state are shown on the upper side. . In the example of FIG. 5, changes in the horizontal width of the right cheek region 80R and the horizontal width of the left cheek region 80L according to the rotation angle θ y are shown on the lower side. For example, when the shape of the face is regarded as an elliptical sphere, the right cheek region 80R and the left cheek region 80L have a rotation angle θ within a predetermined range from the rotation angle θ y = 0 as shown in the upper side of FIG. It can be considered that there is a linear relationship between y and area. In the case of rotation only in the horizontal direction, assuming that the vertical widths of the right cheek region 80R and the left cheek region 80L are constant, the right cheek region 80R and the left cheek region 80L have predetermined rotation angles θ y = 0. In this range, it can be considered that there is a linear relationship between the rotation angle θ y and the lateral width.

よって、被験者の顔の向きが横方向に変化した場合でも顔の横方向の回転角度θyから計測領域の位置を算出できる。例えば、下記の式(3)、(4)のように、回転角度θyに応じて、右頬の頂点P1の座標(X1,Y1)が、(X’1,Y’1)に変化し、右頬の頂点P2の座標(X2,Y2)が、(X’2,Y’2)に変化すると表すことができる。 Therefore, even when the orientation of the subject's face changes in the horizontal direction, the position of the measurement region can be calculated from the rotation angle θ y in the horizontal direction of the face. For example, as in the following formulas (3) and (4), the coordinates (X 1 , Y 1 ) of the apex P1 of the right cheek are changed to (X ′ 1 , Y ′ 1 ) according to the rotation angle θ y. It can be expressed that the coordinates (X 2 , Y 2 ) of the vertex P2 of the right cheek change to (X ′ 2 , Y ′ 2 ).

(X’1,Y’1)=(X1,Y1)・・・(3)
(X’2,Y’2)=(κ・X1+(1−κ)・X2,Y2)・・・(4)
(X ′ 1 , Y ′ 1 ) = (X 1 , Y 1 ) (3)
(X ′ 2 , Y ′ 2 ) = (κ · X 1 + (1−κ) · X 2 , Y 2 ) (4)

このκは、回転角度θyに応じて定められる。角度パラメータ情報32には、横方向の角度パラメータとして、回転角度θy毎にκの値が予め求められて記憶されている。例えば、回転角度θy=0°の場合、κ=0であり、回転角度θy=30°の場合、κ=1である。なお、回転角度θyが30度を越えると、右頬領域80Rおよび左頬領域80Lは、回転角度θyと横方向の横幅にリニアな関係がなくなる。そこで、回転角度θyが±30度の範囲内で計算を行うものとする。 This κ is determined according to the rotation angle θ y . In the angle parameter information 32, a value of κ is obtained and stored in advance for each rotation angle θ y as a lateral angle parameter. For example, when the rotation angle θ y = 0 °, κ = 0, and when the rotation angle θ y = 30 °, κ = 1. When the rotation angle θ y exceeds 30 degrees, the right cheek region 80R and the left cheek region 80L have no linear relationship between the rotation angle θ y and the lateral width. Therefore, it is assumed that the calculation is performed within the range where the rotation angle θ y is ± 30 degrees.

被験者の顔の縦方向の向きの変化についても同様に計測領域が変化する。   Similarly, the measurement area changes with respect to the change in the vertical direction of the subject's face.

図6は、画像内での被験者の顔の縦方向の向きによる領域のサイズの変化を説明する図である。図6の例では、人の顔が眼、鼻、口、左頬、額により簡略化されて示されている。図6に示す左頬が観察される左頬領域80L、額が観察される額領域81も顔の向きが、所謂チルトと呼ばれる縦方向に回転した場合、領域のサイズが変化する。   FIG. 6 is a diagram for explaining a change in the size of the region depending on the vertical direction of the face of the subject in the image. In the example of FIG. 6, a human face is shown simplified by eyes, nose, mouth, left cheek, and forehead. When the face orientation of the left cheek region 80L where the left cheek is observed and the forehead region 81 where the forehead is observed shown in FIG. 6 is rotated in a vertical direction called so-called tilt, the size of the region changes.

図7は、被験者の顔の縦方向の向きの変化による領域のサイズの変化を説明する図である。図7の例では、上側に、正対した状態に対する被験者の顔の向きの縦方向の回転角度θxに応じた左頬領域80Lの面積と額領域81の面積の変化が示されている。また、図7の例では、下側に、回転角度θxに応じた左頬領域80Lの縦幅と額領域81の縦幅の変化が示されている。図7の上側に示すように、左頬領域80Lの面積は、回転角度θxが多くなるほどサイズが小さくなる。一方、額領域81の面積は、回転角度θxが多くなるほどサイズが大きくなる。例えば、顔の形状を楕円球と見なした場合、左頬領域80Lおよび額領域81は、回転角度θx=0から所定の範囲内で、回転角度θxと面積にリニアな関係があると見なすことができる。 FIG. 7 is a diagram for explaining a change in the size of the region due to a change in the vertical direction of the face of the subject. In the example of FIG. 7, the upper side, the change in the area of the left cheek region 80L of the area and the amount area 81 corresponding to the rotation angle theta x longitudinal direction of the face of the subject to directly facing state is shown. In the example of FIG. 7, on the lower side, the change in height of the vertical width of the left cheek regions 80L corresponding to the rotation angle theta x and forehead region 81 is shown. As shown in the upper side of FIG. 7, the area of the left cheek region 80L decreases as the rotation angle θ x increases. On the other hand, the area of the forehead region 81 increases in size as the rotation angle θ x increases. For example, assuming that the shape of the face is an elliptic sphere, the left cheek region 80L and the forehead region 81 have a linear relationship between the rotation angle θ x and the area within a predetermined range from the rotation angle θ x = 0. Can be considered.

よって、被験者の顔の向きが縦方向に変化した場合でも顔の縦方向の回転角度θxから計測領域の位置を算出できる。例えば、下記の式(5)、(6)のように、顔の縦方向の向きの変化である回転角度θxに応じて、右頬の頂点P1の座標(X1,Y1)が、(X”1,Y”1)に変化し、右頬の頂点P2の座標(X2,Y2)が、(X”2,Y”2)に変化すると表すことができる。 Thus, it calculates the position of the measurement region from the rotational angle theta x longitudinal face even when the direction of the face of the subject is changed in the vertical direction. For example, as in the following formulas (5) and (6), the coordinates (X 1 , Y 1 ) of the apex P1 of the right cheek are changed according to the rotation angle θ x which is a change in the vertical direction of the face. (X "1, Y" 1 ) to change the coordinates of the vertices of the right cheek P2 (X 2, Y 2) is can be represented when changes (X "2, Y" 2 ).

(X”1,Y”1)=(X1,Y1)・・・(5)
(X”2,Y”2)=(X2,λ・Y1+(1−λ)・Y2)・・・(6)
(X ″ 1 , Y ″ 1 ) = (X 1 , Y 1 ) (5)
(X ″ 2 , Y ″ 2 ) = (X 2 , λ · Y 1 + (1−λ) · Y 2 ) (6)

このλは、回転角度θxに応じて定められる。角度パラメータ情報32には、縦方向の角度パラメータとして、回転角度θx毎にλの値が予め求められて記憶されている。例えば、回転角度θx=0°の場合、λ=0であり、回転角度θx=15°の場合、λ=1である。なお、回転角度θxが15度を越えると、左頬領域80L、額領域81は、回転角度θxと縦方向の縦幅にリニアな関係がなくなる。そこで、回転角度θxが±15度の範囲内で計算を行うものとする。 This λ is determined according to the rotation angle θ x . In the angle parameter information 32, a value of λ is obtained and stored in advance for each rotation angle θ x as an angle parameter in the vertical direction. For example, when the rotation angle θ x = 0 °, λ = 0, and when the rotation angle θ x = 15 °, λ = 1. When the rotation angle θ x exceeds 15 degrees, the left cheek region 80L and the forehead region 81 have no linear relationship between the rotation angle θ x and the vertical width in the vertical direction. Therefore, it is assumed that the calculation is performed within the range where the rotation angle θ x is ± 15 degrees.

演算式情報30には、被験者の顔の向きの変化に応じて計測領域の補正に用いる演算式が記憶されている。本実施例では、右頬、左頬、額の計測領域としている。このため、演算式情報30には、右頬、左頬、額の領域の補正に用いる演算式が記憶されている。例えば、演算式情報30には、上記の式(4)〜(6)が記憶されている。   The arithmetic expression information 30 stores an arithmetic expression used for correcting the measurement region in accordance with a change in the orientation of the subject's face. In this embodiment, the measurement areas are the right cheek, left cheek, and forehead. For this reason, the arithmetic expression information 30 stores arithmetic expressions used for correcting the right cheek, left cheek, and forehead areas. For example, the arithmetic expression information 30 stores the above expressions (4) to (6).

角度パラメータ情報32には、計測領域の補正の演算式で用いるパラメータの値が記憶される。例えば、角度パラメータ情報32には、上記の式(4)、(5)で用いる回転角度θy毎にκの値と、上記の式(5)、(6)で用いる回転角度θx毎にλの値とが記憶される。 The angle parameter information 32 stores parameter values used in the calculation formula for correcting the measurement region. For example, the angle parameter information 32, the above equation (4), (5) and the value of the rotation angle theta y every κ used in the above equation (5), for each rotational angle theta x used in (6) The value of λ is stored.

通過帯域情報33は、計測領域毎に、標準的な肌の色の範囲を通過帯域として記憶したデータである。本実施例では、右頬、左頬、額の領域を計測領域としており、通過帯域情報33には、右頬、左頬、額の各領域の標準的な肌の色の範囲が通過帯域として記憶される。本実施例では、通過帯域情報33の通過帯域は、後述する通過帯域格納部44により格納されるものとするが、標準的な肌の色の範囲を予め求めて通過帯域情報33に記憶しているものとしてもよい。   The passband information 33 is data in which a standard skin color range is stored as a passband for each measurement region. In this embodiment, the right cheek, left cheek, and forehead areas are used as measurement areas. In the passband information 33, standard skin color ranges of the right cheek, left cheek, and forehead areas are used as passbands. Remembered. In the present embodiment, the pass band of the pass band information 33 is stored by the pass band storage unit 44 described later. However, a standard skin color range is obtained in advance and stored in the pass band information 33. It is good as it is.

制御部25は、脈波検出装置10を制御するデバイスである。制御部25としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部25は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部25は、各種のプログラムが動作することにより、各種の処理部として機能する。例えば、制御部25は、撮影制御部40と、顔部位検出部41と、顔向検出部42と、パラメータ格納部43と、通過帯域格納部44と、算出部45と、計測部46と、出力制御部47とを有する。   The control unit 25 is a device that controls the pulse wave detection device 10. As the control unit 25, an electronic circuit such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array) can be employed. The control unit 25 has an internal memory for storing programs defining various processing procedures and control data, and executes various processes using these. The control unit 25 functions as various processing units by operating various programs. For example, the control unit 25 includes an imaging control unit 40, a face part detection unit 41, a face direction detection unit 42, a parameter storage unit 43, a passband storage unit 44, a calculation unit 45, a measurement unit 46, And an output control unit 47.

撮影制御部40は、カメラ20を制御して画像の撮影を制御する処理部である。例えば、撮影制御部40は、脈波の検出を行う場合やキャリブレーションを行う場合、カメラ20を制御して連続的に画像の撮影を行う。例えば、撮影制御部40は、入力部22に対して脈波の検出開始を指示する所定操作またはキャリブレーションの実行を指示する所定操作が行われた場合、カメラ20を制御して所定のフレームレートで連続的に画像の撮影を行う。フレームレートは、人の脈波をサンプリング可能な周期であればよい。本実施例では、カメラ20により動画撮影を行い、撮影される各画像から脈波の検出を行うものとしている。フレームレートとしては、例えば、24fps(frame per second)、30fps、60fpsなどの一般的な動画の撮影周期が挙げられる。なお、撮影制御部40は、カメラ20が撮影する画像を表示部21に表示させてもよい。   The shooting control unit 40 is a processing unit that controls the camera 20 to control image shooting. For example, the imaging control unit 40 controls the camera 20 to continuously capture images when performing pulse wave detection or calibration. For example, when a predetermined operation for instructing the input unit 22 to start detection of a pulse wave or a predetermined operation for instructing execution of calibration is performed, the imaging control unit 40 controls the camera 20 to perform a predetermined frame rate. Take images continuously with. The frame rate may be any period that can sample a person's pulse wave. In the present embodiment, moving images are taken by the camera 20, and pulse waves are detected from each image taken. Examples of the frame rate include a general moving image shooting period such as 24 fps (frame per second), 30 fps, 60 fps, and the like. Note that the imaging control unit 40 may cause the display unit 21 to display an image captured by the camera 20.

顔部位検出部41は、カメラ20により被験者が撮影された画像から顔の所定部位を検出する処理部である。この顔の部位の検出の手法は、何れであってよい。本実施例では、顔の所定部位として、例えば、眼と口を検出するものとするがその他の部位であってもよい。例えば、顔部位検出部41は、画像にテンプレートマッチング等の画像処理を実行することによって被験者の眼や、鼻、口などの所定部位を検出する。そして、顔部位検出部41は、画像内での被験者の顔の所定部位の位置を検出する。例えば、顔部位検出部41は、所定部位の重心位置や中心位置など所定の位置を、所定部位の位置として検出する。   The face part detection unit 41 is a processing unit that detects a predetermined part of the face from an image taken by the subject with the camera 20. Any method of detecting the face part may be used. In this embodiment, for example, the eyes and mouth are detected as the predetermined part of the face, but other parts may be used. For example, the face part detection unit 41 detects a predetermined part such as a subject's eye, nose, or mouth by executing image processing such as template matching on the image. And the face part detection part 41 detects the position of the predetermined part of the test subject's face in the image. For example, the face part detection unit 41 detects a predetermined position such as the center of gravity or the center position of the predetermined part as the position of the predetermined part.

また、顔部位検出部41は、計測領域の位置を算出する際に用いる各種のパラメータのキャリブレーションを行う場合、計測領域の位置を検出する。本実施例では、顔部位検出部41は、例えば、右頬、左頬、額の各領域の位置を検出する。   The face part detection unit 41 detects the position of the measurement region when performing calibration of various parameters used when calculating the position of the measurement region. In the present embodiment, the face part detection unit 41 detects the positions of the right cheek, left cheek, and forehead regions, for example.

顔向検出部42は、カメラ20により被験者が撮影された画像から所定の向きに対する顔の向きの回転角度を検出する処理部である。この顔の向きの検出の手法は、何れであってよい。本実施例では、所定の向きに対する顔の向きとして、被験者がカメラ20に正対した状態の向きに対する顔の向きの回転角度θx、θyを検出する。例えば、画像内で口は、図4の左側に示すように、顔が正対した状態では、左右の眼の中心付近に位置する。また、画像内で口は、図4の右側に示すように、顔が左方向を向いた状態では、左右の眼の中心よりも左側に位置し、回転角度が大きいほど中心からのずれも大きくなる。そこで、例えば、顔向検出部42は、左右の眼の中心からの口の位置のずれから顔の向きの横方向の回転角度θyを検出する。また、例えば、顔が正対した状態の眼や、鼻、口などの各種部位の配置パターンを記憶し、撮影された画像での各種部位の配置パターンの変化から顔の向きの回転角度θx、θyを検出してもよい。なお、所定の向きは、被験者がカメラ20に正対した状態の向きに限定されず、例えば、被験者がカメラ20に対して顔を傾けた状態の向きを基準として回転角度を求めてもよい。 The face direction detection unit 42 is a processing unit that detects a rotation angle of the face direction with respect to a predetermined direction from an image taken by the subject with the camera 20. Any method of detecting the orientation of the face may be used. In this embodiment, the rotation angles θ x and θ y of the face direction with respect to the direction in which the subject faces the camera 20 are detected as the face direction with respect to the predetermined direction. For example, in the image, as shown on the left side of FIG. 4, the mouth is located near the center of the left and right eyes when the faces are facing each other. In the image, as shown on the right side of FIG. 4, the mouth is located on the left side of the center of the left and right eyes with the face facing left, and the larger the rotation angle, the greater the deviation from the center. Become. Therefore, for example, the face orientation detection unit 42 detects the lateral rotation angle θ y of the face orientation from the deviation of the mouth position from the center of the left and right eyes. In addition, for example, the arrangement pattern of various parts such as eyes, nose, mouth and the like with the face facing up is stored, and the rotation angle θ x of the face direction from the change of the arrangement pattern of various parts in the photographed image , Θ y may be detected. The predetermined direction is not limited to the direction in which the subject faces the camera 20. For example, the rotation angle may be obtained on the basis of the direction in which the subject tilts the face with respect to the camera 20.

パラメータ格納部43は、被験者に合わせたキャリブレーションを行う処理部である。例えば、パラメータ格納部43は、入力部22に対して脈波の検出開始を指示する所定操作が行われると、キャリブレーションを行うため、カメラ20に対して被験者が正対するように促す。例えば、パラメータ格納部43は、表示部21にメッセージを表示して、被験者がカメラ20に対して正対するように促す。これにより、カメラ20では、カメラ20に対して正対した状態の被験者が撮影される。上述の顔部位検出部41は、撮影された画像から所定部位の位置および計測領域の位置を検出する。本実施例では、顔部位検出部41は、例えば、所定部位として眼、口の位置を検出し、計測領域として右頬、左頬、額の各領域の位置を検出する。   The parameter storage unit 43 is a processing unit that performs calibration according to the subject. For example, when a predetermined operation for instructing the input unit 22 to start detecting a pulse wave is performed, the parameter storage unit 43 prompts the subject to face the camera 20 in order to perform calibration. For example, the parameter storage unit 43 displays a message on the display unit 21 and prompts the subject to face the camera 20. Thereby, the subject in the state of facing the camera 20 is photographed with the camera 20. The face part detection unit 41 described above detects the position of the predetermined part and the position of the measurement region from the captured image. In the present embodiment, the face part detection unit 41 detects, for example, the positions of the eyes and mouth as predetermined parts, and detects the positions of the right cheek, left cheek, and forehead areas as measurement areas.

パラメータ格納部43は、演算式情報30に記憶された、顔の所定部位から計測領域の算出する演算式に、顔部位検出部41により検出される所定部位の位置および計測領域の位置を代入して、各演算式に設けられた各種のパラメータの値を算出する。例えば、パラメータ格納部43は、右眼の座標(x1,y1)、左眼の座標(x2,y2)、口の座標(x3,y3)、左頬領域の頂点P1、P2の座標(X1,Y1)、(X2,Y2)を式(1)、(2)に代入してα、β、γ、δの各種のパラメータの値を算出する。パラメータ格納部43は、算出した各パラメータの値を演算パラメータ情報31に格納する。なお、顔向検出部42が顔が正対した状態の各種部位の配置パターンから顔の向きを検出する場合、パラメータ格納部43は、カメラ20に対して正対した状態の被験者の各種部位の配置パターンを求めて記憶部24に格納してもよい。 The parameter storage unit 43 substitutes the position of the predetermined part detected by the face part detection unit 41 and the position of the measurement area into the arithmetic expression calculated from the predetermined part of the face stored in the arithmetic expression information 30. Thus, the values of various parameters provided in each arithmetic expression are calculated. For example, the parameter storage unit 43 includes the coordinates of the right eye (x 1 , y 1 ), the coordinates of the left eye (x 2 , y 2 ), the coordinates of the mouth (x 3 , y 3 ), the vertex P 1 of the left cheek region, The values of various parameters α, β, γ, and δ are calculated by substituting the coordinates (X 1 , Y 1 ) and (X 2 , Y 2 ) of P2 into the equations (1) and (2). The parameter storage unit 43 stores the calculated parameter values in the calculation parameter information 31. When the face direction detection unit 42 detects the face direction from the arrangement pattern of various parts with the face facing, the parameter storage unit 43 stores the various parts of the subject facing the camera 20. An arrangement pattern may be obtained and stored in the storage unit 24.

通過帯域格納部44は、通過帯域情報33を設定する処理部である。例えば、通過帯域格納部44は、被験者に合わせたキャリブレーションを行う際に、カメラ20により撮影された被験者の顔が正対した状態の画像から、計測領域毎に、計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求める。そして、通過帯域格納部44は、各計測領域について、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定し、特定した波長成分毎の標準的な画素値の範囲を通過帯域として通過帯域情報33に設定する。   The passband storage unit 44 is a processing unit that sets the passband information 33. For example, when performing calibration according to the subject, the passband storage unit 44 includes, for each measurement region, each pixel included in the measurement region from an image of the subject's face that is captured by the camera 20. To obtain a histogram of pixel values for each wavelength component. Then, the passband storage unit 44 specifies a standard pixel value range for each wavelength region with respect to the peak pixel value for each wavelength component, and a standard pixel value range for each specified wavelength component. Is set in the passband information 33 as a passband.

図8は、通過帯域を説明する図である。図8の例では、左頬領域80LのR、G、Bの各成分に画素値のヒストグラムを求めた例が示されている。通過帯域格納部44は、R、G、Bの各成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定する。例えば、通過帯域格納部44は、ヒストグラムにおいてピークの画素値を基準に、ピークの頻度の所定の割合の頻度となる画素値の範囲の標準的な画素値の範囲を特定する。例えば、通過帯域格納部44は、ピークの頻度の半分となる、所謂、半値幅の範囲を標準的な画素値の範囲を特定する。なお、標準的な画素値の範囲は、ピークの画素値を中心とした所定幅の範囲としてもよい。   FIG. 8 is a diagram illustrating the passband. In the example of FIG. 8, an example in which a histogram of pixel values is obtained for each of the R, G, and B components of the left cheek region 80L is shown. The passband storage unit 44 specifies a standard pixel value range for each of R, G, and B components with reference to the peak pixel value. For example, the passband storage unit 44 specifies a standard pixel value range of a pixel value range having a frequency of a predetermined ratio of the peak frequency with reference to the peak pixel value in the histogram. For example, the passband storage unit 44 specifies a standard pixel value range as a so-called half-value width range that is half the peak frequency. The standard pixel value range may be a range having a predetermined width centered on the peak pixel value.

計測領域に含まれる被験者の肌の色は、撮影環境や、被験者自身の肌の色合いなどによって異なる。そこで、通過帯域格納部44は、実際に撮影された画像から被験者の肌の色の標準的な画素値の範囲を特定し、通過帯域として通過帯域情報33に設定することにより、実際の被験者の皮膚部分を抽出できるようになる。   The skin color of the subject included in the measurement region varies depending on the shooting environment, the skin tone of the subject himself, and the like. Therefore, the passband storage unit 44 specifies the range of the standard pixel value of the subject's skin color from the actually captured image, and sets it as the passband in the passband information 33, so that the actual subject's skin color is set. The skin part can be extracted.

算出部45は、顔部位検出部41により検出された顔の所定部位の位置から、カメラ20により被験者が撮影された画像内での脈波の計測領域の位置を算出する。例えば、算出部45は、顔の眼と口の位置から計測領域となる右頬、左頬、額の各領域の位置を算出する式を演算式情報30から読み出す。例えば、算出部45は、眼と口の位置から右頬の領域を算出する式として、上記の式(1)、(2)を演算式情報30から読み出す。これらの式には、個人に合わせて位置を調整するため、パラメータを設けている。このパラメータの値は、演算パラメータ情報31に記憶されている。例えば、演算パラメータ情報31には、上記の式(1)、(2)のパラメータα、β、γ、δの値が記憶されている。   The calculation unit 45 calculates the position of the pulse wave measurement region in the image of the subject taken by the camera 20 from the position of the predetermined part of the face detected by the face part detection unit 41. For example, the calculation unit 45 reads, from the calculation formula information 30, formulas that calculate the positions of the right cheek, left cheek, and forehead regions that are measurement regions from the positions of the eyes and mouth of the face. For example, the calculation unit 45 reads the above formulas (1) and (2) from the calculation formula information 30 as formulas for calculating the right cheek region from the positions of the eyes and mouth. In these equations, parameters are provided to adjust the position according to the individual. The value of this parameter is stored in the calculation parameter information 31. For example, the calculation parameter information 31 stores the values of the parameters α, β, γ, and δ in the above formulas (1) and (2).

算出部45は、演算パラメータ情報31からパラメータの値を読み出して式にセットし、式による演算を行って顔の所定部位の位置から計測領域の位置を算出する。例えば、算出部45は、式(1)、(2)のパラメータα、β、γ、δの値をセットし、顔部位検出部41により検出された右眼、左眼、口の各座標から左頬に該当する矩形領域の座標(X1,Y1)、(X2,Y2)を算出する。 The calculation unit 45 reads out the parameter value from the calculation parameter information 31 and sets it in an equation, and calculates the position of the measurement region from the position of a predetermined part of the face by performing an operation using the equation. For example, the calculation unit 45 sets the values of the parameters α, β, γ, and δ in the expressions (1) and (2), and calculates the coordinates of the right eye, the left eye, and the mouth detected by the face part detection unit 41. The coordinates (X 1 , Y 1 ) and (X 2 , Y 2 ) of the rectangular area corresponding to the left cheek are calculated.

算出部45は、顔向検出部42により検出された顔の向きの回転角度に応じて、計測領域の位置を補正する。例えば、算出部45は、顔の横方向の回転角度θyおよび顔の縦方向の回転角度θxに応じて、右頬、左頬、額の各領域の位置を補正するための式を演算式情報30から読み出す。例えば、算出部45は、顔の横方向の回転角度θyに応じて右頬の領域を補正するための式として、上記の式(3)、(4)を演算式情報30から読み出す。また、算出部45は、顔の縦方向の回転角度θxに応じて右頬の領域を補正するための式として、上記の式(5)、(6)を演算式情報30から読み出す。これらの式には、回転角度θy、回転角度θxに応じたパラメータを設けている。この回転角度θy、回転角度θxに応じたパラメータの値は、角度パラメータ情報32に記憶されている。例えば、角度パラメータ情報32には、回転角度θy毎に、上記の式(3)、(4)で用いられるκの値が記憶されている。また、角度パラメータ情報32には、回転角度θx毎に、上記の式(5)、(6)で用いられるλの値が記憶されている。 The calculation unit 45 corrects the position of the measurement region according to the rotation angle of the face direction detected by the face direction detection unit 42. For example, the calculation unit 45 calculates expressions for correcting the positions of the right cheek, left cheek, and forehead regions according to the horizontal rotation angle θ y of the face and the vertical rotation angle θ x of the face. Read from the formula information 30. For example, the calculation unit 45 reads the above expressions (3) and (4) from the arithmetic expression information 30 as expressions for correcting the right cheek region in accordance with the horizontal rotation angle θ y of the face. Further, the calculation unit 45, as an expression for correcting the area of the right cheek in accordance with the rotation angle theta x vertical face above formula (5) is read from the arithmetic expression information 30 (6). In these equations, parameters corresponding to the rotation angle θ y and the rotation angle θ x are provided. Parameter values corresponding to the rotation angle θ y and the rotation angle θ x are stored in the angle parameter information 32. For example, the angle parameter information 32 for each rotation angle theta y, the above equation (3), stored values of κ used in (4). Further, the angle parameter information 32 for each rotation angle theta x, the equation (5), stored values of λ used in (6).

算出部45は、角度パラメータ情報32から、回転角度θy、回転角度θxに応じたパラメータの値を読み出して式にセットし、式による演算を行って計測領域の位置を補正する。例えば、算出部45は、角度パラメータ情報32から横方向の回転角度θyに応じたκの値を読み出して式(3)、(4)にセットする。そして、算出部45は、式(3)、(4)に右頬に該当する形領域の座標(X1,Y1)、(X2,Y2)を代入して横方向の回転による補正後の右頬の形領域の座標(X’1,Y’1)、(X’2,Y’2)を算出する。また、算出部45は、角度パラメータ情報32から縦方向の回転角度θxに応じたλの値を読み出して式(5)、(6)にセットする。そして、算出部45は、横方向の補正後の座標(X’1,Y’1)を(X1,Y1)に代入し、横方向の補正後の座標(X’2,Y’2)を(X2,Y2)にして、縦方向の回転による補正後の右頬の形領域の座標(X”1,Y”1)、(X”2,Y”2)を算出する。なお、計測領域の位置について、横方向の位置の補正を行った後に、縦方向の位置を補正する場合について説明したが、縦方向の位置の補正を行った後に、横方向の位置を補正してもよい。 The calculation unit 45 reads the values of the parameters corresponding to the rotation angle θ y and the rotation angle θ x from the angle parameter information 32, sets the values in an equation, corrects the position of the measurement region by performing an operation using the equation. For example, the calculation unit 45 reads the value of κ corresponding to the rotation angle θ y in the horizontal direction from the angle parameter information 32 and sets it in the equations (3) and (4). Then, the calculation unit 45 substitutes the coordinates (X 1 , Y 1 ), (X 2 , Y 2 ) of the shape region corresponding to the right cheek in the equations (3) and (4), and corrects by the horizontal rotation. The coordinates (X ′ 1 , Y ′ 1 ) and (X ′ 2 , Y ′ 2 ) of the subsequent right cheek shape region are calculated. Further, the calculation unit 45 reads the value of λ corresponding to the rotation angle θ x in the vertical direction from the angle parameter information 32 and sets it in the equations (5) and (6). Then, the calculation unit 45 substitutes the corrected coordinates (X ′ 1 , Y ′ 1 ) in the horizontal direction into (X 1 , Y 1 ) and corrects the corrected coordinates (X ′ 2 , Y ′ 2 in the horizontal direction). ) Is set to (X 2 , Y 2 ), and the coordinates (X ″ 1 , Y ″ 1 ) and (X ″ 2 , Y ″ 2 ) of the right cheek shape region after correction by vertical rotation are calculated. In addition, about the position of the measurement area, the case where the position in the vertical direction is corrected after correcting the position in the horizontal direction has been described. However, after the position in the vertical direction is corrected, the position in the horizontal direction is corrected. May be.

計測部46は、カメラ20により撮影された各画像から脈波を計測する処理部である。計測部46は、カメラ20により撮影された画像の算出部45により算出、補正された計測領域に含まれる各波長成分の信号から脈波を計測する。例えば、計測部46は、計測領域毎に、計測領域に含まれる各画素から波長成分が通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出する。そして、計測部46は、抽出した各画素の波長成分別の代表値の信号から、各波長成分の間で脈波が採り得る脈波周波数帯以外の特定周波数帯の成分が互いに相殺された信号の波形を脈波として計測する。   The measurement unit 46 is a processing unit that measures a pulse wave from each image captured by the camera 20. The measurement unit 46 measures the pulse wave from the signal of each wavelength component included in the measurement region calculated and corrected by the calculation unit 45 of the image taken by the camera 20. For example, the measurement unit 46 extracts, for each measurement region, each pixel within the passband range of the measurement region in which the wavelength component is stored in the passband information 33 from each pixel included in the measurement region. Then, the measurement unit 46 is a signal in which components in a specific frequency band other than the pulse wave frequency band in which the pulse wave can be taken between the respective wavelength components are canceled out from the extracted representative value signal for each wavelength component of each pixel. Is measured as a pulse wave.

一態様としては、計測部46は、画像に含まれる3つの波長成分、すなわちR成分、G成分およびB成分のうち血液の吸光特定が異なるR成分とG成分の2つの波長成分の代表値の時系列データを用いて、波形を検出する。   As one aspect, the measurement unit 46 is a representative value of two wavelength components of the three wavelength components included in the image, that is, the R component, the G component, and the B component of the R component and the G component that have different blood absorption specifications. A waveform is detected using time series data.

これを説明すると、顔表面には、毛細血管が流れており、心拍により血管に流れる血流が変化すると、血流で吸収される光量も心拍に応じて変化するため、顔からの反射によって得られる輝度も心拍に伴って変化する。かかる輝度の変化量は小さいが、顔領域全体の平均輝度を求めると、輝度の時系列データには脈波成分が含まれる。ところが、輝度は、脈波以外に体動等によっても変化し、これが、脈波検出のノイズ成分、いわゆる体動アーチファクトとなる。そこで、血液の吸光特性の異なる2種類以上の波長、例えば吸光特性が高いG成分(525nm程度)、吸光特性が低いR成分(700nm程度)で脈波を検出する。心拍は、0.5Hz〜4Hz、1分あたりに換算すれば30bpm〜240bpmの範囲であるので、それ以外の成分はノイズ成分とみなすことができる。ノイズには、波長特性は無い、あるいはあっても極小であると仮定すると、G信号およびR信号の間で0.5Hz〜4Hz以外の成分は等しいはずであるが、カメラの感度差により大きさが異なる。それゆえ、0.5Hz〜4Hz以外の成分の感度差を補正して、G成分からR成分を減算すれば、ノイズ成分は除去されて脈波成分のみを取り出すことができる。   To explain this, there are capillaries on the face surface, and when the blood flow flowing through the blood vessels changes due to the heartbeat, the amount of light absorbed by the bloodstream also changes according to the heartbeat. The brightness that is produced also changes with the heartbeat. Although the amount of change in luminance is small, when the average luminance of the entire face region is obtained, the time-series data of luminance includes a pulse wave component. However, the luminance also changes due to body movement in addition to the pulse wave, and this becomes a noise component of pulse wave detection, so-called body movement artifact. Therefore, a pulse wave is detected with two or more wavelengths having different light absorption characteristics of blood, for example, a G component having a high light absorption characteristic (about 525 nm) and an R component having a low light absorption characteristic (about 700 nm). Since the heart rate is in the range of 30 bpm to 240 bpm when converted to 0.5 Hz to 4 Hz per minute, other components can be regarded as noise components. Assuming that noise does not have wavelength characteristics or is minimal even if it is present, components other than 0.5 Hz to 4 Hz should be equal between the G signal and the R signal. Is different. Therefore, by correcting the sensitivity difference between components other than 0.5 Hz to 4 Hz and subtracting the R component from the G component, the noise component can be removed and only the pulse wave component can be extracted.

例えば、G成分及びR成分は、下記の式(7)および下記の式(8)によって表すことができる。下記の式(7)における「Gs」は、G信号の脈波成分を指し、「Gn」は、G信号のノイズ成分を指し、また、下記の式(8)における「Rs」は、R信号の脈波成分を指し、「Rn」は、R信号のノイズ成分を指す。また、ノイズ成分は、G成分およびR成分の間で感度差があるので、感度差の補正係数kは、下記の式(9)によって表される。   For example, the G component and the R component can be represented by the following formula (7) and the following formula (8). “Gs” in the following equation (7) indicates the pulse wave component of the G signal, “Gn” indicates the noise component of the G signal, and “Rs” in the following equation (8) indicates the R signal. “Rn” indicates the noise component of the R signal. Further, since the noise component has a sensitivity difference between the G component and the R component, the correction coefficient k for the sensitivity difference is expressed by the following equation (9).

Ga=Gs+Gn・・・(7)
Ra=Rs+Rn・・・(8)
k=Gn/Rn・・・(9)
Ga = Gs + Gn (7)
Ra = Rs + Rn (8)
k = Gn / Rn (9)

感度差を補正してG成分からR成分を減算すると、脈波成分Sは、下記の式(10)となる。これを上記の式(7)及び上記の式(8)を用いて、Gs、Gn、Rs及びRnによって表される式へ変形すると、下記の式(11)となり、さらに、上記の式(9)を用いて、kを消し、式を整理すると下記の式(12)が導出される。   When the sensitivity difference is corrected and the R component is subtracted from the G component, the pulse wave component S is expressed by the following equation (10). When this is transformed into the formula represented by Gs, Gn, Rs and Rn using the above formula (7) and the above formula (8), the following formula (11) is obtained, and further, the above formula (9 ) To eliminate k and rearrange the equations, the following equation (12) is derived.

S=Ga−kRa・・・(10)
S=Gs+Gn−k(Rs+Rn)・・・(11)
S=Gs−(Gn/Rn)Rs・・・(12)
S = Ga-kRa (10)
S = Gs + Gn−k (Rs + Rn) (11)
S = Gs− (Gn / Rn) Rs (12)

ここで、G信号およびR信号は、吸光特性が異なり、Gs>(Gn/Rn)Rsである。したがって、上記の式(12)によってノイズが除去された脈波成分Sを算出することができる。   Here, the G signal and the R signal have different light absorption characteristics, and Gs> (Gn / Rn) Rs. Therefore, the pulse wave component S from which noise is removed can be calculated by the above equation (12).

図9は、G信号およびR信号の各信号のスペクトルの一例を示す図である。図9に示すグラフの縦軸は、信号強度を指し、また、横軸は、周波数(bpm)を指す。図9に示すように、G成分およびR成分は、撮像素子の感度が異なるので、両者の信号強度はそれぞれ異なる。その一方、R成分およびG成分は、いずれにおいても30bpm〜240bpmの範囲外、特に3bpm以上20bpm未満の特定周波数帯でノイズが現れることには変わりはない。このため、図9に示すように、3bpm以上20bpm未満の特定周波数帯に含まれる指定の周波数Fnに対応する信号強度をGn及びRnとして抽出できる。これらGn及びRnによって感度差の補正係数kを導出できる。   FIG. 9 is a diagram illustrating an example of the spectrum of each signal of the G signal and the R signal. The vertical axis of the graph shown in FIG. 9 indicates the signal intensity, and the horizontal axis indicates the frequency (bpm). As shown in FIG. 9, since the sensitivity of the image sensor differs between the G component and the R component, both signal intensities are different. On the other hand, in both the R component and the G component, there is no change in that noise appears outside the range of 30 bpm to 240 bpm, particularly in a specific frequency band of 3 bpm or more and less than 20 bpm. For this reason, as shown in FIG. 9, the signal intensity corresponding to the designated frequency Fn included in the specific frequency band of 3 bpm or more and less than 20 bpm can be extracted as Gn and Rn. The sensitivity difference correction coefficient k can be derived from these Gn and Rn.

図10は、G成分および補正係数kが乗算されたR成分の各信号のスペクトルの一例を示す図である。図10の例では、説明の便宜上、補正係数の絶対値を乗算した結果が図示されている。図10に示すグラフにおいても、縦軸は、信号強度を指し、また、横軸は、周波数(bpm)を指す。図10に示すように、G成分及びR成分の各信号のスペクトルに補正係数kが乗算された場合には、G成分およびR成分の各成分の間で感度が揃う。特に、特定周波数帯におけるスペクトルの信号強度は、大部分においてスペクトルの信号強度が略同一になっている。その一方で、実際に脈波が含まれる周波数の周辺領域60は、G成分およびR成分の各成分の間でスペクトルの信号強度が揃っていない。   FIG. 10 is a diagram illustrating an example of a spectrum of each signal of the R component multiplied by the G component and the correction coefficient k. In the example of FIG. 10, the result of multiplying the absolute value of the correction coefficient is shown for convenience of explanation. Also in the graph shown in FIG. 10, the vertical axis indicates the signal strength, and the horizontal axis indicates the frequency (bpm). As shown in FIG. 10, when the spectrum of each signal of the G component and the R component is multiplied by the correction coefficient k, the sensitivity is uniform between the components of the G component and the R component. In particular, the spectrum signal intensity in a specific frequency band is almost the same in most spectrum signals. On the other hand, in the peripheral region 60 of the frequency where the pulse wave is actually included, the signal intensity of the spectrum is not uniform between the components of the G component and the R component.

図11は、演算後のスペクトルの一例を示す図である。図11では、脈波が現れている周波数帯の視認性を上げる観点から縦軸である信号強度の尺度を大きくして図示している。図11に示すように、G信号のスペクトルから補正係数kの乗算後のR信号のスペクトルが差し引かれた場合には、G成分およびR成分の間での吸光特性の差によって脈波が現れる信号成分の強度が可及的に維持された状態でノイズ成分が低減されている。このようにしてノイズ成分だけが除去された脈波波形を検出することができる。   FIG. 11 is a diagram illustrating an example of a spectrum after calculation. In FIG. 11, the scale of the signal intensity, which is the vertical axis, is enlarged from the viewpoint of improving the visibility of the frequency band in which the pulse wave appears. As shown in FIG. 11, when the spectrum of the R signal after multiplication by the correction coefficient k is subtracted from the spectrum of the G signal, a signal in which a pulse wave appears due to a difference in light absorption characteristics between the G component and the R component. The noise component is reduced with the strength of the component maintained as much as possible. In this way, it is possible to detect a pulse wave waveform from which only noise components have been removed.

続いて、計測部46の機能的構成についてさらに具体的に説明する。図12は、計測部の機能的構成を示すブロック図である。図12に示すように、計測部46は、第1算出部51と、BPF(Band-Pass Filter)52R及び52Gと、抽出部53R及び53Gと、LPF(Low-Pass Filter)54R及び54Gとを有する。また、計測部46は、第2算出部55と、BPF56R及び56Gと、乗算部57と、演算部58と、検出部59とを有する。なお、図9〜図11の例では、周波数空間にて脈波を検出する例を説明したが、図12では、周波数成分への変換にかかる時間を削減する観点から、時系列空間にてノイズ成分をキャンセルして脈波を検出する場合の機能的構成を図示している。   Next, the functional configuration of the measurement unit 46 will be described more specifically. FIG. 12 is a block diagram illustrating a functional configuration of the measurement unit. As shown in FIG. 12, the measurement unit 46 includes a first calculation unit 51, BPF (Band-Pass Filter) 52R and 52G, extraction units 53R and 53G, and LPF (Low-Pass Filter) 54R and 54G. Have. The measurement unit 46 includes a second calculation unit 55, BPFs 56R and 56G, a multiplication unit 57, a calculation unit 58, and a detection unit 59. In the example of FIGS. 9 to 11, the example in which the pulse wave is detected in the frequency space has been described. However, in FIG. 12, the noise in the time series space is reduced from the viewpoint of reducing the time required for the conversion to the frequency component. The functional structure in the case of detecting a pulse wave by canceling components is shown.

第1算出部51は、計測領域毎に、計測領域に含まれる各画素から波長成分が通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出する。そして、第1算出部51は、R成分及びG成分ごとに、計測領域から抽出された各画素の画素値の代表値として平均値を算出する。なお、代表値は、計測対象の領域に含まれる各画素の画素値を代表する値であれば、平均値以外であってもよい。そして、第1算出部51は、各計測領域から算出されるR信号及びG信号の平均値を所定の時間、例えば1秒間や1分間などにわたって時系列にサンプリングし、サンプリングされたR信号及びG信号の時系列データを後段の機能部へ出力する。例えば、第1算出部51は、R信号の時系列データをBPF52R及びBPF56Rへ出力するとともに、G信号の時系列データをBPF52G及びBPF56Gへ出力する。   For each measurement region, the first calculation unit 51 extracts each pixel within the passband range of the measurement region in which the wavelength component is stored in the passband information 33 from each pixel included in the measurement region. And the 1st calculation part 51 calculates an average value as a representative value of the pixel value of each pixel extracted from the measurement area for every R component and G component. The representative value may be other than the average value as long as it is a value that represents the pixel value of each pixel included in the measurement target region. Then, the first calculation unit 51 samples the average values of the R signal and the G signal calculated from each measurement region in a time series over a predetermined time, for example, 1 second, 1 minute, and the like, and the sampled R signal and G The time series data of the signal is output to the function unit at the subsequent stage. For example, the first calculation unit 51 outputs the time series data of the R signal to the BPF 52R and the BPF 56R, and outputs the time series data of the G signal to the BPF 52G and the BPF 56G.

BPF52R、BPF52G、BPF56R及びBPF56Gは、いずれも所定の周波数帯の信号成分だけを通過させてそれ以外の周波数帯の信号成分を除去するバンドパスフィルタである。これらBPF52R、BPF52G、BPF56R及びBPF56Gは、ハードウェアによって実装されることとしてもよいし、ソフトウェアによって実装されることとしてもよい。   Each of the BPF 52R, BPF 52G, BPF 56R, and BPF 56G is a band pass filter that passes only signal components in a predetermined frequency band and removes signal components in other frequency bands. These BPF 52R, BPF 52G, BPF 56R, and BPF 56G may be implemented by hardware or may be implemented by software.

これらBPFが通過させる周波数帯の違いについて説明する。BPF52R及びBPF52Gは、ノイズ成分が他の周波数帯よりも顕著に現れる特定周波数帯の信号成分を通過させる。   The difference in the frequency band that the BPF passes will be described. The BPF 52R and the BPF 52G pass a signal component in a specific frequency band in which a noise component appears more noticeably than other frequency bands.

かかる特定周波数帯は、脈波が採り得る周波数帯との間で比較することによって定めることができる。脈波が採り得る周波数帯の一例としては、0.5Hz以上4Hz以下である周波数帯、1分あたりに換算すれば30bpm以上240bpm以下である周波数帯が挙げられる。このことから、特定周波数帯の一例としては、脈波として計測され得ない0.5Hz未満及び4Hz超過の周波数帯を採用することができる。また、特定周波数帯は、脈波が採り得る周波数帯との間でその一部が重複することとしてもよい。例えば、脈波として計測されることが想定しづらい0.7Hz〜1Hzの区間で脈波が採り得る周波数帯と重複することを許容し、1Hz未満及び4Hz以上の周波数帯を特定周波数帯として採用することもできる。また、特定周波数帯は、1Hz未満及び4Hz以上の周波数帯を外縁とし、ノイズがより顕著に現れる周波数帯に絞ることもできる。例えば、ノイズは、脈波が採り得る周波数帯よりも高い高周波数帯よりも、脈波が採り得る周波数帯よりも低い低周波数帯でより顕著に現れる。このため、1Hz未満の周波数帯に特定周波数帯を絞ることもできる。また、空間周波数がゼロである直流成分の近傍には、各成分の撮像素子の感度の差が多く含まれるので、3bpm以上60bpm未満の周波数帯に特定周波数帯を絞ることもできる。さらに、人の体の動き、例えば瞬きや体の揺れの他、環境光のチラツキなどのノイズが現れやすい3bpm以上20bpm未満の周波数帯に特定周波数帯を絞ることもできる。   Such a specific frequency band can be determined by comparing with a frequency band that can be taken by a pulse wave. An example of a frequency band that can be taken by a pulse wave is a frequency band of 0.5 Hz to 4 Hz, and a frequency band of 30 bpm to 240 bpm when converted per minute. From this, as an example of the specific frequency band, a frequency band of less than 0.5 Hz and more than 4 Hz that cannot be measured as a pulse wave can be employed. Further, the specific frequency band may partially overlap with the frequency band that can be taken by the pulse wave. For example, it is allowed to overlap with the frequency band that the pulse wave can take in the section of 0.7 Hz to 1 Hz that is difficult to be measured as a pulse wave, and the frequency band of less than 1 Hz and 4 Hz or more is adopted as the specific frequency band. You can also Further, the specific frequency band can be narrowed down to a frequency band in which noise is more noticeable with the frequency band of less than 1 Hz and 4 Hz or more as the outer edge. For example, noise appears more noticeably in a low frequency band lower than a frequency band that can take a pulse wave, rather than a high frequency band that is higher than a frequency band that the pulse wave can take. For this reason, a specific frequency band can also be narrowed down to a frequency band of less than 1 Hz. Further, since there are many differences in the sensitivity of the image sensor of each component in the vicinity of the direct current component where the spatial frequency is zero, the specific frequency band can be narrowed down to a frequency band of 3 bpm or more and less than 60 bpm. Further, the specific frequency band can be narrowed down to a frequency band of 3 bpm to less than 20 bpm in which noise such as flickering of ambient light other than human body movement, for example, blinking or shaking of the body, is likely to appear.

ここでは、一例として、BPF52R及びBPF52Gが特定周波数帯として0.05Hz以上0.3Hz以下の周波数帯の信号成分を通過させる場合を想定して以下の説明を行う。なお、ここでは、特定周波数帯の信号成分を抽出するために、バンドパスフィルタを用いる場合を例示したが、一定の周波数未満の周波数帯の信号成分を抽出する場合などには、ローパスフィルタを用いることもできる。   Here, as an example, the following description will be given assuming that the BPF 52R and the BPF 52G pass a signal component in a frequency band of 0.05 Hz to 0.3 Hz as a specific frequency band. Here, the case where a bandpass filter is used to extract a signal component in a specific frequency band is illustrated, but a low-pass filter is used when a signal component in a frequency band below a certain frequency is extracted. You can also

一方、BPF56R及びBPF56Gは、脈波が採り得る周波数帯、例えば1Hz以上4Hz以下の周波数帯の信号成分を通過させる。なお、以下では、脈波が採り得る周波数帯のことを「脈波周波数帯」と記載する場合がある。   On the other hand, the BPF 56R and the BPF 56G pass signal components in a frequency band that can be taken by a pulse wave, for example, a frequency band of 1 Hz to 4 Hz. Hereinafter, a frequency band that can be taken by a pulse wave may be referred to as a “pulse wave frequency band”.

抽出部53Rは、R信号の特定周波数帯の信号成分の絶対強度値を抽出する。例えば、抽出部53Rは、R成分の特定周波数帯の信号成分をべき乗する乗算処理を実行することによって特定周波数帯の信号成分の絶対強度値を抽出する。また、抽出部53Gは、G信号の特定周波数帯の信号成分の絶対強度値を抽出する。例えば、抽出部53Gは、G成分の特定周波数帯の信号成分をべき乗する乗算処理を実行することによって特定周波数帯の信号成分の絶対強度値を抽出する。   The extraction unit 53R extracts the absolute intensity value of the signal component in the specific frequency band of the R signal. For example, the extraction unit 53R extracts the absolute intensity value of the signal component in the specific frequency band by executing a multiplication process that powers the signal component in the specific frequency band of the R component. The extraction unit 53G extracts the absolute intensity value of the signal component in the specific frequency band of the G signal. For example, the extraction unit 53G extracts the absolute intensity value of the signal component in the specific frequency band by executing a multiplication process that powers the signal component in the specific frequency band of the G component.

LPF54R及びLPF54Gは、特定周波数帯の絶対強度値の時系列データに対し、時間変化に応答させる平滑化処理を実行するローパスフィルタである。これらLPF54R及びLPF54Gは、LPF54Rへ入力される信号がR信号であり、LPF54Gへ入力される信号がG信号である以外に違いはない。かかる平滑化処理によって、特定周波数帯の絶対値強度R´n及びG´nが得られる。   The LPF 54R and the LPF 54G are low-pass filters that perform a smoothing process for responding to time changes on time-series data of absolute intensity values in a specific frequency band. The LPF 54R and the LPF 54G are the same except that the signal input to the LPF 54R is an R signal and the signal input to the LPF 54G is a G signal. By such smoothing processing, absolute value intensities R′n and G′n in a specific frequency band are obtained.

第2算出部55は、LPF54Gによって出力されたG信号の特定周波数帯の絶対値強度G´nを、LPF54Rによって出力されたR信号の特定周波数帯の絶対値強度R´nで除する除算「G´n/R´n」を実行する。これによって、感度差の補正係数kを算出する。   The second calculation unit 55 divides the absolute value strength G′n of the specific frequency band of the G signal output by the LPF 54G by the absolute value strength R′n of the specific frequency band of the R signal output by the LPF 54R. G′n / R′n ”is executed. Thereby, a correction coefficient k for the sensitivity difference is calculated.

乗算部57は、BPF56Rによって出力されたR信号の脈波周波数帯の信号成分に第2算出部55によって算出された補正係数kを乗算する。   The multiplier 57 multiplies the signal component in the pulse wave frequency band of the R signal output by the BPF 56R by the correction coefficient k calculated by the second calculator 55.

演算部58は、乗算部57によって補正係数kが乗算されたR信号の脈波周波数帯の信号成分から、BPF56Gによって出力されたG信号の脈波周波数帯の信号成分を差し引く演算「k*Rs−Gs」を実行する。かかる演算によって得られた信号の時系列データは、脈波の波形に相当する。   The calculation unit 58 calculates “k * Rs” by subtracting the signal component in the pulse wave frequency band of the G signal output by the BPF 56G from the signal component in the pulse wave frequency band of the R signal multiplied by the correction coefficient k by the multiplication unit 57. -Gs "is executed. The time series data of the signal obtained by such calculation corresponds to the waveform of the pulse wave.

検出部59は、演算後の脈波の波形の信号を用いて、被験者の脈波を検出する。一態様としては、検出部59は、信号の時系列データを脈波の検出結果として出力する。他の一態様としては、検出部59は、信号の時系列データにフーリエ変換を適用することによって周波数成分へ変換されたスペクトルから心拍数を検出することもできる。   The detection unit 59 detects the pulse wave of the subject using the pulse wave waveform signal after the calculation. As one aspect, the detection unit 59 outputs time-series data of signals as a pulse wave detection result. As another aspect, the detection unit 59 can also detect a heart rate from a spectrum converted into a frequency component by applying a Fourier transform to the time-series data of the signal.

図1に戻り、計測部46は、図12に示した計測処理を行って、計測対象の領域に含まれ、通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出し、抽出した各画素から脈波を計測する。ここで、被験者の顔の向きにより、計測領域に背景が含まれる場合がある。しかし、計測部46は、通過帯域の範囲内の各画素を抽出している。これにより、計測部46は、計測領域に通過帯域の範囲外の画素が含まれるようになっても精度良く脈波を計測できる。   Returning to FIG. 1, the measurement unit 46 performs the measurement process shown in FIG. 12, and calculates each pixel included in the measurement target region and stored in the passband information 33 within the passband range of the measurement region. Extract and measure the pulse wave from each extracted pixel. Here, the background may be included in the measurement region depending on the orientation of the face of the subject. However, the measurement unit 46 extracts each pixel within the passband range. Thereby, the measurement part 46 can measure a pulse wave accurately even if the pixel outside the range of the pass band is included in the measurement region.

図13は、計測領域に背景が含まれる状態の一例を示す図である。図13の例では、被験者の顔が左向きに変化したことにより、左頬領域80Lに背景が含まれている。この背景部分は、輝度変化が大きい、ノイズとなる。また、図13の例では、左頬領域80Lに鼻が含まれている。この鼻部分も、光の当たり方による輝度の変化が大きく、ノイズとなる。このような左頬領域80Lから脈波を求める場合、ノイズにより脈波の検出精度が低下する。例えば、図13には、左頬領域80Lの各画素の各波長成分に画素値のヒストグラムが示されている。図13に示すように、左頬領域80Lにノイズが含まれることにより、ヒストグラムは、広い範囲に画素が分布している。   FIG. 13 is a diagram illustrating an example of a state in which the background is included in the measurement region. In the example of FIG. 13, the background of the left cheek region 80 </ b> L is included due to the subject's face changing to the left. This background portion has a large luminance change and becomes noise. In the example of FIG. 13, the left cheek region 80L includes a nose. This nose portion also has a large change in luminance due to the way the light hits it, resulting in noise. When the pulse wave is obtained from the left cheek region 80L, the detection accuracy of the pulse wave is reduced due to noise. For example, FIG. 13 shows a histogram of pixel values for each wavelength component of each pixel in the left cheek region 80L. As shown in FIG. 13, the noise is included in the left cheek region 80 </ b> L, so that pixels are distributed over a wide range in the histogram.

計測部46は、通過帯域の範囲内の各画素を抽出する。これにより、ノイズの画素が抽出されず、皮膚部分の画素が抽出されるようになるため、精度良く脈波を計測できる。図14は、通過帯域の画素を抽出した結果の一例を示す図である。図14の例は、図13に示した左頬領域80Lから通過帯域の画素を抽出した結果である。図14に示すように、背景部分および鼻部分の画素を除いて皮膚部分の画素が抽出されている。   The measurement unit 46 extracts each pixel within the passband range. As a result, the pixel of the noise is not extracted and the pixel of the skin portion is extracted, so that the pulse wave can be measured with high accuracy. FIG. 14 is a diagram illustrating an example of a result of extracting pixels in the passband. The example of FIG. 14 is a result of extracting pixels in the passband from the left cheek region 80L shown in FIG. As shown in FIG. 14, the pixels of the skin portion are extracted except the pixels of the background portion and the nose portion.

出力制御部47は、計測部46により計測された脈波を出力する。例えば、出力制御部47は、計測部46により計測された脈波を表示部21に表示させる。なお、出力制御部47は、計測部46により計測された脈波の情報を他の装置へ送信してもよい。例えば、ネットワークを介して電子カルテサービスや診断サービスを提供するサーバへ、計測された脈波の情報を送信してもよい。例えば、診断サービスでは、高血圧の人物が頻脈、例えば100bpm以上である場合に狭心症や心筋梗塞の疑いがあると診断したり、心拍数を用いて不整脈や精神疾患、例えば緊張やストレスを診断したりする。これにより、院外、例えば在宅や在席でも脈拍のモニタリングサービスを提供できる。   The output control unit 47 outputs the pulse wave measured by the measurement unit 46. For example, the output control unit 47 displays the pulse wave measured by the measurement unit 46 on the display unit 21. Note that the output control unit 47 may transmit information on the pulse wave measured by the measurement unit 46 to another device. For example, the measured pulse wave information may be transmitted to a server that provides an electronic medical record service or a diagnostic service via a network. For example, in a diagnostic service, if a person with high blood pressure has tachycardia, such as 100 bpm or more, it is diagnosed that angina or myocardial infarction is suspected. Or make a diagnosis. As a result, a pulse monitoring service can be provided outside the hospital, for example, at home or at home.

[処理の流れ]
続いて、本実施例に係る脈波検出装置10により実行される処理について説明する。最初に、本実施例に係る脈波検出装置10により演算式の各種のパラメータおよび通過帯域を設定するキャリブレーション処理の流れについて説明する。図15は、キャリブレーション処理の手順を示すフローチャートである。このキャリブレーション処理は、例えば、入力部22に対してキャリブレーションの実行を指示する所定操作が行われたタイミングで実行される。
[Process flow]
Subsequently, processing executed by the pulse wave detection device 10 according to the present embodiment will be described. First, the flow of calibration processing for setting various parameters of the arithmetic expression and the pass band by the pulse wave detection device 10 according to the present embodiment will be described. FIG. 15 is a flowchart showing the procedure of the calibration process. This calibration processing is executed, for example, at a timing when a predetermined operation for instructing the input unit 22 to execute calibration is performed.

図15に示すように、撮影制御部40は、カメラ20を制御して連続的に画像の撮影を開始する(S10)。パラメータ格納部43は、カメラ20に対して被験者が正対するように促す(S11)。例えば、パラメータ格納部43は、表示部21に「カメラ20に対して正対して下さい。」とのメッセージを表示して、被験者がカメラ20に対して正対するように促す。顔部位検出部41は、カメラ20により撮影された画像に対して顔領域の検出を行う(S12)。例えば、顔部位検出部41は、眼や、口の位置および右頬、左頬、額の各領域の位置を検出する。顔部位検出部41は、顔領域を検出できたか否かを判定する(S13)。顔領域を検出できていない場合(S13否定)、再度S12へ移行して次に撮影された画像に対して顔領域の検出を行う。   As shown in FIG. 15, the shooting control unit 40 controls the camera 20 to start shooting images continuously (S10). The parameter storage unit 43 prompts the subject to face the camera 20 (S11). For example, the parameter storage unit 43 displays a message “Please face the camera 20” on the display unit 21 to prompt the subject to face the camera 20. The face part detection unit 41 detects a face area from the image taken by the camera 20 (S12). For example, the face part detection unit 41 detects the positions of the eyes, mouth position, and right cheek, left cheek, and forehead areas. The face part detection unit 41 determines whether or not a face area has been detected (S13). If the face area cannot be detected (No at S13), the process proceeds to S12 again, and the face area is detected for the next photographed image.

一方、顔領域を検出できた場合(S13肯定)、顔向検出部42は、正対した状態に対する顔の向きを検出する(S14)。顔向検出部42は、顔の向きを正対した状態と見なせるか否かを判定する(S15)。例えば、顔向検出部42は、顔の向きの回転角度θx、θyがそれぞれゼロを基準に正対した状態と見なせる所定許容角度以内であるか否かを判定する。正対した状態ではない場合(S15否定)、再度S12へ移行して次に撮影された画像に対して顔領域の検出を行う。 On the other hand, when the face area can be detected (Yes in S13), the face direction detection unit 42 detects the face direction with respect to the directly facing state (S14). The face direction detection unit 42 determines whether or not the face direction can be regarded as a directly facing state (S15). For example, the face direction detection unit 42 determines whether or not the rotation angles θ x and θ y of the face direction are within a predetermined allowable angle that can be regarded as a state of facing each other with reference to zero. When it is not in the state of facing (No at S15), the process proceeds to S12 again, and the face area is detected for the next photographed image.

一方、正対した状態と見なせる場合(S15肯定)、パラメータ格納部43は、眼や、口の位置および右頬、左頬、額の各領域から、演算式情報30に記憶された、計測領域の算出する各演算式に設けられた各種のパラメータの値を算出する(S16)。パラメータ格納部43は、算出した各種のパラメータの値を演算パラメータ情報31に格納する(S17)。   On the other hand, when it can be regarded as a face-to-face state (S15 affirmative), the parameter storage unit 43 calculates the measurement area stored in the calculation formula information 30 from the eye, mouth position, and right cheek, left cheek, and forehead areas. The values of various parameters provided in each arithmetic expression calculated by (1) are calculated (S16). The parameter storage unit 43 stores the calculated values of various parameters in the calculation parameter information 31 (S17).

通過帯域格納部44は、撮影された画像から、計測領域毎に、計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求める(S18)。通過帯域格納部44は、各計測領域について、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定して、特定した波長成分毎の標準的な画素値の範囲を通過帯域として通過帯域情報33に設定し(S19)、処理を終了する。   The passband storage unit 44 obtains a histogram of pixel values for each wavelength component from each pixel included in the measurement region for each measurement region from the captured image (S18). For each measurement region, the passband storage unit 44 specifies a standard pixel value range based on the peak pixel value for each wavelength component, and sets the standard pixel value range for each specified wavelength component. The passband information 33 is set as the passband (S19), and the process is terminated.

次に、本実施例に係る脈波検出装置10により脈波を検出する検出処理の流れについて説明する。図16は、検出処理の手順を示すフローチャートである。この検出処理は、例えば、入力部22に対して脈波の検出開始を指示する所定操作が行われたタイミングで実行される。   Next, the flow of detection processing for detecting a pulse wave by the pulse wave detection device 10 according to the present embodiment will be described. FIG. 16 is a flowchart showing the procedure of the detection process. This detection process is executed, for example, at a timing when a predetermined operation for instructing the input unit 22 to start detecting a pulse wave is performed.

図16に示すように、撮影制御部40は、カメラ20を制御して連続的に画像の撮影を開始する(S50)。顔部位検出部41は、カメラ20により撮影された画像に対して顔領域の検出を行う(S51)。例えば、顔部位検出部41は、眼や、口の位置を検出する。顔向検出部42は、正対した状態に対する顔の向きを検出する(S52)。   As shown in FIG. 16, the shooting control unit 40 controls the camera 20 to start shooting images continuously (S50). The face part detection unit 41 detects a face area in the image captured by the camera 20 (S51). For example, the face part detection unit 41 detects the position of the eyes and mouth. The face direction detection unit 42 detects the face direction with respect to the facing state (S52).

顔部位検出部41は、検出された顔の向きが計測範囲内であるか否かを判定する(S53)。例えば、顔部位検出部41は、検出された回転角度θyが±30度の範囲内であり、回転角度θxが±15度の範囲内である場合、計測範囲内であると判定する。顔の向きが計測範囲内ではない場合(S53否定)、出力制御部47は、顔の向きが計測範囲内ではない旨の警告を表示部21に出力し(S54)、再度S51へ移行して次に撮影された画像に対して脈波の計測を行う。 The face part detection unit 41 determines whether or not the detected face orientation is within the measurement range (S53). For example, when the detected rotation angle θ y is within a range of ± 30 degrees and the rotation angle θ x is within a range of ± 15 degrees, the face part detection unit 41 determines that it is within the measurement range. When the face orientation is not within the measurement range (No at S53), the output control unit 47 outputs a warning to the display unit 21 that the face orientation is not within the measurement range (S54), and the process proceeds to S51 again. Next, the pulse wave is measured for the photographed image.

一方、顔の向きが計測範囲内である場合(S53肯定)、算出部45は、顔部位検出部41により検出された顔の眼や、口の位置から、撮影された画像内での脈波の計測領域の位置を算出する(S55)。算出部45は、顔向検出部42により検出された顔の向きの回転角度に応じて、計測領域の位置を補正する(S56)。   On the other hand, when the orientation of the face is within the measurement range (Yes in S53), the calculation unit 45 calculates the pulse wave in the photographed image from the face eye and mouth position detected by the face part detection unit 41. The position of the measurement area is calculated (S55). The calculation unit 45 corrects the position of the measurement region according to the rotation angle of the face direction detected by the face direction detection unit 42 (S56).

計測部46は、撮影された画像の補正された計測領域に含まれる各波長成分の信号から脈波を計測する(S57)。例えば、計測部46は、計測領域毎に、計測領域に含まれる各画素から波長成分が通過帯域情報33に記憶された当該計測領域の通過帯域の範囲内の各画素を抽出する。そして、計測部46は、抽出した各画素の波長成分別の代表値の信号から、各波長成分の間で脈波が採り得る脈波周波数帯以外の特定周波数帯の成分が互いに相殺された信号の波形を脈波として計測する。   The measurement unit 46 measures the pulse wave from the signal of each wavelength component included in the corrected measurement region of the captured image (S57). For example, the measurement unit 46 extracts, for each measurement region, each pixel within the passband range of the measurement region in which the wavelength component is stored in the passband information 33 from each pixel included in the measurement region. Then, the measurement unit 46 is a signal in which components in a specific frequency band other than the pulse wave frequency band in which the pulse wave can be taken between the respective wavelength components are canceled out from the extracted representative value signal for each wavelength component of each pixel. Is measured as a pulse wave.

出力制御部47は、処理終了であるか否かを判定する(S58)。例えば、出力制御部47は、入力部22に対して処理終了を指示する所定操作が行われた場合、処理終了であると判定(S58肯定)して処理を終了する。一方、出力制御部47は、処理終了を指示する所定操作が行われていない場合、処理終了ではないと判定(S58否定)して、計測部46による脈波の計測結果を表示部21に出力し(S59)、再度S51へ移行して次に撮影された画像に対して脈波の計測を行う。   The output control unit 47 determines whether or not the process is finished (S58). For example, when a predetermined operation for instructing the end of processing is performed on the input unit 22, the output control unit 47 determines that the processing has ended (Yes in S <b> 58) and ends the processing. On the other hand, if the predetermined operation for instructing the end of the process is not performed, the output control unit 47 determines that the process is not ended (No in S58) and outputs the pulse wave measurement result by the measurement unit 46 to the display unit 21. (S59), the process proceeds to S51 again, and the pulse wave is measured for the next photographed image.

[実施例1の効果]
上述してきたように、本実施例に係る脈波検出装置10は、カメラ20によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出する。脈波検出装置10は、カメラ20によって撮影された画像から、所定の向きに対する被験者の顔の向きの回転角度を検出する。そして、脈波検出装置10は、所定部位の位置および回転角度の検出結果から被験者の顔の脈波の計測領域の位置を算出し、算出された計測領域から脈波を計測する。これにより、脈波検出装置10は、被験者の顔の向きに応じた計測領域の位置を求めて脈波を計測できるため、脈波の検出精度の低下を抑制できる。
[Effect of Example 1]
As described above, the pulse wave detection device 10 according to the present embodiment detects the position of a predetermined part of the subject's face in the image from the image of the subject taken by the camera 20. The pulse wave detection device 10 detects a rotation angle of the face direction of the subject with respect to a predetermined direction from the image taken by the camera 20. Then, the pulse wave detection device 10 calculates the position of the measurement region of the pulse wave of the subject's face from the detection result of the position and rotation angle of the predetermined part, and measures the pulse wave from the calculated measurement region. Thereby, since the pulse wave detection device 10 can measure the pulse wave by obtaining the position of the measurement region according to the orientation of the face of the subject, the pulse wave detection accuracy can be suppressed.

また、本実施例に係る脈波検出装置10は、カメラ20によって画像が撮影される毎に、被験者の顔の所定部位の位置および被験者の顔の向きの回転角度を検出して、被験者の顔の脈波の計測領域の位置を算出する。これにより、脈波検出装置10は、撮影中に被験者の顔の向きが変化した場合でも安定して脈波を計測できる。   The pulse wave detection device 10 according to the present embodiment detects the position of a predetermined part of the subject's face and the rotation angle of the subject's face each time an image is captured by the camera 20, and the subject's face The position of the pulse wave measurement region is calculated. Thereby, the pulse wave detection device 10 can stably measure the pulse wave even when the orientation of the subject's face changes during imaging.

また、本実施例に係る脈波検出装置10は、計測領域に含まれる画素のうち、各波長成分の画素値が、記憶部24に記憶された標準的な画素値の範囲となる画素から脈波を計測する。これにより、脈波検出装置10は、各波長成分の画素値が、標準的な画素値の範囲以外のノイズの画素が計測領域に含まれる場合でも安定して脈波を計測できる。   In addition, the pulse wave detection device 10 according to the present embodiment is configured so that the pixel value of each wavelength component among the pixels included in the measurement region is pulsed from a pixel in the standard pixel value range stored in the storage unit 24. Measure the waves. As a result, the pulse wave detection device 10 can stably measure the pulse wave even when the pixel value of each wavelength component includes a pixel of noise outside the standard pixel value range.

また、本実施例に係る脈波検出装置10は、被験者の顔が正対した状態の画像の計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求める。そして、脈波検出装置10は、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定し、特定した波長成分毎の標準的な画素値の範囲を記憶部24に設定する。これにより、脈波検出装置10は、実際の被験者の皮膚部分の標準的な画素値の範囲を設定できるため、被験者の皮膚部分の画像を抽出できるようになる。   Further, the pulse wave detection device 10 according to the present embodiment obtains a histogram of pixel values for each wavelength component from each pixel included in the measurement region of the image in a state where the face of the subject is directly facing. Then, the pulse wave detection device 10 specifies a standard pixel value range based on the peak pixel value for each wavelength component, and stores the standard pixel value range for each specified wavelength component in the storage unit 24. Set. Thereby, since the pulse wave detection apparatus 10 can set the range of the standard pixel value of the actual skin part of the subject, the image of the skin part of the subject can be extracted.

さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。   Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.

上記の実施例では、入力信号としてR信号およびG信号の二種類を用いる場合を例示したが、異なる複数の光波長成分を持つ信号であれば任意の種類の信号および任意の数の信号を入力信号とすることができる。例えば、R、G、B、IRおよびNIRなどの光波長成分が異なる信号のうち任意の組合せの信号を2つ用いることもできるし、また、3つ以上用いることもできる。   In the above embodiment, the case where two types of R signal and G signal are used as the input signal is illustrated, but any type of signal and any number of signals can be input as long as the signals have a plurality of different optical wavelength components. It can be a signal. For example, two signals of any combination among signals having different optical wavelength components such as R, G, B, IR, and NIR can be used, or three or more signals can be used.

また、上記の実施例では、演算式の各種のパラメータおよび通過帯域を設定するキャリブレーションと、脈波の検出を別な処理として行う場合について説明したが、開示の装置はこれに限定されない。例えば、脈波を検出する検出処理の最初においてキャリブレーション処理を行うものとしてもよい。   In the above-described embodiments, the case where the calibration for setting various parameters of the arithmetic expression and the passband and the detection of the pulse wave are performed as separate processes has been described, but the disclosed apparatus is not limited thereto. For example, calibration processing may be performed at the beginning of detection processing for detecting a pulse wave.

また、上記の実施例では、キャリブレーション処理において被験者の向きを検出して正対しているか判定する場合について説明したが、開示の装置はこれに限定されない。例えば、被験者がカメラ20に対して正対するように促した後、一定期間後に被験者が正対しているものとして各種のパラメータの値を算出や、通過帯域の設定を行ってもよい。   Further, in the above-described embodiment, the case has been described in which the orientation of the subject is detected in the calibration process to determine whether or not the subject is facing, but the disclosed apparatus is not limited thereto. For example, after prompting the subject to face the camera 20, various parameter values may be calculated or the passband may be set assuming that the subject is facing the subject after a certain period of time.

[分散および統合]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図1に示す撮影制御部40、顔部位検出部41、顔向検出部42、パラメータ格納部43、通過帯域格納部44、算出部45、計測部46および出力制御部47の各処理部が適宜統合または分割されてもよい。また、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。また、各処理部にて行なわれる各処理機能は、任意の一部の機能部を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の脈波検出装置10の機能を実現するようにしてもよい。
[Distribution and integration]
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific state of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, each processing unit of the imaging control unit 40, the face part detection unit 41, the face direction detection unit 42, the parameter storage unit 43, the passband storage unit 44, the calculation unit 45, the measurement unit 46, and the output control unit 47 illustrated in FIG. May be integrated or divided as appropriate. Each processing function performed by each processing unit may be realized in whole or in part by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic. . In addition, each processing function performed in each processing unit has an arbitrary part of the functional unit in another device, and the functions of the pulse wave detection device 10 described above are achieved by being connected to a network and cooperating. It may be realized.

[脈波検出プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図17を用いて、上記の実施例と同様の機能を有する脈波検出プログラムを実行するコンピュータの一例について説明する。
[Pulse wave detection program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes a pulse wave detection program having the same function as that of the above-described embodiment will be described with reference to FIG.

図17は、脈波検出プログラムを実行するコンピュータの一例について説明するための図である。図17に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。   FIG. 17 is a diagram for describing an example of a computer that executes a pulse wave detection program. As illustrated in FIG. 17, the computer 100 includes an operation unit 110a, a speaker 110b, a camera 110c, a display 120, and a communication unit 130. Further, the computer 100 includes a CPU 150, a ROM 160, an HDD 170, and a RAM 180. These units 110 to 180 are connected via a bus 140.

HDD170には、上記の実施例1の撮影制御部40、顔部位検出部41、顔向検出部42、パラメータ格納部43、通過帯域格納部44、算出部45、計測部46および出力制御部47と同様の機能を発揮する脈波検出プログラム170aが予め記憶される。この脈波検出プログラム170aについては、図1に示した各々の機能部の各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納される必要はなく、処理に必要なデータのみがHDD170に格納されればよい。   The HDD 170 includes the imaging control unit 40, the face part detection unit 41, the face direction detection unit 42, the parameter storage unit 43, the passband storage unit 44, the calculation unit 45, the measurement unit 46, and the output control unit 47 of the first embodiment. A pulse wave detection program 170a that performs the same function as is stored in advance. The pulse wave detection program 170a may be integrated or separated as appropriate, as with each component of each functional unit shown in FIG. In other words, all data stored in the HDD 170 need not always be stored in the HDD 170, and only data necessary for processing may be stored in the HDD 170.

そして、CPU150が、脈波検出プログラム170aをHDD170から読み出してRAM180に展開する。これによって、図17に示すように、脈波検出プログラム170aは、脈波検出プロセス180aとして機能する。この脈波検出プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、脈波検出プロセス180aは、図1または図12に示した各機能部にて実行される処理、例えば図15や図16に示す処理を含む。また、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されればよい。   Then, the CPU 150 reads the pulse wave detection program 170 a from the HDD 170 and develops it in the RAM 180. Accordingly, as shown in FIG. 17, the pulse wave detection program 170a functions as a pulse wave detection process 180a. The pulse wave detection process 180a expands various data read from the HDD 170 in an area allocated to itself on the RAM 180 as appropriate, and executes various processes based on the expanded various data. The pulse wave detection process 180a includes processing executed by each functional unit shown in FIG. 1 or FIG. 12, for example, processing shown in FIG. 15 and FIG. In addition, each processing unit virtually realized on the CPU 150 does not always require that all the processing units operate on the CPU 150, and only a processing unit necessary for processing needs to be virtually realized.

なお、上記の脈波検出プログラム170aについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。   Note that the pulse wave detection program 170a is not necessarily stored in the HDD 170 or the ROM 160 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk inserted into the computer 100, so-called FD, CD-ROM, DVD disk, magneto-optical disk, or IC card. Then, the computer 100 may acquire and execute each program from these portable physical media. In addition, each program is stored in another computer or server device connected to the computer 100 via a public line, the Internet, a LAN, a WAN, etc., and the computer 100 acquires and executes each program from these. It may be.

10 脈波検出装置
20 カメラ
24 記憶部
25 制御部
30 演算式情報
31 演算パラメータ情報
32 角度パラメータ情報
33 通過帯域情報
40 撮影制御部
41 顔部位検出部
42 顔向検出部
43 パラメータ格納部
44 通過帯域格納部
45 算出部
46 計測部
47 出力制御部
DESCRIPTION OF SYMBOLS 10 Pulse wave detection apparatus 20 Camera 24 Memory | storage part 25 Control part 30 Calculation formula information 31 Calculation parameter information 32 Angle parameter information 33 Pass band information 40 Imaging | photography control part 41 Face part detection part 42 Face direction detection part 43 Parameter storage part 44 Pass band Storage unit 45 Calculation unit 46 Measurement unit 47 Output control unit

Claims (6)

コンピュータに、
撮像装置によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出し、
前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出し、
前記所定部位の位置と前記被験者の顔の脈波の計測領域の位置との関係を示した関係情報に基づいて、前記所定部位の位置から前記計測領域の位置を算出し、前記被験者の顔の向きの回転角度と計測領域の位置変化の関係を示した補正情報に基づいて、算出した前記計測領域の位置を、検出した前記回転角度に応じて補正して、前記被験者の顔の向きに応じた前記計測領域の位置を算出し、
前記被験者の顔の向きに応じて算出された計測領域から脈波を計測する
処理を実行させることを特徴とする脈波検出プログラム。
On the computer,
Detecting the position of the predetermined part of the face of the subject in the image from the image of the subject imaged by the imaging device;
From the image photographed by the imaging device, a rotation angle of the face direction of the subject with respect to a predetermined direction is detected,
Based on the relationship information indicating the relationship between the position of the predetermined part and the position of the measurement area of the pulse wave of the subject's face, the position of the measurement area is calculated from the position of the predetermined part, Based on the correction information indicating the relationship between the rotation angle of the direction and the position change of the measurement region, the calculated position of the measurement region is corrected according to the detected rotation angle, and according to the orientation of the face of the subject. and calculates the position of the measurement region,
A pulse wave detection program for executing a process of measuring a pulse wave from a measurement region calculated according to the orientation of the face of the subject .
前記撮像装置によって画像が撮影される毎に、前記被験者の顔の所定部位の位置および前記被験者の顔の向きの回転角度を検出して、前記被験者の顔の脈波の計測領域の位置を算出する
ことを特徴とする請求項1に記載の脈波検出プログラム。
Each time an image is taken by the imaging device, the position of a predetermined part of the subject's face and the rotation angle of the orientation of the subject's face are detected, and the position of the pulse wave measurement region of the subject's face is calculated. The pulse wave detection program according to claim 1, wherein:
前記脈波を計測する処理は、前記計測領域に含まれる画素のうち、各波長成分の画素値が、波長成分毎に脈波の計測に用いる標準的な画素値の範囲を記憶する記憶部に記憶された標準的な画素値の範囲となる画素から脈波を計測する
ことを特徴とする請求項1または2に記載の脈波検出プログラム。
In the processing for measuring the pulse wave, the pixel value of each wavelength component among the pixels included in the measurement region is stored in a storage unit that stores a range of standard pixel values used for pulse wave measurement for each wavelength component. The pulse wave detection program according to claim 1 or 2, wherein a pulse wave is measured from a pixel that falls within a range of stored standard pixel values.
コンピュータに、
前記被験者の顔が正対した状態の画像の前記計測領域に含まれる各画素から波長成分毎に画素値のヒストグラムを求め、波長成分毎に、ピークの画素値を基準として標準的な画素値の範囲を特定し、特定した波長成分毎の標準的な画素値の範囲を前記記憶部に設定する
処理をさらに実行させることを特徴とする請求項に記載の脈波検出プログラム。
On the computer,
Obtain a histogram of pixel values for each wavelength component from each pixel included in the measurement region of the image of the subject's face facing up, and for each wavelength component, a standard pixel value based on the peak pixel value 4. The pulse wave detection program according to claim 3 , further comprising: executing a process of specifying a range and setting a standard pixel value range for each specified wavelength component in the storage unit. 5.
コンピュータが、
撮像装置によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出し、
前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出し、
前記所定部位の位置と前記被験者の顔の脈波の計測領域の位置との関係を示した関係情報に基づいて、前記所定部位の位置から前記計測領域の位置を算出し、前記被験者の顔の向きの回転角度と計測領域の位置変化の関係を示した補正情報に基づいて、算出した前記計測領域の位置を、検出した前記回転角度に応じて補正して、前記被験者の顔の向きに応じた前記計測領域の位置を算出し、
前記被験者の顔の向きに応じて算出された計測領域から脈波を計測する
処理を実行することを特徴とする脈波検出方法。
Computer
Detecting the position of the predetermined part of the face of the subject in the image from the image of the subject imaged by the imaging device;
From the image photographed by the imaging device, a rotation angle of the face direction of the subject with respect to a predetermined direction is detected,
Based on the relationship information indicating the relationship between the position of the predetermined part and the position of the measurement area of the pulse wave of the subject's face, the position of the measurement area is calculated from the position of the predetermined part, Based on the correction information indicating the relationship between the rotation angle of the direction and the position change of the measurement region, the calculated position of the measurement region is corrected according to the detected rotation angle, and according to the orientation of the face of the subject. and calculates the position of the measurement region,
A pulse wave detection method, comprising: performing a process of measuring a pulse wave from a measurement region calculated according to the orientation of the face of the subject .
撮像装置によって被験者が撮影された画像から当該画像内での前記被験者の顔の所定部位の位置を検出する顔部位検出部と、
前記撮像装置によって撮影された画像から、所定の向きに対する前記被験者の顔の向きの回転角度を検出する顔向検出部と、
前記所定部位の位置と前記被験者の顔の脈波の計測領域の位置との関係を示した関係情報に基づいて、前記所定部位の位置から前記計測領域の位置を算出し、前記被験者の顔の向きの回転角度と計測領域の位置変化の関係を示した補正情報に基づいて、算出した前記計測領域の位置を、検出した前記回転角度に応じて補正して、前記被験者の顔の向きに応じた前記計測領域の位置を算出する算出部と、
前記被験者の顔の向きに応じて前記算出部により算出された計測領域から脈波を計測する計測部と、
を有することを特徴とする脈波検出装置。
A face part detection unit that detects a position of a predetermined part of the face of the subject in the image from an image of the subject photographed by the imaging device;
A face direction detection unit that detects a rotation angle of the face direction of the subject with respect to a predetermined direction from an image captured by the imaging device;
Based on the relationship information indicating the relationship between the position of the predetermined part and the position of the measurement area of the pulse wave of the subject's face, the position of the measurement area is calculated from the position of the predetermined part, Based on the correction information indicating the relationship between the rotation angle of the direction and the position change of the measurement region, the calculated position of the measurement region is corrected according to the detected rotation angle, and according to the orientation of the face of the subject. A calculation unit for calculating the position of the measurement area;
A measurement unit that measures a pulse wave from the measurement region calculated by the calculation unit according to the orientation of the face of the subject ;
A pulse wave detection device comprising:
JP2013075351A 2013-03-29 2013-03-29 Pulse wave detection program, pulse wave detection method, and pulse wave detection device Active JP6102433B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013075351A JP6102433B2 (en) 2013-03-29 2013-03-29 Pulse wave detection program, pulse wave detection method, and pulse wave detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013075351A JP6102433B2 (en) 2013-03-29 2013-03-29 Pulse wave detection program, pulse wave detection method, and pulse wave detection device

Publications (2)

Publication Number Publication Date
JP2014198201A JP2014198201A (en) 2014-10-23
JP6102433B2 true JP6102433B2 (en) 2017-03-29

Family

ID=52355512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013075351A Active JP6102433B2 (en) 2013-03-29 2013-03-29 Pulse wave detection program, pulse wave detection method, and pulse wave detection device

Country Status (1)

Country Link
JP (1) JP6102433B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3013220A4 (en) 2013-06-26 2017-03-29 Intel Corporation Detection of a leading stroke risk indicator
JP6455761B2 (en) * 2015-03-31 2019-01-23 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program
JP6308161B2 (en) * 2015-03-31 2018-04-11 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program
WO2016159150A1 (en) * 2015-03-31 2016-10-06 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program
EP3359029A1 (en) * 2015-10-06 2018-08-15 Koninklijke Philips N.V. Device, system and method for obtaining vital sign related information of a living being
WO2017085894A1 (en) 2015-11-20 2017-05-26 富士通株式会社 Pulse wave analysis device, pulse wave analysis method, and pulse wave analysis program
WO2017085895A1 (en) * 2015-11-20 2017-05-26 富士通株式会社 Information processing device, information processing method, and information processing program
JP6865384B2 (en) * 2016-02-17 2021-04-28 パナソニックIpマネジメント株式会社 Biological information detector
CN107088071B (en) * 2016-02-17 2021-10-15 松下知识产权经营株式会社 Biological information detection device
JP2017153773A (en) * 2016-03-03 2017-09-07 パナソニックIpマネジメント株式会社 Biological information extraction device and biological information extraction system
WO2017188099A1 (en) * 2016-04-27 2017-11-02 旭化成株式会社 Device, terminal and biometric information system
CN107960989B (en) 2016-10-20 2022-02-08 松下知识产权经营株式会社 Pulse wave measurement device and pulse wave measurement method
WO2018088358A1 (en) 2016-11-10 2018-05-17 シャープ株式会社 Pulse wave detection device, image analysis device, and vital sign information generating system
JP6957929B2 (en) * 2017-03-28 2021-11-02 日本電気株式会社 Pulse wave detector, pulse wave detection method, and program
JP6373450B1 (en) * 2017-05-23 2018-08-15 三菱電機株式会社 Biometric device
JP7020023B2 (en) * 2017-09-25 2022-02-16 日本電気株式会社 Mental and physical condition estimation device, mental and physical condition estimation method and program
JP6878687B2 (en) * 2018-03-27 2021-06-02 シャープ株式会社 Model setting device, non-contact blood pressure measuring device, model setting method, model setting program, and recording medium
WO2019202671A1 (en) * 2018-04-17 2019-10-24 Nec Corporation Pulse rate estimation apparatus, pulse rate estimation method, and computer-readable storage medium
JP7204077B2 (en) 2018-09-07 2023-01-16 株式会社アイシン Pulse wave detection device, vehicle device, and pulse wave detection program
JP7443044B2 (en) * 2019-12-13 2024-03-05 シャープ株式会社 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5446443B2 (en) * 2009-05-15 2014-03-19 日産自動車株式会社 Heart rate measuring apparatus and heart rate measuring method

Also Published As

Publication number Publication date
JP2014198201A (en) 2014-10-23

Similar Documents

Publication Publication Date Title
JP6102433B2 (en) Pulse wave detection program, pulse wave detection method, and pulse wave detection device
JP6052027B2 (en) Pulse wave detection device, pulse wave detection program, and pulse wave detection method
JP6256488B2 (en) Signal processing apparatus, signal processing method, and signal processing program
JP6349075B2 (en) Heart rate measuring device and heart rate measuring method
US20170112382A1 (en) Pulse-wave detection method, pulse-wave detection device, and computer-readable recording medium
JP6547160B2 (en) Pulse wave detection device and pulse wave detection program
JP5915757B2 (en) Pulse wave detection method, pulse wave detection device, and pulse wave detection program
JP6167614B2 (en) Blood flow index calculation program, blood flow index calculation device, and blood flow index calculation method
JP6098257B2 (en) Signal processing apparatus, signal processing method, and signal processing program
JP6115263B2 (en) Pulse wave detection device, pulse wave detection method, and pulse wave detection program
WO2014155750A1 (en) Blood flow index calculation method, blood flow index calculation program and blood flow index calculation device
JP7373298B2 (en) Biological information detection device, biological information detection method, and biological information detection program
JP6142664B2 (en) Pulse wave detection device, pulse wave detection program, pulse wave detection method, and content evaluation system
JP6393984B2 (en) Pulse measuring device, pulse measuring method and pulse measuring program
JP6135255B2 (en) Heart rate measuring program, heart rate measuring method and heart rate measuring apparatus
KR101787828B1 (en) Heartrate measuring system using skin color filter
JP2021146061A (en) Biological information acquisition device, biological information acquisition method and program
US11701011B2 (en) Biological information detection device and biological information detection method
JP6488722B2 (en) Pulse wave detection device, pulse wave detection method, and pulse wave detection program
JP7106821B2 (en) BIOLOGICAL SIGNAL ANALYZER, BIOLOGICAL SIGNAL ANALYSIS METHOD AND PROGRAM
JP7237768B2 (en) Biological information detector
JP2018011641A (en) Biological information measurement device, biological information measurement method, and biological information measurement system and program
US9978144B2 (en) Biological information measurement apparatus, biological information measurement method, and computer-readable recording medium
US20230329570A1 (en) Electronic device, storage medium for electronic device, and control method for electronic device
EP3981324A1 (en) Assessment system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150