JP2020162871A - Pulse rate detection device and pulse rate detection program - Google Patents

Pulse rate detection device and pulse rate detection program Download PDF

Info

Publication number
JP2020162871A
JP2020162871A JP2019066380A JP2019066380A JP2020162871A JP 2020162871 A JP2020162871 A JP 2020162871A JP 2019066380 A JP2019066380 A JP 2019066380A JP 2019066380 A JP2019066380 A JP 2019066380A JP 2020162871 A JP2020162871 A JP 2020162871A
Authority
JP
Japan
Prior art keywords
image
pulse rate
time
brightness
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019066380A
Other languages
Japanese (ja)
Other versions
JP7161704B2 (en
Inventor
マイケル ジョーンズ
Michael Jones
マイケル ジョーンズ
佐藤 敦
Atsushi Sato
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=72667708&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2020162871(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2019066380A priority Critical patent/JP7161704B2/en
Priority to PCT/JP2020/014361 priority patent/WO2020203913A1/en
Publication of JP2020162871A publication Critical patent/JP2020162871A/en
Application granted granted Critical
Publication of JP7161704B2 publication Critical patent/JP7161704B2/en
Ceased legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals

Abstract

To detect pulse rate while separating the change in intensity due to change in ambient light.SOLUTION: A pulse rate detection device 1 captures a moving image of the face of a subject 11 while illuminating with a blinking LED 9 under ambient light. The pulse rate detection device 1 blinks the LED 9 in synchronization with the frame rate of a camera 8, thereby generating a moving image in which the on-frame image when the LED 9 is on and the off-frame image when the LED is off are alternately captured. The pulse rate detection device 1 generates a speculative interpolation frame image that is presumed to be captured if the LED 9 was turned off at the time of taking the on-frame image based on the intensity of the off-frame image before and after the on-frame image and the time ratio according to the shooting time when each image was taken. By subtracting the intensity of the interpolation frame image from the intensity of the on-frame image, a correction frame image is generated, where the intensity of ambient light is removed from the on-frame image.SELECTED DRAWING: Figure 2

Description

本発明は、脈拍数検出装置、及び脈拍数検出プログラムに関し、例えば、対象者の脈拍数を検出するものに関する。 The present invention relates to a pulse rate detection device and a pulse rate detection program, for example, a device that detects the pulse rate of a subject.

対象者の健康状態や生理的な状態を把握するためには、脈拍数の検出が重要である。通常、脈拍数は、対象者に器具を装着して検出するが、もっと手軽に検出したいとの要望が高く、非接触で対象者の脈拍数を検出する技術が盛んに研究されている。
これにより、例えば、車両の運転者の脈拍をモニタリングして、より交通安全を推進することができる。
It is important to detect the pulse rate in order to understand the health condition and physiological condition of the subject. Normally, the pulse rate is detected by attaching an instrument to the subject, but there is a high demand for easier detection, and techniques for detecting the pulse rate of the subject in a non-contact manner are being actively researched.
As a result, for example, the pulse of the driver of the vehicle can be monitored to further promote traffic safety.

このように、非接触で脈拍を検出する技術に非特許文献1の技術がある。この技術は、対象者の腕をカメラで撮影し、そのカメラ映像から脈拍を検出する。血流により体表面の輝度や色が変化するため、映像を画像処理することにより脈拍を検出することができる。 As described above, there is a technique of Non-Patent Document 1 as a technique of detecting a pulse without contact. This technology captures the subject's arm with a camera and detects the pulse from the camera image. Since the brightness and color of the body surface change due to blood flow, the pulse can be detected by image processing the image.

ところで、対象者の体表面を撮影しているときに環境光が変化すると体表面の輝度も変化してしまい、脈拍による輝度変化と環境光の変化による輝度変化が区別できないという問題があった。
特に、脈拍数検出装置を車両に搭載する場合、環境光が頻繁に変化するため、環境光の変化による光外乱を分別しないと脈拍数を検出することが困難である。
By the way, when the ambient light changes while the body surface of the subject is photographed, the brightness of the body surface also changes, and there is a problem that the brightness change due to the pulse and the brightness change due to the change of the ambient light cannot be distinguished.
In particular, when the pulse rate detecting device is mounted on a vehicle, the ambient light changes frequently, so that it is difficult to detect the pulse rate unless the optical disturbance due to the change in the ambient light is separated.

”Non−contact monitoring techniques − Principles and applications,” D. Teichmann, C. Bruser, B. Eilebrecht, A. Abbas, N. Blanik, and S. Leonhardt, Con. Proc. IEEE Eng., Med. Biol. Soc. 34th Ann. Int. Conf., San Diego, CA, USA, 2012, pp. 1302−1305."Non-contact monitoring technologies-Principles and applications," D.D. Techmann, C.I. Bruser, B.I. Eilebrecht, A. Abbas, N.M. Blanik, and S. Leonhardt, Con. Proc. IEEE Eng. , Med. Biol. Soc. 34th Ann. Int. Conf. , San Diego, CA, USA, 2012, pp. 1302-1305.

本発明は、環境光の変化による輝度の変化を分別して脈拍数を検出することを目的とする。 An object of the present invention is to detect a pulse rate by discriminating a change in brightness due to a change in ambient light.

(1)本発明は、前記目的を達成するために、請求項1に記載の発明では、点滅する光源によって対象者の体表面を照明する照明手段と、変動する環境光の下、前記照明された体表面を時系列的に連続する画像によって動画撮影する撮影手段と、前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像から推測することで補間する補間手段と、前記補間手段で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正手段と、時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得手段と、前記取得した脈拍数を出力する出力手段と、を具備したことを特徴とする脈拍数検出装置を提供する。
(2)請求項2に記載の発明では、前記一方の画像は点灯時の画像であり、他方の画像は消灯時の画像であることを特徴とする請求項1に記載の脈拍数検出装置を提供する。
(3)請求項3に記載の発明では、前記照明手段は、前記光源が発する赤外線の点滅によって前記体表面を照明し、前記撮影手段は、前記体表面から反射した赤外線の画像によって動画撮影する、ことを特徴とする請求項1、又は請求項2に記載の脈拍数検出装置を提供する。
(4)請求項4に記載の発明では、前記照明手段は、前記光源としてLEDを点滅させる、ことを特徴とする請求項2、又は請求項3に記載の脈拍数検出装置を提供する。
(5)請求項5に記載の発明では、前記補間手段は、前記前に撮影した他方の画像の撮影時刻T1から前記後に撮影した他方の画像の撮影時刻T3までの第1時間と、前記撮影時刻T1から前記一方の画像の撮影時刻T2までの第2時間との時間比に基づいて、前記画素ごとの輝度を推定することで補間する、ことを特徴とする請求項1、請求項2、請求項3、又は請求項4に記載の脈拍数検出装置を提供する。
(6)請求項6に記載の発明では、変動する環境光の下、点滅する光源によって照明された対象者の体表面を時系列的に連続する画像によって撮影した画像を取得する画像取得機能と、前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像からすることで補間する補間機能と、前記補間機能で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正機能と、時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得機能と、前記取得した脈拍数を出力する出力機能と、をコンピュータで実現する脈拍数検出プログラムを提供する。
(1) In order to achieve the above object, in the invention according to claim 1, the present invention is illuminated by the lighting means for illuminating the body surface of the subject with a blinking light source and the fluctuating ambient light. A shooting means for capturing a moving image of the surface of the body in a time-series manner, a lighting image taken when the light source is lit, and an extinguished image taken when the light source is off. The interpolation means for interpolating the other image at the time of shooting one image from the other images taken before and after the one image, and the image interpolated by the interpolation means are used. The correction means for correcting the brightness of the image at the time of lighting by subtracting the brightness of the image at the time of turning off from the brightness of the image at the time of shooting one image for each pixel, and the correction means continuous in time series. A pulse rate detection device comprising: a pulse rate acquisition means for acquiring the pulse rate of the subject from a corrected change in the brightness of the image at the time of lighting, and an output means for outputting the acquired pulse rate. I will provide a.
(2) In the invention according to claim 2, the pulse rate detecting device according to claim 1, wherein one image is an image when it is lit and the other image is an image when it is turned off. provide.
(3) In the invention according to claim 3, the lighting means illuminates the body surface by blinking infrared rays emitted from the light source, and the photographing means takes a moving image by an image of infrared rays reflected from the body surface. The pulse rate detecting device according to claim 1 or 2, wherein the pulse rate detecting device is provided.
(4) In the invention according to claim 4, the lighting means provides the pulse rate detecting device according to claim 2 or 3, wherein the LED is blinked as the light source.
(5) In the invention according to claim 5, the interpolating means includes a first time from a shooting time T1 of the other image shot before to a shooting time T3 of the other image shot after the shooting, and the shooting. Claims 1, 2 and 2, wherein the interpolation is performed by estimating the brightness of each pixel based on the time ratio from the time T1 to the shooting time T2 of the one image. The pulse rate detecting apparatus according to claim 3 or 4.
(6) The invention according to claim 6 has an image acquisition function for acquiring an image taken by a time-series continuous image of the body surface of a subject illuminated by a blinking light source under fluctuating ambient light. Of the image at the time of lighting taken when the light source is on and the image at the time of extinguishing taken when the light source is off, the other image at the time of taking one image is the one. Using the interpolation function that interpolates from the other image taken before and after the image and the image that is interpolated by the interpolation function, the brightness of the image when it is lit to the image when it is turned off when the one image is taken. The pulse rate of the subject is acquired from the correction function that corrects the brightness of the image at the time of lighting by reducing the brightness of the image for each pixel and the change in the brightness of the corrected image at the time of lighting that is continuous in time series. Provided is a pulse rate detection program that realizes a pulse rate acquisition function for performing an image and an output function for outputting the acquired pulse rate on a computer.

本発明によれば、点滅光を用いて環境光による輝度を推測することにより、これを分別して脈拍数を検出することができる。 According to the present invention, by estimating the brightness due to the ambient light using the blinking light, it is possible to discriminate this and detect the pulse rate.

脈拍を検出する原理を説明するための図である。It is a figure for demonstrating the principle of detecting a pulse. 脈拍数検出装置の構成を示した図である。It is a figure which showed the structure of the pulse rate detection device. 補間フレーム画像の作成方法を説明するための図である。It is a figure for demonstrating the method of creating an interpolated frame image. 脈拍数検出処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of a pulse rate detection process. 画像取得補正処理の概要について説明するための図である。It is a figure for demonstrating the outline of the image acquisition correction processing. 画像取得補正処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of image acquisition correction processing. データ取得処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of data acquisition processing. 脈拍数検出処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of a pulse rate detection process. フローチャートを補足説明するための図である。It is a figure for supplementary explanation of the flowchart. 輝度信号RとsROIの関係式の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the relational expression of a luminance signal R and sROI. 輝度信号Rの補正式を説明するための図である。It is a figure for demonstrating the correction formula of a luminance signal R. 実験結果を説明するための図である。It is a figure for demonstrating the experimental result.

(1)実施形態の概要
脈拍数検出装置1(図2)は、環境光の下、点滅するLED9で照明しながら対象者11の顔を動画撮影する。
脈拍数検出装置1は、カメラ8のフレームレートに同期させてLED9を点滅させ、これによって、LED9の点灯時のフレーム画像(オンフレーム画像)と消灯時のフレーム画像(オフフレーム画像)が交互に撮影された動画を生成する。
(1) Outline of Embodiment The pulse rate detection device 1 (FIG. 2) captures a moving image of the face of the subject 11 while illuminating with a blinking LED 9 under ambient light.
The pulse rate detection device 1 blinks the LED 9 in synchronization with the frame rate of the camera 8, whereby the frame image (on-frame image) when the LED 9 is lit and the frame image (off-frame image) when the LED 9 is turned off are alternately generated. Generate a video that was shot.

オフフレーム画像の輝度は環境光によるものであり、オンフレーム画像の輝度は環境光によるものとLED9によるものを合わせたものである。
ここで、オンフレーム画像から環境光による輝度を除けば、LED9だけによる外乱のない輝度が得られ、これから脈拍数を検出することができる。
The brightness of the off-frame image is due to the ambient light, and the brightness of the on-frame image is the sum of the ambient light and the LED9.
Here, if the brightness due to the ambient light is removed from the on-frame image, the brightness without disturbance is obtained only by the LED 9, and the pulse rate can be detected from this.

そこで、脈拍数検出装置1は、オンフレーム画像の前後のオフフレーム画像を用いることで、オンフレーム画像の撮影時に対応するオフフレーム画像を推測して補間する。その具体的一例として本実施形態では、オンフレーム画像の撮影時刻をT2、オンフレーム画像の前のオフフレーム画像の撮影時刻をT1、オンフレーム画像の後のオフフレーム画像の撮影時刻をT3とした場合に、撮影時刻T1から撮影時刻T3までの第1時間と、撮影時刻T1から撮影時刻T2までの第2時間との時間比に基づいて、オンフレーム画像撮影時T2において仮にLED9を消灯していたら撮影されていたであろうと推測される推測上の補間フレーム画像(2つのオフフレーム画像をオンフレーム画像撮影時点において補間する推測上のオフフレーム画像)を生成して補間する。
補間フレーム画像の輝度は、オンフレーム画像撮影時の環境光による輝度であると推測される。
Therefore, the pulse rate detection device 1 estimates and interpolates the corresponding off-frame image at the time of capturing the on-frame image by using the off-frame images before and after the on-frame image. As a specific example thereof, in the present embodiment, the shooting time of the on-frame image is T2, the shooting time of the off-frame image before the on-frame image is T1, and the shooting time of the off-frame image after the on-frame image is T3. In this case, the LED 9 is temporarily turned off at T2 during on-frame image shooting based on the time ratio between the first time from the shooting time T1 to the shooting time T3 and the second time from the shooting time T1 to the shooting time T2. A speculative interpolation frame image (a presumed off-frame image that interpolates two off-frame images at the time of shooting the on-frame image) that is presumed to have been captured is generated and interpolated.
The brightness of the interpolated frame image is presumed to be the brightness due to the ambient light at the time of shooting the on-frame image.

そこで、脈拍数検出装置1は、オンフレーム画像の輝度から補間フレーム画像の輝度を引くことにより、オンフレーム画像から環境光の輝度を除いた補正フレーム画像を生成する。
そして、脈拍数検出装置1は、当該補正フレーム画像の輝度のフーリエ変換から脈拍数を検出する。
Therefore, the pulse rate detection device 1 generates a correction frame image obtained by subtracting the brightness of the ambient light from the on-frame image by subtracting the brightness of the interpolated frame image from the brightness of the on-frame image.
Then, the pulse rate detection device 1 detects the pulse rate from the Fourier transform of the brightness of the corrected frame image.

(2)実施形態の詳細
図1は、環境光の変化による外乱下で脈波(脈拍)を検出する原理を説明するための図である。
本実施の形態では、LED(light emitting diode)の照明は脈波信号を拡大するが、光外乱を拡大しないという原理原則に基づき、点滅するLEDを用いることによって、脈波による輝度変化と環境光の変化による輝度変化を分別する。
(2) Details of the Embodiment FIG. 1 is a diagram for explaining the principle of detecting a pulse wave (pulse) under disturbance due to a change in ambient light.
In the present embodiment, the illumination of the LED (light emitting diode) expands the pulse wave signal, but based on the principle principle that it does not expand the optical disturbance, by using the blinking LED, the brightness change due to the pulse wave and the ambient light The change in brightness due to the change in is separated.

図1(a)は、LED照明を用いずに、環境光だけで体表面を撮影した場合を示している。
体表面(皮膚表面17と血管18から構成される)に入射した環境光は、皮膚表面17と血管18で反射して、それぞれ皮膚反射光Aと血管反射光Bを生じさせる。カメラが撮影するのは、これらを合成した体表面反射光Cである。
FIG. 1A shows a case where the body surface is photographed only with ambient light without using LED lighting.
The ambient light incident on the body surface (composed of the skin surface 17 and the blood vessel 18) is reflected by the skin surface 17 and the blood vessel 18 to generate the skin reflected light A and the blood vessel reflected light B, respectively. What the camera captures is the body surface reflected light C that combines these.

図1(a)のグラフは、これら反射光による輝度信号(輝度信号の振幅)の時間変化を示している。
グラフの皮膚表面輝度信号A、血管輝度信号B、及び体表面輝度信号Cは、それぞれ、皮膚反射光A、血管反射光B、体表面反射光Cによるものである。
皮膚輝度信号Aは、環境光の変化に伴って変化し、血管輝度信号Bは、環境光の変化と脈拍に伴って変化する。
カメラで撮影した動画から得られるのは、これらの変化を合成した体表面輝度信号Cである。
The graph of FIG. 1A shows the time change of the luminance signal (amplitude of the luminance signal) due to these reflected lights.
The skin surface brightness signal A, the blood vessel brightness signal B, and the body surface brightness signal C in the graph are based on the skin reflected light A, the blood vessel reflected light B, and the body surface reflected light C, respectively.
The skin luminance signal A changes with the change of the ambient light, and the blood vessel luminance signal B changes with the change of the ambient light and the pulse.
What is obtained from the moving image taken by the camera is the body surface brightness signal C that combines these changes.

図1(b)は、環境光の下、LED光による照明を行いながら体表面を撮影した場合を示している。
体表面に入射したLED光は、皮膚表面17と血管18で反射して、それぞれ皮膚反射光Dと血管反射光Eを生じさせる。カメラが撮影するのは、皮膚反射光A、血管反射光B、皮膚反射光D、及び血管反射光Eを合成した体表面反射光Fである。
FIG. 1B shows a case where the body surface is photographed while being illuminated by LED light under ambient light.
The LED light incident on the body surface is reflected by the skin surface 17 and the blood vessel 18, and produces the skin reflected light D and the blood vessel reflected light E, respectively. What the camera captures is body surface reflected light F, which is a combination of skin reflected light A, vascular reflected light B, skin reflected light D, and vascular reflected light E.

図1(b)のグラフは、これらの反射光による輝度信号の時間変化を示している。
グラフの皮膚表面輝度信号A、血管輝度信号B、皮膚表面輝度信号D、血管輝度信号E、及び体表面輝度信号Fは、それぞれ、皮膚反射光A、血管反射光B、皮膚反射光D、血管反射光E、及び体表面反射光Fによるものである。
LED光の輝度は一定であるため、皮膚表面輝度信号Dは一定値をとり、血管輝度信号Eは脈拍に伴って変化する。
カメラで撮影した動画から得られるのは、皮膚表面輝度信号A〜血管輝度信号Eを合成した体表面輝度信号Fである。
The graph of FIG. 1B shows the time change of the luminance signal due to these reflected lights.
The skin surface brightness signal A, blood vessel brightness signal B, skin surface brightness signal D, blood vessel brightness signal E, and body surface brightness signal F in the graph are skin reflected light A, blood vessel reflected light B, skin reflected light D, and blood vessels, respectively. This is due to the reflected light E and the body surface reflected light F.
Since the brightness of the LED light is constant, the skin surface brightness signal D takes a constant value, and the blood vessel brightness signal E changes with the pulse.
The body surface brightness signal F obtained by synthesizing the skin surface brightness signal A to the blood vessel brightness signal E is obtained from the moving image taken by the camera.

図1(c)のグラフは、体表面輝度信号Fと体表面輝度信号Cの差分を示している。
体表面輝度信号Fから体表面輝度信号Cを引くと、環境光による光外乱(皮膚表面輝度信号Aと血管輝度信号B)が消去されて、LED光による皮膚表面輝度信号Dと血管輝度信号Eの合計である体表面輝度信号Gが得られる。
体表面輝度信号Gには、皮膚表面輝度信号Dが含まれているが、これは一定であるため、体表面輝度信号Gの時間変化は血管輝度信号Eの時間変化を表し、これから脈拍数を検出することができる。
The graph of FIG. 1C shows the difference between the body surface brightness signal F and the body surface brightness signal C.
When the body surface brightness signal C is subtracted from the body surface brightness signal F, the light disturbance due to ambient light (skin surface brightness signal A and blood vessel brightness signal B) is erased, and the skin surface brightness signal D and blood vessel brightness signal E due to LED light are erased. The body surface luminance signal G, which is the sum of the above, is obtained.
The body surface brightness signal G includes the skin surface brightness signal D, but since this is constant, the time change of the body surface brightness signal G represents the time change of the blood vessel brightness signal E, and the pulse rate is calculated from this. It can be detected.

このように、LED点灯時の輝度信号とLED消灯時の輝度信号の差分から脈拍数を検出することができるが、LEDが点灯した状態と、LEDが消灯した状態を同時に実現することはできないという問題がある。 In this way, the pulse rate can be detected from the difference between the brightness signal when the LED is on and the brightness signal when the LED is off, but it is not possible to realize the state where the LED is on and the state where the LED is off at the same time. There's a problem.

そこで、本実施の形態では、LEDを動画のフレームごとに点滅させて、LEDをオンして点灯している状態のオンフレーム画像とLEDをオフして消灯している状態のオフフレーム画像を交互に撮影する。そして、オンフレーム画像の前後のオフフレーム画像の輝度と、前のオフフレーム画像の撮影時刻T1から後のオフフレーム画像撮影時刻T3までの第1時間と、撮影時刻T1からオンフレーム画像の撮影時刻T2までの第2時間との時間比に基づいて、オンフレーム画像撮影時刻T2における補間フレーム画像(オンフレーム画像撮影時に仮想的に撮影されるオフフレーム画像)の輝度を推測する。
補間フレーム画像の輝度は、オンフレーム画像撮影時の環境光による輝度であると推測できるため、オンフレーム画像による輝度信号(体表面輝度信号F)と当該推測より得られる輝度信号(体表面輝度信号Cの推測値)の差分から脈拍数を検出する。
Therefore, in the present embodiment, the LED is blinked for each frame of the moving image, and the on-frame image in the state where the LED is turned on and on and the off-frame image in the state where the LED is turned off are alternated. Take a picture. Then, the brightness of the off-frame image before and after the on-frame image, the first time from the shooting time T1 of the previous off-frame image to the shooting time T3 of the off-frame image after, and the shooting time of the on-frame image from the shooting time T1. Based on the time ratio with the second time up to T2, the brightness of the interpolated frame image (off-frame image virtually taken at the time of on-frame image shooting) at the on-frame image shooting time T2 is estimated.
Since the brightness of the interpolated frame image can be estimated to be the brightness due to the ambient light at the time of shooting the on-frame image, the brightness signal based on the on-frame image (body surface luminance signal F) and the luminance signal obtained from the estimation (body surface luminance signal) The pulse rate is detected from the difference (estimated value of C).

図2は、本実施の形態の脈拍数検出装置1の構成を示した図である。
脈拍数検出装置1は、例えば、車両に搭載され、搭乗者(ドライバや助手席の乗客などの対象者)の脈波(脈拍)を監視し、ドライバの体調、緊張状態などの生理的な状態を把握する。
また、医療現場や災害現場などで患者や被災者の脈拍数を検出・監視したり、家庭や商業施設に設置して、利用者が手軽に脈拍数を検出するのに利用することができる。
FIG. 2 is a diagram showing the configuration of the pulse rate detection device 1 of the present embodiment.
The pulse rate detection device 1 is mounted on a vehicle, for example, and monitors the pulse wave (pulse) of a passenger (a target person such as a driver or a passenger in the passenger seat), and is in a physiological state such as the driver's physical condition and tension. To grasp.
In addition, it can be used to detect and monitor the pulse rate of patients and disaster victims at medical sites and disaster sites, or to be installed in homes and commercial facilities so that users can easily detect the pulse rate.

脈拍数検出装置1は、CPU(Central Processing Unit)2、ROM(Read Only Memory)3、RAM(Random Access Memory)4、表示部5、入力部6、出力部7、カメラ8、LED9、記憶部10などから構成されており、対象者11(脈拍数検出装置1の検出対象者)の脈拍数(脈波、脈拍)を検出する。
CPU2は、記憶部10やROM3などに記憶されたプログラムに従って、各種の情報処理や制御を行う中央処理装置である。
本実施の形態では、カメラ8が撮影した動画を画像処理して対象者11の脈拍数を検出する。
The pulse rate detection device 1 includes a CPU (Central Processing Unit) 2, a ROM (Read Only Memory) 3, a RAM (Random Access Memory) 4, a display unit 5, an input unit 6, an output unit 7, a camera 8, an LED 9, and a storage unit. It is composed of 10 and the like, and detects the pulse rate (pulse wave, pulse) of the target person 11 (the detection target person of the pulse rate detection device 1).
The CPU 2 is a central processing unit that performs various information processing and control according to a program stored in a storage unit 10 or a ROM 3.
In the present embodiment, the moving image taken by the camera 8 is image-processed to detect the pulse rate of the subject 11.

ROM3は、読み取り専用メモリであって、脈拍数検出装置1を動作させるための基本的なプログラムやパラメータなどが記憶されている。
RAM4は、読み書きが可能なメモリであって、CPU2が動作する際のワーキングメモリを提供する。
本実施の形態では、動画を構成するフレーム画像(1コマの静止画像)を展開して記憶したり、計算結果を記憶したりすることにより、CPU2が、フレーム画像に写った体表面から脈拍数を検出するのを支援する。
当該体表面は、顔や手足など体表面が露出しているところならよいが、本実施の形態では、一例として顔の表面(顔面)から脈拍数を検出する。
The ROM 3 is a read-only memory, and stores basic programs and parameters for operating the pulse rate detection device 1.
The RAM 4 is a readable and writable memory, and provides a working memory when the CPU 2 operates.
In the present embodiment, the CPU 2 has a pulse rate from the body surface reflected in the frame image by expanding and storing the frame image (one frame of still image) constituting the moving image and storing the calculation result. To help detect.
The body surface may be a place where the body surface such as the face or limbs is exposed, but in the present embodiment, the pulse rate is detected from the face surface (face) as an example.

表示部5は、液晶画面などの表示デバイスを用いて構成されており、脈拍数検出装置1の操作画面や脈拍数の表示など、脈拍数検出装置1の運用に必要な情報を表示する。
入力部6は、表示デバイスに重畳して設置されたタッチパネルなどの入力デバイスを用いて構成されており、画面表示に対するタッチの有無などから各種の情報の入力を受け付ける。
The display unit 5 is configured by using a display device such as a liquid crystal screen, and displays information necessary for the operation of the pulse rate detection device 1, such as an operation screen of the pulse rate detection device 1 and a display of the pulse rate.
The input unit 6 is configured by using an input device such as a touch panel installed superimposed on the display device, and receives input of various information depending on whether or not there is a touch on the screen display.

出力部7は、各種の情報を外部装置に出力するインターフェースであり、例えば、検出した脈拍数を出力したり、あるいは、脈拍数に変化が現れた場合にアラームを出力することができる。
また出力部7は、車両を制御する制御装置などの他の制御機器に出力することができる。出力部7から脈拍数の出力を受けた制御機器では、例えば、ドライバの眠気や緊張状態等を判断し、ドライバに向けた制御、例えば、眠気を覚醒させるためにハンドルやシートを振動させる制御、警告音やメッセージの出力などを行うことができる。また、車両に対する制御として、脈拍数に基づいて判断したドライバの緊張状態に応じて、車間距離制御、車速制御、又はブレーキ制御の少なくとも1つを行うことも可能である。例えば、制御機器は、ドライバが所定値を超える高い緊張状態にあると判断した場合には、車間距離を基準値よりも大きくとるように制御し、車速を所定車速以下となるように制御し、所定車速以上であれば自動ブレーキ操作による減速処理等を行う。
表示部5や出力部7は、脈拍数を出力する出力手段として機能している。
The output unit 7 is an interface that outputs various kinds of information to an external device. For example, the detected pulse rate can be output, or an alarm can be output when a change appears in the pulse rate.
Further, the output unit 7 can output to other control devices such as a control device that controls the vehicle. In the control device that receives the output of the pulse rate from the output unit 7, for example, the control device that determines the drowsiness or tension state of the driver and controls the driver, for example, the control that vibrates the steering wheel or the seat to awaken the drowsiness. You can output warning sounds and messages. Further, as control for the vehicle, at least one of inter-vehicle distance control, vehicle speed control, and brake control can be performed according to the driver's tension state determined based on the pulse rate. For example, when the driver determines that the driver is in a high tension state exceeding a predetermined value, the control device controls the inter-vehicle distance to be larger than the reference value and controls the vehicle speed to be equal to or less than the predetermined vehicle speed. If the vehicle speed is higher than the specified vehicle speed, deceleration processing by automatic braking operation is performed.
The display unit 5 and the output unit 7 function as output means for outputting the pulse rate.

カメラ8は、動画を撮影するためのカメラであって、レンズで構成された光学系と、これによって結像した像を電気信号に変換する赤外線イメージセンサを用いて構成されている。
カメラ8は、対象者11の顔前方に設置されており、対象者11の顔付近が撮影画面となるように設定されている。
そして、カメラ8は、対象者11を所定のフレームレートにて撮影し、これら時系列的に連続するフレーム画像(静止画像)で構成された動画を出力する。
The camera 8 is a camera for shooting a moving image, and is configured by using an optical system composed of a lens and an infrared image sensor that converts an image formed by the optical system into an electric signal.
The camera 8 is installed in front of the face of the subject 11, and is set so that the vicinity of the face of the subject 11 is the shooting screen.
Then, the camera 8 shoots the target person 11 at a predetermined frame rate, and outputs a moving image composed of these time-series continuous frame images (still images).

フレーム画像は、画像を構成する最小単位である画素(ピクセル)の配列により構成されており、各画素はLED9が照射する周波数帯域の赤外線を検出する。
このように、カメラ8は、変動する環境光の下、LED9で照明された体表面を時系列的に連続する画像によって動画撮影する撮影手段として機能する。
The frame image is composed of an array of pixels, which is the smallest unit constituting the image, and each pixel detects infrared rays in the frequency band irradiated by the LED 9.
In this way, the camera 8 functions as a photographing means for photographing the body surface illuminated by the LED 9 with continuous images in chronological order under fluctuating ambient light.

LED9は、所定の周波数帯域の赤外線を対象に照射してこれを照明する照明装置であって、対象者11の顔の前方に設置されており、対象者11の顔を前方から照明する。
LED9は、点滅する光源が発する赤外線によって対象者の体表面を照明する照明手段として機能する。
LED9は、CPU2によるオンオフ制御によって、点灯状態と消灯状態をフレームレート(本実施の形態では、一例として毎秒60フレームとした)に同期して繰り返す。
LED9は、赤外線を発するため、対象者11には見えず(そのため、まぶしくない)、また、この波長領域では、脈波の検出に良好な皮膚反射光Dと血管反射光Eを得ることができる。
The LED 9 is a lighting device that irradiates an infrared ray in a predetermined frequency band to illuminate the target, and is installed in front of the face of the target person 11 to illuminate the face of the target person 11 from the front.
The LED 9 functions as a lighting means for illuminating the body surface of the subject with infrared rays emitted by a blinking light source.
The LED 9 repeats the lighting state and the extinguishing state in synchronization with the frame rate (in this embodiment, 60 frames per second as an example) by the on / off control by the CPU 2.
Since the LED 9 emits infrared rays, it is invisible to the subject 11 (and therefore is not dazzling), and in this wavelength region, skin reflected light D and blood vessel reflected light E that are good for detecting pulse waves can be obtained. ..

なお、カメラ8とLED9は、カメラ8とLED9が一体となった、照明付きカメラとしてもよい。
また、脈拍数検出装置1は、赤外線により対象者11の脈波を検出するが、可視光を用いるなど、他の周波数帯域における光を用いてもよい。この場合は、カメラ8とLED9を当該光に適合したもので構成する。
The camera 8 and the LED 9 may be an illuminated camera in which the camera 8 and the LED 9 are integrated.
Further, although the pulse rate detection device 1 detects the pulse wave of the subject 11 by infrared rays, light in another frequency band such as visible light may be used. In this case, the camera 8 and the LED 9 are configured by those suitable for the light.

なお、脈拍数検出装置1で、赤外線を用いたのは、昼夜の区別なく脈拍数の検出が可能であるためである。
但し、可視光による脈拍数の検出が可能な昼間は可視光による脈拍数の検出を行い、車内が所定の明るさ以下になった場合に、赤外線による脈拍数の検出に切り替えるという運用も可能である。また、車内が所定の明るさ以下になるまでの間は、可視光による脈拍数の検出と本実施形態による赤外線による脈拍数の検出の両者を使用し、所定の明るさ以下になった後は本実施形態だけを使用するようにしてもよい。この場合、何れか一方の出力を他方の出力の信頼度を推定するために使用してもよく、また、両出力の平均値を検出値として出力するようにしてもよい。なお、車内の明るさについては、例えば照度センサ等を使用して検出する。
The pulse rate detection device 1 uses infrared rays because it can detect the pulse rate regardless of day and night.
However, it is also possible to detect the pulse rate with visible light during the daytime when the pulse rate can be detected with visible light, and switch to the detection of the pulse rate with infrared light when the brightness inside the vehicle becomes less than the specified brightness. is there. Further, until the inside of the vehicle has a predetermined brightness or less, both the detection of the pulse rate by visible light and the detection of the pulse rate by infrared rays according to the present embodiment are used, and after the brightness becomes less than the predetermined brightness. Only the present embodiment may be used. In this case, one of the outputs may be used to estimate the reliability of the other output, or the average value of both outputs may be output as a detection value. The brightness inside the vehicle is detected by using, for example, an illuminance sensor.

記憶部10は、ハードディスクやEEPROM(Electrically Erasable Programmable Read−Only Memory)などの記憶媒体を用いて構成されており、CPU2が脈波を検出するための脈拍数検出プログラム12やその他のプログラム、及びデータを記憶している。
CPU2が脈拍数検出プログラム12に従って検出した脈拍数は、RAM4に一時保存され、必要に応じて外部に出力されたり、記憶部10に保存される。
The storage unit 10 is configured by using a storage medium such as a hard disk or an EEPROM (Electrically Erasable Program Read-Only Memory), and a pulse rate detection program 12 or other program for the CPU 2 to detect a pulse wave, and data. I remember.
The pulse rate detected by the CPU 2 according to the pulse rate detection program 12 is temporarily stored in the RAM 4, output to the outside, or stored in the storage unit 10 as needed.

脈拍数検出プログラム12は、CPU2に脈波検出処理を行わせるプログラムである。
CPU2は、脈拍数検出プログラム12を実行することにより、動画撮影した対象者11の顔から輝度の検出を行う。
The pulse rate detection program 12 is a program that causes the CPU 2 to perform pulse wave detection processing.
By executing the pulse rate detection program 12, the CPU 2 detects the brightness from the face of the subject 11 who has taken a moving image.

図3は、補間フレーム画像の作成方法を説明するための図である。
図3において、オン、オフと記した菱形図形の列は、動画撮影されたフレーム画像を時系列的に並べたところを模式的に表しており(時間の経過方向は図に向かって右方向とする)、オンと記された菱形図形はオンフレーム画像を、オフと記された菱形図形はオフフレーム画像を表している。
FIG. 3 is a diagram for explaining a method of creating an interpolated frame image.
In FIG. 3, the rows of diamond-shaped figures marked on and off schematically represent the time-series arrangement of the frame images taken as moving images (the time elapses in the right direction toward the figure). The diamond-shaped figure marked on represents an on-frame image, and the diamond-shaped figure marked off represents an off-frame image.

脈拍数検出装置1は、LED9をフレームレートに同期して点滅させるため、・・・、オフフレーム画像21、オンフレーム画像22、オフフレーム画像23、・・・といったように、オフフレーム画像とオンフレーム画像を交互に動画撮影するが、ここでは、一例として、オンフレーム画像22を補正する場合について考える。 Since the pulse rate detection device 1 blinks the LED 9 in synchronization with the frame rate, the off-frame image and the on-frame image are turned on, such as, off-frame image 21, on-frame image 22, off-frame image 23, and so on. The frame images are alternately shot as moving images, but here, as an example, a case where the on-frame image 22 is corrected will be considered.

まず、脈拍数検出装置1は、オンフレーム画像22の1コマ前(1フレーム前)のオフフレーム画像21と、1コマ後(1フレーム後)のオフフレーム画像23を特定する。
そして、オフフレーム画像21とオフフレーム画像23の輝度と、撮影時刻の時間比に基づいて、オンフレーム画像22の撮影時点にて、オフフレーム画像21とオフフレーム画像23を補間する推定上のオフフレーム画像である補間フレーム画像25を生成する。
先に述べたように、補間フレーム画像25は、オンフレーム画像22の撮影時における環境光の輝度を推測することで補間した画像である。
First, the pulse rate detection device 1 identifies the off-frame image 21 one frame before (one frame before) and the off-frame image 23 one frame after (one frame after) of the on-frame image 22.
Then, based on the brightness of the off-frame image 21 and the off-frame image 23 and the time ratio of the shooting time, the off-frame image 21 and the off-frame image 23 are estimated to be off at the time of shooting the on-frame image 22. An interpolated frame image 25, which is a frame image, is generated.
As described above, the interpolated frame image 25 is an image interpolated by estimating the brightness of the ambient light at the time of shooting the on-frame image 22.

このように、脈拍数検出装置1は、光源が点灯している時に撮影した点灯時の画像(オンフレーム画像)と、前記光源が消灯している時に撮影した消灯時の画像(オフフレーム画像)のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像から推測することで補間する補間手段を備えている。
上の例では、一方の画像は点灯時の画像であり、他方の画像は消灯時の画像である。補間手段は、当該点灯時の画像の前の消灯時の画像の輝度と、当該点灯時の画像の後の消灯時の画像の輝度と、各画像撮影時の時間比に基づいて、当該点灯時の画像を撮影した時点における消灯時の画像の輝度を推測することにより環境光による輝度を推測している。
なお、当該一方の画像を消灯時の画像、他方の画像を点灯時の画像とすることも可能である。この場合、オフフレーム画像の前後のオンフレーム画像の輝度と、各画像の撮影時刻の時間比に基づいて、オンフレーム画像を補完する補間画像を作成する。
As described above, the pulse rate detection device 1 has a lighting image (on-frame image) taken when the light source is on and an off-frame image taken when the light source is off (off-frame image). Of these, an interpolation means for interpolating the other image at the time of shooting one image by estimating from the other image shot before and after the one image is provided.
In the above example, one image is an image when it is lit, and the other image is an image when it is extinguished. The interpolation means at the time of lighting is based on the brightness of the image at the time of turning off before the image at the time of lighting, the brightness of the image at the time of turning off after the image at the time of lighting, and the time ratio at the time of taking each image. The brightness due to ambient light is estimated by estimating the brightness of the image when the light is turned off at the time when the image of is taken.
It is also possible to use the one image as the image when the light is turned off and the other image as the image when the light is on. In this case, an interpolated image that complements the on-frame image is created based on the brightness of the on-frame images before and after the off-frame image and the time ratio of the shooting time of each image.

より詳細には、図のグラフに示したように、iをフレーム画像のインデックスとして、オフフレーム画像21の撮影時刻T1をt(i)、処理対象となる画素の輝度をY(i)、オンフレーム画像22の撮影時刻T2をt(i+1)、対応する画素の輝度をY(i+1)、オフフレーム画像23の撮影時刻T3をt(i+2)、対応する画素の輝度をY(i+2)とする。 More specifically, as shown in the graph of the figure, i is used as the index of the frame image, the shooting time T1 of the off-frame image 21 is t (i), the brightness of the pixel to be processed is Y (i), and on. The shooting time T2 of the frame image 22 is t (i + 1), the brightness of the corresponding pixel is Y (i + 1), the shooting time T3 of the off-frame image 23 is t (i + 2), and the brightness of the corresponding pixel is Y (i + 2). ..

時刻T2=t(i+1)における補間フレーム画像25の当該画素の輝度Y(i+1)は、オフフレーム画像21とオフフレーム画像23の当該画素の両輝度と、T1、T2、T3の時間比に基づく式(1)(図3参照)によって計算される。
式(1)は、Y(i+1)=Y(i)+[Y(i+2)−Y(i)}×{t(i+1)−t(i)}÷{t(i+2)−t(i)}によって定義されている。
このように、撮影時刻の時間間隔(第1時刻、第2時刻)を都度取得して、この時間比に基づいて、補間フレーム画像25の当該画素の輝度Y(i+1)を式(1)により算出しているため、フレーム画像を撮影する時刻がばらついていても、オンフレーム画像22の撮影時点における補間フレーム画像の輝度を正しく計算することができる。
ここで、式(1)におけるt(i+2)−t(i)が第1時間、t(i+1)−t(i)が第2時間である。
The brightness Y (i + 1) of the pixel of the interpolated frame image 25 at time T2 = t (i + 1) is based on both the brightness of the pixel of the off-frame image 21 and the off-frame image 23 and the time ratio of T1, T2, and T3. Calculated by equation (1) (see FIG. 3).
The formula (1) is Y (i + 1) = Y (i) + [Y (i + 2) -Y (i)} × {t (i + 1) -t (i)} ÷ {t (i + 2) -t (i). } Is defined by.
In this way, the time intervals (first time, second time) of the shooting time are acquired each time, and the brightness Y (i + 1) of the pixel of the interpolated frame image 25 is calculated by the equation (1) based on this time ratio. Since the calculation is performed, the brightness of the interpolated frame image at the time of shooting the on-frame image 22 can be correctly calculated even if the time for shooting the frame image varies.
Here, t (i + 2) -t (i) in the formula (1) is the first time, and t (i + 1) -t (i) is the second time.

脈拍数検出装置1は、式(1)による計算をオフフレーム画像21、23の全ての画素の輝度について画素ごとに行う。
脈拍数検出装置1は、以上の処理によって、各オンフレーム画像に対応する補正フレーム画像をオンフレーム画像ごとに生成する。
このように、脈拍数検出装置1が備える補間手段は、前に撮影した他方の画像の撮影時刻T1から後に撮影した他方の画像の撮影時刻T3までの第1時間と、撮影時刻T1から一方の画像の撮影時刻T2までの第2時間との時間比に基づいて、画素ごとの輝度を推定することで補間している。
The pulse rate detection device 1 performs the calculation according to the equation (1) for each pixel for the brightness of all the pixels of the off-frame images 21 and 23.
The pulse rate detection device 1 generates a correction frame image corresponding to each on-frame image for each on-frame image by the above processing.
As described above, the interpolation means provided in the pulse rate detection device 1 includes the first time from the shooting time T1 of the other image shot before to the shooting time T3 of the other image shot later, and one from the shooting time T1. Interpolation is performed by estimating the brightness of each pixel based on the time ratio with the second time up to the shooting time T2 of the image.

ところで、このようにオンフレーム画像の前後のオフフレーム画像を使用して補間フレーム画像を生成することにしたのは、本願発明者が、オンフレーム画像を、その前後の一方のオフフレーム画像で補正する実験を行ったところ、望ましい精度が得られなかったためである。
そこで、オンフレーム画像の前後のオフフレーム画像を用いて補間フレーム画像を生成し、生成した補間フレーム画像を用いてオンフレーム画像を補正してみたところ、著しい効果が得られたという背景がある。
By the way, the reason why the interpolated frame image is generated by using the off-frame images before and after the on-frame image in this way is that the inventor of the present application corrects the on-frame image with one of the off-frame images before and after the on-frame image. This is because the desired accuracy was not obtained when the experiment was conducted.
Therefore, when an interpolated frame image was generated using the off-frame images before and after the on-frame image and the on-frame image was corrected using the generated interpolated frame image, a remarkable effect was obtained.

以下、脈拍数検出装置1が行う脈波検出処理について説明する。
図4は、脈拍数検出装置1が行う脈拍数検出処理の手順を説明するためのフローチャートである。
以下の処理は、CPU2が脈拍数検出プログラム12に従って行うものである。
まず、CPU2は、最低輝度基準と最高輝度基準、及び最低脈拍数基準と、最高脈拍数基準をRAM4に記憶することにより、輝度脈拍数基準を設定する(ステップ5)。
Hereinafter, the pulse wave detection process performed by the pulse rate detection device 1 will be described.
FIG. 4 is a flowchart for explaining the procedure of the pulse rate detection process performed by the pulse rate detection device 1.
The following processing is performed by the CPU 2 according to the pulse rate detection program 12.
First, the CPU 2 sets the luminance pulse rate reference by storing the lowest luminance reference, the highest luminance reference, the lowest pulse rate reference, and the highest pulse rate reference in the RAM 4 (step 5).

脈拍数検出装置1は、輝度を、例えば、0(最低輝度)から255(最高輝度)まで段階的に計測するが、ここでは、一例として最低輝度基準を60とし最高輝度基準を255とした。
最低輝度基準と最高輝度基準は、フレーム画像から体表面に該当する画素を識別する際の基準となる輝度であって、最適値が予めパラメータとして脈拍数検出プログラム12に設定されている。
これら顔の輝度を検出するのに適した輝度基準を用いることにより、顔の輝度の検出精度を高めることができる。
The pulse rate detection device 1 measures the brightness stepwise, for example, from 0 (lowest brightness) to 255 (highest brightness). Here, as an example, the lowest brightness reference is set to 60 and the highest brightness reference is set to 255.
The minimum brightness reference and the maximum brightness reference are brightness that serves as a reference for identifying pixels corresponding to the body surface from the frame image, and optimum values are set in advance in the pulse rate detection program 12 as parameters.
By using a brightness reference suitable for detecting the brightness of the face, the accuracy of detecting the brightness of the face can be improved.

また、脈拍数検出装置1は、最低脈拍数を40bpmとし、最高脈拍数を150bpmとしている。
脈拍数検出装置1は、最低・最高脈拍数によって常識的な心拍数の範囲を設定し、これから外れるものは光外乱であるとして検出結果から除外する。
これにより、例えば、前方車両の方向指示器の点滅や緊急車両の警告灯の点滅、あるいは、トンネル内の照明などによる脈拍数の誤検出を抑止することができる。
Further, the pulse rate detection device 1 has a minimum pulse rate of 40 bpm and a maximum pulse rate of 150 bpm.
The pulse rate detection device 1 sets a range of common-sense heart rate according to the minimum and maximum pulse rates, and excludes those deviating from the range from the detection result as optical disturbance.
As a result, for example, it is possible to suppress blinking of the direction indicator of the vehicle in front, blinking of the warning light of the emergency vehicle, or erroneous detection of the pulse rate due to lighting in the tunnel or the like.

次に、CPU2は、数理形態クロージング用の構成を定義するパラメータをRAM4に記憶することにより、当該数理形態クロージングの構成を定義する(ステップ10)。
後述するように、最低輝度基準と最高輝度基準の範囲にある領域を顔領域として検出すると、一般にいびつな形となる。
これを脈拍数検出や顔の大きさを検出するのに適した形状に整形するのが数理形態クロージングである。
Next, the CPU 2 defines the configuration of the mathematical form closing by storing the parameters that define the configuration for the mathematical form closing in the RAM 4 (step 10).
As will be described later, when a region within the range of the minimum luminance reference and the maximum luminance reference is detected as a face region, the shape is generally distorted.
Mathematical form closing is to shape this into a shape suitable for detecting the pulse rate and the size of the face.

次に、CPU2は、画像取得補正処理を行う(ステップ15)。
ここで、画像取得補正処理の詳細な手順について説明するが、その前に、図5を用いて画像取得補正処理の概要について説明する。
脈拍数検出装置1は、補正前のフレーム画像をインデックスi(i=1、2、3、・・・)で表し、補正後のフレーム画像をインデックスj(j=1、2、3、・・・)で表す。
Next, the CPU 2 performs an image acquisition correction process (step 15).
Here, the detailed procedure of the image acquisition correction processing will be described, but before that, the outline of the image acquisition correction processing will be described with reference to FIG.
The pulse rate detection device 1 represents the frame image before correction by the index i (i = 1, 2, 3, ...), And the frame image after correction is index j (j = 1, 2, 3, ...).・).

図5(a)に示したように、脈拍数検出装置1は、カメラ8から、補正前の元のフレーム画像F(i)と、その撮影時刻t_frame(i)を取得する。
これにより、脈拍数検出装置1は、フレーム画像F(1)、F(2)、F(3)、・・・と、これらの撮影時刻t_frame(1)、t_frame(2)、t_frame(3)、・・を取得する。
このように、脈拍数検出装置1は、フレーム画像と撮影時刻を取り込みながら、フレーム画像F(5)に達してから補正処理をスタートする。
As shown in FIG. 5A, the pulse rate detection device 1 acquires the original frame image F (i) before correction and the shooting time t_frame (i) from the camera 8.
As a result, the pulse rate detection device 1 has frame images F (1), F (2), F (3), ..., And these shooting times t_frame (1), t_frame (2), t_frame (3). , ・ ・ Get.
In this way, the pulse rate detection device 1 starts the correction process after reaching the frame image F (5) while capturing the frame image and the shooting time.

まず、脈拍数検出装置1は、図5(b)の式(2)に従って、補間フレーム画像F_int(j)を作成する。
これにより、脈拍数検出装置1は、フレーム画像F(1)とフレーム画像F(3)から、フレーム画像F(2)に対応する補間フレーム画像F_int(1)を作成する。式(2)は、式(1)を脈拍数検出プログラム12の計算アルゴリズムに適合する形にしたものであって、内容は同じである。
First, the pulse rate detection device 1 creates an interpolated frame image F_int (j) according to the equation (2) in FIG. 5 (b).
As a result, the pulse rate detection device 1 creates an interpolated frame image F_int (1) corresponding to the frame image F (2) from the frame image F (1) and the frame image F (3). Equation (2) is a form of Equation (1) that conforms to the calculation algorithm of the pulse rate detection program 12, and has the same contents.

そして、脈拍数検出装置1は、図5(b)の式(3)に従って、F(i−3)−F_int(j)なる差分により輝度を画素ごとに計算して補正後のフレーム画像F_corr(j)を生成する。
これにより、脈拍数検出装置1は、図5(a)に示したように、補正前のフレーム画像F(2)の輝度から補間フレーム画像F_int(1)の輝度を画素ごとに引いて、補正後のフレーム画像F_corr(1)を生成する。
このように、脈拍数検出装置1は、推測した輝度(F_int(j)の輝度)を減じることにより、一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、点灯時の画像の輝度を補正する補正手段を備えている。
Then, the pulse rate detection device 1 calculates the brightness for each pixel by the difference of F (i-3) -F_int (j) according to the equation (3) of FIG. 5 (b), and the corrected frame image F_corr ( j) is generated.
As a result, as shown in FIG. 5A, the pulse rate detection device 1 subtracts the brightness of the interpolated frame image F_int (1) from the brightness of the frame image F (2) before correction for each pixel to correct it. The later frame image F_corr (1) is generated.
In this way, the pulse rate detection device 1 reduces the estimated brightness (brightness of F_int (j)) to obtain pixels from the brightness of the image when it is lit to the brightness of the image when it is turned off when one image is taken. It is provided with a correction means for correcting the brightness of the image at the time of lighting by reducing each time.

更に、脈拍数検出装置1は、t(j)=t_frame(i−3)によって、補正後のフレーム画像F_corr(j)の撮影時刻を生成する。
これにより、補正後のフレーム画像F_corr(1)の撮影時刻はt(1)=t_frame(2)となって、補正前のフレーム画像F(2)と同じになり、正しい撮影時刻を付与することができる。
Further, the pulse rate detection device 1 generates the shooting time of the corrected frame image F_corr (j) by t (j) = t_frame (i-3).
As a result, the shooting time of the corrected frame image F_corr (1) becomes t (1) = t_frame (2), which is the same as the frame image F (2) before correction, and the correct shooting time is given. Can be done.

脈拍数検出装置1は、以上の処理を、iとjをインクリメントしながら行っていき、補正後のフレーム画像F_corr(j)と、その撮影時刻t(j)を順次作成していく。
このようにして、脈拍数検出装置1は、フレーム画像F_corr(j)(j=1、2、・・・)を撮影時刻t(j)(j=1、2、・・・)で並べた、補正後の動画を生成することができる。
The pulse rate detection device 1 performs the above processing while incrementing i and j, and sequentially creates the corrected frame image F_corr (j) and the shooting time t (j) thereof.
In this way, the pulse rate detection device 1 arranged the frame images F_corr (j) (j = 1, 2, ...) At the shooting time t (j) (j = 1, 2, ...). , The corrected video can be generated.

図6は、ステップ15の画像取得補正処理の手順を説明するためのフローチャートである。
まず、脈拍数検出装置1は、インデックスi、jを1に初期化してRAM4に記憶する(ステップ305)。
FIG. 6 is a flowchart for explaining the procedure of the image acquisition correction process in step 15.
First, the pulse rate detection device 1 initializes the indexes i and j to 1 and stores them in the RAM 4 (step 305).

次に、脈拍数検出装置1は、LED9をオフにして消灯した後(ステップ310)、カメラ8で対象者11の顔を撮影して、環境光だけで撮影した補正前のフレーム画像F(i)を取得してRAM4に記憶する(ステップ315)。
更に、脈拍数検出装置1は、補正前のフレーム画像F(i)の撮影時刻t_frame(i)をRAM4に記憶することにより記録する(ステップ320)。
Next, the pulse rate detection device 1 turns off the LED 9 and turns it off (step 310), then photographs the face of the subject 11 with the camera 8 and captures the frame image F (i) before correction, which is captured only by ambient light. ) Is acquired and stored in the RAM 4 (step 315).
Further, the pulse rate detection device 1 records the shooting time t_frame (i) of the frame image F (i) before correction by storing it in the RAM 4 (step 320).

次に、脈拍数検出装置1は、LED9をオンにして点灯し、対象者11の顔をLED9で照明する(ステップ325)。
そして、脈拍数検出装置1は、RAM4に記憶してあるiを1だけインクリメントして更新する(ステップ330)。
Next, the pulse rate detection device 1 turns on the LED 9 and lights it, and illuminates the face of the subject 11 with the LED 9 (step 325).
Then, the pulse rate detection device 1 increments and updates i stored in the RAM 4 by 1 (step 330).

次に、脈拍数検出装置1は、カメラ8で対象者11の顔を撮影して、環境光とLED照明の下に撮影された補正前のフレーム画像F(i)を取得してRAM4に記憶する(ステップ335)。
更に、脈拍数検出装置1は、補正前のフレーム画像F(i)の撮影時刻t_frame(i)をRAM4に記憶することにより記録する(ステップ340)。
Next, the pulse rate detection device 1 photographs the face of the subject 11 with the camera 8, acquires the uncorrected frame image F (i) photographed under ambient light and LED illumination, and stores it in the RAM 4. (Step 335).
Further, the pulse rate detection device 1 records the shooting time t_frame (i) of the frame image F (i) before correction by storing it in the RAM 4 (step 340).

そして、脈拍数検出装置1は、iを1だけインクリメントして更新し(ステップ345)、iが3より大きいか否かを判断する(ステップ350)。
当該ループ処理の初回では、i=3であるので、iが3以下となり(ステップ350;N)、脈拍数検出装置1は、後述のステップ40に移行して、データ取得期間が終了したか否かの判断を行う(ステップ40)。
Then, the pulse rate detection device 1 increments and updates i by 1 (step 345), and determines whether or not i is greater than 3 (step 350).
At the first time of the loop processing, since i = 3, i becomes 3 or less (step 350; N), and the pulse rate detection device 1 shifts to step 40 described later, and whether or not the data acquisition period has ended. Is determined (step 40).

データ取得期間が終了していない場合(ステップ40;N)、脈拍数検出装置1は、ステップ310に戻ってフレーム画像の取得を続行する。
一方、データ取得期間が終了している場合(ステップ40;Y)、脈拍数検出装置1は、後述のステップ45に移行する。
If the data acquisition period has not ended (step 40; N), the pulse rate detection device 1 returns to step 310 and continues to acquire the frame image.
On the other hand, when the data acquisition period has ended (step 40; Y), the pulse rate detection device 1 shifts to step 45, which will be described later.

当該ループ処理の2回目以降では、iが5となって3より大きくなり(ステップ350;Y)、脈拍数検出装置1は、式(2)に従って補間フレーム画像F_int(j)を作成してRAM4に記憶する(ステップ355)。
そして、脈拍数検出装置1は、式(3)に従って補正後のフレーム画像F_corr(j)を作成してRAM4に記憶すると共に(ステップ360)、当該補正後のフレーム画像F_corr(j)の撮影時刻t(j)=t_frame(i−3)を作成し、これを補正後のフレーム画像F_corr(j)と対応させて(紐付けて)RAM4に記憶する(ステップ370)。
このようにして、脈拍数検出装置1は、補正後のフレーム画像と、当該フレーム画像の撮影時刻を作成すると、メインルーチンにリターンする。
In the second and subsequent loop processes, i becomes 5 and becomes larger than 3 (step 350; Y), and the pulse rate detection device 1 creates an interpolated frame image F_int (j) according to the equation (2) and RAM4 (Step 355).
Then, the pulse rate detection device 1 creates the corrected frame image F_corr (j) according to the equation (3) and stores it in the RAM 4 (step 360), and at the same time, the shooting time of the corrected frame image F_corr (j). t (j) = t_frame (i-3) is created, and this is associated with (linked) to the corrected frame image F_corr (j) and stored in RAM 4 (step 370).
In this way, when the pulse rate detection device 1 creates the corrected frame image and the shooting time of the frame image, the pulse rate detection device 1 returns to the main routine.

以下、図4の続きの処理について説明するが、以下の処理では、補正後のフレーム画像F_corr(j)と、当該フレーム画像の撮影時刻t(j)を用いて処理を行う。
図4に戻り、CPU2は、RAM4に記憶したフレーム画像において顔を検出して、検出した顔の位置と大きさをRAM4に記憶する(ステップ25)。
より詳細には、図9のフレーム画像31に示したように、CPU2は、矩形32によって顔を検出する。顔の検出アルゴリズムは、顔検出技術で一般的に用いられているものを使用する。
Hereinafter, the subsequent processing of FIG. 4 will be described. In the following processing, the processing is performed using the corrected frame image F_corr (j) and the shooting time t (j) of the frame image.
Returning to FIG. 4, the CPU 2 detects a face in the frame image stored in the RAM 4 and stores the position and size of the detected face in the RAM 4 (step 25).
More specifically, as shown in the frame image 31 of FIG. 9, the CPU 2 detects the face by the rectangle 32. As the face detection algorithm, the one generally used in the face detection technique is used.

図4に戻り、次に、CPU2は、顔を検出できたか否かを判断する(ステップ30)。
顔を検出できた場合(ステップ30;Y)、CPU2は、脈拍数の検出に必要なデータを取得する後述のデータ取得処理を行う(ステップ35)。
一方、顔を検出できなかった場合(ステップ30;N)、CPU2は、例えば、顔を検出できなかった旨を示すフラグをRAM4に立てるなどして顔を検出できなかった状況を記録する(ステップ60)。
Returning to FIG. 4, the CPU 2 then determines whether or not the face can be detected (step 30).
When the face can be detected (step 30; Y), the CPU 2 performs a data acquisition process described later to acquire the data necessary for detecting the pulse rate (step 35).
On the other hand, when the face cannot be detected (step 30; N), the CPU 2 records the situation in which the face could not be detected, for example, by setting a flag in the RAM 4 indicating that the face could not be detected (step 30; N). 60).

CPU2は、データ取得処理を行った後(ステップ35)、RAM4に記憶したインデックスjを1だけインクリメントし(ステップ37)、その後、データを取得するデータ取得期間が終了したか否かを判断する(ステップ40)。
データ取得期間は、脈拍数検出に用いる動画の長さを規定する期間であり、本実施の形態では、一例として、30秒間の動画から脈拍数を検出する。
After performing the data acquisition process (step 35), the CPU 2 increments the index j stored in the RAM 4 by 1 (step 37), and then determines whether or not the data acquisition period for acquiring the data has expired (step 37). Step 40).
The data acquisition period is a period that defines the length of the moving image used for detecting the pulse rate. In the present embodiment, as an example, the pulse rate is detected from the moving image for 30 seconds.

データ取得期間が終了していない場合(ステップ40;N)、CPU2は、ステップ15に戻って、画像取得補正処理を続行する。
一方、データ取得期間が終了した場合(ステップ40;Y)、又は顔を検出できなかった状況を記録した後(ステップ60)、CPU2は、RAM4にアクセスしてステップ35で取得したデータがあるか否かを判断する(ステップ45)。
より詳細には、CPU2は、RAM4にアクセスして、ステップ35で取得した輝度信号があるか否かを確認することにより当該判断を行う。
If the data acquisition period has not ended (step 40; N), the CPU 2 returns to step 15 and continues the image acquisition correction process.
On the other hand, when the data acquisition period ends (step 40; Y), or after recording the situation where the face could not be detected (step 60), does the CPU 2 access the RAM 4 and have the data acquired in step 35? It is determined whether or not (step 45).
More specifically, the CPU 2 makes the determination by accessing the RAM 4 and confirming whether or not there is a luminance signal acquired in step 35.

RAM4にデータがない場合(ステップ45;N)、これはステップ30で顔が検出できなかった場合であり、CPU2は、RAM4から顔を検出できなかった状況の記録を読み取って不測定情報(測定が失敗した旨を示す情報)を作成し、これを表示部5や出力部7に出力して(ステップ65)、処理を終了する。 When there is no data in the RAM 4 (step 45; N), this is a case where the face could not be detected in the step 30, and the CPU 2 reads the record of the situation where the face could not be detected from the RAM 4 and does not measure the information (measurement). (Information indicating that has failed) is created, this is output to the display unit 5 and the output unit 7 (step 65), and the process is terminated.

一方、RAM4にデータがある場合(ステップ45;Y)、CPU2は、後述の脈拍数検出処理を行って、当該検出した脈拍数をRAM4に記憶する(ステップ50)。
そして、CPU2はRAM4に記憶した脈拍数がRAM4に設定した最低・最高脈拍数の範囲内にある場合、これを表示部5や出力部7に出力して(ステップ55)、処理を終了する。
On the other hand, when there is data in the RAM 4 (step 45; Y), the CPU 2 performs a pulse rate detection process described later and stores the detected pulse rate in the RAM 4 (step 50).
Then, when the pulse rate stored in the RAM 4 is within the range of the minimum / maximum pulse rate set in the RAM 4, the CPU 2 outputs this to the display unit 5 or the output unit 7 (step 55), and ends the process.

図7は、図4のステップ35で示したデータ取得処理の手順を説明するためのフローチャートである。
まず、CPU2は、図4のステップ25で検出した顔のうち、最も大きい顔を処理対象として選択し、選択結果(即ち、選択した顔を他の顔から識別する情報)をRAM4に記憶する(ステップ105)。
FIG. 7 is a flowchart for explaining the procedure of the data acquisition process shown in step 35 of FIG.
First, the CPU 2 selects the largest face among the faces detected in step 25 of FIG. 4 as a processing target, and stores the selection result (that is, information for identifying the selected face from other faces) in the RAM 4 ( Step 105).

これは、対象者11の周囲に第三者が存在して、これら第三者の顔も認識してしまった場合に対象者11の顔(カメラ8の前に位置するため最も大きい)を選択するものである。
特に、脈拍数検出装置1を車両の運転者に対して使用する場合、運転席に座っている人物の顔が最も大きく写るため、この処理によって運転者の顔を選択することができる。
This is because when a third party exists around the target person 11 and the faces of these third parties are also recognized, the face of the target person 11 (the largest because it is located in front of the camera 8) is selected. Is what you do.
In particular, when the pulse rate detection device 1 is used for the driver of a vehicle, the face of the person sitting in the driver's seat is captured in the largest size, so that the driver's face can be selected by this process.

次に、CPU2は、選択した顔に対して楕円マスクを作成して、当該楕円マスクを特定するデータをRAM4に記憶する(ステップ110)。
ここで、当該楕円マスクを特定するデータは、楕円マスクの形状やフレーム画像における楕円マスクの位置などを特定する座標値などのパラメータで構成されている。
以下では、このような処理を、楕円マスクをRAM4に記憶するなどと略記することにする。
Next, the CPU 2 creates an ellipse mask for the selected face and stores the data for identifying the ellipse mask in the RAM 4 (step 110).
Here, the data for specifying the ellipse mask is composed of parameters such as coordinate values for specifying the shape of the ellipse mask, the position of the ellipse mask in the frame image, and the like.
Hereinafter, such processing will be abbreviated as storing the ellipse mask in the RAM 4.

図9のフレーム画像35は、矩形32によって認識した対象者11の顔に対して楕円マスク36を作成したところを示している。
このように、CPU2は、対象者11の顔を内部に包含するように、当該顔を含む楕円領域を設定することにより楕円マスク36を設定する。
なお、本実施の形態では、一例として楕円マスクを用いたが、矩形などの他の形状のマスクを用いることも可能である。
The frame image 35 of FIG. 9 shows that the elliptical mask 36 is created for the face of the subject 11 recognized by the rectangle 32.
In this way, the CPU 2 sets the elliptical mask 36 by setting the elliptical region including the face so as to include the face of the subject 11 inside.
In the present embodiment, an elliptical mask is used as an example, but a mask having another shape such as a rectangle can also be used.

CPU2は、設定した楕円マスク36の内部にて顔の領域を特定し、当該領域の輝度から脈拍数を検出する。この楕円マスク36によって脈拍数を検出する領域を限定すると、良好に脈拍数検出が行えることは本願発明者が試行錯誤の末発見したものである。 The CPU 2 identifies a facial region inside the set elliptical mask 36, and detects the pulse rate from the brightness of the region. It was discovered by the inventor of the present application through trial and error that the pulse rate can be detected satisfactorily by limiting the region where the pulse rate is detected by the elliptical mask 36.

図7に戻り、次に、CPU2は、フレーム画像から輝度マスクを作成してRAM4に記憶する(ステップ115)。
輝度マスクは、フレーム画像において、画素輝度が最低輝度基準以上かつ最高輝度基準以下となる画素で構成された領域であり、CPU2は、フレーム画像の各画素の輝度を調べて輝度マスクを作成する。
Returning to FIG. 7, the CPU 2 then creates a luminance mask from the frame image and stores it in the RAM 4 (step 115).
The luminance mask is a region composed of pixels in which the pixel brightness is equal to or higher than the minimum luminance reference and equal to or lower than the maximum luminance reference in the frame image, and the CPU 2 examines the brightness of each pixel in the frame image to create a luminance mask.

次には、CPU2は、RAM4に記憶した楕円マスクと輝度マスクを用いて合計マスクを取得し、当該合計マスクをRAM4に記憶する(ステップ120)。
合計マスクは、輝度マスクのうち、楕円マスクに含まれている部分であり、CPU2は、楕円マスクと輝度マスクの論理積をとってその値が真となる画素によって合計マスクを作成する。
Next, the CPU 2 acquires the total mask using the elliptical mask and the luminance mask stored in the RAM 4, and stores the total mask in the RAM 4 (step 120).
The total mask is a portion of the luminance mask included in the elliptical mask, and the CPU 2 takes the logical product of the elliptical mask and the luminance mask and creates the total mask by the pixels whose values are true.

次に、CPU2は、合計マスクを塊にまとめ(ステップ125)、まとめた塊のうち、最も大きい塊を選択し、最も大きい塊を新たな合計マスクとしてRAM4に記憶する(ステップ130)。
例えば、楕円マスクの位置には、分断された顔が写っている場合や、別のものが写っている場合がある。即ち、顔の中心部分に対して耳や額などの一部が髪の毛で分断されて写っている場合や、少し離れた位置に手が写っている場合などが存在する。このような場合、顔の中心部分、耳、額、手などが別々の合計マスクとして認識されてしまう。
そこで、各合計マスクの周縁相互の距離が所定閾値以下である一群の合計マスクを、1つの合計マスクとして扱うためにステップ125で塊にまとめている。
Next, the CPU 2 collects the total mask into lumps (step 125), selects the largest lump from the collected lumps, and stores the largest lump in the RAM 4 as a new total mask (step 130).
For example, the position of the elliptical mask may show a divided face or another. That is, there are cases where a part of the ears, the forehead, etc. is divided by hair with respect to the central part of the face, and the case where the hand is shown at a slightly distant position. In such a case, the central part of the face, ears, forehead, hands, etc. are recognized as separate total masks.
Therefore, in order to treat a group of total masks in which the distance between the peripheral edges of each total mask is equal to or less than a predetermined threshold value as one total mask, they are grouped together in step 125.

その一方で、顔から少し離れた位置に存在する手の合計マスクの塊を除外して、顔の合計マスクの塊を使用するために、ステップ130で最も大きい塊を選択している。
このようにCPU2は、合計マスクを塊にまとめてグループ化することにより顔や手などの部位ごとの塊にまとめ、最も大きい塊が顔である可能性が高いので、最も大きい合計マスクを選択している。
On the other hand, in order to use the facial total mask mass, excluding the hand total mask mass that is located slightly away from the face, the largest mass is selected in step 130.
In this way, the CPU 2 groups the total masks into lumps and groups them into lumps for each part such as the face and hands, and since there is a high possibility that the largest lump is the face, the largest total mask is selected. ing.

なお、手などの顔以外の体表面からも脈拍数は検出できるが、脈拍数検出装置1は、顔の大きさによって照明と顔との距離を間接的に計測して輝度を補正するため、顔に他の部位が混入すると、顔の大きさが実際より大きくなって輝度補正が困難となる。
そこで、最も大きい合計マスクを選択することにより、このような問題を回避することができる。
Although the pulse rate can be detected from the body surface other than the face such as the hand, the pulse rate detection device 1 indirectly measures the distance between the illumination and the face according to the size of the face to correct the brightness. If other parts are mixed in the face, the size of the face becomes larger than the actual size and it becomes difficult to correct the brightness.
Therefore, such a problem can be avoided by selecting the largest total mask.

次に、CPU2は、RAM4に記憶した最も大きい合計マスクからBlobマスクを作成してRAM4に記憶し(ステップ135)、更にBlobマスクからBlobFillを作成してRAM4に記憶する(ステップ140)。
BlobマスクとBlobFillの内容は、以下の通りである。
Next, the CPU 2 creates a Blob mask from the largest total mask stored in the RAM 4 and stores it in the RAM 4 (step 135), and further creates a Blob Fill from the Blob mask and stores it in the RAM 4 (step 140).
The contents of the Blob mask and BlobFill are as follows.

図9に示した合計マスク41は、ステップ130でCPU2がRAM4に記憶した最も大きい合計マスクである。一般に合計マスクはいびつな形をしている。
そこで、CPU2は、ステップ10(図4)で記憶した数理形態クロージング用の構成を定義するパラメータをRAM4から読み出し、これに基づいて合計マスク41を脈拍数検出に適したなめらかな形状42に整形してBlobマスク44を作成する。CPU2は、Blobマスク44を脈拍数の検出に用いる。
The total mask 41 shown in FIG. 9 is the largest total mask stored in the RAM 4 by the CPU 2 in step 130. In general, total masks have a distorted shape.
Therefore, the CPU 2 reads the parameter defining the configuration for the mathematical form closing stored in step 10 (FIG. 4) from the RAM 4, and based on this, shapes the total mask 41 into a smooth shape 42 suitable for pulse rate detection. Creates a Blob mask 44. The CPU 2 uses the Blob mask 44 to detect the pulse rate.

また、Blobマスク44では、目や口などの部分でBlobマスク44に含まれない閉領域が形成される場合がある。
これら閉領域は、顔の面積に含まれるため、CPU2は、これらの閉領域をマスクに含めたBlobFill45を作成し、これを顔の大きさの判定に用いる。
CPU2は、脈拍数の検出にはBlobマスク44を用い、顔の大きさの検出にはBlobFill45を用いる。
Further, in the blob mask 44, a closed region not included in the blob mask 44 may be formed in a portion such as an eye or a mouth.
Since these closed areas are included in the area of the face, the CPU 2 creates a BlobFill 45 including these closed areas in the mask, and uses this for determining the size of the face.
The CPU 2 uses the Blob mask 44 for detecting the pulse rate and the BlobFill 45 for detecting the size of the face.

図7に戻り、CPU2は、Blobマスク(ステップ135)とBlobFill(ステップ140)を作成した後、評価画像を作成してRAM4に記憶する(ステップ145)。
評価画像は、フレーム画像のうち、脈拍数の検出に用いる部分の領域を構成する画像であって、CPU2は、フレーム画像からBlobマスク44に該当する領域をフレーム画像から抜き出すことにより評価画像を作成する。
Returning to FIG. 7, the CPU 2 creates a Blob mask (step 135) and a BlobFill (step 140), then creates an evaluation image and stores it in the RAM 4 (step 145).
The evaluation image is an image constituting a region of a portion of the frame image used for detecting the pulse rate, and the CPU 2 creates the evaluation image by extracting the region corresponding to the Blob mask 44 from the frame image. To do.

より具体的には、CPU2は、Blobマスクとフレーム画像によって論理積を計算し、真となる部分の画素を抽出することによりフレーム画像からBlobマスクに該当する部分を取り出して評価画像とする。
このように、Blobマスクは、フレーム画像から評価画像を抜き出す抜き型のような働きをしており、CPU2は、評価画像を構成する画素の輝度から脈拍数を検出する。
More specifically, the CPU 2 calculates the logical product from the blob mask and the frame image, extracts the pixels of the true portion, and extracts the portion corresponding to the blob mask from the frame image to obtain an evaluation image.
As described above, the Blob mask functions like a die for extracting the evaluation image from the frame image, and the CPU 2 detects the pulse rate from the brightness of the pixels constituting the evaluation image.

次に、CPU2は、RAM4に記憶した評価画像を構成する各画素の輝度の値を合計し、当該輝度の合計値をRAM4に記憶し(ステップ150)、更に、RAM4に記憶してあるBlobマスクの画素数を取得する(ステップ155)。
そして、CPU2は、RAM4に記憶した輝度の合計値をRAM4に記憶したBlobマスクの画素数で割って、評価画像の輝度の平均値を計算することにより補正前(顔がLED9に対して前後移動することによる輝度の変化の輝度補正)の輝度信号Rを算出してRAM4に記憶する(ステップ160)。
Next, the CPU 2 sums the brightness values of the pixels constituting the evaluation image stored in the RAM 4, stores the total brightness in the RAM 4 (step 150), and further stores the blob mask in the RAM 4. The number of pixels of is acquired (step 155).
Then, the CPU 2 divides the total value of the brightness stored in the RAM 4 by the number of pixels of the Blob mask stored in the RAM 4 and calculates the average value of the brightness of the evaluation image before the correction (the face moves back and forth with respect to the LED 9). The luminance signal R (luminance correction of the change in luminance) is calculated and stored in the RAM 4 (step 160).

次に、CPU2は、sROI(size of Region of Interest)を算出してRAM4に記憶し(ステップ165)、メインルーチンにリターンする。
sROIは、フレーム画像に対する測定領域(顔の大きさ)の割合であって、CPU2は、BlobFillの画素数をフレーム画像の画素数で除することによりsROIを計算する。
Next, the CPU 2 calculates the sROI (size of Region of Interest), stores it in the RAM 4 (step 165), and returns to the main routine.
The sROI is the ratio of the measurement area (face size) to the frame image, and the CPU 2 calculates the sROI by dividing the number of pixels of the BlobFill by the number of pixels of the frame image.

sROIは、フレーム画像における顔の大きさの割合を%で表しており、対象者11の顔の前後位置を表している(sROIが大きいほどカメラ8とLED9から顔までの距離が近い)。
後述するように、CPU2は、sROIの値によって補正前の輝度信号Rを補正し(上記の輝度補正)、補正後の輝度信号R′を生成する。
なお、sROIは、フレーム画像に対する測定領域の割合であるところ、フレーム画像の画素数は固定されているため、評価画像の画素数をsROIとすることもできる。
The sROI represents the ratio of the face size in the frame image in%, and represents the front-back position of the face of the subject 11 (the larger the sROI, the closer the distance from the camera 8 and the LED 9 to the face).
As will be described later, the CPU 2 corrects the luminance signal R before correction (the above-mentioned luminance correction) according to the value of sROI, and generates the luminance signal R'after correction.
Since sROI is the ratio of the measurement area to the frame image, the number of pixels of the frame image is fixed, so the number of pixels of the evaluation image can be set to sROI.

図8は、図4のステップ50で示した脈拍数検出処理の手順を説明するためのフローチャートである。
まず、CPU2は、RAM4からデータ取得期間(30秒間)の間に取得した補正前の輝度信号RとsROIを読み出す。
そして、CPU2は、後述するように最小二乗法を用いて輝度信号RとsROIの関係式を算出してRAM4に記憶する(ステップ205)。
FIG. 8 is a flowchart for explaining the procedure of the pulse rate detection process shown in step 50 of FIG.
First, the CPU 2 reads the uncorrected luminance signals R and sROI acquired during the data acquisition period (30 seconds) from the RAM 4.
Then, the CPU 2 calculates the relational expression between the luminance signal R and the sROI using the least squares method as described later, and stores it in the RAM 4 (step 205).

次に、CPU2は、sROIを当該関係式に適用して輝度信号Rを補正することにより補正後の輝度信号R′を算出して、当該輝度信号R′をRAM4に記憶する(ステップ210)。
そして、CPU2は、輝度信号R′をフーリエ変換して輝度信号R′の周波数成分を算出し、これをRAM4に記憶する(ステップ215)。
Next, the CPU 2 calculates the corrected luminance signal R'by applying sROI to the relational expression and correcting the luminance signal R, and stores the luminance signal R'in the RAM 4 (step 210).
Then, the CPU 2 Fourier transforms the luminance signal R'to calculate the frequency component of the luminance signal R'and stores it in the RAM 4 (step 215).

次に、CPU2は、RAM4に記憶した輝度信号R′の周波数成分において最大ピークを特定する(ステップ220)。
そして、CPU2は、当該最大ピークの周波数fを特定し、これを対象者11の脈拍数としてRAM4に記憶して(ステップ225)、メインルーチンにリターンする。
Next, the CPU 2 identifies the maximum peak in the frequency component of the luminance signal R'stored in the RAM 4 (step 220).
Then, the CPU 2 identifies the frequency f of the maximum peak, stores this as the pulse rate of the subject 11 in the RAM 4 (step 225), and returns to the main routine.

このように、脈拍数検出装置1は、時系列的に連続する、環境光の光外乱を補正した点灯時の画像(オンフレーム画像)の輝度の変化から対象者の脈拍数(最大ピークの周波数)を取得する脈拍数取得手段を備えている。 In this way, the pulse rate detection device 1 determines the pulse rate (maximum peak frequency) of the subject from the change in the brightness of the image (on-frame image) at the time of lighting, which is continuous in time series and corrected for the light disturbance of the ambient light. ) Is provided with a pulse rate acquisition means.

図10は、図8のステップ205に係る輝度信号RとsROIの関係式の算出方法を説明するための図である。
RAM4は、30秒分の輝度信号Rを記憶しており、これを時間の順にR(1)、R(2)、R(3)、・・・、R(i)、・・・とする。
同様にRAM4が記憶するsROIも時間の順に、sROI(1)、sROI(2)、sROI(3)、・・・、sROI(i)、・・・とする。
輝度信号R(i)とsROI(i)は、同じフレーム画像から取得するため、時間的に対応しており、同時刻での値である。
FIG. 10 is a diagram for explaining a method of calculating the relational expression between the luminance signal R and the sROI according to step 205 of FIG.
The RAM 4 stores the luminance signal R for 30 seconds, which is designated as R (1), R (2), R (3), ..., R (i), ... In the order of time. ..
Similarly, the sROI stored in the RAM 4 is also sROI (1), sROI (2), sROI (3), ..., SROI (i), ... In chronological order.
Since the luminance signals R (i) and sROI (i) are acquired from the same frame image, they correspond in time and are values at the same time.

ここで、図10(a)の式(11)と式(12)で示したようにyi=R(i)、xi=sROI(i)とおいて、式(13)で示したyi=β0+β1×xiなる線形の関係が成り立つと仮定すると、式(14)が成立する。求めたいのはβ0とβ1であり、式(14)は、最小二乗法の行列表現となっている。 Here, as shown in the formulas (11) and (12) of FIG. 10 (a), yi = R (i) and xi = sROI (i) are set, and y = β0 + β1 × shown in the formula (13). Assuming that a linear relationship of xi holds, equation (14) holds. What we want to find is β0 and β1, and Eq. (14) is a matrix representation of the least squares method.

式(14)を式(15)のようにY=X×Bとおくと、式(16)によってBについて解くことができる。式中の上付き文字で表したTと−1は、それぞれ転置行列と逆行列を意味する。
CPU2は、RAM4に記憶した輝度信号RとsROIからX、Yを生成し、式(16)を計算することにより、β0とβ1を算出する。これによって、輝度信号RとsROIの関係式yi=β0+β1×xiが定まる(式(13))。
If Eq. (14) is set to Y = X × B as in Eq. (15), B can be solved by Eq. (16). The superscripts T and -1 in the equation mean the transposed matrix and the inverse matrix, respectively.
The CPU 2 generates X and Y from the luminance signals R and sROI stored in the RAM 4, and calculates β0 and β1 by calculating the equation (16). As a result, the relational expression yi = β0 + β1 × xi of the luminance signal R and sROI is determined (Equation (13)).

図10(b)の散布図51は、x軸(横軸)をsROI、y軸(縦軸)を輝度信号Rとし、(xi、yi)をプロットした図である。
これらのデータを式(13)によって直線近似した直線52(回帰直線)がRとsROIの関係式を規定しており、直線52のy切片がβ0、傾きがβ1となる。
Scatter plot 51 of FIG. 10B is a plot of (xi, yi) with the x-axis (horizontal axis) as the sROI and the y-axis (vertical axis) as the luminance signal R.
A straight line 52 (regression straight line) obtained by linearly approximating these data by the equation (13) defines the relational expression between R and sROI, and the y-intercept of the straight line 52 is β0 and the slope is β1.

図11は、図8のステップ210に係る輝度信号Rの補正式を説明するための図である。
yiとxiは、図10と同じである。ここで、式(17)に示したように、補正後の輝度信号であるR(1)′、R(2)′、・・・、R(i)′、・・・をyi′と表すと、式(18)が成立し、これが輝度信号Rの補正式である。これを行列で表すと式(19)となり、これにyiとxiを代入するとyi′、即ち、補正後の輝度信号R′を計算することができる。
この式は、sROI(フレーム画像に写った顔の大きさ)によって顔の前後位置を推測し、これによって顔の前後移動による輝度の変化を補正するものである。
FIG. 11 is a diagram for explaining a correction formula for the luminance signal R according to step 210 of FIG.
yi and xi are the same as in FIG. Here, as shown in the equation (17), the corrected luminance signals R (1)', R (2)', ..., R (i)', ... Are expressed as yi'. And the equation (18) holds, and this is the correction equation of the luminance signal R. When this is expressed by a matrix, it becomes equation (19), and by substituting yi and xi into this, yi', that is, the corrected luminance signal R'can be calculated.
This formula estimates the front-back position of the face by sROI (the size of the face reflected in the frame image), thereby correcting the change in brightness due to the back-and-forth movement of the face.

図12は、実験結果を説明するための図である。
図12(a)は、LED9の点滅による補正がない場合の輝度(輝度信号R′)の30秒間の時間変化を示している。
図12(b)は、これをFFTにて周波数領域に変換したものである。本来なら、70[bpm]付近に脈拍によるピークが現れるはずであるが、ノイズに埋もれていて検出することができない。
FIG. 12 is a diagram for explaining the experimental results.
FIG. 12A shows a time change of the brightness (luminance signal R') for 30 seconds when there is no correction due to blinking of the LED 9.
FIG. 12B shows this converted into a frequency domain by FFT. Originally, a peak due to the pulse should appear near 70 [bpm], but it cannot be detected because it is buried in noise.

図12(c)は、LED9を点滅させて輝度を補正した場合の輝度(輝度信号R′)の30秒間の時間変化を示している。
図12(d)は、これをFFTにて周波数領域に変換したものである。70[bpm]付近に、脈波による脈拍数ピーク55が明確に現れている。
このように、LED9を点滅させて、環境光による光外乱を低減すると、光外乱によるノイズに埋もれていた脈波を検出して、これから脈拍数を計算することができる。
FIG. 12C shows a time change of the brightness (luminance signal R') for 30 seconds when the brightness is corrected by blinking the LED 9.
FIG. 12D shows this converted into a frequency domain by FFT. A pulse rate peak 55 due to a pulse wave clearly appears in the vicinity of 70 [bpm].
By blinking the LED 9 in this way to reduce the light disturbance caused by the ambient light, the pulse wave buried in the noise caused by the light disturbance can be detected and the pulse rate can be calculated from this.

以上に説明した実施の形態によれば、次のような効果を得ることができる。
(1)環境光による体表面の輝度の変化をキャンセルして、脈波による輝度変化を取得することができる。
(2)環境光による光外乱を低減して、体表面の輝度変化から脈拍数を検出することができる。
(3)LED9を点滅させることにより、LED9の消灯時のフレーム画像からLED9の点灯時における環境光の輝度を推測することができる。
(4)更に、顔の前後移動による輝度の変化を補正することができる。
According to the embodiment described above, the following effects can be obtained.
(1) It is possible to cancel the change in the brightness of the body surface due to the ambient light and acquire the change in the brightness due to the pulse wave.
(2) It is possible to reduce the light disturbance caused by the ambient light and detect the pulse rate from the change in the brightness of the body surface.
(3) By blinking the LED 9, the brightness of the ambient light when the LED 9 is turned on can be estimated from the frame image when the LED 9 is turned off.
(4) Further, it is possible to correct the change in brightness due to the back-and-forth movement of the face.

1 脈拍数検出装置
2 CPU
3 ROM
4 RAM
5 表示部
6 入力部
7 出力部
8 カメラ
9 LED
10 記憶部
11 対象者
12 脈拍数検出プログラム
17 皮膚表面
18 血管
21、23 オフフレーム画像
22 オンフレーム画像
25 補間フレーム画像
31、35 フレーム画像
32 矩形
36 楕円マスク
41 合計マスク
42 形状
44 Blobマスク
45 BlobFill
51 散布図
52 直線
55 脈拍数ピーク
1 Pulse rate detector 2 CPU
3 ROM
4 RAM
5 Display unit 6 Input unit 7 Output unit 8 Camera 9 LED
10 Memory 11 Subject 12 Pulse rate detection program 17 Skin surface 18 Blood vessels 21, 23 Off-frame image 22 On-frame image 25 Interpolated frame image 31, 35 Frame image 32 Rectangular 36 Elliptical mask 41 Total mask 42 Shape 44 Blob mask 45 Blobfill
51 Scatter plot 52 Straight line 55 Pulse rate peak

Claims (6)

点滅する光源によって対象者の体表面を照明する照明手段と、
変動する環境光の下、前記照明された体表面を時系列的に連続する画像によって動画撮影する撮影手段と、
前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像から推測することで補間する補間手段と、
前記補間手段で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正手段と、
時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得手段と、
前記取得した脈拍数を出力する出力手段と、
を具備したことを特徴とする脈拍数検出装置。
Lighting means that illuminate the subject's body surface with a blinking light source,
A shooting means for capturing a moving image of the illuminated body surface with continuous images in chronological order under fluctuating ambient light.
Of the image when the light source is lit and the image when the light source is turned off and the image when the light source is turned off, the other image when one image is taken is the one image. An interpolation means that interpolates by guessing from the other image taken before and after
Using the image interpolated by the interpolation means, the brightness of the image at the time of lighting is corrected by subtracting the brightness of the image at the time of turning off from the brightness of the image at the time of shooting the one image for each pixel. Correction means to be
A pulse rate acquisition means for acquiring the pulse rate of the subject from a time-series continuous change in the brightness of the corrected image at the time of lighting.
An output means for outputting the acquired pulse rate and
A pulse rate detection device, characterized in that it is provided with.
前記一方の画像は点灯時の画像であり、他方の画像は消灯時の画像であることを特徴とする請求項1に記載の脈拍数検出装置。 The pulse rate detecting device according to claim 1, wherein one image is an image when the light is on, and the other image is an image when the light is off. 前記照明手段は、前記光源が発する赤外線の点滅によって前記体表面を照明し、前記撮影手段は、前記体表面から反射した赤外線の画像によって動画撮影する、
ことを特徴とする請求項1、又は請求項2に記載の脈拍数検出装置。
The lighting means illuminates the body surface by blinking infrared rays emitted from the light source, and the photographing means takes a moving image by an image of infrared rays reflected from the body surface.
The pulse rate detecting device according to claim 1 or 2, wherein the pulse rate detecting device is characterized.
前記照明手段は、前記光源としてLEDを点滅させる、
ことを特徴とする請求項2、又は請求項3に記載の脈拍数検出装置。
The lighting means blinks an LED as the light source.
The pulse rate detecting device according to claim 2 or 3, wherein the pulse rate detecting device is characterized.
前記補間手段は、前記前に撮影した他方の画像の撮影時刻T1から前記後に撮影した他方の画像の撮影時刻T3までの第1時間と、前記撮影時刻T1から前記一方の画像の撮影時刻T2までの第2時間との時間比に基づいて、前記画素ごとの輝度を推定することで補間する、
ことを特徴とする請求項1、請求項2、請求項3、又は請求項4に記載の脈拍数検出装置
The interpolation means has a first time from the shooting time T1 of the other image shot before to the shooting time T3 of the other image shot after the shooting, and from the shooting time T1 to the shooting time T2 of the one image. Interpolates by estimating the brightness of each pixel based on the time ratio with the second time of
The pulse rate detecting device according to claim 1, claim 2, claim 3, or claim 4.
変動する環境光の下、点滅する光源によって照明された対象者の体表面を時系列的に連続する画像によって撮影した画像を取得する画像取得機能と、
前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像からすることで補間する補間機能と、
前記補間機能で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正機能と、
時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得機能と、
前記取得した脈拍数を出力する出力機能と、
をコンピュータで実現する脈拍数検出プログラム。
An image acquisition function that acquires images taken by chronologically continuous images of the subject's body surface illuminated by a blinking light source under fluctuating ambient light,
Of the image when the light source is lit and the image when the light source is turned off and the image when the light source is turned off, the other image when one image is taken is the one image. An interpolation function that interpolates by using the other image taken before and after
Using the image interpolated by the interpolation function, the brightness of the image at the time of lighting is corrected by subtracting the brightness of the image at the time of turning off from the brightness of the image at the time of shooting the one image for each pixel. Correction function and
A pulse rate acquisition function that acquires the pulse rate of the subject from the corrected brightness change of the image at the time of lighting, which is continuous in time series, and
The output function that outputs the acquired pulse rate and
A pulse rate detection program that realizes on a computer.
JP2019066380A 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program Ceased JP7161704B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019066380A JP7161704B2 (en) 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program
PCT/JP2020/014361 WO2020203913A1 (en) 2019-03-29 2020-03-27 Pulse rate detection device and pulse rate detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019066380A JP7161704B2 (en) 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program

Publications (2)

Publication Number Publication Date
JP2020162871A true JP2020162871A (en) 2020-10-08
JP7161704B2 JP7161704B2 (en) 2022-10-27

Family

ID=72667708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019066380A Ceased JP7161704B2 (en) 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program

Country Status (2)

Country Link
JP (1) JP7161704B2 (en)
WO (1) WO2020203913A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171337A1 (en) * 2022-03-11 2023-09-14 ソニーグループ株式会社 Heart rate measurement system, heart rate measurement method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128273A1 (en) * 2013-02-21 2014-08-28 Iee International Electronics & Engineering S.A. Imaging device based occupant monitoring system supporting multiple functions
JP2015192852A (en) * 2014-03-25 2015-11-05 キヤノン株式会社 imaging device
JP2017507724A (en) * 2014-03-06 2017-03-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Physiological characteristics determination device
JP2017104491A (en) * 2015-12-07 2017-06-15 パナソニック株式会社 Living body information measurement device, living body information measurement method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128273A1 (en) * 2013-02-21 2014-08-28 Iee International Electronics & Engineering S.A. Imaging device based occupant monitoring system supporting multiple functions
JP2017507724A (en) * 2014-03-06 2017-03-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Physiological characteristics determination device
JP2015192852A (en) * 2014-03-25 2015-11-05 キヤノン株式会社 imaging device
JP2017104491A (en) * 2015-12-07 2017-06-15 パナソニック株式会社 Living body information measurement device, living body information measurement method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171337A1 (en) * 2022-03-11 2023-09-14 ソニーグループ株式会社 Heart rate measurement system, heart rate measurement method, and program

Also Published As

Publication number Publication date
WO2020203913A1 (en) 2020-10-08
JP7161704B2 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
US10825314B2 (en) Baby monitor
WO2020203915A1 (en) Pulse wave detection device, and pulse wave detection program
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
JP5923180B2 (en) Biological information measuring device and input device using the same
US20140226013A1 (en) Driving attention amount determination device, method, and computer program
US20100322507A1 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
US20160278644A1 (en) Contact-less blood pressure measurement
US11398112B2 (en) Pulse wave detection device, vehicle device, and pulse wave detection program
JP2017536589A (en) Device, method and computer program for detecting instantaneous sleep
JP2019513437A (en) Fetal movement monitoring system and method
WO2016193030A1 (en) Sleep monitoring method and system
JP2007229218A (en) Apparatus, system, and method for vigilance estimation
WO2020203913A1 (en) Pulse rate detection device and pulse rate detection program
JP2012000280A (en) Brain wave estimating device, brain wave estimation method and program
JP6455761B2 (en) Pulse wave detection device and pulse wave detection program
US20060055546A1 (en) Method and apparatus for generating an indication of a level of vigilance of an individual
Riztiane et al. Driver drowsiness detection using visual information on android device
EP3496037A1 (en) Device, system and method for detecting body movement of a patient
JP2017055949A (en) Measurement apparatus, measurement system, measurement method, and computer program
JP6593133B2 (en) Diagnosis support apparatus and diagnosis support method
JP2012093867A (en) Notification system
WO2017045976A1 (en) Device and method for migraine monitoring
JP7174358B2 (en) Pulse rate detector and pulse rate detection program
JP7209947B2 (en) Pulse rate detector and pulse rate detection program
WO2020203914A1 (en) Pulse wave detection device and pulse wave detection program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220929

R150 Certificate of patent or registration of utility model

Ref document number: 7161704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RVOP Cancellation by post-grant opposition