JP7161704B2 - Pulse rate detector and pulse rate detection program - Google Patents

Pulse rate detector and pulse rate detection program Download PDF

Info

Publication number
JP7161704B2
JP7161704B2 JP2019066380A JP2019066380A JP7161704B2 JP 7161704 B2 JP7161704 B2 JP 7161704B2 JP 2019066380 A JP2019066380 A JP 2019066380A JP 2019066380 A JP2019066380 A JP 2019066380A JP 7161704 B2 JP7161704 B2 JP 7161704B2
Authority
JP
Japan
Prior art keywords
image
pulse rate
time
frame image
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2019066380A
Other languages
Japanese (ja)
Other versions
JP2020162871A (en
Inventor
マイケル ジョーンズ
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=72667708&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP7161704(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019066380A priority Critical patent/JP7161704B2/en
Priority to PCT/JP2020/014361 priority patent/WO2020203913A1/en
Publication of JP2020162871A publication Critical patent/JP2020162871A/en
Application granted granted Critical
Publication of JP7161704B2 publication Critical patent/JP7161704B2/en
Ceased legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals

Description

本発明は、脈拍数検出装置、及び脈拍数検出プログラムに関し、例えば、対象者の脈拍数を検出するものに関する。 TECHNICAL FIELD The present invention relates to a pulse rate detection device and a pulse rate detection program, for example, to those for detecting the pulse rate of a subject.

対象者の健康状態や生理的な状態を把握するためには、脈拍数の検出が重要である。通常、脈拍数は、対象者に器具を装着して検出するが、もっと手軽に検出したいとの要望が高く、非接触で対象者の脈拍数を検出する技術が盛んに研究されている。
これにより、例えば、車両の運転者の脈拍をモニタリングして、より交通安全を推進することができる。
Detection of the pulse rate is important for grasping the health condition and physiological condition of the subject. Normally, the pulse rate is detected by wearing a device on the subject, but there is a strong demand for easier detection, and techniques for non-contact detection of the subject's pulse rate are being actively researched.
This allows, for example, monitoring the pulse of the driver of the vehicle to promote better road safety.

このように、非接触で脈拍を検出する技術に非特許文献1の技術がある。この技術は、対象者の腕をカメラで撮影し、そのカメラ映像から脈拍を検出する。血流により体表面の輝度や色が変化するため、映像を画像処理することにより脈拍を検出することができる。 As described above, the technique of non-patent document 1 is available as a technique for detecting the pulse without contact. This technology captures a subject's arm with a camera and detects the pulse from the camera image. Since blood flow changes the brightness and color of the body surface, the pulse can be detected by image processing the video.

ところで、対象者の体表面を撮影しているときに環境光が変化すると体表面の輝度も変化してしまい、脈拍による輝度変化と環境光の変化による輝度変化が区別できないという問題があった。
特に、脈拍数検出装置を車両に搭載する場合、環境光が頻繁に変化するため、環境光の変化による光外乱を分別しないと脈拍数を検出することが困難である。
By the way, when the ambient light changes when the subject's body surface is photographed, the brightness of the body surface also changes, and there is a problem that the brightness change due to the pulse and the brightness change due to the change in the ambient light cannot be distinguished.
In particular, when the pulse rate detector is installed in a vehicle, the ambient light changes frequently, so it is difficult to detect the pulse rate unless the light disturbance due to the change in the ambient light is discriminated.

”Non-contact monitoring techniques - Principles and applications,” D. Teichmann, C. Bruser, B. Eilebrecht, A. Abbas, N. Blanik, and S. Leonhardt, Con. Proc. IEEE Eng., Med. Biol. Soc. 34th Ann. Int. Conf., San Diego, CA, USA, 2012, pp. 1302-1305."Non-contact monitoring techniques-principles and applications,"D. Teichmann, C.; Bruser, B. Eilebrecht, A.; Abbas, N.; Blanik, andS. Leonhardt, Con. Proc. IEEE Eng. , Med. Biol. Soc. 34th Ann. Int. Conf. , San Diego, CA, USA, 2012, pp. 1302-1305.

本発明は、環境光の変化による輝度の変化を分別して脈拍数を検出することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to detect a pulse rate by discriminating changes in brightness due to changes in ambient light.

(1)本発明は、前記目的を達成するために、請求項1に記載の発明では、点滅する光源によって対象者の体表面を照明する照明手段と、変動する環境光の下、前記照明された体表面を時系列的に連続する画像によって動画撮影する撮影手段と、前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像から推測することで補間する補間手段と、前記補間手段で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正手段と、時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得手段と、前記取得した脈拍数を出力する出力手段と、を具備したことを特徴とする脈拍数検出装置を提供する。
(2)請求項2に記載の発明では、前記一方の画像は点灯時の画像であり、他方の画像は消灯時の画像であることを特徴とする請求項1に記載の脈拍数検出装置を提供する。
(3)請求項3に記載の発明では、前記照明手段は、前記光源が発する赤外線の点滅によって前記体表面を照明し、前記撮影手段は、前記体表面から反射した赤外線の画像によって動画撮影する、ことを特徴とする請求項1、又は請求項2に記載の脈拍数検出装置を提供する。
(4)請求項4に記載の発明では、前記照明手段は、前記光源としてLEDを点滅させる、ことを特徴とする請求項2、又は請求項3に記載の脈拍数検出装置を提供する。
(5)請求項5に記載の発明では、前記補間手段は、前記前に撮影した他方の画像の撮影時刻T1から前記後に撮影した他方の画像の撮影時刻T3までの第1時間と、前記撮影時刻T1から前記一方の画像の撮影時刻T2までの第2時間との時間比に基づいて、前記画素ごとの輝度を推定することで補間する、ことを特徴とする請求項1、請求項2、請求項3、又は請求項4に記載の脈拍数検出装置を提供する。
(6)請求項6に記載の発明では、変動する環境光の下、点滅する光源によって照明された対象者の体表面を時系列的に連続する画像によって撮影した画像を取得する画像取得機能と、前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像からすることで補間する補間機能と、前記補間機能で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正機能と、時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得機能と、前記取得した脈拍数を出力する出力機能と、をコンピュータで実現する脈拍数検出プログラムを提供する。
(1) In order to achieve the above object, the invention according to claim 1 provides illumination means for illuminating the subject's body surface with a blinking light source, an imaging means for capturing moving images of the surface of the body in chronological order; an image captured when the light source is on; and an image captured when the light source is off. Using interpolation means for interpolating by estimating the other image at the time of photographing one of the images from the other image photographed before and after the one image, and using the image interpolated by the interpolation means, a correcting means for correcting the brightness of the image when one of the images is captured by subtracting the brightness of the image when the light is off from the brightness of the image when the light is on for each pixel; A pulse rate detection device comprising: pulse rate acquisition means for acquiring the subject's pulse rate from a corrected change in brightness of an image when the device is lit; and output means for outputting the acquired pulse rate. I will provide a.
(2) In the second aspect of the invention, the one image is an image when the light is on, and the other image is an image when the light is off. offer.
(3) In the invention according to claim 3, the illuminating means illuminates the body surface by blinking infrared rays emitted from the light source, and the photographing means photographs a moving image by infrared rays reflected from the body surface. The pulse rate detection device according to claim 1 or claim 2 is provided, characterized by:
(4) The invention according to claim 4 provides the pulse rate detection apparatus according to claim 2 or 3, characterized in that the lighting means blinks an LED as the light source.
(5) In the invention according to claim 5, the interpolating means comprises a first time from the photographing time T1 of the previously photographed other image to the photographing time T3 of the later photographed other image; Claims 1 and 2, characterized in that interpolation is performed by estimating the brightness of each pixel based on a time ratio between time T1 and a second time from time T1 to time T2 of the one image. A pulse rate detection device according to claim 3 or claim 4 is provided.
(6) In the invention according to claim 6, an image acquisition function for acquiring an image of the subject's body surface illuminated by a blinking light source under changing ambient light with time-series continuous images. , of an image taken when the light source is on and an image taken when the light source is off and an image taken when the light source is off, the other image at the time of shooting is Using an interpolation function that interpolates from the other image shot before and after the image, and the image interpolated by the interpolation function, the brightness of the image when the one image is shot, the image when the light is off from the brightness of the image when the light is on. By subtracting the luminance of each pixel, the pulse rate of the subject is obtained from a correction function that corrects the luminance of the image when lit and the change in the luminance of the corrected image when lit that is continuous in time series. and an output function for outputting the obtained pulse rate.

本発明によれば、点滅光を用いて環境光による輝度を推測することにより、これを分別して脈拍数を検出することができる。 According to the present invention, the pulse rate can be detected by estimating the brightness of the ambient light using the flashing light and discriminating it.

脈拍を検出する原理を説明するための図である。FIG. 4 is a diagram for explaining the principle of pulse detection; 脈拍数検出装置の構成を示した図である。1 is a diagram showing a configuration of a pulse rate detection device; FIG. 補間フレーム画像の作成方法を説明するための図である。FIG. 10 is a diagram for explaining a method of creating an interpolated frame image; FIG. 脈拍数検出処理の手順を説明するためのフローチャートである。4 is a flowchart for explaining the procedure of pulse rate detection processing; 画像取得補正処理の概要について説明するための図である。FIG. 5 is a diagram for explaining an overview of image acquisition correction processing; 画像取得補正処理の手順を説明するためのフローチャートである。7 is a flowchart for explaining the procedure of image acquisition correction processing; データ取得処理の手順を説明するためのフローチャートである。4 is a flowchart for explaining the procedure of data acquisition processing; 脈拍数検出処理の手順を説明するためのフローチャートである。4 is a flowchart for explaining the procedure of pulse rate detection processing; フローチャートを補足説明するための図である。It is a figure for supplementary explanation of a flow chart. 輝度信号RとsROIの関係式の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the relational expression of luminance signal R and sROI. 輝度信号Rの補正式を説明するための図である。4 is a diagram for explaining a correction formula for a luminance signal R; FIG. 実験結果を説明するための図である。It is a figure for demonstrating an experimental result.

(1)実施形態の概要
脈拍数検出装置1(図2)は、環境光の下、点滅するLED9で照明しながら対象者11の顔を動画撮影する。
脈拍数検出装置1は、カメラ8のフレームレートに同期させてLED9を点滅させ、これによって、LED9の点灯時のフレーム画像(オンフレーム画像)と消灯時のフレーム画像(オフフレーム画像)が交互に撮影された動画を生成する。
(1) Outline of Embodiment The pulse rate detection device 1 (FIG. 2) shoots a moving image of the subject's 11 face under ambient light while illuminating with a blinking LED 9 .
The pulse rate detection device 1 blinks the LED 9 in synchronization with the frame rate of the camera 8, so that the frame image (on-frame image) when the LED 9 is lit and the frame image (off-frame image) when the LED 9 is turned off alternately. Generate a captured video.

オフフレーム画像の輝度は環境光によるものであり、オンフレーム画像の輝度は環境光によるものとLED9によるものを合わせたものである。
ここで、オンフレーム画像から環境光による輝度を除けば、LED9だけによる外乱のない輝度が得られ、これから脈拍数を検出することができる。
The brightness of the off-frame image is due to the ambient light, and the brightness of the on-frame image is the sum of the brightness due to the ambient light and the brightness due to the LED 9 .
Here, if the luminance due to the ambient light is removed from the on-frame image, the luminance without disturbance from only the LED 9 can be obtained, and the pulse rate can be detected from this luminance.

そこで、脈拍数検出装置1は、オンフレーム画像の前後のオフフレーム画像を用いることで、オンフレーム画像の撮影時に対応するオフフレーム画像を推測して補間する。その具体的一例として本実施形態では、オンフレーム画像の撮影時刻をT2、オンフレーム画像の前のオフフレーム画像の撮影時刻をT1、オンフレーム画像の後のオフフレーム画像の撮影時刻をT3とした場合に、撮影時刻T1から撮影時刻T3までの第1時間と、撮影時刻T1から撮影時刻T2までの第2時間との時間比に基づいて、オンフレーム画像撮影時T2において仮にLED9を消灯していたら撮影されていたであろうと推測される推測上の補間フレーム画像(2つのオフフレーム画像をオンフレーム画像撮影時点において補間する推測上のオフフレーム画像)を生成して補間する。
補間フレーム画像の輝度は、オンフレーム画像撮影時の環境光による輝度であると推測される。
Therefore, the pulse rate detection device 1 uses the off-frame images before and after the on-frame image to estimate and interpolate the off-frame image corresponding to when the on-frame image was captured. As a specific example, in this embodiment, the on-frame image is captured at T2, the off-frame image before the on-frame image is captured at T1, and the off-frame image after the on-frame image is captured at T3. In this case, the LED 9 is temporarily extinguished at the on-frame image capturing time T2 based on the time ratio between the first time from the capturing time T1 to the capturing time T3 and the second time from the capturing time T1 to the capturing time T2. A hypothetical interpolated frame image (a hypothetical off-frame image obtained by interpolating two off-frame images at the time when the on-frame image is photographed) is generated and interpolated.
The brightness of the interpolated frame image is assumed to be the brightness due to the ambient light when the on-frame image was captured.

そこで、脈拍数検出装置1は、オンフレーム画像の輝度から補間フレーム画像の輝度を引くことにより、オンフレーム画像から環境光の輝度を除いた補正フレーム画像を生成する。
そして、脈拍数検出装置1は、当該補正フレーム画像の輝度のフーリエ変換から脈拍数を検出する。
Therefore, the pulse rate detection device 1 subtracts the luminance of the interpolated frame image from the luminance of the on-frame image to generate a corrected frame image in which the luminance of the ambient light is removed from the on-frame image.
Then, the pulse rate detection device 1 detects the pulse rate from the Fourier transform of the brightness of the corrected frame image.

(2)実施形態の詳細
図1は、環境光の変化による外乱下で脈波(脈拍)を検出する原理を説明するための図である。
本実施の形態では、LED(light emitting diode)の照明は脈波信号を拡大するが、光外乱を拡大しないという原理原則に基づき、点滅するLEDを用いることによって、脈波による輝度変化と環境光の変化による輝度変化を分別する。
(2) Details of Embodiment FIG. 1 is a diagram for explaining the principle of detecting a pulse wave (pulse) under disturbance due to changes in ambient light.
In the present embodiment, the LED (light emitting diode) illumination expands the pulse wave signal but does not expand the light disturbance. discriminate the luminance change due to the change of .

図1(a)は、LED照明を用いずに、環境光だけで体表面を撮影した場合を示している。
体表面(皮膚表面17と血管18から構成される)に入射した環境光は、皮膚表面17と血管18で反射して、それぞれ皮膚反射光Aと血管反射光Bを生じさせる。カメラが撮影するのは、これらを合成した体表面反射光Cである。
FIG. 1(a) shows a case in which the body surface is photographed using only ambient light without using LED lighting.
Ambient light incident on the body surface (composed of skin surface 17 and blood vessels 18) is reflected by skin surface 17 and blood vessels 18 to generate skin reflected light A and blood vessel reflected light B, respectively. The body surface reflected light C obtained by synthesizing these is captured by the camera.

図1(a)のグラフは、これら反射光による輝度信号(輝度信号の振幅)の時間変化を示している。
グラフの皮膚表面輝度信号A、血管輝度信号B、及び体表面輝度信号Cは、それぞれ、皮膚反射光A、血管反射光B、体表面反射光Cによるものである。
皮膚輝度信号Aは、環境光の変化に伴って変化し、血管輝度信号Bは、環境光の変化と脈拍に伴って変化する。
カメラで撮影した動画から得られるのは、これらの変化を合成した体表面輝度信号Cである。
The graph of FIG. 1(a) shows the time change of the luminance signal (amplitude of the luminance signal) due to these reflected lights.
The skin surface luminance signal A, the blood vessel luminance signal B, and the body surface luminance signal C in the graph are due to the skin reflected light A, the blood vessel reflected light B, and the body surface reflected light C, respectively.
The skin luminance signal A changes with changes in ambient light, and the blood vessel luminance signal B changes with changes in ambient light and pulse.
A body surface luminance signal C obtained by synthesizing these changes is obtained from a moving image captured by a camera.

図1(b)は、環境光の下、LED光による照明を行いながら体表面を撮影した場合を示している。
体表面に入射したLED光は、皮膚表面17と血管18で反射して、それぞれ皮膚反射光Dと血管反射光Eを生じさせる。カメラが撮影するのは、皮膚反射光A、血管反射光B、皮膚反射光D、及び血管反射光Eを合成した体表面反射光Fである。
FIG. 1(b) shows a case in which the body surface is photographed under ambient light while being illuminated with LED light.
The LED light incident on the body surface is reflected by the skin surface 17 and blood vessels 18 to generate skin reflected light D and blood vessel reflected light E, respectively. The camera captures body surface reflected light F obtained by synthesizing skin reflected light A, blood vessel reflected light B, skin reflected light D, and blood vessel reflected light E.

図1(b)のグラフは、これらの反射光による輝度信号の時間変化を示している。
グラフの皮膚表面輝度信号A、血管輝度信号B、皮膚表面輝度信号D、血管輝度信号E、及び体表面輝度信号Fは、それぞれ、皮膚反射光A、血管反射光B、皮膚反射光D、血管反射光E、及び体表面反射光Fによるものである。
LED光の輝度は一定であるため、皮膚表面輝度信号Dは一定値をとり、血管輝度信号Eは脈拍に伴って変化する。
カメラで撮影した動画から得られるのは、皮膚表面輝度信号A~血管輝度信号Eを合成した体表面輝度信号Fである。
The graph of FIG. 1(b) shows the time change of the luminance signal due to these reflected lights.
The skin surface luminance signal A, the blood vessel luminance signal B, the skin surface luminance signal D, the blood vessel luminance signal E, and the body surface luminance signal F in the graph are the skin reflected light A, the blood vessel reflected light B, the skin reflected light D, the blood vessel This is due to reflected light E and body surface reflected light F.
Since the brightness of the LED light is constant, the skin surface brightness signal D takes a constant value, and the blood vessel brightness signal E changes with the pulse.
A body surface luminance signal F obtained by synthesizing the skin surface luminance signal A to the blood vessel luminance signal E is obtained from the moving image captured by the camera.

図1(c)のグラフは、体表面輝度信号Fと体表面輝度信号Cの差分を示している。
体表面輝度信号Fから体表面輝度信号Cを引くと、環境光による光外乱(皮膚表面輝度信号Aと血管輝度信号B)が消去されて、LED光による皮膚表面輝度信号Dと血管輝度信号Eの合計である体表面輝度信号Gが得られる。
体表面輝度信号Gには、皮膚表面輝度信号Dが含まれているが、これは一定であるため、体表面輝度信号Gの時間変化は血管輝度信号Eの時間変化を表し、これから脈拍数を検出することができる。
The graph of FIG. 1(c) shows the difference between the body surface luminance signal F and the body surface luminance signal C. FIG.
When the body surface luminance signal C is subtracted from the body surface luminance signal F, the optical disturbance (skin surface luminance signal A and blood vessel luminance signal B) due to the ambient light is eliminated, and the skin surface luminance signal D and the blood vessel luminance signal E due to the LED light are eliminated. A body surface luminance signal G that is the sum of is obtained.
The body surface luminance signal G includes the skin surface luminance signal D, which is constant. Therefore, the time change of the body surface luminance signal G represents the time change of the blood vessel luminance signal E, from which the pulse rate can be calculated. can be detected.

このように、LED点灯時の輝度信号とLED消灯時の輝度信号の差分から脈拍数を検出することができるが、LEDが点灯した状態と、LEDが消灯した状態を同時に実現することはできないという問題がある。 In this way, the pulse rate can be detected from the difference between the luminance signal when the LED is on and the luminance signal when the LED is off. There's a problem.

そこで、本実施の形態では、LEDを動画のフレームごとに点滅させて、LEDをオンして点灯している状態のオンフレーム画像とLEDをオフして消灯している状態のオフフレーム画像を交互に撮影する。そして、オンフレーム画像の前後のオフフレーム画像の輝度と、前のオフフレーム画像の撮影時刻T1から後のオフフレーム画像撮影時刻T3までの第1時間と、撮影時刻T1からオンフレーム画像の撮影時刻T2までの第2時間との時間比に基づいて、オンフレーム画像撮影時刻T2における補間フレーム画像(オンフレーム画像撮影時に仮想的に撮影されるオフフレーム画像)の輝度を推測する。
補間フレーム画像の輝度は、オンフレーム画像撮影時の環境光による輝度であると推測できるため、オンフレーム画像による輝度信号(体表面輝度信号F)と当該推測より得られる輝度信号(体表面輝度信号Cの推測値)の差分から脈拍数を検出する。
Therefore, in the present embodiment, the LED is blinked for each frame of the moving image, and the on-frame image in which the LED is turned on and the off-frame image in which the LED is turned off are alternately displayed. to shoot. Then, the luminance of the off-frame images before and after the on-frame image, the first time from the imaging time T1 of the previous off-frame image to the imaging time T3 of the subsequent off-frame image, and the imaging time of the on-frame image from the imaging time T1 Based on the time ratio to the second time up to T2, the brightness of the interpolated frame image (off-frame image virtually captured during on-frame image capturing) at on-frame image capturing time T2 is estimated.
Since the luminance of the interpolated frame image can be estimated to be the luminance due to the ambient light at the time of the on-frame image shooting, the luminance signal (body surface luminance signal F) of the on-frame image and the luminance signal obtained from the estimation (body surface luminance signal The pulse rate is detected from the difference between the estimated values of C).

図2は、本実施の形態の脈拍数検出装置1の構成を示した図である。
脈拍数検出装置1は、例えば、車両に搭載され、搭乗者(ドライバや助手席の乗客などの対象者)の脈波(脈拍)を監視し、ドライバの体調、緊張状態などの生理的な状態を把握する。
また、医療現場や災害現場などで患者や被災者の脈拍数を検出・監視したり、家庭や商業施設に設置して、利用者が手軽に脈拍数を検出するのに利用することができる。
FIG. 2 is a diagram showing the configuration of the pulse rate detection device 1 of this embodiment.
The pulse rate detection device 1 is mounted in a vehicle, for example, and monitors the pulse wave (pulse) of a passenger (a target person such as a driver or a passenger in a front passenger seat), and detects the driver's physical condition, tension, and other physiological conditions. Grasp.
In addition, it can be used to detect and monitor the pulse rate of patients and disaster victims at medical sites and disaster sites, and to be installed in homes and commercial facilities so that users can easily detect the pulse rate.

脈拍数検出装置1は、CPU(Central Processing Unit)2、ROM(Read Only Memory)3、RAM(Random Access Memory)4、表示部5、入力部6、出力部7、カメラ8、LED9、記憶部10などから構成されており、対象者11(脈拍数検出装置1の検出対象者)の脈拍数(脈波、脈拍)を検出する。
CPU2は、記憶部10やROM3などに記憶されたプログラムに従って、各種の情報処理や制御を行う中央処理装置である。
本実施の形態では、カメラ8が撮影した動画を画像処理して対象者11の脈拍数を検出する。
The pulse rate detection device 1 includes a CPU (Central Processing Unit) 2, a ROM (Read Only Memory) 3, a RAM (Random Access Memory) 4, a display section 5, an input section 6, an output section 7, a camera 8, an LED 9, and a storage section. 10, etc., and detects the pulse rate (pulse wave, pulse rate) of a subject 11 (a subject to be detected by the pulse rate detection device 1).
The CPU 2 is a central processing unit that performs various types of information processing and control according to programs stored in the storage unit 10, the ROM 3, and the like.
In this embodiment, the pulse rate of the subject 11 is detected by image-processing the moving image captured by the camera 8 .

ROM3は、読み取り専用メモリであって、脈拍数検出装置1を動作させるための基本的なプログラムやパラメータなどが記憶されている。
RAM4は、読み書きが可能なメモリであって、CPU2が動作する際のワーキングメモリを提供する。
本実施の形態では、動画を構成するフレーム画像(1コマの静止画像)を展開して記憶したり、計算結果を記憶したりすることにより、CPU2が、フレーム画像に写った体表面から脈拍数を検出するのを支援する。
当該体表面は、顔や手足など体表面が露出しているところならよいが、本実施の形態では、一例として顔の表面(顔面)から脈拍数を検出する。
The ROM 3 is a read-only memory and stores basic programs and parameters for operating the pulse rate detector 1 .
The RAM 4 is a readable/writable memory and provides a working memory when the CPU 2 operates.
In the present embodiment, the CPU 2 reads the pulse rate from the body surface shown in the frame image by developing and storing the frame images (one frame of still image) that make up the moving image and by storing the calculation results. to help detect
The body surface may be any exposed body surface such as the face or limbs, but in the present embodiment, the pulse rate is detected from the face surface (face) as an example.

表示部5は、液晶画面などの表示デバイスを用いて構成されており、脈拍数検出装置1の操作画面や脈拍数の表示など、脈拍数検出装置1の運用に必要な情報を表示する。
入力部6は、表示デバイスに重畳して設置されたタッチパネルなどの入力デバイスを用いて構成されており、画面表示に対するタッチの有無などから各種の情報の入力を受け付ける。
The display unit 5 is configured using a display device such as a liquid crystal screen, and displays information necessary for operating the pulse rate detection device 1, such as an operation screen of the pulse rate detection device 1 and display of the pulse rate.
The input unit 6 is configured using an input device such as a touch panel that is superimposed on the display device, and receives input of various types of information based on whether or not there is a touch on the screen display.

出力部7は、各種の情報を外部装置に出力するインターフェースであり、例えば、検出した脈拍数を出力したり、あるいは、脈拍数に変化が現れた場合にアラームを出力することができる。
また出力部7は、車両を制御する制御装置などの他の制御機器に出力することができる。出力部7から脈拍数の出力を受けた制御機器では、例えば、ドライバの眠気や緊張状態等を判断し、ドライバに向けた制御、例えば、眠気を覚醒させるためにハンドルやシートを振動させる制御、警告音やメッセージの出力などを行うことができる。また、車両に対する制御として、脈拍数に基づいて判断したドライバの緊張状態に応じて、車間距離制御、車速制御、又はブレーキ制御の少なくとも1つを行うことも可能である。例えば、制御機器は、ドライバが所定値を超える高い緊張状態にあると判断した場合には、車間距離を基準値よりも大きくとるように制御し、車速を所定車速以下となるように制御し、所定車速以上であれば自動ブレーキ操作による減速処理等を行う。
表示部5や出力部7は、脈拍数を出力する出力手段として機能している。
The output unit 7 is an interface for outputting various types of information to an external device. For example, it can output the detected pulse rate or output an alarm when the pulse rate changes.
The output unit 7 can also output to other control equipment such as a control device for controlling the vehicle. The control device that receives the pulse rate output from the output unit 7 determines, for example, the drowsiness or tension of the driver, and controls the driver, for example, controls to vibrate the steering wheel or seat to awaken the drowsiness. It is possible to output warning sounds and messages. Further, as control over the vehicle, at least one of inter-vehicle distance control, vehicle speed control, and brake control can be performed according to the driver's nervousness determined based on the pulse rate. For example, when the control device determines that the driver is in a highly tense state exceeding a predetermined value, the control device controls the inter-vehicle distance to be larger than the reference value, and controls the vehicle speed to be equal to or lower than the predetermined vehicle speed, If the vehicle speed is equal to or higher than the predetermined vehicle speed, deceleration processing or the like is performed by automatic braking operation.
The display unit 5 and the output unit 7 function as output means for outputting the pulse rate.

カメラ8は、動画を撮影するためのカメラであって、レンズで構成された光学系と、これによって結像した像を電気信号に変換する赤外線イメージセンサを用いて構成されている。
カメラ8は、対象者11の顔前方に設置されており、対象者11の顔付近が撮影画面となるように設定されている。
そして、カメラ8は、対象者11を所定のフレームレートにて撮影し、これら時系列的に連続するフレーム画像(静止画像)で構成された動画を出力する。
The camera 8 is a camera for capturing moving images, and is configured using an optical system composed of lenses and an infrared image sensor that converts an image formed by the lens into an electrical signal.
The camera 8 is installed in front of the face of the subject 11, and is set so that the vicinity of the face of the subject 11 becomes a shooting screen.
Then, the camera 8 photographs the subject 11 at a predetermined frame rate, and outputs a moving image composed of these time-series continuous frame images (still images).

フレーム画像は、画像を構成する最小単位である画素(ピクセル)の配列により構成されており、各画素はLED9が照射する周波数帯域の赤外線を検出する。
このように、カメラ8は、変動する環境光の下、LED9で照明された体表面を時系列的に連続する画像によって動画撮影する撮影手段として機能する。
A frame image is composed of an array of pixels, which are the minimum units that constitute an image, and each pixel detects infrared rays in the frequency band emitted by the LED 9 .
In this way, the camera 8 functions as a photographing means for photographing moving images of the body surface illuminated by the LEDs 9 in chronological order under fluctuating ambient light.

LED9は、所定の周波数帯域の赤外線を対象に照射してこれを照明する照明装置であって、対象者11の顔の前方に設置されており、対象者11の顔を前方から照明する。
LED9は、点滅する光源が発する赤外線によって対象者の体表面を照明する照明手段として機能する。
LED9は、CPU2によるオンオフ制御によって、点灯状態と消灯状態をフレームレート(本実施の形態では、一例として毎秒60フレームとした)に同期して繰り返す。
LED9は、赤外線を発するため、対象者11には見えず(そのため、まぶしくない)、また、この波長領域では、脈波の検出に良好な皮膚反射光Dと血管反射光Eを得ることができる。
The LED 9 is a lighting device that illuminates an object by irradiating it with infrared rays of a predetermined frequency band, is installed in front of the face of the subject 11, and illuminates the face of the subject 11 from the front.
The LED 9 functions as illumination means for illuminating the subject's body surface with infrared rays emitted by a blinking light source.
The LED 9 repeats ON/OFF control by the CPU 2 in synchronization with the frame rate (60 frames per second in this embodiment).
Since the LED 9 emits infrared rays, it cannot be seen by the subject 11 (therefore, it is not dazzling), and in this wavelength range, it is possible to obtain skin reflected light D and blood vessel reflected light E, which are good for pulse wave detection. .

なお、カメラ8とLED9は、カメラ8とLED9が一体となった、照明付きカメラとしてもよい。
また、脈拍数検出装置1は、赤外線により対象者11の脈波を検出するが、可視光を用いるなど、他の周波数帯域における光を用いてもよい。この場合は、カメラ8とLED9を当該光に適合したもので構成する。
Note that the camera 8 and the LED 9 may be a camera with illumination in which the camera 8 and the LED 9 are integrated.
Further, the pulse rate detection device 1 detects the pulse wave of the subject 11 using infrared rays, but light in other frequency bands such as visible light may be used. In this case, the camera 8 and the LED 9 are adapted to the light.

なお、脈拍数検出装置1で、赤外線を用いたのは、昼夜の区別なく脈拍数の検出が可能であるためである。
但し、可視光による脈拍数の検出が可能な昼間は可視光による脈拍数の検出を行い、車内が所定の明るさ以下になった場合に、赤外線による脈拍数の検出に切り替えるという運用も可能である。また、車内が所定の明るさ以下になるまでの間は、可視光による脈拍数の検出と本実施形態による赤外線による脈拍数の検出の両者を使用し、所定の明るさ以下になった後は本実施形態だけを使用するようにしてもよい。この場合、何れか一方の出力を他方の出力の信頼度を推定するために使用してもよく、また、両出力の平均値を検出値として出力するようにしてもよい。なお、車内の明るさについては、例えば照度センサ等を使用して検出する。
The reason why the pulse rate detector 1 uses infrared light is that the pulse rate can be detected regardless of whether it is day or night.
However, it is also possible to detect the pulse rate using visible light during the daytime when the pulse rate can be detected using visible light, and switch to pulse rate detection using infrared light when the brightness inside the vehicle falls below a predetermined level. be. In addition, until the brightness in the car falls below a predetermined brightness, both the pulse rate detection using visible light and the pulse rate detection using infrared light according to this embodiment are used. Only this embodiment may be used. In this case, either one of the outputs may be used to estimate the reliability of the other output, or the average value of both outputs may be output as the detected value. The brightness in the vehicle is detected using, for example, an illuminance sensor.

記憶部10は、ハードディスクやEEPROM(Electrically Erasable Programmable Read-Only Memory)などの記憶媒体を用いて構成されており、CPU2が脈波を検出するための脈拍数検出プログラム12やその他のプログラム、及びデータを記憶している。
CPU2が脈拍数検出プログラム12に従って検出した脈拍数は、RAM4に一時保存され、必要に応じて外部に出力されたり、記憶部10に保存される。
The storage unit 10 is configured using a storage medium such as a hard disk or an EEPROM (Electrically Erasable Programmable Read-Only Memory), and stores a pulse rate detection program 12 for the CPU 2 to detect pulse waves, other programs, and data Remember.
The pulse rate detected by the CPU 2 according to the pulse rate detection program 12 is temporarily stored in the RAM 4 and is output to the outside or stored in the storage section 10 as necessary.

脈拍数検出プログラム12は、CPU2に脈波検出処理を行わせるプログラムである。
CPU2は、脈拍数検出プログラム12を実行することにより、動画撮影した対象者11の顔から輝度の検出を行う。
The pulse rate detection program 12 is a program that causes the CPU 2 to perform pulse wave detection processing.
By executing the pulse rate detection program 12, the CPU 2 detects luminance from the face of the subject 11 whose moving image is taken.

図3は、補間フレーム画像の作成方法を説明するための図である。
図3において、オン、オフと記した菱形図形の列は、動画撮影されたフレーム画像を時系列的に並べたところを模式的に表しており(時間の経過方向は図に向かって右方向とする)、オンと記された菱形図形はオンフレーム画像を、オフと記された菱形図形はオフフレーム画像を表している。
FIG. 3 is a diagram for explaining a method of creating an interpolated frame image.
In FIG. 3, the rows of rhombic figures labeled ON and OFF schematically represent the arrangement of the frame images taken as moving images in chronological order (the direction of passage of time is the right direction in the figure). ), the diamonds labeled ON represent on-frame images, and the diamonds labeled OFF represent off-frame images.

脈拍数検出装置1は、LED9をフレームレートに同期して点滅させるため、・・・、オフフレーム画像21、オンフレーム画像22、オフフレーム画像23、・・・といったように、オフフレーム画像とオンフレーム画像を交互に動画撮影するが、ここでは、一例として、オンフレーム画像22を補正する場合について考える。 Since the pulse rate detection device 1 blinks the LED 9 in synchronization with the frame rate, the off-frame image and the on-frame image 21, the on-frame image 22, the off-frame image 23, . Frame images are alternately captured as moving images. Here, as an example, the case of correcting the on-frame image 22 is considered.

まず、脈拍数検出装置1は、オンフレーム画像22の1コマ前(1フレーム前)のオフフレーム画像21と、1コマ後(1フレーム後)のオフフレーム画像23を特定する。
そして、オフフレーム画像21とオフフレーム画像23の輝度と、撮影時刻の時間比に基づいて、オンフレーム画像22の撮影時点にて、オフフレーム画像21とオフフレーム画像23を補間する推定上のオフフレーム画像である補間フレーム画像25を生成する。
先に述べたように、補間フレーム画像25は、オンフレーム画像22の撮影時における環境光の輝度を推測することで補間した画像である。
First, the pulse rate detection device 1 identifies an off-frame image 21 one frame before (one frame before) the on-frame image 22 and an off-frame image 23 one frame after (one frame after) the on-frame image 22 .
Based on the luminance of the off-frame image 21 and the off-frame image 23 and the time ratio of the photographing times, an estimated off-frame image 21 and an off-frame image 23 are interpolated at the time of photographing the on-frame image 22 . An interpolated frame image 25, which is a frame image, is generated.
As described above, the interpolated frame image 25 is an image interpolated by estimating the brightness of the ambient light when the on-frame image 22 was captured.

このように、脈拍数検出装置1は、光源が点灯している時に撮影した点灯時の画像(オンフレーム画像)と、前記光源が消灯している時に撮影した消灯時の画像(オフフレーム画像)のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像から推測することで補間する補間手段を備えている。
上の例では、一方の画像は点灯時の画像であり、他方の画像は消灯時の画像である。補間手段は、当該点灯時の画像の前の消灯時の画像の輝度と、当該点灯時の画像の後の消灯時の画像の輝度と、各画像撮影時の時間比に基づいて、当該点灯時の画像を撮影した時点における消灯時の画像の輝度を推測することにより環境光による輝度を推測している。
なお、当該一方の画像を消灯時の画像、他方の画像を点灯時の画像とすることも可能である。この場合、オフフレーム画像の前後のオンフレーム画像の輝度と、各画像の撮影時刻の時間比に基づいて、オンフレーム画像を補完する補間画像を作成する。
In this way, the pulse rate detection device 1 captures an image when the light source is on (on-frame image) and an image when the light source is off (off-frame image). Interpolation means is provided for interpolating by estimating the other image at the time of photographing one of the images from the other image photographed before and after the one image.
In the above example, one image is the lit image and the other is the unlit image. The interpolating means calculates the luminance of an image when turned off before the image when turned on, the luminance of an image when turned off after the image when turned on, and the time ratio when each image is captured. The luminance due to ambient light is estimated by estimating the luminance of the image when the light is turned off at the time when the image is taken.
Note that one of the images may be an image when the lights are off, and the other image may be an image when the lights are on. In this case, an interpolated image that complements the on-frame image is created based on the brightness of the on-frame images before and after the off-frame image and the time ratio of the photographing times of the respective images.

より詳細には、図のグラフに示したように、iをフレーム画像のインデックスとして、オフフレーム画像21の撮影時刻T1をt(i)、処理対象となる画素の輝度をY(i)、オンフレーム画像22の撮影時刻T2をt(i+1)、対応する画素の輝度をY(i+1)、オフフレーム画像23の撮影時刻T3をt(i+2)、対応する画素の輝度をY(i+2)とする。 More specifically, as shown in the graph of the drawing, i is the index of the frame image, t(i) is the shooting time T1 of the off-frame image 21, Y(i) is the luminance of the pixel to be processed, and Y(i) is the brightness of the pixel to be processed. Let t(i+1) be the shooting time T2 of the frame image 22, Y(i+1) be the brightness of the corresponding pixel, t(i+2) be the shooting time T3 of the off-frame image 23, and Y(i+2) be the brightness of the corresponding pixel. .

時刻T2=t(i+1)における補間フレーム画像25の当該画素の輝度Y(i+1)は、オフフレーム画像21とオフフレーム画像23の当該画素の両輝度と、T1、T2、T3の時間比に基づく式(1)(図3参照)によって計算される。
式(1)は、Y(i+1)=Y(i)+[Y(i+2)-Y(i)}×{t(i+1)-t(i)}÷{t(i+2)-t(i)}によって定義されている。
このように、撮影時刻の時間間隔(第1時刻、第2時刻)を都度取得して、この時間比に基づいて、補間フレーム画像25の当該画素の輝度Y(i+1)を式(1)により算出しているため、フレーム画像を撮影する時刻がばらついていても、オンフレーム画像22の撮影時点における補間フレーム画像の輝度を正しく計算することができる。
ここで、式(1)におけるt(i+2)-t(i)が第1時間、t(i+1)-t(i)が第2時間である。
The luminance Y(i+1) of the relevant pixel of the interpolated frame image 25 at time T2=t(i+1) is based on both the luminance of the relevant pixel of the off-frame image 21 and the off-frame image 23 and the time ratio of T1, T2, and T3. It is calculated by equation (1) (see FIG. 3).
Formula (1) is Y(i+1)=Y(i)+[Y(i+2)-Y(i)}×{t(i+1)-t(i)}÷{t(i+2)-t(i) } is defined by
In this way, the time interval (first time, second time) of the photographing time is obtained each time, and based on this time ratio, the luminance Y(i+1) of the pixel of the interpolated frame image 25 is calculated by equation (1). Since it is calculated, even if the times at which the frame images are captured vary, the luminance of the interpolated frame image at the time when the on-frame image 22 is captured can be correctly calculated.
Here, t(i+2)-t(i) in equation (1) is the first time, and t(i+1)-t(i) is the second time.

脈拍数検出装置1は、式(1)による計算をオフフレーム画像21、23の全ての画素の輝度について画素ごとに行う。
脈拍数検出装置1は、以上の処理によって、各オンフレーム画像に対応する補正フレーム画像をオンフレーム画像ごとに生成する。
このように、脈拍数検出装置1が備える補間手段は、前に撮影した他方の画像の撮影時刻T1から後に撮影した他方の画像の撮影時刻T3までの第1時間と、撮影時刻T1から一方の画像の撮影時刻T2までの第2時間との時間比に基づいて、画素ごとの輝度を推定することで補間している。
The pulse rate detection device 1 performs the calculation according to Equation (1) for each pixel of the luminance of all the pixels of the off-frame images 21 and 23 .
The pulse rate detection device 1 generates a corrected frame image corresponding to each on-frame image by the above processing.
In this manner, the interpolating means provided in the pulse rate detection device 1 obtains the first time from the imaging time T1 of the other image taken earlier to the imaging time T3 of the other image taken later, and the first time from the imaging time T1. Interpolation is performed by estimating the brightness of each pixel based on the time ratio to the second time until the image capturing time T2.

ところで、このようにオンフレーム画像の前後のオフフレーム画像を使用して補間フレーム画像を生成することにしたのは、本願発明者が、オンフレーム画像を、その前後の一方のオフフレーム画像で補正する実験を行ったところ、望ましい精度が得られなかったためである。
そこで、オンフレーム画像の前後のオフフレーム画像を用いて補間フレーム画像を生成し、生成した補間フレーム画像を用いてオンフレーム画像を補正してみたところ、著しい効果が得られたという背景がある。
By the way, the reason why the interpolated frame image is generated using the off-frame images before and after the on-frame image is that the inventor of the present application corrects the on-frame image with one of the off-frame images before and after the on-frame image. This is because the desired accuracy could not be obtained when an experiment was conducted.
Therefore, when an interpolated frame image is generated using off-frame images before and after an on-frame image, and the on-frame image is corrected using the generated interpolated frame image, a remarkable effect was obtained.

以下、脈拍数検出装置1が行う脈波検出処理について説明する。
図4は、脈拍数検出装置1が行う脈拍数検出処理の手順を説明するためのフローチャートである。
以下の処理は、CPU2が脈拍数検出プログラム12に従って行うものである。
まず、CPU2は、最低輝度基準と最高輝度基準、及び最低脈拍数基準と、最高脈拍数基準をRAM4に記憶することにより、輝度脈拍数基準を設定する(ステップ5)。
The pulse wave detection processing performed by the pulse rate detection device 1 will be described below.
FIG. 4 is a flowchart for explaining the procedure of the pulse rate detection process performed by the pulse rate detection device 1. As shown in FIG.
The following processing is performed by the CPU 2 according to the pulse rate detection program 12 .
First, the CPU 2 sets the luminance pulse rate reference by storing the minimum luminance reference, the maximum luminance reference, the minimum pulse rate reference, and the maximum pulse rate reference in the RAM 4 (step 5).

脈拍数検出装置1は、輝度を、例えば、0(最低輝度)から255(最高輝度)まで段階的に計測するが、ここでは、一例として最低輝度基準を60とし最高輝度基準を255とした。
最低輝度基準と最高輝度基準は、フレーム画像から体表面に該当する画素を識別する際の基準となる輝度であって、最適値が予めパラメータとして脈拍数検出プログラム12に設定されている。
これら顔の輝度を検出するのに適した輝度基準を用いることにより、顔の輝度の検出精度を高めることができる。
The pulse rate detection device 1 measures the brightness stepwise, for example, from 0 (minimum brightness) to 255 (maximum brightness).
The minimum luminance reference and the maximum luminance reference are luminances that serve as references for identifying pixels corresponding to the body surface from the frame image, and optimal values are preset in the pulse rate detection program 12 as parameters.
By using luminance references suitable for detecting the luminance of these faces, the detection accuracy of the luminance of the face can be improved.

また、脈拍数検出装置1は、最低脈拍数を40bpmとし、最高脈拍数を150bpmとしている。
脈拍数検出装置1は、最低・最高脈拍数によって常識的な心拍数の範囲を設定し、これから外れるものは光外乱であるとして検出結果から除外する。
これにより、例えば、前方車両の方向指示器の点滅や緊急車両の警告灯の点滅、あるいは、トンネル内の照明などによる脈拍数の誤検出を抑止することができる。
The pulse rate detection device 1 has a minimum pulse rate of 40 bpm and a maximum pulse rate of 150 bpm.
The pulse rate detection device 1 sets a reasonable heart rate range based on the minimum and maximum pulse rates, and excludes anything outside the range from the detection result as light disturbance.
As a result, it is possible to prevent erroneous detection of the pulse rate due to, for example, blinking of the direction indicator of the vehicle ahead, blinking of the warning light of the emergency vehicle, or lighting in the tunnel.

次に、CPU2は、数理形態クロージング用の構成を定義するパラメータをRAM4に記憶することにより、当該数理形態クロージングの構成を定義する(ステップ10)。
後述するように、最低輝度基準と最高輝度基準の範囲にある領域を顔領域として検出すると、一般にいびつな形となる。
これを脈拍数検出や顔の大きさを検出するのに適した形状に整形するのが数理形態クロージングである。
Next, the CPU 2 defines the configuration of the mathematical form closing by storing the parameters defining the configuration for the mathematical form closing in the RAM 4 (step 10).
As will be described later, when an area between the lowest luminance reference and the highest luminance reference is detected as a face area, it generally has a distorted shape.
Mathematical morphological closing is to shape this into a shape suitable for pulse rate detection and face size detection.

次に、CPU2は、画像取得補正処理を行う(ステップ15)。
ここで、画像取得補正処理の詳細な手順について説明するが、その前に、図5を用いて画像取得補正処理の概要について説明する。
脈拍数検出装置1は、補正前のフレーム画像をインデックスi(i=1、2、3、・・・)で表し、補正後のフレーム画像をインデックスj(j=1、2、3、・・・)で表す。
Next, the CPU 2 performs image acquisition correction processing (step 15).
Here, a detailed procedure of the image acquisition correction process will be described, but before that, an outline of the image acquisition correction process will be described with reference to FIG.
The pulse rate detection device 1 represents the frame image before correction by index i (i=1, 2, 3, . . . ), and the frame image after correction by index j (j=1, 2, 3, .・).

図5(a)に示したように、脈拍数検出装置1は、カメラ8から、補正前の元のフレーム画像F(i)と、その撮影時刻t_frame(i)を取得する。
これにより、脈拍数検出装置1は、フレーム画像F(1)、F(2)、F(3)、・・・と、これらの撮影時刻t_frame(1)、t_frame(2)、t_frame(3)、・・を取得する。
このように、脈拍数検出装置1は、フレーム画像と撮影時刻を取り込みながら、フレーム画像F(5)に達してから補正処理をスタートする。
As shown in FIG. 5(a), the pulse rate detection device 1 acquires the original frame image F(i) before correction and its photographing time t_frame(i) from the camera 8. As shown in FIG.
Accordingly, the pulse rate detection device 1 obtains the frame images F(1), F(2), F(3), . , . . .
In this way, the pulse rate detection device 1 starts the correction process after reaching the frame image F(5) while taking in the frame image and the photographing time.

まず、脈拍数検出装置1は、図5(b)の式(2)に従って、補間フレーム画像F_int(j)を作成する。
これにより、脈拍数検出装置1は、フレーム画像F(1)とフレーム画像F(3)から、フレーム画像F(2)に対応する補間フレーム画像F_int(1)を作成する。式(2)は、式(1)を脈拍数検出プログラム12の計算アルゴリズムに適合する形にしたものであって、内容は同じである。
First, the pulse rate detection device 1 creates an interpolated frame image F_int(j) according to equation (2) in FIG. 5(b).
As a result, the pulse rate detection device 1 creates an interpolated frame image F_int(1) corresponding to the frame image F(2) from the frame images F(1) and F(3). Equation (2) is Equation (1) adapted to the calculation algorithm of the pulse rate detection program 12, and has the same content.

そして、脈拍数検出装置1は、図5(b)の式(3)に従って、F(i-3)-F_int(j)なる差分により輝度を画素ごとに計算して補正後のフレーム画像F_corr(j)を生成する。
これにより、脈拍数検出装置1は、図5(a)に示したように、補正前のフレーム画像F(2)の輝度から補間フレーム画像F_int(1)の輝度を画素ごとに引いて、補正後のフレーム画像F_corr(1)を生成する。
このように、脈拍数検出装置1は、推測した輝度(F_int(j)の輝度)を減じることにより、一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、点灯時の画像の輝度を補正する補正手段を備えている。
Then, the pulse rate detection device 1 calculates the brightness for each pixel from the difference F(i-3)-F_int(j) according to the equation (3) in FIG. j).
As a result, the pulse rate detection device 1 subtracts the luminance of the interpolated frame image F_int(1) from the luminance of the frame image F(2) before correction for each pixel, as shown in FIG. Generate a subsequent frame image F_corr(1).
In this way, the pulse rate detection device 1 subtracts the estimated brightness (the brightness of F_int(j)) to reduce the brightness of the image when the one image is taken from the brightness of the image when the light is on to the brightness of the image when the light is off. A correction means is provided for correcting the brightness of the image at the time of lighting by subtracting each time.

更に、脈拍数検出装置1は、t(j)=t_frame(i-3)によって、補正後のフレーム画像F_corr(j)の撮影時刻を生成する。
これにより、補正後のフレーム画像F_corr(1)の撮影時刻はt(1)=t_frame(2)となって、補正前のフレーム画像F(2)と同じになり、正しい撮影時刻を付与することができる。
Furthermore, the pulse rate detection device 1 generates the photographing time of the corrected frame image F_corr(j) by t(j)=t_frame(i−3).
As a result, the photographing time of the frame image F_corr(1) after correction becomes t(1)=t_frame(2), which is the same as that of the frame image F(2) before correction. can be done.

脈拍数検出装置1は、以上の処理を、iとjをインクリメントしながら行っていき、補正後のフレーム画像F_corr(j)と、その撮影時刻t(j)を順次作成していく。
このようにして、脈拍数検出装置1は、フレーム画像F_corr(j)(j=1、2、・・・)を撮影時刻t(j)(j=1、2、・・・)で並べた、補正後の動画を生成することができる。
The pulse rate detection device 1 performs the above processing while incrementing i and j, and sequentially creates the frame image F_corr(j) after correction and its photographing time t(j).
In this manner, the pulse rate detection device 1 arranges the frame images F_corr(j) (j=1, 2, . , a corrected moving image can be generated.

図6は、ステップ15の画像取得補正処理の手順を説明するためのフローチャートである。
まず、脈拍数検出装置1は、インデックスi、jを1に初期化してRAM4に記憶する(ステップ305)。
FIG. 6 is a flow chart for explaining the procedure of image acquisition correction processing in step 15. As shown in FIG.
First, pulse rate detector 1 initializes indexes i and j to 1 and stores them in RAM 4 (step 305).

次に、脈拍数検出装置1は、LED9をオフにして消灯した後(ステップ310)、カメラ8で対象者11の顔を撮影して、環境光だけで撮影した補正前のフレーム画像F(i)を取得してRAM4に記憶する(ステップ315)。
更に、脈拍数検出装置1は、補正前のフレーム画像F(i)の撮影時刻t_frame(i)をRAM4に記憶することにより記録する(ステップ320)。
Next, after turning off the LED 9 (step 310), the pulse rate detection device 1 captures the face of the subject 11 with the camera 8, and captures the uncorrected frame image F(i ) is acquired and stored in the RAM 4 (step 315).
Further, the pulse rate detection device 1 records the photographing time t_frame(i) of the frame image F(i) before correction by storing it in the RAM 4 (step 320).

次に、脈拍数検出装置1は、LED9をオンにして点灯し、対象者11の顔をLED9で照明する(ステップ325)。
そして、脈拍数検出装置1は、RAM4に記憶してあるiを1だけインクリメントして更新する(ステップ330)。
Next, the pulse rate detection device 1 turns on the LED 9 to illuminate the face of the subject 11 with the LED 9 (step 325).
Then, the pulse rate detector 1 updates i stored in the RAM 4 by incrementing it by 1 (step 330).

次に、脈拍数検出装置1は、カメラ8で対象者11の顔を撮影して、環境光とLED照明の下に撮影された補正前のフレーム画像F(i)を取得してRAM4に記憶する(ステップ335)。
更に、脈拍数検出装置1は、補正前のフレーム画像F(i)の撮影時刻t_frame(i)をRAM4に記憶することにより記録する(ステップ340)。
Next, the pulse rate detection device 1 captures the face of the subject 11 with the camera 8, acquires the uncorrected frame image F(i) captured under ambient light and LED illumination, and stores it in the RAM 4. (step 335).
Further, the pulse rate detection device 1 stores the shooting time t_frame(i) of the uncorrected frame image F(i) in the RAM 4 (step 340).

そして、脈拍数検出装置1は、iを1だけインクリメントして更新し(ステップ345)、iが3より大きいか否かを判断する(ステップ350)。
当該ループ処理の初回では、i=3であるので、iが3以下となり(ステップ350;N)、脈拍数検出装置1は、後述のステップ40に移行して、データ取得期間が終了したか否かの判断を行う(ステップ40)。
Then, the pulse rate detector 1 updates i by incrementing it by 1 (step 345), and determines whether i is greater than 3 (step 350).
Since i=3 at the first time of the loop processing, i becomes 3 or less (step 350; N), and the pulse rate detection device 1 proceeds to step 40 described later to determine whether the data acquisition period has ended. (step 40).

データ取得期間が終了していない場合(ステップ40;N)、脈拍数検出装置1は、ステップ310に戻ってフレーム画像の取得を続行する。
一方、データ取得期間が終了している場合(ステップ40;Y)、脈拍数検出装置1は、後述のステップ45に移行する。
If the data acquisition period has not ended (step 40; N), the pulse rate detector 1 returns to step 310 to continue acquiring frame images.
On the other hand, if the data acquisition period has ended (step 40; Y), the pulse rate detection device 1 proceeds to step 45, which will be described later.

当該ループ処理の2回目以降では、iが5となって3より大きくなり(ステップ350;Y)、脈拍数検出装置1は、式(2)に従って補間フレーム画像F_int(j)を作成してRAM4に記憶する(ステップ355)。
そして、脈拍数検出装置1は、式(3)に従って補正後のフレーム画像F_corr(j)を作成してRAM4に記憶すると共に(ステップ360)、当該補正後のフレーム画像F_corr(j)の撮影時刻t(j)=t_frame(i-3)を作成し、これを補正後のフレーム画像F_corr(j)と対応させて(紐付けて)RAM4に記憶する(ステップ370)。
このようにして、脈拍数検出装置1は、補正後のフレーム画像と、当該フレーム画像の撮影時刻を作成すると、メインルーチンにリターンする。
From the second loop processing onward, i becomes 5 and becomes larger than 3 (step 350; Y), and the pulse rate detection device 1 creates an interpolated frame image F_int(j) according to equation (2) and stores it in the RAM 4. (step 355).
Then, the pulse rate detection device 1 creates the frame image F_corr(j) after correction according to the equation (3) and stores it in the RAM 4 (step 360), and the shooting time of the frame image F_corr(j) after the correction. t(j)=t_frame(i-3) is created, and this is stored in the RAM 4 in association with the corrected frame image F_corr(j) (step 370).
In this manner, the pulse rate detection device 1 creates the frame image after correction and the photographing time of the frame image, and then returns to the main routine.

以下、図4の続きの処理について説明するが、以下の処理では、補正後のフレーム画像F_corr(j)と、当該フレーム画像の撮影時刻t(j)を用いて処理を行う。
図4に戻り、CPU2は、RAM4に記憶したフレーム画像において顔を検出して、検出した顔の位置と大きさをRAM4に記憶する(ステップ25)。
より詳細には、図9のフレーム画像31に示したように、CPU2は、矩形32によって顔を検出する。顔の検出アルゴリズムは、顔検出技術で一般的に用いられているものを使用する。
The following process will be described, which follows FIG. 4. In the following process, the corrected frame image F_corr(j) and the photographing time t(j) of the frame image are used.
Returning to FIG. 4, the CPU 2 detects a face in the frame image stored in the RAM 4, and stores the position and size of the detected face in the RAM 4 (step 25).
More specifically, the CPU 2 detects the face from the rectangle 32 as shown in the frame image 31 of FIG. The face detection algorithm used is commonly used in face detection technology.

図4に戻り、次に、CPU2は、顔を検出できたか否かを判断する(ステップ30)。
顔を検出できた場合(ステップ30;Y)、CPU2は、脈拍数の検出に必要なデータを取得する後述のデータ取得処理を行う(ステップ35)。
一方、顔を検出できなかった場合(ステップ30;N)、CPU2は、例えば、顔を検出できなかった旨を示すフラグをRAM4に立てるなどして顔を検出できなかった状況を記録する(ステップ60)。
Returning to FIG. 4, next, the CPU 2 determines whether or not a face has been detected (step 30).
If the face can be detected (step 30; Y), the CPU 2 performs a data acquisition process, which will be described later, to acquire data necessary for detecting the pulse rate (step 35).
On the other hand, if the face could not be detected (step 30; N), the CPU 2 records the situation in which the face could not be detected, for example, by setting a flag in the RAM 4 indicating that the face could not be detected (step 30; N). 60).

CPU2は、データ取得処理を行った後(ステップ35)、RAM4に記憶したインデックスjを1だけインクリメントし(ステップ37)、その後、データを取得するデータ取得期間が終了したか否かを判断する(ステップ40)。
データ取得期間は、脈拍数検出に用いる動画の長さを規定する期間であり、本実施の形態では、一例として、30秒間の動画から脈拍数を検出する。
After performing the data acquisition process (step 35), the CPU 2 increments the index j stored in the RAM 4 by 1 (step 37), and then determines whether or not the data acquisition period for acquiring data has ended ( step 40).
The data acquisition period is a period that defines the length of the moving image used for detecting the pulse rate. In this embodiment, as an example, the pulse rate is detected from a 30-second moving image.

データ取得期間が終了していない場合(ステップ40;N)、CPU2は、ステップ15に戻って、画像取得補正処理を続行する。
一方、データ取得期間が終了した場合(ステップ40;Y)、又は顔を検出できなかった状況を記録した後(ステップ60)、CPU2は、RAM4にアクセスしてステップ35で取得したデータがあるか否かを判断する(ステップ45)。
より詳細には、CPU2は、RAM4にアクセスして、ステップ35で取得した輝度信号があるか否かを確認することにより当該判断を行う。
If the data acquisition period has not ended (step 40; N), the CPU 2 returns to step 15 and continues the image acquisition correction process.
On the other hand, when the data acquisition period has ended (step 40; Y), or after recording the situation in which the face could not be detected (step 60), the CPU 2 accesses the RAM 4 and checks whether there is data acquired in step 35. It is determined whether or not (step 45).
More specifically, the CPU 2 makes this determination by accessing the RAM 4 and confirming whether or not there is the luminance signal acquired in step 35 .

RAM4にデータがない場合(ステップ45;N)、これはステップ30で顔が検出できなかった場合であり、CPU2は、RAM4から顔を検出できなかった状況の記録を読み取って不測定情報(測定が失敗した旨を示す情報)を作成し、これを表示部5や出力部7に出力して(ステップ65)、処理を終了する。 If there is no data in RAM 4 (step 45; N), this means that the face could not be detected in step 30. (information indicating that the operation failed), and outputs this to the display unit 5 and the output unit 7 (step 65), and the process is terminated.

一方、RAM4にデータがある場合(ステップ45;Y)、CPU2は、後述の脈拍数検出処理を行って、当該検出した脈拍数をRAM4に記憶する(ステップ50)。
そして、CPU2はRAM4に記憶した脈拍数がRAM4に設定した最低・最高脈拍数の範囲内にある場合、これを表示部5や出力部7に出力して(ステップ55)、処理を終了する。
On the other hand, if there is data in the RAM 4 (step 45; Y), the CPU 2 performs pulse rate detection processing, which will be described later, and stores the detected pulse rate in the RAM 4 (step 50).
If the pulse rate stored in RAM 4 is within the range of minimum and maximum pulse rates set in RAM 4, CPU 2 outputs this to display section 5 and output section 7 (step 55), and terminates the process.

図7は、図4のステップ35で示したデータ取得処理の手順を説明するためのフローチャートである。
まず、CPU2は、図4のステップ25で検出した顔のうち、最も大きい顔を処理対象として選択し、選択結果(即ち、選択した顔を他の顔から識別する情報)をRAM4に記憶する(ステップ105)。
FIG. 7 is a flow chart for explaining the procedure of the data acquisition process shown in step 35 of FIG.
First, the CPU 2 selects the largest face among the faces detected in step 25 of FIG. step 105).

これは、対象者11の周囲に第三者が存在して、これら第三者の顔も認識してしまった場合に対象者11の顔(カメラ8の前に位置するため最も大きい)を選択するものである。
特に、脈拍数検出装置1を車両の運転者に対して使用する場合、運転席に座っている人物の顔が最も大きく写るため、この処理によって運転者の顔を選択することができる。
This selects the face of the target person 11 (largest because it is located in front of the camera 8) when there are third parties around the target person 11 and the faces of these third parties are also recognized. It is something to do.
In particular, when the pulse rate detection device 1 is used for the driver of a vehicle, the face of the person sitting in the driver's seat appears the largest, so the face of the driver can be selected by this processing.

次に、CPU2は、選択した顔に対して楕円マスクを作成して、当該楕円マスクを特定するデータをRAM4に記憶する(ステップ110)。
ここで、当該楕円マスクを特定するデータは、楕円マスクの形状やフレーム画像における楕円マスクの位置などを特定する座標値などのパラメータで構成されている。
以下では、このような処理を、楕円マスクをRAM4に記憶するなどと略記することにする。
Next, the CPU 2 creates an elliptical mask for the selected face and stores data specifying the elliptical mask in the RAM 4 (step 110).
Here, the data specifying the elliptical mask is composed of parameters such as coordinate values specifying the shape of the elliptical mask and the position of the elliptical mask in the frame image.
In the following, such processing is abbreviated as storing the elliptical mask in the RAM 4, and the like.

図9のフレーム画像35は、矩形32によって認識した対象者11の顔に対して楕円マスク36を作成したところを示している。
このように、CPU2は、対象者11の顔を内部に包含するように、当該顔を含む楕円領域を設定することにより楕円マスク36を設定する。
なお、本実施の形態では、一例として楕円マスクを用いたが、矩形などの他の形状のマスクを用いることも可能である。
A frame image 35 in FIG. 9 shows an elliptical mask 36 created for the face of the subject 11 recognized by the rectangle 32 .
Thus, the CPU 2 sets the elliptical mask 36 by setting an elliptical area including the face of the subject 11 so as to include the face therein.
In this embodiment, an elliptical mask is used as an example, but it is also possible to use a mask of another shape such as a rectangle.

CPU2は、設定した楕円マスク36の内部にて顔の領域を特定し、当該領域の輝度から脈拍数を検出する。この楕円マスク36によって脈拍数を検出する領域を限定すると、良好に脈拍数検出が行えることは本願発明者が試行錯誤の末発見したものである。 The CPU 2 identifies the face area within the set elliptical mask 36 and detects the pulse rate from the brightness of the area. The inventor of the present invention has discovered through trial and error that the pulse rate can be detected satisfactorily by limiting the area for detecting the pulse rate with the elliptical mask 36 .

図7に戻り、次に、CPU2は、フレーム画像から輝度マスクを作成してRAM4に記憶する(ステップ115)。
輝度マスクは、フレーム画像において、画素輝度が最低輝度基準以上かつ最高輝度基準以下となる画素で構成された領域であり、CPU2は、フレーム画像の各画素の輝度を調べて輝度マスクを作成する。
Returning to FIG. 7, next, the CPU 2 creates a brightness mask from the frame image and stores it in the RAM 4 (step 115).
A luminance mask is an area composed of pixels whose pixel luminance is equal to or higher than the minimum luminance reference and equal to or lower than the maximum luminance reference in the frame image.

次には、CPU2は、RAM4に記憶した楕円マスクと輝度マスクを用いて合計マスクを取得し、当該合計マスクをRAM4に記憶する(ステップ120)。
合計マスクは、輝度マスクのうち、楕円マスクに含まれている部分であり、CPU2は、楕円マスクと輝度マスクの論理積をとってその値が真となる画素によって合計マスクを作成する。
Next, the CPU 2 acquires a total mask using the elliptical mask and luminance mask stored in the RAM 4, and stores the total mask in the RAM 4 (step 120).
The total mask is a portion of the luminance mask that is included in the elliptical mask, and the CPU 2 takes the logical AND of the elliptical mask and the luminance mask and creates the total mask from the pixels whose values are true.

次に、CPU2は、合計マスクを塊にまとめ(ステップ125)、まとめた塊のうち、最も大きい塊を選択し、最も大きい塊を新たな合計マスクとしてRAM4に記憶する(ステップ130)。
例えば、楕円マスクの位置には、分断された顔が写っている場合や、別のものが写っている場合がある。即ち、顔の中心部分に対して耳や額などの一部が髪の毛で分断されて写っている場合や、少し離れた位置に手が写っている場合などが存在する。このような場合、顔の中心部分、耳、額、手などが別々の合計マスクとして認識されてしまう。
そこで、各合計マスクの周縁相互の距離が所定閾値以下である一群の合計マスクを、1つの合計マスクとして扱うためにステップ125で塊にまとめている。
Next, the CPU 2 clusters the total masks into chunks (step 125), selects the largest chunk among the clustered chunks, and stores the largest chunk in the RAM 4 as a new total mask (step 130).
For example, at the position of the elliptical mask, a fragmented face may appear or another object may appear. That is, there are cases where a part of the face such as the ear or the forehead is parted by hair, or where the hand is shown slightly away from the central part of the face. In such a case, the center of the face, ears, forehead, hands, etc. would be recognized as separate total masks.
Therefore, a group of summed masks in which the distance between the perimeters of each summed mask is less than or equal to a predetermined threshold is clustered in step 125 to be treated as one summed mask.

その一方で、顔から少し離れた位置に存在する手の合計マスクの塊を除外して、顔の合計マスクの塊を使用するために、ステップ130で最も大きい塊を選択している。
このようにCPU2は、合計マスクを塊にまとめてグループ化することにより顔や手などの部位ごとの塊にまとめ、最も大きい塊が顔である可能性が高いので、最も大きい合計マスクを選択している。
On the other hand, we select the largest mass in step 130 to use the face sum mask mass, excluding the hand sum mask mass that lies at a short distance from the face.
In this way, the CPU 2 groups the total masks into chunks for each part such as the face and the hands, and selects the largest total mask because there is a high possibility that the largest chunk is the face. ing.

なお、手などの顔以外の体表面からも脈拍数は検出できるが、脈拍数検出装置1は、顔の大きさによって照明と顔との距離を間接的に計測して輝度を補正するため、顔に他の部位が混入すると、顔の大きさが実際より大きくなって輝度補正が困難となる。
そこで、最も大きい合計マスクを選択することにより、このような問題を回避することができる。
Although the pulse rate can also be detected from a body surface other than the face, such as the hand, the pulse rate detection device 1 indirectly measures the distance between the illumination and the face based on the size of the face and corrects the luminance. If other parts are included in the face, the size of the face becomes larger than it actually is, making luminance correction difficult.
So, by choosing the largest total mask, we can avoid such problems.

次に、CPU2は、RAM4に記憶した最も大きい合計マスクからBlobマスクを作成してRAM4に記憶し(ステップ135)、更にBlobマスクからBlobFillを作成してRAM4に記憶する(ステップ140)。
BlobマスクとBlobFillの内容は、以下の通りである。
Next, CPU 2 creates a Blob mask from the largest total mask stored in RAM 4 and stores it in RAM 4 (step 135), and further creates BlobFill from the Blob mask and stores it in RAM 4 (step 140).
The contents of Blob Mask and BlobFill are as follows.

図9に示した合計マスク41は、ステップ130でCPU2がRAM4に記憶した最も大きい合計マスクである。一般に合計マスクはいびつな形をしている。
そこで、CPU2は、ステップ10(図4)で記憶した数理形態クロージング用の構成を定義するパラメータをRAM4から読み出し、これに基づいて合計マスク41を脈拍数検出に適したなめらかな形状42に整形してBlobマスク44を作成する。CPU2は、Blobマスク44を脈拍数の検出に用いる。
Sum mask 41 shown in FIG. 9 is the largest sum mask stored in RAM 4 by CPU 2 in step 130 . In general, the sum mask has an irregular shape.
Therefore, the CPU 2 reads out from the RAM 4 the parameters defining the configuration for mathematical morphological closing stored in step 10 (FIG. 4), and based on this, shapes the total mask 41 into a smooth shape 42 suitable for pulse rate detection. to create a Blob mask 44. The CPU 2 uses the Blob mask 44 to detect the pulse rate.

また、Blobマスク44では、目や口などの部分でBlobマスク44に含まれない閉領域が形成される場合がある。
これら閉領域は、顔の面積に含まれるため、CPU2は、これらの閉領域をマスクに含めたBlobFill45を作成し、これを顔の大きさの判定に用いる。
CPU2は、脈拍数の検出にはBlobマスク44を用い、顔の大きさの検出にはBlobFill45を用いる。
Also, in the Blob mask 44, there are cases in which closed regions not included in the Blob mask 44 are formed in the eyes, mouth, and the like.
Since these closed areas are included in the area of the face, the CPU 2 creates a BlobFill 45 including these closed areas in the mask, and uses this to determine the size of the face.
The CPU 2 uses the Blob mask 44 to detect the pulse rate and the BlobFill 45 to detect the size of the face.

図7に戻り、CPU2は、Blobマスク(ステップ135)とBlobFill(ステップ140)を作成した後、評価画像を作成してRAM4に記憶する(ステップ145)。
評価画像は、フレーム画像のうち、脈拍数の検出に用いる部分の領域を構成する画像であって、CPU2は、フレーム画像からBlobマスク44に該当する領域をフレーム画像から抜き出すことにより評価画像を作成する。
Returning to FIG. 7, after creating the Blob mask (step 135) and BlobFill (step 140), the CPU 2 creates an evaluation image and stores it in the RAM 4 (step 145).
The evaluation image is an image that constitutes the region of the portion used for detecting the pulse rate in the frame image, and the CPU 2 creates the evaluation image by extracting the region corresponding to the Blob mask 44 from the frame image. do.

より具体的には、CPU2は、Blobマスクとフレーム画像によって論理積を計算し、真となる部分の画素を抽出することによりフレーム画像からBlobマスクに該当する部分を取り出して評価画像とする。
このように、Blobマスクは、フレーム画像から評価画像を抜き出す抜き型のような働きをしており、CPU2は、評価画像を構成する画素の輝度から脈拍数を検出する。
More specifically, the CPU 2 calculates the logical product of the Blob mask and the frame image, extracts the pixels of the true portion, extracts the portion corresponding to the Blob mask from the frame image, and uses it as an evaluation image.
Thus, the Blob mask functions like a die for extracting the evaluation image from the frame image, and the CPU 2 detects the pulse rate from the brightness of the pixels forming the evaluation image.

次に、CPU2は、RAM4に記憶した評価画像を構成する各画素の輝度の値を合計し、当該輝度の合計値をRAM4に記憶し(ステップ150)、更に、RAM4に記憶してあるBlobマスクの画素数を取得する(ステップ155)。
そして、CPU2は、RAM4に記憶した輝度の合計値をRAM4に記憶したBlobマスクの画素数で割って、評価画像の輝度の平均値を計算することにより補正前(顔がLED9に対して前後移動することによる輝度の変化の輝度補正)の輝度信号Rを算出してRAM4に記憶する(ステップ160)。
Next, the CPU 2 sums up the luminance values of the respective pixels forming the evaluation image stored in the RAM 4, stores the sum of the luminances in the RAM 4 (step 150), and further adds the blob mask stored in the RAM 4 is acquired (step 155).
Then, the CPU 2 divides the total luminance value stored in the RAM 4 by the number of pixels of the Blob mask stored in the RAM 4 to calculate the average luminance value of the evaluation image, thereby calculating brightness correction of the change in brightness caused by the calculation) is calculated and stored in the RAM 4 (step 160).

次に、CPU2は、sROI(size of Region of Interest)を算出してRAM4に記憶し(ステップ165)、メインルーチンにリターンする。
sROIは、フレーム画像に対する測定領域(顔の大きさ)の割合であって、CPU2は、BlobFillの画素数をフレーム画像の画素数で除することによりsROIを計算する。
Next, the CPU 2 calculates sROI (size of region of interest), stores it in the RAM 4 (step 165), and returns to the main routine.
The sROI is the ratio of the measurement area (face size) to the frame image, and the CPU 2 calculates the sROI by dividing the number of pixels of BlobFill by the number of pixels of the frame image.

sROIは、フレーム画像における顔の大きさの割合を%で表しており、対象者11の顔の前後位置を表している(sROIが大きいほどカメラ8とLED9から顔までの距離が近い)。
後述するように、CPU2は、sROIの値によって補正前の輝度信号Rを補正し(上記の輝度補正)、補正後の輝度信号R′を生成する。
なお、sROIは、フレーム画像に対する測定領域の割合であるところ、フレーム画像の画素数は固定されているため、評価画像の画素数をsROIとすることもできる。
The sROI represents the ratio of the size of the face in the frame image in %, and represents the front and rear positions of the face of the subject 11 (the larger the sROI, the closer the distance from the camera 8 and LED 9 to the face).
As will be described later, the CPU 2 corrects the luminance signal R before correction according to the value of the sROI (the luminance correction described above) to generate the luminance signal R' after correction.
Note that the sROI is the ratio of the measurement area to the frame image, but since the number of pixels in the frame image is fixed, the number of pixels in the evaluation image can also be used as the sROI.

図8は、図4のステップ50で示した脈拍数検出処理の手順を説明するためのフローチャートである。
まず、CPU2は、RAM4からデータ取得期間(30秒間)の間に取得した補正前の輝度信号RとsROIを読み出す。
そして、CPU2は、後述するように最小二乗法を用いて輝度信号RとsROIの関係式を算出してRAM4に記憶する(ステップ205)。
FIG. 8 is a flow chart for explaining the procedure of the pulse rate detection process shown in step 50 of FIG.
First, the CPU 2 reads the luminance signal R before correction and the sROI acquired during the data acquisition period (30 seconds) from the RAM 4 .
Then, the CPU 2 calculates the relational expression between the luminance signal R and the sROI using the method of least squares, as will be described later, and stores it in the RAM 4 (step 205).

次に、CPU2は、sROIを当該関係式に適用して輝度信号Rを補正することにより補正後の輝度信号R′を算出して、当該輝度信号R′をRAM4に記憶する(ステップ210)。
そして、CPU2は、輝度信号R′をフーリエ変換して輝度信号R′の周波数成分を算出し、これをRAM4に記憶する(ステップ215)。
Next, the CPU 2 applies the sROI to the relational expression to correct the luminance signal R to calculate the luminance signal R' after correction, and stores the luminance signal R' in the RAM 4 (step 210).
Then, the CPU 2 Fourier-transforms the luminance signal R' to calculate the frequency component of the luminance signal R' and stores it in the RAM 4 (step 215).

次に、CPU2は、RAM4に記憶した輝度信号R′の周波数成分において最大ピークを特定する(ステップ220)。
そして、CPU2は、当該最大ピークの周波数fを特定し、これを対象者11の脈拍数としてRAM4に記憶して(ステップ225)、メインルーチンにリターンする。
Next, CPU 2 identifies the maximum peak in the frequency component of luminance signal R' stored in RAM 4 (step 220).
Then, the CPU 2 identifies the maximum peak frequency f, stores it in the RAM 4 as the pulse rate of the subject 11 (step 225), and returns to the main routine.

このように、脈拍数検出装置1は、時系列的に連続する、環境光の光外乱を補正した点灯時の画像(オンフレーム画像)の輝度の変化から対象者の脈拍数(最大ピークの周波数)を取得する脈拍数取得手段を備えている。 In this way, the pulse rate detection device 1 detects the subject's pulse rate (maximum peak frequency ) is provided.

図10は、図8のステップ205に係る輝度信号RとsROIの関係式の算出方法を説明するための図である。
RAM4は、30秒分の輝度信号Rを記憶しており、これを時間の順にR(1)、R(2)、R(3)、・・・、R(i)、・・・とする。
同様にRAM4が記憶するsROIも時間の順に、sROI(1)、sROI(2)、sROI(3)、・・・、sROI(i)、・・・とする。
輝度信号R(i)とsROI(i)は、同じフレーム画像から取得するため、時間的に対応しており、同時刻での値である。
FIG. 10 is a diagram for explaining a method of calculating the relational expression between the luminance signal R and the sROI in step 205 of FIG.
The RAM 4 stores luminance signals R for 30 seconds, which are designated as R(1), R(2), R(3), . . . , R(i), . .
Similarly, the sROIs stored in the RAM 4 are also sROI(1), sROI(2), sROI(3), . . . , sROI(i), .
Since the luminance signals R(i) and sROI(i) are acquired from the same frame image, they correspond temporally and are values at the same time.

ここで、図10(a)の式(11)と式(12)で示したようにyi=R(i)、xi=sROI(i)とおいて、式(13)で示したyi=β0+β1×xiなる線形の関係が成り立つと仮定すると、式(14)が成立する。求めたいのはβ0とβ1であり、式(14)は、最小二乗法の行列表現となっている。 Here, as shown in formulas (11) and (12) in FIG. Assuming that the linear relationship xi holds, Equation (14) holds. What we want to find are β0 and β1, and Equation (14) is a matrix representation of the least squares method.

式(14)を式(15)のようにY=X×Bとおくと、式(16)によってBについて解くことができる。式中の上付き文字で表したTと-1は、それぞれ転置行列と逆行列を意味する。
CPU2は、RAM4に記憶した輝度信号RとsROIからX、Yを生成し、式(16)を計算することにより、β0とβ1を算出する。これによって、輝度信号RとsROIの関係式yi=β0+β1×xiが定まる(式(13))。
If Y=X×B is set in equation (14) as in equation (15), B can be solved by equation (16). The superscripts T and −1 in the formula mean the transposed matrix and the inverse matrix, respectively.
The CPU 2 generates X and Y from the luminance signal R and sROI stored in the RAM 4, and calculates β0 and β1 by calculating equation (16). This determines the relational expression yi=β0+β1×xi between the luminance signal R and the sROI (equation (13)).

図10(b)の散布図51は、x軸(横軸)をsROI、y軸(縦軸)を輝度信号Rとし、(xi、yi)をプロットした図である。
これらのデータを式(13)によって直線近似した直線52(回帰直線)がRとsROIの関係式を規定しており、直線52のy切片がβ0、傾きがβ1となる。
A scatter diagram 51 in FIG. 10B is a diagram plotting (xi, yi) with sROI on the x-axis (horizontal axis) and luminance signal R on the y-axis (vertical axis).
A straight line 52 (regression straight line) obtained by linearly approximating these data by Equation (13) defines the relational expression between R and sROI, and the y-intercept of the straight line 52 is β0 and the slope is β1.

図11は、図8のステップ210に係る輝度信号Rの補正式を説明するための図である。
yiとxiは、図10と同じである。ここで、式(17)に示したように、補正後の輝度信号であるR(1)′、R(2)′、・・・、R(i)′、・・・をyi′と表すと、式(18)が成立し、これが輝度信号Rの補正式である。これを行列で表すと式(19)となり、これにyiとxiを代入するとyi′、即ち、補正後の輝度信号R′を計算することができる。
この式は、sROI(フレーム画像に写った顔の大きさ)によって顔の前後位置を推測し、これによって顔の前後移動による輝度の変化を補正するものである。
FIG. 11 is a diagram for explaining the correction formula for the luminance signal R according to step 210 of FIG.
yi and xi are the same as in FIG. Here, R(1)′, R(2)′, . . . , R(i)′, . Then, the equation (18) holds, which is the correction equation for the luminance signal R. Representing this in a matrix gives equation (19), and substituting yi and xi into this, yi', that is, the luminance signal R' after correction can be calculated.
This formula estimates the front and back position of the face from the sROI (the size of the face captured in the frame image), and corrects the change in brightness caused by the front and back movement of the face.

図12は、実験結果を説明するための図である。
図12(a)は、LED9の点滅による補正がない場合の輝度(輝度信号R′)の30秒間の時間変化を示している。
図12(b)は、これをFFTにて周波数領域に変換したものである。本来なら、70[bpm]付近に脈拍によるピークが現れるはずであるが、ノイズに埋もれていて検出することができない。
FIG. 12 is a diagram for explaining experimental results.
FIG. 12(a) shows the time change of the luminance (luminance signal R') for 30 seconds when there is no correction by blinking of the LED 9. FIG.
FIG. 12(b) is obtained by transforming this into the frequency domain by FFT. Normally, a pulse peak should appear around 70 [bpm], but it is buried in noise and cannot be detected.

図12(c)は、LED9を点滅させて輝度を補正した場合の輝度(輝度信号R′)の30秒間の時間変化を示している。
図12(d)は、これをFFTにて周波数領域に変換したものである。70[bpm]付近に、脈波による脈拍数ピーク55が明確に現れている。
このように、LED9を点滅させて、環境光による光外乱を低減すると、光外乱によるノイズに埋もれていた脈波を検出して、これから脈拍数を計算することができる。
FIG. 12(c) shows the time change of luminance (luminance signal R') for 30 seconds when the luminance is corrected by blinking the LED 9. FIG.
FIG. 12(d) is a result of transforming this into the frequency domain by FFT. A pulse rate peak 55 due to the pulse wave clearly appears near 70 [bpm].
In this way, by blinking the LED 9 to reduce the optical disturbance caused by the ambient light, the pulse wave buried in the noise caused by the optical disturbance can be detected and the pulse rate can be calculated therefrom.

以上に説明した実施の形態によれば、次のような効果を得ることができる。
(1)環境光による体表面の輝度の変化をキャンセルして、脈波による輝度変化を取得することができる。
(2)環境光による光外乱を低減して、体表面の輝度変化から脈拍数を検出することができる。
(3)LED9を点滅させることにより、LED9の消灯時のフレーム画像からLED9の点灯時における環境光の輝度を推測することができる。
(4)更に、顔の前後移動による輝度の変化を補正することができる。
According to the embodiment described above, the following effects can be obtained.
(1) It is possible to cancel changes in brightness of the body surface due to ambient light and acquire changes in brightness due to pulse waves.
(2) The pulse rate can be detected from the change in brightness of the body surface with reduced optical disturbance due to ambient light.
(3) By blinking the LED 9, the brightness of the ambient light when the LED 9 is on can be estimated from the frame image when the LED 9 is off.
(4) Further, it is possible to correct the change in brightness due to the forward and backward movement of the face.

1 脈拍数検出装置
2 CPU
3 ROM
4 RAM
5 表示部
6 入力部
7 出力部
8 カメラ
9 LED
10 記憶部
11 対象者
12 脈拍数検出プログラム
17 皮膚表面
18 血管
21、23 オフフレーム画像
22 オンフレーム画像
25 補間フレーム画像
31、35 フレーム画像
32 矩形
36 楕円マスク
41 合計マスク
42 形状
44 Blobマスク
45 BlobFill
51 散布図
52 直線
55 脈拍数ピーク
1 pulse rate detector 2 CPU
3 ROMs
4 RAM
5 display unit 6 input unit 7 output unit 8 camera 9 LED
10 storage unit 11 subject 12 pulse rate detection program 17 skin surface 18 blood vessel 21, 23 off-frame image 22 on-frame image 25 interpolation frame image 31, 35 frame image 32 rectangle 36 ellipse mask 41 total mask 42 shape 44 blob mask 45 blobfill
51 Scatter diagram 52 Straight line 55 Pulse rate peak

Claims (6)

点滅する光源によって対象者の体表面を照明する照明手段と、
変動する環境光の下、前記照明された体表面を時系列的に連続する画像によって動画撮影する撮影手段と、
前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像から推測することで補間する補間手段と、
前記補間手段で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正手段と、
時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得手段と、
前記取得した脈拍数を出力する出力手段と、
を具備したことを特徴とする脈拍数検出装置。
illuminating means for illuminating the subject's body surface with a blinking light source;
an imaging means for capturing a moving image of the illuminated body surface in chronological order under varying environmental light;
An image taken when the light source is on and an image taken when the light source is off, and the other image at the time of shooting of the other image is the one image. an interpolating means for interpolating by inferring from the other image taken before and after;
Using the image interpolated by the interpolating means, the luminance of the image when the light is on is corrected by subtracting the luminance of the image when the light is off from the luminance of the image when the one image is captured, pixel by pixel. a corrective means for
pulse rate acquisition means for acquiring the pulse rate of the subject from changes in brightness of the corrected image at the time of lighting that are continuous in time series;
output means for outputting the acquired pulse rate;
A pulse rate detection device comprising:
前記一方の画像は点灯時の画像であり、他方の画像は消灯時の画像であることを特徴とする請求項1に記載の脈拍数検出装置。 2. The pulse rate detecting device according to claim 1, wherein said one image is an image when the light is on, and the other image is an image when the light is off. 前記照明手段は、前記光源が発する赤外線の点滅によって前記体表面を照明し、前記撮影手段は、前記体表面から反射した赤外線の画像によって動画撮影する、
ことを特徴とする請求項1、又は請求項2に記載の脈拍数検出装置。
The illuminating means illuminates the body surface by flickering infrared rays emitted by the light source, and the photographing means photographs a moving image using an infrared image reflected from the body surface.
The pulse rate detection device according to claim 1 or 2, characterized in that:
前記照明手段は、前記光源としてLEDを点滅させる、
ことを特徴とする請求項2、又は請求項3に記載の脈拍数検出装置。
The lighting means blinks an LED as the light source,
4. The pulse rate detection device according to claim 2 or 3, characterized in that:
前記補間手段は、前記前に撮影した他方の画像の撮影時刻T1から前記後に撮影した他方の画像の撮影時刻T3までの第1時間と、前記撮影時刻T1から前記一方の画像の撮影時刻T2までの第2時間との時間比に基づいて、前記画素ごとの輝度を推定することで補間する、
ことを特徴とする請求項1、請求項2、請求項3、又は請求項4に記載の脈拍数検出装置
The interpolation means selects a first time from the photographing time T1 of the other image photographed before to the photographing time T3 of the other image photographed later, and from the photographing time T1 to the photographing time T2 of the one image. interpolate by estimating the luminance for each pixel based on the time ratio of the second time of
The pulse rate detection device according to claim 1, claim 2, claim 3, or claim 4, characterized in that
変動する環境光の下、点滅する光源によって照明された対象者の体表面を時系列的に連続する画像によって撮影した画像を取得する画像取得機能と、
前記光源が点灯している時に撮影した点灯時の画像と、前記光源が消灯している時に撮影した消灯時の画像のうちの、一方の画像の撮影時における他方の画像を、当該一方の画像の前後に撮影した他方の画像からすることで補間する補間機能と、
前記補間機能で補間した画像を用いて、前記一方の画像の撮影時における、点灯時の画像の輝度から消灯時の画像の輝度を画素ごとに減じることにより、前記点灯時の画像の輝度を補正する補正機能と、
時系列的に連続する前記補正した点灯時の画像の輝度の変化から前記対象者の脈拍数を取得する脈拍数取得機能と、
前記取得した脈拍数を出力する出力機能と、
をコンピュータで実現する脈拍数検出プログラム。
an image acquisition function for acquiring images of the subject's body surface illuminated by a blinking light source under fluctuating environmental light, using successive images in time series;
An image taken when the light source is on and an image taken when the light source is off, and the other image at the time of shooting of the other image is the one image. An interpolation function that interpolates from the other image taken before and after,
Using the image interpolated by the interpolation function, the brightness of the image when the one image is captured is subtracted from the brightness of the image when the light is on for each pixel, thereby correcting the brightness of the image when the light is on. and a correction function to
a pulse rate acquisition function for acquiring the pulse rate of the subject from changes in luminance of the corrected image at the time of lighting that are consecutive in time series;
an output function for outputting the acquired pulse rate;
A pulse rate detection program that realizes on a computer.
JP2019066380A 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program Ceased JP7161704B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019066380A JP7161704B2 (en) 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program
PCT/JP2020/014361 WO2020203913A1 (en) 2019-03-29 2020-03-27 Pulse rate detection device and pulse rate detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019066380A JP7161704B2 (en) 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program

Publications (2)

Publication Number Publication Date
JP2020162871A JP2020162871A (en) 2020-10-08
JP7161704B2 true JP7161704B2 (en) 2022-10-27

Family

ID=72667708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019066380A Ceased JP7161704B2 (en) 2019-03-29 2019-03-29 Pulse rate detector and pulse rate detection program

Country Status (2)

Country Link
JP (1) JP7161704B2 (en)
WO (1) WO2020203913A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171337A1 (en) * 2022-03-11 2023-09-14 ソニーグループ株式会社 Heart rate measurement system, heart rate measurement method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128273A1 (en) 2013-02-21 2014-08-28 Iee International Electronics & Engineering S.A. Imaging device based occupant monitoring system supporting multiple functions
JP2015192852A (en) 2014-03-25 2015-11-05 キヤノン株式会社 imaging device
JP2017507724A (en) 2014-03-06 2017-03-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Physiological characteristics determination device
JP2017104491A (en) 2015-12-07 2017-06-15 パナソニック株式会社 Living body information measurement device, living body information measurement method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128273A1 (en) 2013-02-21 2014-08-28 Iee International Electronics & Engineering S.A. Imaging device based occupant monitoring system supporting multiple functions
JP2017507724A (en) 2014-03-06 2017-03-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Physiological characteristics determination device
JP2015192852A (en) 2014-03-25 2015-11-05 キヤノン株式会社 imaging device
JP2017104491A (en) 2015-12-07 2017-06-15 パナソニック株式会社 Living body information measurement device, living body information measurement method, and program

Also Published As

Publication number Publication date
WO2020203913A1 (en) 2020-10-08
JP2020162871A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
WO2020203915A1 (en) Pulse wave detection device, and pulse wave detection program
JP4625544B2 (en) Driving attention amount judging device, method and program
Ji et al. Real-time eye, gaze, and face pose tracking for monitoring driver vigilance
US9117124B2 (en) Driving attention amount determination device, method, and computer program
JP2017536589A (en) Device, method and computer program for detecting instantaneous sleep
JP5109922B2 (en) Driver monitoring device and program for driver monitoring device
JP5923180B2 (en) Biological information measuring device and input device using the same
JP7204077B2 (en) Pulse wave detection device, vehicle device, and pulse wave detection program
JP5177011B2 (en) Eye opening degree identification device
JP6201956B2 (en) Gaze detection device and gaze detection method
JP2017500111A (en) Sleep monitoring system and method
JP7161704B2 (en) Pulse rate detector and pulse rate detection program
KR101272811B1 (en) System and method for interface
Parmar et al. Drowsy driver detection system
JP3127760B2 (en) Driver arousal level detection device
Coetzer et al. Driver fatigue detection: A survey
JP6380178B2 (en) Diagnosis support apparatus and diagnosis support method
JP6135550B2 (en) Diagnosis support apparatus and diagnosis support method
JP6593133B2 (en) Diagnosis support apparatus and diagnosis support method
JP2009078006A (en) Sleepy state determining device
JP7174358B2 (en) Pulse rate detector and pulse rate detection program
JP7209947B2 (en) Pulse rate detector and pulse rate detection program
Wang et al. Extracting driver's facial features during driving
JP6689470B1 (en) Information processing apparatus, program, and information processing method
WO2020203914A1 (en) Pulse wave detection device and pulse wave detection program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220929

R150 Certificate of patent or registration of utility model

Ref document number: 7161704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RVOP Cancellation by post-grant opposition