JP2018068720A - Pulse detector and pulse detection method - Google Patents

Pulse detector and pulse detection method Download PDF

Info

Publication number
JP2018068720A
JP2018068720A JP2016212961A JP2016212961A JP2018068720A JP 2018068720 A JP2018068720 A JP 2018068720A JP 2016212961 A JP2016212961 A JP 2016212961A JP 2016212961 A JP2016212961 A JP 2016212961A JP 2018068720 A JP2018068720 A JP 2018068720A
Authority
JP
Japan
Prior art keywords
pulse
face
living body
image signal
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016212961A
Other languages
Japanese (ja)
Other versions
JP6817782B2 (en
Inventor
利浩 北島
Toshihiro Kitajima
利浩 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2016212961A priority Critical patent/JP6817782B2/en
Publication of JP2018068720A publication Critical patent/JP2018068720A/en
Application granted granted Critical
Publication of JP6817782B2 publication Critical patent/JP6817782B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a pulse detector capable of detecting a pulse according to a condition of a person in an image.SOLUTION: A pulse detector 10 comprises as function blocks, an imaging part 12, a face detector 13, a noise reduction tool 14, a pulse calculation tool 15, a stress degree measurement tool 16, and a vigilance measurement tool 17. In the face detector 13, the noise reduction tool 14, the pulse calculation tool 15, processing can be executed by selecting a processing method from plural different processing methods. According to a condition of a person in an imaging area or a processing result in each function block, a processing method in each function block is selected so as to achieve an optimal combination, for detecting pulse.SELECTED DRAWING: Figure 1

Description

本発明は、カメラで取得した画像から、脈拍やストレス度を測定する技術に関する。   The present invention relates to a technique for measuring a pulse and a stress level from an image acquired by a camera.

従来、カメラで取得された画像から、非接触で人の心拍数や脈拍を推定、算出する方法が知られている。   2. Description of the Related Art Conventionally, a method for estimating and calculating a person's heart rate and pulse from an image acquired by a camera in a non-contact manner is known.

例えば、顔画像の領域内のRGBの各平均値を算出して独立成分分析(ICA:Indipendent Component Analysis) で処理した後に、1つの成分波形の周波数分析で得たピーク周波数から心拍数を推定する方法が知られている(例えば、非特許文献1参照)。   For example, after calculating each average value of RGB in the face image area and processing by independent component analysis (ICA), the heart rate is estimated from the peak frequency obtained by frequency analysis of one component waveform. The method is known (for example, refer nonpatent literature 1).

また、ICA処理後の1つの成分波形を時系列で追跡するために、現在時刻の成分波形とのペアリングを行い、さらに心拍を表すピーク周波数を時系列で追跡して心拍数を推定する方法が知られている(例えば、特許文献1参照)。   In addition, in order to track one component waveform after ICA processing in time series, a method of performing pairing with the current time component waveform and further tracking the peak frequency representing the heartbeat in time series to estimate the heart rate Is known (see, for example, Patent Document 1).

特開2012−239661号公報JP 2012-239661 A

M.Z.Poh,D.J.McDuff, and R.W.Picard “Non−contact, Automated Cardiac Pulse Measurements Using Video Imaging and Blind Source Separation” Optics Express,(米), 2010年5月7日, vol.18, No.10, pp.10762−10774M.M. Z. Poh, D .; J. et al. McDuff, and R.M. W. Picard “Non-contact, Automated Cardiac Pulse Measurements Using Video Imaging and Blind Source Separation”, Optics Express, (US), May 7, 2010. 18, no. 10, pp. 10762-10774

しかし、特許文献1や非特許文献1に開示された方法では、人が動くことにより、心拍や脈拍等の検出精度が低下するという問題があった。   However, the methods disclosed in Patent Document 1 and Non-Patent Document 1 have a problem in that the detection accuracy of heartbeats, pulses, and the like decreases due to the movement of a person.

また、用途によっては、人のプライバシーを保護するために、意図的に不鮮明な画像を取得する場合もあるが、この場合にも、顔検出が失敗してしまうことにより、心拍や脈拍等の検出精度が低下するという問題があった。特に、人が静止している場合には、動き検出等を使って顔領域を特定することができないため、検出精度の低下は顕著であった。   Depending on the application, in order to protect people's privacy, an intentionally blurred image may be acquired. In this case, however, detection of heartbeats and pulses is detected by face detection failure. There was a problem that the accuracy decreased. In particular, when a person is stationary, the face area cannot be specified using motion detection or the like, and thus the detection accuracy is significantly reduced.

本発明は、かかる点に鑑みてなされたものであり、その目的は、撮像対象の状況や撮影条件によらず、精度良く脈拍を検出できる装置を提供することにある。   The present invention has been made in view of this point, and an object of the present invention is to provide an apparatus capable of detecting a pulse with high accuracy regardless of a situation of an imaging target and imaging conditions.

上記の目的を達成するために、この発明では、撮像領域の状況や撮影された人の状況等によって、撮影した画像から脈拍検出に至るまでの顔検出機能や、ノイズ低減機能や、脈拍算出機能を、それぞれ異なる処理方法の中から選択できるようにした。   In order to achieve the above object, according to the present invention, a face detection function from a captured image to pulse detection, a noise reduction function, and a pulse calculation function depending on the situation of the imaging region and the situation of the photographed person. Can be selected from among different processing methods.

具体的には、本発明の脈拍検出装置は、生体の脈拍を検出する脈拍検出装置であって、所定の撮像領域を撮像し、画像信号を取得する撮像部と、画像信号に基づいて生体の顔領域または肌領域を検出する顔検出器と、検出された顔領域または肌領域からの画像信号からノイズを除去するノイズ除去器と、ノイズが除去された顔領域または肌領域からの画像信号から脈拍を算出する脈拍算出器と、を備えることを特徴とする。   Specifically, the pulse detection device of the present invention is a pulse detection device that detects a pulse of a living body, and captures a predetermined imaging region and acquires an image signal, and a living body based on the image signal. From a face detector that detects a face area or skin area, a noise remover that removes noise from an image signal from the detected face area or skin area, and an image signal from the face area or skin area from which noise has been removed And a pulse calculator for calculating a pulse.

本構成によれば、カメラ等の撮像部で取得した画像から、直接、脈拍を求めることができる。   According to this configuration, a pulse can be directly obtained from an image acquired by an imaging unit such as a camera.

顔検出器、ノイズ除去器、及び脈拍算出器は、それぞれ、複数の処理方法に対応しており、撮像領域及び生体の状況に応じて、複数の処理方法から一の前記処理方法を選択して、処理を実行するように構成されるのが好ましい。   Each of the face detector, noise remover, and pulse calculator corresponds to a plurality of processing methods, and selects one processing method from a plurality of processing methods according to the imaging region and the state of the living body. , Preferably configured to perform processing.

本構成によれば、撮像領域において、人等の生体の動きがあったり、顔が隠れていたり、顔が撮像部の方向を向いていないような種々の場合に対しても、カメラ等の撮像部で取得した画像から、脈拍を求めることができる。   According to this configuration, even in a case where there is a movement of a living body such as a person, a face is hidden, or a face is not facing the direction of the imaging unit in the imaging area, imaging such as a camera is performed. The pulse can be obtained from the image acquired by the section.

顔検出器は、撮像領域内の画像信号の輝度値における局所的明暗差を検出し、明暗差に基づいた多数決論理により顔領域を検出するように構成されるのが好ましい。   The face detector is preferably configured to detect a local light / dark difference in the luminance value of the image signal in the imaging region and detect the face region by majority logic based on the light / dark difference.

本構成によれば、鮮明な画像を取得した場合に、簡便な方法で顔を検出できる。   According to this configuration, a face can be detected by a simple method when a clear image is acquired.

顔検出器は、撮像領域における画像を分割し、分割された各領域からの画像信号に基づいて、顔領域または肌領域を検出するように構成されていてもよい。   The face detector may be configured to divide an image in the imaging region and detect a face region or a skin region based on an image signal from each divided region.

本構成によれば、複数の生体が撮影された場合にも、簡便な方法で顔領域または肌領域を検出できる。   According to this configuration, even when a plurality of living bodies are photographed, the face area or the skin area can be detected by a simple method.

顔検出器は、撮像領域における画像を分割し、分割された各領域からの画像信号の時間変化波形と、正弦波で表わされるモデル波形とを比較して得られた結果に基づいて、顔領域または前記肌領域を検出するように構成されていてもよい。   The face detector divides the image in the imaging region, and based on the result obtained by comparing the time-varying waveform of the image signal from each divided region with the model waveform represented by the sine wave, Or you may be comprised so that the said skin area | region may be detected.

本構成によれば、顔検出のためのデータ保持時間を短くでき、短時間での顔検出が可能となる。また、人等の生体の顔が隠れていたり、画像内での顔領域が小さい場合でも、肌領域を検出できる。   According to this configuration, the data holding time for face detection can be shortened, and face detection can be performed in a short time. Further, even when the face of a living body such as a person is hidden or the face area in the image is small, the skin area can be detected.

ノイズ除去器は、撮像領域における顔領域の位置情報を周波数分析して、得られた位置情報の特定の周波数成分を、顔領域からの画像信号から除去するように構成されるのが好ましい。   The noise remover is preferably configured to frequency-analyze position information of the face area in the imaging area and remove a specific frequency component of the obtained position information from the image signal from the face area.

本構成によれば、周波数領域上で脈拍成分に近接する、顔の動きに起因したノイズを適切に除去できる。   According to this configuration, it is possible to appropriately remove noise caused by the movement of the face that is close to the pulse component in the frequency domain.

ノイズ除去器は、画像信号のうち脈拍成分の検出に用いる波長成分以外の成分の少なくとも一部を、顔領域または肌領域からの画像信号から除去するように構成されていてもよい。   The noise remover may be configured to remove at least a part of the image signal other than the wavelength component used for detecting the pulse component from the image signal from the face region or the skin region.

本構成によれば、簡便な構成で、画像信号に含まれる脈拍成分以外のノイズを適切に除去できる。   According to this configuration, noise other than the pulse component included in the image signal can be appropriately removed with a simple configuration.

脈拍算出器は、ノイズが除去された後の顔領域または肌領域からの画像信号を周波数分析して、生体の脈拍を算出するように構成されるのが好ましい。   The pulse calculator is preferably configured to frequency-analyze the image signal from the face area or skin area after the noise is removed to calculate the pulse of the living body.

脈拍算出器は、顔領域または肌領域からの画像信号の時間変化波形と正弦波で表わされるモデル波形とを比較して、生体の脈拍を算出するように構成されていてもよい。   The pulse calculator may be configured to calculate a pulse of a living body by comparing a time-change waveform of an image signal from a face region or a skin region with a model waveform represented by a sine wave.

本構成によれば、脈拍算出のためのデータ保持時間を短くでき、短時間での脈拍算出が可能となる。   According to this configuration, the data holding time for pulse calculation can be shortened, and the pulse can be calculated in a short time.

脈拍検出装置は、画像信号の周期的変動成分に基づいて生体の有無を検出する生体検出器をさらに有し、顔検出器は、生体検出器により得られた生体の存在領域からの画像信号に基づいて顔領域または肌領域を検出するように構成されるのが好ましい。   The pulse detection device further includes a living body detector that detects the presence or absence of a living body based on a periodic variation component of the image signal, and the face detector converts the image signal from the living body obtained by the living body detector into an image signal. It is preferably configured to detect a face region or a skin region based on it.

本構成によれば、顔が直ちに検出できない場合にも、人等の生体を検出することで、顔領域または肌領域の検出を容易にし、脈拍検出を行うことができる。   According to this configuration, even when a face cannot be detected immediately, detection of a face region or a skin region can be facilitated by detecting a living body such as a person, and pulse detection can be performed.

生体検出器は、複数の処理方法に対応しており、撮像領域及び生体の状況に応じて、複数の処理方法から一の処理方法を選択して、処理を実行するように構成されるのが好ましい。   The living body detector corresponds to a plurality of processing methods, and is configured to select one processing method from the plurality of processing methods and execute the processing according to the imaging region and the state of the living body. preferable.

本構成によれば、撮像領域において、人等の生体の動きがあったり、顔が隠れていたり、顔が撮像部の方向を向いていないような種々の場合に対しても、生体の有無を確実に検出でき、脈拍検出が可能となる。   According to this configuration, the presence / absence of a living body can be detected even in various cases where a living body such as a person moves, a face is hidden, or a face does not face the direction of the imaging unit in the imaging region. It can be detected reliably and the pulse can be detected.

生体検出器は、撮像領域における画像を分割し、分割された各領域からの画像信号に基づいて、生体の有無を検出するように構成されていてもよい。   The living body detector may be configured to divide the image in the imaging region and detect the presence or absence of the living body based on the image signal from each divided region.

本構成によれば、複数の生体が撮影された場合にも、簡便な方法で生体の有無を検出できる。   According to this configuration, the presence or absence of a living body can be detected by a simple method even when a plurality of living bodies are photographed.

生体検出器は、撮像領域における画像を分割し、分割された各領域からの画像信号の時間変化波形と正弦波で表わされるモデル波形とを比較して、生体の有無を検出するように構成されていてもよい。   The living body detector is configured to divide the image in the imaging region, and compare the time-varying waveform of the image signal from each divided region with the model waveform represented by a sine wave to detect the presence or absence of the living body. It may be.

本構成によれば、生体検出のためのデータ保持時間を短くでき、短時間での生体検出が可能となる。また、人等の生体の顔が隠れていたり、画像内での顔領域が小さい場合でも、生体の有無を検出できる。   According to this configuration, the data holding time for the living body detection can be shortened, and the living body detection can be performed in a short time. Further, even when the face of a living body such as a person is hidden or the face area in the image is small, the presence or absence of the living body can be detected.

撮像部への入射光を散乱および/または減光する散光部をさらに備えるのが好ましい。   It is preferable to further include a diffuser that scatters and / or attenuates light incident on the imaging unit.

本構成によれば、撮影された画像を不鮮明なものとすることで、撮影対象である人のプライバシーを守りつつ、同じ画像から、脈拍を求めることができる。   According to this configuration, by making the captured image unclear, it is possible to obtain a pulse from the same image while protecting the privacy of the person who is the imaging target.

脈拍算出器より得られた脈拍間隔に基づいて、生体のストレス度を測定するストレス測定器をさらに備えるのが好ましい。   It is preferable to further include a stress measuring device for measuring the stress level of the living body based on the pulse interval obtained from the pulse calculator.

本構成によれば、カメラ等の撮像部で取得した画像から、直接、ストレス度を求めることができる。   According to this configuration, the degree of stress can be directly obtained from an image acquired by an imaging unit such as a camera.

脈拍算出器より得られた脈拍間隔に基づいて、生体の覚醒度を測定する覚醒度測定器をさらに備えるのが好ましい。   It is preferable to further include a wakefulness measuring device for measuring the wakefulness of the living body based on the pulse interval obtained from the pulse calculator.

本構成によれば、カメラ等の撮像部で取得した画像から、直接、覚醒度を求めることができる。   According to this configuration, the arousal level can be obtained directly from an image acquired by an imaging unit such as a camera.

本発明の脈拍検出方法は、生体の脈拍を検出する脈拍検出方法であって、所定の撮像領域を撮像し、画像信号を得る撮像ステップと、画像信号に基づいて生体の顔領域または肌領域を検出する顔検出ステップと、検出された顔領域または肌領域からの画像信号からノイズを除去するノイズ除去ステップと、ノイズが除去された顔領域または肌領域からの画像信号から脈拍を算出する脈拍算出ステップと、を備えることを特徴とする。   The pulse detection method of the present invention is a pulse detection method for detecting a pulse of a living body, imaging a predetermined imaging region and obtaining an image signal, and a facial region or skin region of the living body based on the image signal. A face detection step to detect, a noise removal step to remove noise from the image signal from the detected face area or skin area, and a pulse calculation to calculate a pulse from the image signal from the face area or skin area from which the noise has been removed And a step.

本方法によれば、カメラ等の撮像部で取得した画像から、直接、脈拍を求めることができる。   According to this method, a pulse can be directly obtained from an image acquired by an imaging unit such as a camera.

顔検出ステップ、ノイズ除去ステップ、及び脈拍算出ステップは、それぞれ、複数の処理方法に対応しており、撮像領域及び生体の状況に応じて、複数の処理方法から一の処理方法を選択して、処理を実行するのが好ましい。   Each of the face detection step, the noise removal step, and the pulse calculation step corresponds to a plurality of processing methods, and selects one processing method from the plurality of processing methods according to the imaging region and the state of the living body, It is preferable to execute the processing.

本構成によれば、撮像領域において、人等の生体の動きがあったり、顔が隠れていたり、顔が撮像部の方向を向いていないような種々の場合に対しても、カメラ等の撮像部で取得した画像から、脈拍を求めることができる。   According to this configuration, even in a case where there is a movement of a living body such as a person, a face is hidden, or a face is not facing the direction of the imaging unit in the imaging area, imaging such as a camera is performed. The pulse can be obtained from the image acquired by the section.

以上説明したように、本発明の脈拍検出装置によると、撮像領域において、人の動きがあったり、顔が隠れていたり、顔が撮像部の方向を向いていないような種々の場合に対しても、撮像部で取得した画像から、直接的に、人の脈拍やストレス度、覚醒度を求めることができる。   As described above, according to the pulse detection device of the present invention, for various cases where there is a movement of a person, a face is hidden, or a face is not facing the direction of the imaging unit in the imaging region. In addition, it is possible to directly determine a person's pulse, stress level, and arousal level from an image acquired by the imaging unit.

実施の形態1に係る脈拍検出装置の機能的構成を示すブロック図である。1 is a block diagram showing a functional configuration of a pulse detection device according to Embodiment 1. FIG. 脈拍検出装置内の各機能ブロックでの処理方法の例を示す図である。It is a figure which shows the example of the processing method in each functional block in a pulse detection apparatus. 実施の形態1に係る脈拍検出装置内での信号の流れを示すブロック線図である。FIG. 3 is a block diagram illustrating a signal flow in the pulse detection device according to the first embodiment. 実施の形態1に係る脈拍検出フローチャートの好ましい一例である。3 is a preferred example of a pulse detection flowchart according to the first embodiment. 実施の形態1に係る撮像部で取得された人の画像の一例である。3 is an example of an image of a person acquired by the imaging unit according to Embodiment 1. 実施の形態1に係る顔検出方法の一例を示す図である。6 is a diagram illustrating an example of a face detection method according to Embodiment 1. FIG. 実施の形態1に係る画像の領域分割の一例を示す図である。6 is a diagram illustrating an example of region division of an image according to Embodiment 1. FIG. 前後フレームでの顔探索範囲の設定の一例を示す図である。It is a figure which shows an example of the setting of the face search range in the front and back frames. 実施の形態1に係る、顔領域における画像信号の輝度値の時間変化を示す図である。FIG. 6 is a diagram illustrating temporal changes in luminance values of image signals in a face area according to the first embodiment. 実施の形態1に係る、脈拍成分に対する正弦波モデルの一例である。3 is an example of a sine wave model for a pulse component according to the first embodiment. 実施の形態1に係る、脈拍成分に対する正弦波モデルの別の一例である。It is another example of the sine wave model with respect to the pulse component based on Embodiment 1. FIG. 実施の形態1に係る、脈拍成分に対する正弦波モデルのさらなる別の一例である。It is another example of the sine wave model with respect to the pulse component based on Embodiment 1. FIG. 実施の形態1に係る、正弦波モデルの差分前後の顔領域における画像信号の輝度値の時間変化を示す図である。FIG. 6 is a diagram illustrating a temporal change in luminance value of an image signal in a face area before and after a sine wave model difference according to the first embodiment. 顔の位置座標を周波数分析して得られるパワースペクトルである。It is a power spectrum obtained by frequency analysis of the face position coordinates. 顔領域からの画像信号の輝度値から顔位置の変化に対応する信号を差分し、さらに周波数分析して得られるパワースペクトルである。This is a power spectrum obtained by subtracting a signal corresponding to a change in the face position from the luminance value of the image signal from the face area and further performing frequency analysis. 図14で得られた顔の運動の周波数に対応する正弦波モデルを示す図である。It is a figure which shows the sine wave model corresponding to the frequency of the movement of the face obtained in FIG. 顔領域からの画像信号の輝度値の時間変化を示す図である。It is a figure which shows the time change of the luminance value of the image signal from a face area | region. ノイズ低減後の、顔領域からの画像信号の輝度値の時間変化を示す図である。It is a figure which shows the time change of the luminance value of the image signal from a face area after noise reduction. 実施の形態1に係る肌領域検出方法の一例を示す図である。It is a figure which shows an example of the skin region detection method which concerns on Embodiment 1. FIG. 実施の形態1に係る脈拍検出システムのハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a pulse detection system according to Embodiment 1. FIG. 実施の形態2に係る脈拍検出システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the pulse detection system which concerns on Embodiment 2. FIG. 人検出器の処理機能の例を示す図である。It is a figure which shows the example of the processing function of a human detector. 実施の形態2に係る脈拍検出装置内での信号の流れを示すブロック線図である。FIG. 10 is a block diagram showing a signal flow in the pulse detection device according to the second embodiment. 実施の形態2に係る脈拍検出フローチャートの好ましい一例である。6 is a preferred example of a pulse detection flowchart according to Embodiment 2. 実施の形態2に係る撮像部で取得された人の画像の一例である。6 is an example of an image of a person acquired by an imaging unit according to Embodiment 2. 実施の形態2に係る人検出方法の一例を示す図である。It is a figure which shows an example of the person detection method which concerns on Embodiment 2. FIG.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものでは全くない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following description of the preferred embodiments is merely exemplary in nature and is in no way intended to limit the invention, its application, or its application.

(実施の形態1)
(脈拍検出器の構成と画像信号処理の流れ)
図1は、本実施の形態に係る脈拍検出装置の機能的構成を示すブロック図である。
(Embodiment 1)
(Configuration of pulse detector and flow of image signal processing)
FIG. 1 is a block diagram showing a functional configuration of the pulse detection device according to the present embodiment.

図2は、脈拍検出装置の各ブロックの処理機能の例を示す図である。   FIG. 2 is a diagram illustrating an example of a processing function of each block of the pulse detection device.

図3は、脈拍検出装置内での信号の流れを示すブロック線図である。   FIG. 3 is a block diagram showing a signal flow in the pulse detection device.

脈拍検出装置10は、機能ブロックとして、撮像部12と、顔検出器13と、ノイズ低減器14と、脈拍算出器15と、ストレス度測定器16と、覚醒度測定器17と、を備えている。   The pulse detection device 10 includes an imaging unit 12, a face detector 13, a noise reducer 14, a pulse calculator 15, a stress level measuring device 16, and a wakefulness level measuring device 17 as functional blocks. Yes.

撮像部12は、CCDやCMOSイメージセンサ等の撮像素子(図示せず)と、レンズ等を含む光学系(図示せず)とを有しており、撮像部12で取得された画像は、画像信号として顔検出器13に送られる。なお、撮像部12は固定されていても、可動であってもよい。光学系の設定や撮像部12の可動領域に応じて撮像領域が決定される。   The imaging unit 12 includes an imaging element (not shown) such as a CCD or a CMOS image sensor, and an optical system (not shown) including a lens and the like, and an image acquired by the imaging unit 12 is an image. The signal is sent to the face detector 13 as a signal. Note that the imaging unit 12 may be fixed or movable. The imaging area is determined according to the setting of the optical system and the movable area of the imaging unit 12.

なお、撮像素子は、カラーフィルタ等を用いて、周辺の領域から入射した光を色成分毎に出力するカラー撮像素子であるのが好ましいが、特にこれに限られず、白黒画像を出力する撮像素子であってもよい。また、撮像素子として、CCDやCMOSイメージセンサ等を用いることが一般的であるが、フォトダイオードアレイを用いてもよい。   Note that the image pickup device is preferably a color image pickup device that outputs light incident from a peripheral region for each color component using a color filter or the like, but is not particularly limited thereto, and is an image pickup device that outputs a monochrome image. It may be. In general, a CCD, a CMOS image sensor, or the like is used as the imaging device, but a photodiode array may be used.

また、撮像素子として、近赤外光を受光する撮像素子を用いても、これとその他の撮像素子との組合せを用いてもよい。   In addition, an image sensor that receives near-infrared light may be used as the image sensor, or a combination of this and other image sensors may be used.

なお、本実施の形態において、画像信号は、R(Red:赤色)成分、G(Green:緑色)成分、B(Blue:青色)成分の3原色で表現されるRGB表色系の信号であるが、特にこれに限られず、HSV表色系の信号又はYUV表色系の信号であってもよい。また、白黒画像信号であってもよい。   In this embodiment, the image signal is an RGB color system signal represented by three primary colors of an R (Red: red) component, a G (Green: green) component, and a B (Blue: blue) component. However, the present invention is not particularly limited to this, and may be an HSV color system signal or a YUV color system signal. Further, it may be a monochrome image signal.

また、画像信号は、所定のフレームレート、例えば、30フレーム/秒で顔検出器13に送られるが、他の適切なフレームレートであってもよい。   Further, the image signal is sent to the face detector 13 at a predetermined frame rate, for example, 30 frames / second, but may be another appropriate frame rate.

顔検出器13は、撮像部12から送られてきた画像信号に基づいて、撮像部12で撮影された撮像領域内における人の顔を検出するように構成されている。   The face detector 13 is configured to detect a human face in the imaging area captured by the imaging unit 12 based on the image signal sent from the imaging unit 12.

ノイズ低減器14は、顔検出器13により検出、特定された、撮像領域内の顔に対応する領域(以下、顔領域という)からの画像信号からノイズ成分を除去するように構成されている。   The noise reducer 14 is configured to remove a noise component from an image signal from an area corresponding to a face in the imaging area (hereinafter referred to as a face area) detected and specified by the face detector 13.

脈拍算出器15は、ノイズ低減器14によりノイズ除去された、顔領域からの画像信号に基づいて、人の脈拍数や脈拍間隔を推定するように構成されている。   The pulse calculator 15 is configured to estimate a person's pulse rate and pulse interval based on the image signal from the face area from which noise has been removed by the noise reducer 14.

ストレス度測定器16は、脈拍測定器15で得られた脈拍間隔に基づいて、測定対象である人のストレス度を測定するように構成されている。   The stress level measuring device 16 is configured to measure the stress level of the person to be measured based on the pulse interval obtained by the pulse measuring device 15.

覚醒度測定器17は、脈拍測定器15で得られた脈拍間隔に基づいて、測定対象である人の覚醒度を測定するように構成されている。   The wakefulness measuring device 17 is configured to measure the wakefulness of a person who is a measurement target based on the pulse interval obtained by the pulse measuring device 15.

図2に示すように、本実施の形態に係る脈拍検出装置10では、顔検出器13、ノイズ低減器14、脈拍算出器15のそれぞれにおいて、複数の異なる方法で処理を実行することができる。   As shown in FIG. 2, in the pulse detection device 10 according to the present embodiment, each of the face detector 13, the noise reducer 14, and the pulse calculator 15 can execute processing by a plurality of different methods.

従って、図3に示すように、撮像領域の状況や、撮像領域内の人の状況や、各機能ブロックでの処理結果等に応じて、最適な組合せとなるように、撮像部12で得られた画像信号に対する、各機能ブロックでの処理方法を選択することができる。   Therefore, as shown in FIG. 3, the imaging unit 12 obtains an optimal combination according to the situation of the imaging area, the situation of the person in the imaging area, the processing result in each functional block, and the like. It is possible to select a processing method in each functional block for the received image signal.

なお、図3に示す、顔検出1、顔検出2等のブロックは、図2に示す顔検出器の処理方法1、2等に対応している。   Note that blocks such as face detection 1 and face detection 2 shown in FIG. 3 correspond to processing methods 1 and 2 of the face detector shown in FIG.

(脈拍検出方法の好ましい例について)
本実施の形態に係る脈拍検出方法に関し、以下に説明する。
(Preferred example of pulse detection method)
The pulse detection method according to the present embodiment will be described below.

図4は、本実施の形態に係る脈拍検出フローチャートの好ましい一例である。   FIG. 4 is a preferred example of a pulse detection flowchart according to the present embodiment.

(ステップS10:撮像ステップ)
まず、撮像部12において、周辺の領域を撮影する。撮像領域は、屋外であっても、屋内であってもよい。
(Step S10: Imaging step)
First, the imaging unit 12 captures a surrounding area. The imaging area may be outdoors or indoors.

(ステップS20:顔検出ステップ)
撮像部12で取得された画像信号は、顔検出器13に送られ、この画像信号に基づいて、撮像領域における人の顔を検出する。
(Step S20: Face detection step)
The image signal acquired by the imaging unit 12 is sent to the face detector 13, and a human face in the imaging region is detected based on this image signal.

なお、顔検出に失敗した場合は、後述するステップS42に進む。   If face detection fails, the process proceeds to step S42 described later.

(顔検出ステップ1)
例えば、撮像部12と被撮像体である人との距離が近くて、人の動きも少なく、鮮明な顔の画像が得られている場合には、顔検出方法として、既知の方法を用いることができる。
(Face detection step 1)
For example, when a distance between the imaging unit 12 and the person who is the imaging target is close, there is little movement of the person, and a clear face image is obtained, a known method is used as the face detection method. Can do.

既知の方法としては、例えば、いわゆるHaar−like特徴量を抽出し、Adaboost等の機械学習により顔を検出する方法を用いることができる。   As a known method, for example, a method of extracting a so-called Haar-like feature and detecting a face by machine learning such as Adaboost can be used.

この場合であれば、画像内の多数の局所的明暗差から顔のエッジを検出する。   In this case, the face edge is detected from a number of local contrast differences in the image.

予め用意された大量の顔画像データと非顔画像データとを用いて、抽出されたHaar−like特徴量が顔に該当するか、顔でないかを判別する識別器を生成する。   Using a large amount of face image data and non-face image data prepared in advance, a discriminator for discriminating whether the extracted Haar-like feature quantity corresponds to a face or not a face is generated.

複数の識別器を生成した後、これらの多数決論理により、最終的に、画像データから顔に対応するデータを抽出し、顔領域が出力される。このような技術については、例えば、以下に示す論文に概要が開示されている(P.Viola,and M.Jones,“Rapid object detection using a boosted cascade of simple features,” Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, p.511. (2001))。   After generating a plurality of discriminators, finally, data corresponding to the face is extracted from the image data by these majority logics, and the face area is output. An outline of such technology is disclosed in, for example, the following paper (P. Viola, and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Proceedings of IE Conon and Pattern Recognition, p. 511. (2001)).

また、顔画像データや非顔画像データは、OpenCV等のデータベースから入手可能である(http://opencv.org/)。   Further, face image data and non-face image data can be obtained from a database such as OpenCV (http://opencv.org/).

なお、上記に限定されず、別の既知の方法を用いてもよい。   In addition, it is not limited to the above, You may use another known method.

(顔検出ステップ2)
撮像部12と被撮像体である人との距離が遠い場合や、人の動きが大きい場合等には、別の方法を用いることができる。
(Face detection step 2)
Another method can be used when the distance between the imaging unit 12 and the person who is the object to be imaged is long, or when the movement of the person is large.

図5は、本実施の形態に係る撮像部で取得された人の画像の一例である。   FIG. 5 is an example of a human image acquired by the imaging unit according to the present embodiment.

図6は、本実施の形態に係る顔検出方法の一例を示す図である。   FIG. 6 is a diagram illustrating an example of a face detection method according to the present embodiment.

図7は、本実施の形態に係る画像の領域分割の一例を示す図である。   FIG. 7 is a diagram showing an example of region division of an image according to the present embodiment.

図8は、前後フレームでの顔探索範囲の設定の一例を示す図である。   FIG. 8 is a diagram illustrating an example of setting the face search range in the previous and next frames.

顔が隠れていたり、横を向いてしまっている場合には、既知の方法を用いて直ちに人の顔を検出できないことがある。   If the face is hidden or turned sideways, a human face may not be detected immediately using a known method.

そのような場合には、図6に示すように、画像を領域分割し、分割された各領域において、画像の輝度値の平均を求め、この値の時間変化を観測する。   In such a case, as shown in FIG. 6, the image is divided into regions, the average of the luminance values of the images is obtained in each divided region, and the time change of this value is observed.

例えば、G成分の光はヘモグロビンの吸収の影響を多く受けるため、RGB表色系の画像信号であれば、G成分の輝度値を用いると、人の脈拍に関連した周期的変動が観測しやすい。この周期的変動の観測により、対象領域において、人の顔が観測されているかどうかを検出できる。分割サイズを適切に選ぶことで、人の顔の外形を把握することも可能である。   For example, G component light is greatly affected by the absorption of hemoglobin. Therefore, if the luminance value of the G component is used for an RGB color system image signal, periodic fluctuations related to a human pulse can be easily observed. . By observing this periodic fluctuation, it is possible to detect whether or not a human face is observed in the target region. It is also possible to grasp the outline of a person's face by appropriately selecting the division size.

なお、RGB表色系以外の画像信号においても、人の脈拍に関連した周期的変動を観測することは可能であり、顔領域の検出時に用いる輝度値は、上記の波長成分に限定されるものではない。   Note that it is possible to observe periodic fluctuations related to the human pulse even in image signals other than the RGB color system, and the luminance value used when detecting the face area is limited to the above wavelength components. is not.

また、画像の領域分割に関しては、図6に示したように、均等に分割する必要は必ずしもなく、図7に示すように、領域が重複していても良い。   Further, as shown in FIG. 6, it is not always necessary to divide the area of the image, and the areas may overlap as shown in FIG.

この場合、分割されたそれぞれの領域は大きさが異なる上、位置もバラバラで重複している部分が存在する。   In this case, the divided areas have different sizes, and there are portions where the positions are different and overlap.

例えば、均等に領域分割を行うと、2つの顔が同じ領域に入ってしまい、これらの分離ができなくなるおそれがあるが、図7に示すようにランダムな領域分割にすることで、これらの分離精度が向上する。ただし、このように領域の重複を許容する領域設定を行うと、領域が多数存在して計算時間が多くかかってしまう。そこで追跡処理を行い、1フレーム前の結果の周辺だけを探索することにより計算時間の短縮を行うこともできる。   For example, if the area is divided evenly, two faces may enter the same area, and there is a possibility that they cannot be separated. However, by separating the areas into random areas as shown in FIG. Accuracy is improved. However, if the area setting that allows the overlapping of the areas is performed as described above, a large number of areas exist and a long calculation time is required. Therefore, it is possible to reduce the calculation time by performing a tracking process and searching only around the result of the previous frame.

図8では、実線で示す枠が現在フレームでの探索範囲に対応し、網かけされた範囲が1フレーム前での顔検出位置と大きさとを表している。   In FIG. 8, a frame indicated by a solid line corresponds to the search range in the current frame, and the shaded range represents the face detection position and size in the previous frame.

図8からわかるように、現在フレームでの探索範囲は、1フレーム前の顔検出位置の近くに多く存在し、ここの範囲の大きさも1フレーム前と同程度のものが多い。   As can be seen from FIG. 8, there are many search ranges in the current frame near the face detection position one frame before, and the size of this range is almost the same as that in the previous frame.

追跡処理には、既知のパーティクルフィルタ(粒子フィルタ)を用いる。パラメータは探索枠の位置(x、y)と大きさLの3つである。パーティクルフィルタの尤度として、FFT(Fast Fourier Transformation:高速フーリエ変換)を行ったときの一番大きいピークの大きさをそのまま用いることとする。   A known particle filter (particle filter) is used for the tracking process. There are three parameters: the position (x, y) and the size L of the search frame. As the likelihood of the particle filter, the size of the largest peak when FFT (Fast Fourier Transform) is performed is used as it is.

なお、FFTは、信号の周波数分析方法の一例である。   Note that FFT is an example of a signal frequency analysis method.

このパーティクルフィルタを用いることにより、全画面の探索を行わずに計算時間を短縮して追跡処理が可能となる。   By using this particle filter, it is possible to perform tracking processing while reducing the calculation time without searching the entire screen.

(顔検出ステップ3)
図9は、本実施の形態に係る、顔領域における画像信号の輝度値の時間変化を示す図である。
(Face detection step 3)
FIG. 9 is a diagram showing a temporal change in the luminance value of the image signal in the face area according to the present embodiment.

図10は、本実施の形態に係る、脈拍成分に対する正弦波モデルの一例である。   FIG. 10 is an example of a sine wave model for the pulse component according to the present embodiment.

図11は、本実施の形態に係る、脈拍成分に対する正弦波モデルの別の一例である。   FIG. 11 is another example of the sine wave model for the pulse component according to the present embodiment.

図12は、本実施の形態に係る、脈拍成分に対する正弦波モデルのさらなる別の一例である。   FIG. 12 shows still another example of the sine wave model for the pulse component according to the present embodiment.

図13は、本実施の形態に係る、正弦波モデルの差分前後の顔領域における画像信号の輝度値の時間変化を示す図である。   FIG. 13 is a diagram showing a temporal change in the luminance value of the image signal in the face area before and after the difference of the sine wave model according to the present embodiment.

図9に示すように、顔領域からの画像信号、この場合はG成分の平均輝度値は、計測時間に対して周期的に変化している。   As shown in FIG. 9, the image signal from the face area, in this case, the average luminance value of the G component, periodically changes with respect to the measurement time.

この波形と以下に示す正弦波モデル波形との比較を行うことにより、顔領域の検出を行うことができる。以下にこのことを詳述する。   By comparing this waveform with the following sine wave model waveform, the face area can be detected. This will be described in detail below.

まず、上述したように、画像を領域分割し、分割された各々の領域で、平均輝度値の時間変化を求めておく。   First, as described above, an image is divided into regions, and the temporal change in average luminance value is obtained in each of the divided regions.

これとは別に、式(1)で表わされる正弦波モデル波形を複数準備する。   Separately, a plurality of sine wave model waveforms represented by Expression (1) are prepared.

ここで、
Vm:最大振幅
ω:角周波数
t:時間
θ:位相
である。
here,
Vm: Maximum amplitude ω: Angular frequency t: Time θ: Phase

例えば、60bpm(beats per minute)の脈拍波形に相当する正弦波モデル波形(図10)を標準波形として、図11に示すように位相をずらした波形や、図12に示すように角周波数を変化させた波形(90bpmに相当)を作成する。   For example, a sine wave model waveform (FIG. 10) corresponding to a pulse waveform of 60 bpm (beats per minute) is used as a standard waveform, and the phase is shifted as shown in FIG. 11 or the angular frequency is changed as shown in FIG. Create a waveform (corresponding to 90 bpm).

このとき、角周波数を、例えば、10bpmに対応する間隔で変化させた波形や、位相を10度単位で変化させた波形を、テーブル形式で準備しておく。   At this time, for example, a waveform in which the angular frequency is changed at intervals corresponding to 10 bpm and a waveform in which the phase is changed in units of 10 degrees are prepared in a table format.

図13に示すように、分割された各領域実際に得られた輝度値の時間変化波形から、予め準備しておいた正弦波モデル波形を差分する。   As shown in FIG. 13, a sine wave model waveform prepared in advance is subtracted from the time-varying waveform of the luminance value actually obtained in each divided area.

なお、モデル波形の最大振幅は、実際に得られた輝度値の周期的変動から求めた振幅を用いている。   As the maximum amplitude of the model waveform, the amplitude obtained from the periodic fluctuation of the actually obtained luminance value is used.

図13に示すように、点線で示す波形が差分前の波形、実線で示す波形が差分後の波形である。   As shown in FIG. 13, the waveform indicated by the dotted line is the waveform before the difference, and the waveform indicated by the solid line is the waveform after the difference.

差分後には、もとの波形で見られた周期的変動成分が除去され、起伏の少ないものになっていることがわかる。正弦波モデル波形で表現される脈拍と被験者の脈拍が一致していれば、差分後の波形は起伏が少ないものになる。   After the difference, it can be seen that the periodic fluctuation component seen in the original waveform is removed, and there is little undulation. If the pulse expressed by the sine wave model waveform matches the pulse of the subject, the waveform after the difference has less undulation.

差分後の波形の標準偏差が少なければ起伏がより少ないと考えられるので、上述した複数の正弦波モデル波形を用いて、各々の差分を行い、差分後の波形の標準偏差が最も低い場合が被験者の脈拍であるとする。   If the standard deviation of the waveform after the difference is small, it is considered that there is less undulation, so each of the differences is performed using the multiple sine wave model waveforms described above, and the subject with the lowest standard deviation of the waveform after the difference is the subject It is assumed that the pulse is

例えば、算出された脈拍数が人の脈拍、例えば60bpmから120bpmに相当する値となっていれば、その領域が顔領域であるとし、この範囲から外れていれば、顔が存在しないとする。   For example, if the calculated pulse rate is a human pulse, for example, a value corresponding to 60 bpm to 120 bpm, the region is a face region, and if it is outside this range, it is assumed that no face exists.

なお、人の脈拍は運動等で大きく変化するため、上記の範囲はあくまで一例である。   In addition, since a person's pulse changes a lot by exercise etc., said range is an example to the last.

画像信号の輝度値の周期的変化から顔検出を行うためには、検出直前の十数秒から数十秒間のデータを複数保持する必要がある。本方法によれば、保持するデータ数を少なくすることができ、より短時間での顔検出が可能となる。   In order to perform face detection from a periodic change in the luminance value of an image signal, it is necessary to hold a plurality of pieces of data from the tens of seconds to tens of seconds immediately before detection. According to this method, the number of data to be held can be reduced, and face detection can be performed in a shorter time.

また、上述したとおり、撮影した画像の状況、特に人の状況によって、適切な顔検出方法は異なる。   Further, as described above, an appropriate face detection method differs depending on the situation of the captured image, particularly the situation of a person.

本実施の形態では、顔検出ステップ1から3のいずれかを撮像領域あるいはその中の人の状況等に応じて、任意かつ適切に選択し、使用することができ、いずれのステップでも、検出結果として、顔領域が出力される。   In the present embodiment, any one of the face detection steps 1 to 3 can be selected and used arbitrarily according to the imaging region or the situation of a person in the imaging region, and the detection result is obtained at any step. As shown in FIG.

(ステップS30:顔位置周期性判定ステップ/ステップS40:ノイズ低減ステップ1)
顔検出が成功した場合、次に顔位置が周期的に移動しているかどうかを判定する(ステップS30)。また、顔位置の動きに周期性が無ければ、後述するステップSS41に進む。
(Step S30: Face position periodicity determination step / Step S40: Noise reduction step 1)
If the face detection is successful, it is next determined whether or not the face position is periodically moved (step S30). If there is no periodicity in the movement of the face position, the process proceeds to Step SS41 described later.

ジョギングやエクササイズ等の運動をしている場合は、顔が動くが、その動き成分が画像信号に乗るため、脈拍算出時のノイズとなる。そこで、顔位置の変化を周波数分析して、その周波数を観測値から差分することにより、ノイズ低減を行う(ステップS40)。   When exercising such as jogging or exercising, the face moves, but since the movement component is on the image signal, it becomes noise when calculating the pulse. Thus, noise reduction is performed by analyzing the frequency of the change in the face position and subtracting the frequency from the observed value (step S40).

なお、本実施の形態において、顔位置の周期性判定は、顔検出器13の機能を用いて行われるが、判定のための機能ブロックを別途設けてもよい。   In this embodiment, the periodicity determination of the face position is performed using the function of the face detector 13, but a functional block for determination may be provided separately.

図14は、顔の位置座標を周波数分析して得られるパワースペクトルである。   FIG. 14 is a power spectrum obtained by frequency analysis of the face position coordinates.

図15は、顔領域からの画像信号の輝度値から顔位置の変化に対応する信号を差分し、さらに周波数分析して得られるパワースペクトルである。   FIG. 15 is a power spectrum obtained by subtracting a signal corresponding to a change in the face position from the luminance value of the image signal from the face area and further performing frequency analysis.

本実施の形態では、画像上の顔の位置情報である、顔の中心点の位置座標をFFT処理してパワースペクトルを得ている。また、顔の中心点の位置座標は時系列で不安定になることがあるため、検出された顔の特徴的器官、例えば、目や鼻、あるいは、それら特徴器官点の平均位置座標を周波数分析するのが好ましい。このことに対応して、図1に示すように、顔検出器13は、顔器官検出部13aを有していてもよい。   In the present embodiment, the power spectrum is obtained by performing FFT processing on the position coordinates of the center point of the face, which is position information of the face on the image. In addition, since the position coordinates of the center point of the face may become unstable in time series, frequency analysis is performed on the detected facial characteristic organs, such as the eyes and nose, or the average positional coordinates of those characteristic organ points. It is preferable to do this. Corresponding to this, as shown in FIG. 1, the face detector 13 may include a face organ detection unit 13 a.

なお、顔位置座標を周波数分析するかどうかに関わらず、顔検出器13は、顔器官検出部13aを有していてもよい。   Note that the face detector 13 may include a face organ detection unit 13a regardless of whether the face position coordinates are subjected to frequency analysis.

図14及び図15における点線で囲まれた位置が顔の動きに対応するピークであり、顔位置が一定の周期性を持って変化していることがわかる。この例では1.14Hz付近にピークがある。   14 and 15, the position surrounded by the dotted line is a peak corresponding to the movement of the face, and it can be seen that the face position changes with a certain periodicity. In this example, there is a peak near 1.14 Hz.

また、図15において、1.14Hz付近と、1.28Hz付近にピークの存在が見られる。前者が、顔位置の動きに対応した成分であり、後者が脈拍に対応した成分である。   Further, in FIG. 15, the presence of peaks is observed near 1.14 Hz and near 1.28 Hz. The former is a component corresponding to the movement of the face position, and the latter is a component corresponding to the pulse.

実際には、脈拍として取りうる範囲が、図15中の一点鎖線よりも右側、つまり高周波側であると設定し、その範囲内で最も高い周波数のピークを脈拍と推定する。   Actually, the range that can be taken as a pulse is set to the right side of the one-dot chain line in FIG. 15, that is, the high frequency side, and the peak of the highest frequency within the range is estimated as the pulse.

図15に示すように、顔の運動に起因したピークと脈拍に起因したピークは、周波数上で近い位置に存在する。よって、顔位置の変化による周波数成分を予め算出していない場合は、前者のピークを脈拍と誤検知してしまう可能性がある。   As shown in FIG. 15, the peak due to facial motion and the peak due to pulse are close to each other in frequency. Therefore, when the frequency component due to the change in the face position is not calculated in advance, the former peak may be erroneously detected as a pulse.

本実施の形態によれば、これを防ぐために、顔位置座標を周波数分析して得られるパワースペクトルを予め求めておくことにより、運動等による顔位置の変動による脈拍の誤測定を防ぐことができる。   According to the present embodiment, in order to prevent this, by pre-determining the power spectrum obtained by frequency analysis of the face position coordinates, it is possible to prevent erroneous pulse measurement due to face position fluctuations due to movement or the like. .

また、図14に示すパワースペクトルを、検出された顔領域からの画像信号の輝度値から直接、差分して得るのではなく、正弦波モデルを用いて差分を行って得ることもできる。   In addition, the power spectrum shown in FIG. 14 can be obtained by performing a difference using a sine wave model, instead of directly obtaining a difference from the luminance value of the image signal from the detected face region.

図16は、図14で得られた顔の運動の周波数に対応する正弦波モデルを示す図である。   FIG. 16 is a diagram showing a sine wave model corresponding to the frequency of facial motion obtained in FIG.

図17は、顔領域からの画像信号の輝度値の時間変化を示す図である。   FIG. 17 is a diagram illustrating a temporal change in the luminance value of the image signal from the face area.

ここで、顔領域からの画像信号の輝度値は、顔領域として検出された領域からの輝度値の平均値である。   Here, the luminance value of the image signal from the face area is an average value of the luminance values from the area detected as the face area.

図17に示す輝度値の時間変化波形から、図16に示す正弦波波形を差分することにより、顔の運動によるノイズ成分を除去する。   The noise component due to facial motion is removed by subtracting the sine wave waveform shown in FIG. 16 from the time-varying waveform of the luminance value shown in FIG.

(ステップS50:脈拍算出ステップ1)
次に、ノイズが低減された、顔領域からの画像信号の輝度値に対しFFT等の周波数分析を行い、得られた信号から脈拍を推定、算出する。さらに、脈拍間隔を用いて人のストレス度、覚醒度を算出する。
(Step S50: Pulse calculation step 1)
Next, frequency analysis such as FFT is performed on the luminance value of the image signal from the face area with reduced noise, and the pulse is estimated and calculated from the obtained signal. Furthermore, a person's stress level and arousal level are calculated using the pulse interval.

図18は、ノイズ低減後の、顔領域からの画像信号の輝度値の時間変化を示す図である。   FIG. 18 is a diagram illustrating a temporal change in the luminance value of the image signal from the face area after noise reduction.

図18に示すように、脈拍間隔については、周波数分析前の、顔領域からの画像信号の輝度値の時間変化から求めることができる。   As shown in FIG. 18, the pulse interval can be obtained from the temporal change of the luminance value of the image signal from the face area before frequency analysis.

(ステップS60:ストレス度、覚醒度測定ステップ)
ステップS50で得られた脈拍間隔を用いて、被撮像体である人のストレス度及び/または覚醒度を測定する(ステップS60)。
(Step S60: Step of measuring stress level and arousal level)
Using the pulse interval obtained in step S50, the stress level and / or wakefulness level of the person who is the imaging target is measured (step S60).

ストレス度や覚醒度の測定の測定については、既知の方法を用いる。   A known method is used for the measurement of the stress level and the arousal level.

脈拍間隔の時系列データから、例えば、自己回帰モデルなどを用いてパワースペクトル密度を計算し、その周波数成分を分析して、ストレス度を測定する。   From the time series data of the pulse interval, for example, the power spectral density is calculated using an autoregressive model, and the frequency component is analyzed to measure the degree of stress.

上記の方法で得られたパワースペクトル密度において、0.05Hzから0.15Hzまでの周波数に対応する領域をLF(Low Frequency:低周波)成分領域とし、0.15Hzから0.40Hzまでの周波数に対応する領域をHF(High Frequency:高周波)成分領域とし、各々の領域での積分強度を求める。   In the power spectral density obtained by the above method, an area corresponding to a frequency from 0.05 Hz to 0.15 Hz is an LF (Low Frequency) component area, and the frequency is from 0.15 Hz to 0.40 Hz. The corresponding region is set as an HF (High Frequency: high frequency) component region, and the integrated intensity in each region is obtained.

一般に、LF成分領域の信号は、血圧変動に対応し、交感神経が緊張しているとき、副交感神経が緊張しているとき、いずれの場合でも信号が発生すると言われている。   In general, the signal in the LF component region corresponds to blood pressure fluctuation, and it is said that a signal is generated in any case when the sympathetic nerve is in tension or when the parasympathetic nerve is in tension.

一方、HF成分領域の信号は、呼吸変動に対応し、副交感神経が優位であると、信号強度が増加すると言われている。   On the other hand, it is said that the signal in the HF component region corresponds to respiratory fluctuations, and that the signal intensity increases when the parasympathetic nerve is dominant.

(LF成分領域の信号強度)/(HF成分領域の信号強度)をストレス指標(交感神経の活性度)として、ストレス度を求めることができる。   The stress level can be obtained by using (signal strength of LF component region) / (signal strength of HF component region) as a stress index (sympathetic nerve activity).

リラックスしているときには、副交感神経の働きが優位となり、HF成分領域の信号強度が増加して、ストレス指標が低下するのに対し、緊張しているときには、相対的に、HF成分領域の信号強度が減少して、ストレス指標が上昇する。   The parasympathetic nerve is dominant when relaxed, and the signal intensity in the HF component region increases and the stress index decreases, while the signal strength in the HF component region is relatively high when nervous. Decreases and the stress index increases.

覚醒度についても同様に、LF成分領域の信号強度とHF成分領域の信号強度と、を求めて、交感神経の活性度から評価することができる。   Similarly, the arousal level can be evaluated from the sympathetic nerve activity by obtaining the signal strength of the LF component region and the signal strength of the HF component region.

覚醒度については、覚醒状態かどうかはHF成分領域の信号強度に反映されるとの報告があり、例えば、この強度に着目して覚醒度を推定することができる。   As for the degree of arousal, there is a report that whether or not it is an arousal state is reflected in the signal intensity of the HF component region. For example, the degree of arousal can be estimated by focusing on this intensity.

(ステップS41:ノイズ低減ステップ2)
ステップS30において、顔位置の動きに周期性が見られない場合は、顔領域からの画像信号において、脈拍成分に対応する信号とそれ以外の信号とを分離し、脈拍成分に対応する信号から、それ以外の信号を差分することによりノイズ低減を行う。
(Step S41: Noise reduction step 2)
In step S30, when no periodicity is seen in the movement of the face position, in the image signal from the face region, the signal corresponding to the pulse component and the other signal are separated, and from the signal corresponding to the pulse component, Noise is reduced by subtracting other signals.

RGB表色系の画像信号であれば、G成分の輝度値を脈拍成分とし、それ以外の成分の輝度値をノイズ成分とすることができる。   In the case of an RGB color system image signal, the luminance value of the G component can be a pulse component, and the luminance values of the other components can be noise components.

このとき、ノイズ成分として、R成分の輝度値や、B成分の輝度値、あるいはR成分とB成分との輝度値の平均値を用いることもできる。   At this time, the luminance value of the R component, the luminance value of the B component, or the average value of the luminance values of the R component and the B component can also be used as the noise component.

また、HSV表色系やYUV表色系の画像信号であれば、1つの原色成分の輝度値を脈拍成分とし、他の原色成分の輝度値、例えば1つの成分の輝度値か、2つの成分の輝度値の平均値をノイズ成分としてもよい。   If the image signal is an HSV color system or YUV color system, the luminance value of one primary color component is used as a pulse component, and the luminance value of another primary color component, for example, the luminance value of one component or two components The average value of the luminance values may be a noise component.

なお、いずれの場合にも、原色系以外の成分、例えば、近赤外光成分の輝度値をノイズ成分としてもよい。   In either case, a component other than the primary color system, for example, the luminance value of the near infrared light component may be used as the noise component.

また、白黒画像信号等を用いる場合には、移動平均との差分演算によってノイズを低減することもできる。   In addition, when a monochrome image signal or the like is used, noise can be reduced by calculating a difference from the moving average.

例えば、画像信号の輝度値の時系列データをAとし、Aに対して移動平均を行って得られた時系列データをBとすると、AからBを差分することによりノイズ低減を行うことができる。   For example, when time series data of luminance values of an image signal is A and time series data obtained by performing a moving average on A is B, noise can be reduced by subtracting B from A. .

(ステップS51:脈拍算出ステップ1/ステップS61:ストレス度、覚醒度測定ステップ)
ステップS41が終了すると、ステップS51、ステップS61へと順次進む。
(Step S51: Pulse calculation step 1 / Step S61: Stress level and arousal level measurement step)
When step S41 ends, the process proceeds sequentially to step S51 and step S61.

ステップS51における脈拍推定、算出方法、及びステップS61におけるストレス度、覚醒度測定方法は、それぞれ、ステップS50、ステップS60に示したのと同様である。   The pulse estimation and calculation method in step S51 and the stress level and wakefulness level measurement method in step S61 are the same as those shown in step S50 and step S60, respectively.

(ステップS42:肌領域検出ステップ)
図19は、本実施の形態に係る肌領域検出方法の一例を示す図である。
(Step S42: Skin region detection step)
FIG. 19 is a diagram illustrating an example of a skin region detection method according to the present embodiment.

ステップS20において、顔検出に失敗した場合は、ステップS42に進む。   If the face detection fails in step S20, the process proceeds to step S42.

ここで、顔検出に失敗する場合として、顔が隠れていたり、顔の向きが撮像部12の方向を向いていないことが予想される。また、撮影された画像における顔領域が極端に小さい場合等も、この場合に当てはまる。   Here, as face detection failure, it is expected that the face is hidden or the face direction is not directed toward the imaging unit 12. The case where the face area in the photographed image is extremely small is also applicable to this case.

このような場合には、ステップS20にて説明したように、画像を領域分割し、分割された各領域において、画像の輝度値の平均値を求め、この値の時間変化を観測する。   In such a case, as described in step S20, the image is divided into regions, the average value of the luminance values of the image is obtained in each divided region, and the time change of this value is observed.

例えば、顔以外でも肌が露出している領域からは、脈拍に関連した周期的変化が観測しやすい。この周期的変化の観測により、対象領域において、人の肌が露出しているかどうかを検出できる。   For example, it is easy to observe a periodic change related to a pulse from an area other than the face where the skin is exposed. By observing this periodic change, it is possible to detect whether human skin is exposed in the target region.

この場合も、画像領域の分割サイズを適切に設定することで、検出感度を向上できる。   Also in this case, detection sensitivity can be improved by appropriately setting the division size of the image region.

また、画像の領域分割に関しては、図19に示したように、均等に分割する必要は必ずしもなく、図7に示すように、領域が重複していても良い。   Further, as shown in FIG. 19, it is not always necessary to divide the image area as shown in FIG. 19, and the areas may overlap as shown in FIG.

また、図8を用いて説明したように、パーティクルフィルタを用いた追跡処理を行い、1フレーム前の結果の周辺だけを探索することにより計算時間の短縮を行うこともできる。   Further, as described with reference to FIG. 8, the tracking time using the particle filter is performed, and only the vicinity of the result of the previous frame can be searched to reduce the calculation time.

このパーティクルフィルタを用いることにより、顔が隠れていたり、前後することによる大きさの変化にも対応できるようになる。   By using this particle filter, it becomes possible to cope with changes in size due to the face being hidden or back and forth.

また、本ステップにおける肌領域の検出は、顔検出器13の機能を用いて行われる。   In addition, the detection of the skin area in this step is performed using the function of the face detector 13.

(ステップS52:脈拍算出ステップ2)
ステップS20における顔検出ステップ3で用いた方法により、肌領域からの画像信号から脈拍を推定、算出することができる。
(Step S52: Pulse calculation step 2)
By the method used in face detection step 3 in step S20, the pulse can be estimated and calculated from the image signal from the skin region.

この場合、式(1)で表わされる正弦波モデル波形を複数準備することは、顔検出ステップ3の場合と同じであるが、周波数や位相の刻みはさらに細かくする必要があり、例えば、1bpm刻みで変化させた波形や、位相を数度単位で変化させた波形を、テーブル形式で準備しておき、この刻みで作成されたテーブルから、適当に波形を選択して、顔検出ステップ3での顔検出に用いる。   In this case, preparing a plurality of sine wave model waveforms represented by Expression (1) is the same as in the face detection step 3, but it is necessary to further refine the frequency and phase increments, for example, in increments of 1 bpm. The waveform changed in step 1 and the waveform whose phase has been changed in units of several degrees are prepared in a table format, and a waveform is appropriately selected from the table created in this step, and the face detection step 3 Used for face detection.

図13に示すように、実際に得られた輝度値から、予め準備しておいた正弦波モデル波形を差分する。   As shown in FIG. 13, a sine wave model waveform prepared in advance is subtracted from the actually obtained luminance value.

なお、モデル波形の最大振幅は、実際に得られた輝度値の周期的変動から求めた振幅に近い値を用いている。   Note that the maximum amplitude of the model waveform is a value close to the amplitude obtained from the periodic fluctuation of the actually obtained luminance value.

図13において、点線で示す波形が差分前の波形、実線で示す波形が差分後の波形である。   In FIG. 13, the waveform indicated by the dotted line is the waveform before the difference, and the waveform indicated by the solid line is the waveform after the difference.

差分後には、もとの波形で見られた周期的変動成分が除去されていることがわかる。   It can be seen that after the difference, the periodic fluctuation component seen in the original waveform is removed.

正弦波モデル波形で表現される脈拍と被験者の脈拍が一致していれば、差分後の波形は起伏が少ないものになる。   If the pulse expressed by the sine wave model waveform matches the pulse of the subject, the waveform after the difference has less undulation.

差分後の波形の標準偏差が少なければ起伏がより少ないと考えられるので、上述した複数の正弦波モデル波形を用いて、各々の差分を行い、差分後の波形の標準偏差が最も低い場合が被験者の脈拍であるとする。   If the standard deviation of the waveform after the difference is small, it is considered that there is less undulation, so each of the differences is performed using the multiple sine wave model waveforms described above, and the subject with the lowest standard deviation of the waveform after the difference is the subject Let's say that the pulse.

この方法によれば、周波数分析によるスペクトルのピークから心拍数を求める場合に比べて、一定期間における複数データを保持する必要が無くなり、期間中に脈拍変化が起こった場合の脈拍算出に対する影響を抑制できる。   According to this method, it is not necessary to hold multiple data for a certain period, compared to the case where the heart rate is obtained from the spectrum peak by frequency analysis, and the influence on the pulse calculation when a pulse change occurs during the period is suppressed. it can.

(ステップS62:ストレス度、覚醒度測定ステップ)
ステップS52が終了すると、ステップS62へと進む。
(Step S62: Stress level and arousal level measurement step)
When step S52 ends, the process proceeds to step S62.

ステップS62におけるストレス度、覚醒度測定方法は、ステップS60に示したのと同様である。   The stress level and arousal level measuring method in step S62 is the same as that shown in step S60.

以上、説明したように、本実施の形態によれば、撮像領域において、人の動きがあったり、顔が隠れていたり、顔が撮像部12の方向を向いていないような種々の場合に対しても、各機能ブロックにおいて、適切な処理方法を選択して脈拍検出処理を行うことにより、撮像部12で取得した画像から、直接的に、人の脈拍やストレス度、覚醒度を求めることができる。   As described above, according to the present embodiment, in various cases where there is a human movement, a face is hidden, or a face is not facing the direction of the imaging unit 12 according to the present embodiment. However, in each functional block, by selecting an appropriate processing method and performing pulse detection processing, a person's pulse, stress level, and arousal level can be obtained directly from the image acquired by the imaging unit 12. it can.

なお、本実施形態における脈拍検出方法は、図4に示した方法に限定されるものでなく、図3に示したように、撮像領域の状況や、その中での人の状況、各機能ブロックでの処理結果等に応じて、予め用意された種々の処理方法を組み合わせて、脈拍検出を行うことができる。   Note that the pulse detection method in the present embodiment is not limited to the method shown in FIG. 4, and as shown in FIG. 3, the situation of the imaging region, the situation of people in the area, and each function block In accordance with the processing result or the like, pulse detection can be performed by combining various processing methods prepared in advance.

なお、本実施形態において、脈拍検出の対象は人であるが、動物等の人以外の生体に対しても、本発明に係る脈拍検出は適用可能である。   In this embodiment, the target of pulse detection is a person, but the pulse detection according to the present invention can be applied to a living body other than a person such as an animal.

(ハードウェア構成)
図1に示す脈拍検出装置1の機能は、撮像部12の一部を除き、概ねソフトウェア上で実現可能である。この場合、例えば、図4に示した脈拍検出フローに対応するプログラムをハードウェア上で実行して脈拍検出が行われる。この機能を実現するためのハードウェア構成を図20に示す。
(Hardware configuration)
The functions of the pulse detection device 1 shown in FIG. 1 can be realized almost on software except for a part of the imaging unit 12. In this case, for example, the pulse detection is performed by executing a program corresponding to the pulse detection flow shown in FIG. 4 on hardware. A hardware configuration for realizing this function is shown in FIG.

図20は、本実施の形態に係る脈拍検出システムのハードウェア構成の一例を示す図である。   FIG. 20 is a diagram illustrating an example of a hardware configuration of the pulse detection system according to the present embodiment.

脈拍検出システム100は、コンピュータ110と、ビデオカメラ102と、ディスプレイ111と、操作部112と、システムバス101と、を備えている。   The pulse detection system 100 includes a computer 110, a video camera 102, a display 111, an operation unit 112, and a system bus 101.

コンピュータ110と、ビデオカメラ102と、ディスプレイ111と、操作部112とは、システムバス101に接続され、システムバス101を介して、制御信号やデータのやり取りが行われる。   The computer 110, the video camera 102, the display 111, and the operation unit 112 are connected to the system bus 101, and control signals and data are exchanged via the system bus 101.

ビデオカメラ102は、周囲の所定の境域を撮影し、システムバス101を介して、撮影された動画像データを画像信号としてコンピュータ110に入力する。   The video camera 102 captures a predetermined surrounding area and inputs the captured moving image data as an image signal to the computer 110 via the system bus 101.

ビデオカメラ102は、図1に示した撮像部12に対応しており、図示しないが、CMOSイメージセンサ等の撮像素子と、レンズ等を含む光学系と、を有している。   The video camera 102 corresponds to the imaging unit 12 illustrated in FIG. 1 and includes an imaging device such as a CMOS image sensor and an optical system including a lens and the like (not shown).

コンピュータ110に入力された画像信号は、コンピュータ110で各種の処理が行われ、得られた結果はディスプレイ111に表示される。表示される対象は種々あり、脈拍数や脈拍間隔、ストレス度や覚醒度だけでなく、脈拍検出処理の途中結果である、検出された顔領域や、画像信号の輝度値のリアルタイム変化波形等も表示することができる。   The image signal input to the computer 110 is subjected to various processes by the computer 110, and the obtained result is displayed on the display 111. There are various objects to be displayed, including not only the pulse rate and pulse interval, stress level and arousal level, but also the detected face area and the real-time change waveform of the luminance value of the image signal as the result of the pulse detection process. Can be displayed.

なお、ディスプレイ111は、必要に応じて音声出力機能を有していてもよい。   The display 111 may have a sound output function as necessary.

操作部112は、キーボードやマウスやジョイスティック等に代表される入力用デバイスであり、例えば、コンピュータ110の起動、終了や、脈拍検出プログラムの呼び出しや実行、ディスプレイ111に表示する処理結果の選択等に際して用いられる。   The operation unit 112 is an input device represented by a keyboard, a mouse, a joystick, and the like. For example, when the computer 110 is started and ended, a pulse detection program is called and executed, a processing result to be displayed on the display 111 is selected, and the like. Used.

なお、例えば、ディスプレイ111がタッチパネルである場合や、別途、システム100が操作命令等を入力するための音声入力部(図示せず)を備えている場合には、操作部112を特に設けなくてもよい。   For example, when the display 111 is a touch panel, or when the system 100 includes a voice input unit (not shown) for inputting an operation command or the like, the operation unit 112 is not particularly provided. Also good.

コンピュータ110は、構成要素として、CPU103と、信号処理部104と、通信部105と、ROM106と、RAM107と、HDD108と、を有しており、これらの要素は、システムバス101に接続され、システムバス101を介して、制御信号やデータのやり取りが行われる。   The computer 110 includes, as components, a CPU 103, a signal processing unit 104, a communication unit 105, a ROM 106, a RAM 107, and an HDD 108. These components are connected to a system bus 101 and are connected to a system. Control signals and data are exchanged via the bus 101.

例えば、図4に示した脈拍検出フローに対応するプログラムが、HDD108に予め記憶され、操作部112での操作に従って、CPU103でプログラムの読み出し命令が実行される。HDD108から読み出されたプログラムは、CPU103からの命令に従って、RAM107に格納される。また、正弦波モデル波形のテーブル等も、HDD108から読み出され、RAM107に格納される。   For example, a program corresponding to the pulse detection flow shown in FIG. 4 is stored in the HDD 108 in advance, and a program read command is executed by the CPU 103 in accordance with an operation on the operation unit 112. A program read from the HDD 108 is stored in the RAM 107 in accordance with an instruction from the CPU 103. A table of sine wave model waveforms and the like are also read from the HDD 108 and stored in the RAM 107.

なお、HDD108から読み出されたプログラムやテーブルは、そのサイズによっては、ROM106に格納されてもよい。一度、HDD108からの読み出しが行われれば、以降は、直接、ROM106からプログラムをRAM107に記憶させることができる。   Note that the programs and tables read from the HDD 108 may be stored in the ROM 106 depending on the size. Once reading from the HDD 108 is performed, the program can be directly stored in the RAM 107 from the ROM 106 thereafter.

CPU103からの命令に従って、RAM107に格納されたプログラムが実行される。CPU103がプログラムからの命令を解釈し、各種のデータ処理及び制御を行う。   A program stored in the RAM 107 is executed in accordance with an instruction from the CPU 103. The CPU 103 interprets instructions from the program and performs various data processing and control.

信号処理部105は、CPU103からの命令に従って、画像の領域分割や顔領域の抽出等の処理を行う。   The signal processing unit 105 performs processing such as image region division and face region extraction in accordance with instructions from the CPU 103.

通信部105は、物理インタフェース(図示せず)等を介して、外部とのデータのやり取りを行う。例えば、顔検出で用いられるデータベース等は、通信部105を介して、HDD108またはROM106に記憶される。光ファイバ等を用いた有線通信や無線通信等で外部との通信を行うことができ、通信方式は、システムやコンピュータの仕様等によって適宜決定される。   The communication unit 105 exchanges data with the outside via a physical interface (not shown) or the like. For example, a database or the like used for face detection is stored in the HDD 108 or the ROM 106 via the communication unit 105. Communication with the outside can be performed by wired communication or wireless communication using an optical fiber or the like, and the communication method is appropriately determined depending on the specifications of the system and the computer.

なお、通信部105を介して、プログラム自体を外部ソースから読み込むことが可能であり、プログラムの処理結果も通信部105を介して、外部ソースに保存することが可能である。この場合は、プログラムや処理結果の保存のためだけに、HDD108を設ける必要は特にない。   Note that the program itself can be read from an external source via the communication unit 105, and the processing result of the program can also be stored in the external source via the communication unit 105. In this case, it is not particularly necessary to provide the HDD 108 only for storing programs and processing results.

また、HDD108の代わりに、あるいはこれとは別に、携帯可能な記録媒体の読み出し/書き込み部を設けてもよい。プログラムや正弦波モデル波形のテーブル等をこの記録媒体に格納し、処理結果も、直接、記録媒体に書き込んでもよい。   Further, a portable recording medium read / write unit may be provided instead of or separately from the HDD 108. A program, a table of sine wave model waveforms, etc. may be stored in this recording medium, and the processing result may be directly written in the recording medium.

記録媒体が光ディスクであれば、光ディスクドライブを、ICカードであれば、ICカードリーダー/ライターを、USBメモリであれば、USB端子接続口を設けてもよい。   If the recording medium is an optical disk, an optical disk drive may be provided, if it is an IC card, an IC card reader / writer may be provided, and if it is a USB memory, a USB terminal connection port may be provided.

なお、上述した構成はあくまで一例であり、撮影対象や場所、あるいは脈拍検出プログラムの内容等に応じて、適宜、変更可能である。   Note that the above-described configuration is merely an example, and can be changed as appropriate in accordance with the subject to be imaged, the location, the contents of the pulse detection program, and the like.

例えば、カメラを内蔵するスマートフォンやカメラを内蔵するノート型コンピュータを使用する場合は、脈拍検出システム100を1台の機器で実現することも可能である。   For example, when using a smartphone with a built-in camera or a notebook computer with a built-in camera, the pulse detection system 100 can be realized with a single device.

(実施の形態2)
監視カメラや電子機器に設置されたカメラを用いて脈拍検出を行おうとすると、以下に示す問題が起こりうる。
(Embodiment 2)
When trying to detect a pulse using a surveillance camera or a camera installed in an electronic device, the following problems may occur.

まず、画像取得のために、常に撮影対象となる人のいる方向にカメラを向ける必要があるが、対象者にとっては常に監視されている感覚が強く、不快になる場合がある。また、カメラの通信系がハッキングされた場合には、撮影対象となる人の普段の生活映像が意図せずに流出し、プライバシーが侵害される可能性がある。   First, in order to acquire an image, it is necessary to point the camera in the direction where the person to be photographed is always present. In addition, when a camera communication system is hacked, a normal life image of a person to be photographed may be unintentionally leaked and privacy may be infringed.

そこで、カメラのレンズを特殊なタイプ、例えばレンチキュラータイプにしたり、レンズの前にすりガラス等の散光部材を配置する等して、画像を不鮮明にして撮影を行うことが考えられる。   In view of this, it is conceivable that the camera lens is made a special type, for example, a lenticular type, or a light diffusing member such as frosted glass is arranged in front of the lens to take a picture with a blurred image.

しかし、画像が不鮮明な場合、人が動いている状態であれば、動きから人を検出することはできるが、宅内のリビングなどでくつろいでいるシーンでは人の動きが少ないため、人検出ができない。人検出ができない状況では、顔や肌領域の検出も困難である。   However, if the image is unclear, if the person is moving, the person can be detected from the movement, but the person cannot be detected because the movement of the person is small in a relaxing scene in the living room. . In situations where human detection is not possible, it is also difficult to detect faces and skin areas.

そこで、本実施の形態では、顔検出や肌領域検出を行う前に人検出を行って、確実に脈拍検出を行うことができる構成を開示する。   Therefore, in this embodiment, a configuration is disclosed in which human detection is performed before face detection or skin area detection, and pulse detection can be reliably performed.

図21は、本実施の形態に係る脈拍検出装置の機能的構成を示すブロック図である。   FIG. 21 is a block diagram showing a functional configuration of the pulse detection device according to the present embodiment.

図22は、人検出器の処理機能の例を示す図である。   FIG. 22 is a diagram illustrating an example of the processing function of the human detector.

図23は、脈拍検出装置内での信号の流れを示すブロック線図である。   FIG. 23 is a block diagram showing a signal flow in the pulse detection device.

本実施の形態に示した構成と実施の形態1に示した構成との相違点は、図1に示す散光部11を設けた点と、撮像部12からの画像信号を人検出器20に送って、画像内での人の有無を検出した後に、顔検出器13以降の構成を用いて脈拍検出を行う点にある。   The difference between the configuration shown in the present embodiment and the configuration shown in the first embodiment is that the diffuser 11 shown in FIG. 1 is provided and the image signal from the imaging unit 12 is sent to the human detector 20. Thus, after detecting the presence or absence of a person in the image, the pulse detection is performed using the configuration after the face detector 13.

散光部11は、上記の通り、撮像部12のレンズを特殊なタイプ、例えばレンチキュラータイプにしたり、レンズの前にすりガラス等の散光部材を配置する等して、周囲の領域から入射する光を散乱および/または減光する機能を有する。   As described above, the light diffusing unit 11 scatters light incident from the surrounding area by making the lens of the imaging unit 12 a special type, for example, a lenticular type, or by arranging a light diffusing member such as frosted glass in front of the lens. And / or has the function of dimming.

散光部11は、図20に示すハードウェア構成において、ビデオカメラ102に組み込まれていてもよいし、別に設けられていてもよい。   The light diffuser 11 may be incorporated in the video camera 102 in the hardware configuration shown in FIG. 20 or may be provided separately.

本実施の形態に係る脈拍検出装置10では、図2に示すように、顔検出器13、ノイズ低減器14、脈拍算出器15のそれぞれにおいて、複数の異なる方法で処理を実行することができる。さらに、図22に示すように、人検出器20において、複数の異なる方法で処理を実行することができる。   In the pulse detection device 10 according to the present embodiment, as shown in FIG. 2, each of the face detector 13, the noise reducer 14, and the pulse calculator 15 can execute processing by a plurality of different methods. Further, as shown in FIG. 22, the human detector 20 can execute processing by a plurality of different methods.

従って、図23に示すように、撮像領域の状況や、撮像領域内の人の状況や、各機能ブロックでの処理結果等に応じて、最適な組合せとなるように、撮像部12で得られた画像信号に対する、各機能ブロックでの処理方法を選択することができる。   Therefore, as shown in FIG. 23, the imaging unit 12 obtains an optimal combination according to the situation of the imaging area, the situation of people in the imaging area, the processing result in each functional block, and the like. It is possible to select a processing method in each functional block for the received image signal.

なお、図3に示す、顔検出1、顔検出2等のブロックは、図2に示す顔検出器の処理方法1、2等に対応していることは実施の形態1と同様である。また、図23に示す人検出1、人検出2のブロックは、図22に示す人検出器の処理方法1、2に対応している。   The blocks such as face detection 1 and face detection 2 shown in FIG. 3 correspond to the processing methods 1 and 2 of the face detector shown in FIG. The human detection 1 and human detection 2 blocks shown in FIG. 23 correspond to the processing methods 1 and 2 of the human detector shown in FIG.

本実施の形態における脈拍検出方法を、図24を用いて説明する。なお、実施の形態1で説明したステップについては、必要な範囲で最小限の説明に留めている。   A pulse detection method in the present embodiment will be described with reference to FIG. Note that the steps described in Embodiment 1 are limited to the minimum necessary extent.

図24は、本実施の形態に係る脈拍検出フローチャートの好ましい一例である。   FIG. 24 is a preferred example of a pulse detection flowchart according to the present embodiment.

(ステップS100:散光ステップ/撮像ステップ)
撮像部12に入射する周囲の領域からの光を、散光部11で散乱および/または減光する。この状態で、撮像部12において、周辺の領域を撮影する。撮像領域は、屋外であっても、屋内であってもよい。
(Step S100: Diffuse Step / Imaging Step)
Light from a surrounding region incident on the imaging unit 12 is scattered and / or attenuated by the light scattering unit 11. In this state, the imaging unit 12 captures the surrounding area. The imaging area may be outdoors or indoors.

(ステップS110:人検出ステップ)
撮像部12で取得された画像信号は、人検出器13に送られ、この画像信号に基づいて、撮像領域における人の顔を検出する。
(Step S110: Person detection step)
The image signal acquired by the imaging unit 12 is sent to the human detector 13, and based on this image signal, a human face in the imaging region is detected.

なお、人検出に失敗した場合は、撮像領域内に人が存在しないものとして、ステップS100に戻って撮影を続行する。   If the person detection fails, it is assumed that there is no person in the imaging area, and the process returns to step S100 to continue shooting.

(人検出ステップ1)
図25は、本実施の形態に係る撮像部で取得された人の画像の一例である。
(People detection step 1)
FIG. 25 is an example of a human image acquired by the imaging unit according to the present embodiment.

図26は、本実施の形態に係る人検出方法の一例を示す図である。   FIG. 26 is a diagram showing an example of a person detection method according to the present embodiment.

図25のうち、左側の図は、レンチキュラータイプのレンズを用いた場合の画像の一例であり、右側の図は、すりガラスを通して撮影を行った場合の画像の一例である。いずれの場合も画像が不鮮明であり、このままでは、例えば、Haar−like特徴量の抽出などはできない。   In FIG. 25, the left figure is an example of an image when a lenticular type lens is used, and the right figure is an example of an image when photographing is carried out through ground glass. In either case, the image is unclear, and for example, Haar-like feature values cannot be extracted.

そこで、実施の形態1における脈拍検出フローのステップS20のうち、顔検出ステップ2で説明したように、撮影された画像を領域分割し、分割された各領域において、画像の輝度値の平均値を求め、この値の時間変化を観測する。   Therefore, in step S20 of the pulse detection flow in the first embodiment, as described in face detection step 2, the captured image is divided into regions, and the average value of the luminance value of the image is calculated in each divided region. Obtain and observe the time change of this value.

不鮮明な画像であっても、顔や肌が露出している領域からは、脈拍に関連した周期的変化が観測しやすい。この周期的変化の観測により、対象領域において、人の顔や肌が露出しているかどうかを検出できる。   Even if the image is unclear, it is easy to observe a periodic change related to the pulse from the area where the face and skin are exposed. By observing this periodic change, it is possible to detect whether a human face or skin is exposed in the target region.

また、画像領域の分割サイズを適切に設定することにより、検出感度を向上できる。   Further, detection sensitivity can be improved by appropriately setting the division size of the image area.

なお、画像の領域分割に関しては、図19に示したように、均等に分割する必要は必ずしもなく、図7に示すように、領域が重複していても良い。   As shown in FIG. 19, it is not always necessary to divide the area of the image as shown in FIG. 19, and the areas may overlap as shown in FIG.

また、図8を用いて説明したように、パーティクルフィルタを用いた追跡処理を行い、1フレーム前の結果の周辺だけを探索することにより計算時間の短縮を行うこともできる。   Further, as described with reference to FIG. 8, the tracking time using the particle filter is performed, and only the vicinity of the result of the previous frame can be searched to reduce the calculation time.

このパーティクルフィルタを用いることにより、顔が隠れたり、前後することによる大きさの変化にも対応できるようになる。   By using this particle filter, it becomes possible to cope with changes in size due to the face being hidden or moving back and forth.

(人検出ステップ2)
実施の形態1における脈拍検出フローのステップS20のうち、顔検出ステップ3で説明したように、画像を領域分割し、分割された各々の領域で、平均輝度値の時間変化波形と正弦波モデル波形との比較を行うことにより、人領域の検出を行うことができる。
(People detection step 2)
As described in face detection step 3 in step S20 of the pulse detection flow in the first embodiment, the image is divided into regions, and the time-varying waveform of the average luminance value and the sine wave model waveform in each of the divided regions. The human region can be detected by comparing with.

画像信号の輝度値の周期的変化から顔検出を行うためには、検出直前の十数秒から数十秒間のデータを複数保持する必要がある。本方法によれば、保持するデータ数を少なくすることができ、より短時間での人検出が可能となる。   In order to perform face detection from a periodic change in the luminance value of an image signal, it is necessary to hold a plurality of pieces of data from the tens of seconds to tens of seconds immediately before detection. According to this method, the number of data to be held can be reduced, and human detection can be performed in a shorter time.

また、撮影した画像の状況、特に人の状況によって、適切な人検出方法は異なる。例えば、人が移動しているときには、短時間で人を検出できるのが好ましい。   In addition, an appropriate person detection method varies depending on the situation of the captured image, particularly the situation of a person. For example, when a person is moving, it is preferable that the person can be detected in a short time.

本実施の形態では、撮像力域内での人の状況によって、人検出ステップ1または2を任意かつ適切に選択し、使用することができる。   In the present embodiment, the human detection step 1 or 2 can be arbitrarily and appropriately selected and used depending on the situation of the person within the imaging power range.

なお、人検出器20には動き検出部20aを設けてもよい。この場合は、動き検出部20aで検出された撮像領域内の動きに関する情報と画像の輝度値からの情報とを統合して人がいる領域を決定する。   The human detector 20 may be provided with a motion detector 20a. In this case, the area where the person is present is determined by integrating the information on the motion in the imaging area detected by the motion detection unit 20a and the information from the luminance value of the image.

いずれの場合でも、人の有無を検出することができ、検出結果として、人の存在領域、具体的には、撮像領域内の人数と位置とが出力される。   In any case, the presence / absence of a person can be detected, and the presence area of the person, specifically, the number and position of the person in the imaging area is output as the detection result.

(ステップS120:顔検出ステップからステップS160:ストレス度、覚醒度測定ステップまで)
ステップS110で人検出に成功した場合は、顔検出ステップS120に進む。顔検出が成功した場合は、顔位置が周期的に移動しているかどうかを判定し(ステップS130)、顔位置が周期的に移動していれば、ノイズ低減ステップS140、脈拍算出ステップS150、ストレス度、覚醒度測定ステップS160へと順次進む。
(From step S120: face detection step to step S160: stress level and arousal level measurement step)
If person detection is successful in step S110, the process proceeds to face detection step S120. If the face detection is successful, it is determined whether or not the face position is periodically moved (step S130). If the face position is periodically moved, the noise reduction step S140, the pulse calculation step S150, the stress Then, the process proceeds to step S160.

ステップS120における顔検出方法、ステップS130における顔位置周期性判定方法、ステップS140におけるノイズ低減方法、ステップS150における脈拍推定、算出方法、及びステップS160におけるストレス度、覚醒度測定方法は、実施の形態1における脈拍検出フローに示したステップS20、ステップS30、ステップS40、ステップS50及びステップS60に示したのとそれぞれ同様である。   The face detection method in step S120, the face position periodicity determination method in step S130, the noise reduction method in step S140, the pulse estimation and calculation method in step S150, and the stress level and arousal level measurement method in step S160 are described in the first embodiment. These are the same as those shown in Step S20, Step S30, Step S40, Step S50 and Step S60 shown in the pulse detection flow in FIG.

(ステップS141:ノイズ低減ステップからステップS161:ストレス度、覚醒度測定ステップまで)
ステップS130において、顔位置の動きに周期性が見られなければ、ノイズ低減ステップS141、脈拍算出ステップS151、ストレス度、覚醒度測定ステップS161へと順次進む。
(From step S141: noise reduction step to step S161: stress level and arousal level measurement step)
If no periodicity is found in the movement of the face position in step S130, the process proceeds in sequence to noise reduction step S141, pulse calculation step S151, stress level, and arousal level measurement step S161.

ステップS141におけるノイズ低減方法、ステップS151における脈拍推定、算出方法、及びステップS161におけるストレス度、覚醒度測定方法は、実施の形態1における脈拍検出フローに示したステップS41、ステップS51及びステップS61に示したのとそれぞれ同様である。   The noise reduction method in step S141, the pulse estimation and calculation method in step S151, and the stress level and wakefulness measurement method in step S161 are shown in steps S41, S51, and S61 shown in the pulse detection flow in the first embodiment. It is the same as each.

(ステップS142:ノイズ低減ステップからステップS162:ストレス度、覚醒度測定ステップまで)
ステップS120において、顔検出に失敗した場合は、肌領域検出ステップS142、脈拍算出ステップS152、ストレス度、覚醒度測定ステップS162へと順次進む。
(From Step S142: Noise Reduction Step to Step S162: Stress Level and Arousal Level Measurement Step)
In step S120, if face detection fails, the process proceeds to skin region detection step S142, pulse calculation step S152, stress level, and arousal level measurement step S162.

ステップS142における肌領域検出方法、ステップS152における脈拍推定、算出方法、及びステップS162におけるストレス度、覚醒度測定方法は、実施の形態1における脈拍検出フローに示したステップS42、ステップS52及びステップS62に示したのとそれぞれ同様である。   The skin region detection method in step S142, the pulse estimation and calculation method in step S152, and the stress level and arousal level measurement method in step S162 are the same as those in steps S42, S52, and S62 shown in the pulse detection flow in the first embodiment. Each is the same as shown.

以上、説明したように、本実施の形態によれば、撮影対象となる人のプライバシーを守りつつ、かつ、撮像領域において、人の動きがあったり、顔が隠れていたり、顔が撮像部12の方向を向いていないような種々の場合に対しても、各機能ブロックにおいて、適切な処理方法を選択して脈拍検出処理を行うことにより、撮像部12で取得した画像から、直接的に、人の脈拍やストレス度、覚醒度を求めることができる。   As described above, according to the present embodiment, while protecting the privacy of the person to be imaged, the person is moving, the face is hidden, the face is the imaging unit 12 in the imaging area. Even in various cases in which the direction is not directed, in each functional block, by selecting an appropriate processing method and performing pulse detection processing, directly from the image acquired by the imaging unit 12, A person's pulse rate, stress level, and arousal level can be obtained.

なお、本実施形態における脈拍検出方法は、図24に示した方法に限定されるものでなく、図23に示したように、撮像領域の状況や、その中での人の状況、各機能ブロックでの処理結果等に応じて、予め用意された種々の処理方法を組み合わせて、脈拍検出を行うことができる。   The pulse detection method in the present embodiment is not limited to the method shown in FIG. 24. As shown in FIG. 23, the situation of the imaging region, the situation of the person in the situation, and each function block In accordance with the processing result or the like, pulse detection can be performed by combining various processing methods prepared in advance.

なお、本実施形態において、脈拍検出の対象は人であるが、動物等の人以外の生体に対しても、本発明に係る脈拍検出は適用可能である。   In this embodiment, the target of pulse detection is a person, but the pulse detection according to the present invention can be applied to a living body other than a person such as an animal.

(その他の実施の形態)
上述した構成以外に、他の構成も採りうる。例えば、実施の形態1において、散光部11を設ける構成も採りうる。
(Other embodiments)
In addition to the configuration described above, other configurations can be adopted. For example, in Embodiment 1, the structure which provides the diffuser part 11 can also be taken.

散光部11を設けることにより、撮像部12への入射光が散乱ないし減光されるため、得られる画像は不鮮明な画像となる一方、画像情報から直接、人物が特定されることは回避できる。対象となる人がカメラ前にいるのが明白な場合の脈拍等の検査がこれに該当する。例えば、病院の検査室での脈拍やストレス度検査で、患者のプライバシーを特に保護する必要がある場合等に、本発明の脈拍検出装置や脈拍検出方法を適用する場合が挙げられる。   By providing the light diffusing unit 11, the incident light to the imaging unit 12 is scattered or dimmed, so that the obtained image becomes a blurred image, but it is possible to avoid specifying a person directly from the image information. This is the case when the subject person is clearly in front of the camera, such as a pulse test. For example, the pulse detection apparatus and the pulse detection method of the present invention may be applied to the case where it is particularly necessary to protect the privacy of a patient in a pulse or stress level test in a hospital laboratory.

また、実施の形態2において、散光部11を設けない構成も採りうる。   Moreover, in Embodiment 2, the structure which does not provide the diffuser part 11 can also be taken.

この場合は、例えば、撮像部12において、機械的にレンズを移動させる等して、撮像焦点をずらして画面を不鮮明にすることで、散光部11は不要となるとともに、撮影される人のプライバシーを守ることもできる。   In this case, for example, by moving the lens mechanically in the imaging unit 12 to shift the imaging focus and blur the screen, the diffuser unit 11 becomes unnecessary, and the privacy of the person who is photographed Can also be protected.

ただし、撮影された対象が人等の生体であるかどうかを知るために、人検出器20による判定は行う必要がある。   However, it is necessary to make a determination by the human detector 20 in order to know whether or not the photographed object is a living body such as a person.

なお、実施の形態1、2、及びその他の実施の形態において、撮影時の光源は、自然光であっても、蛍光灯やLED照明等の人工光であってもよい。光源の波長域に応じて、例えば、脈拍算出に用いる波長成分やノイズ低減に用いる波長成分は、適宜変更可能である。   In the first and second embodiments and other embodiments, the light source at the time of photographing may be natural light or artificial light such as a fluorescent lamp or LED illumination. Depending on the wavelength range of the light source, for example, the wavelength component used for pulse calculation and the wavelength component used for noise reduction can be appropriately changed.

また、撮像部12における撮像素子、光学系等のハード構成を除き、各機能ブロックは、ワイヤードロジックで実現されていてもよい。専用LSI、またはLSI内の専用ブロックでの実現も可能である。   In addition, each functional block may be realized by wired logic, except for hardware configurations such as an imaging element and an optical system in the imaging unit 12. Realization with a dedicated LSI or a dedicated block in the LSI is also possible.

本発明の脈拍検出装置は、撮像領域において、人の動きがあったり、顔が隠れていたり、顔が撮像部の方向を向いていないような種々の場合に対しても、撮像部12で取得した画像から、直接的に、人の脈拍やストレス度、覚醒度を求めることができ、極めて有用である。   The pulse detection device of the present invention is acquired by the imaging unit 12 even in various cases where there is a person's movement in the imaging region, the face is hidden, or the face is not facing the direction of the imaging unit. It is extremely useful because the pulse, stress level, and arousal level of a person can be obtained directly from the captured image.

10 脈拍検出装置
11 散光部
12 撮像部
13 顔検出器
13a 顔器官検出部
14 ノイズ低減器
15 脈拍算出器
16 ストレス度測定器
17 覚醒度測定器
20 人検出器(生体検出器)
20a 動き検出部
100 脈拍検出システム
101 システムバス
102 ビデオカメラ
103 CPU
104 信号処理部
105 通信部
106 ROM
107 RAM
108 HDD
110 コンピュータ
111 ディスプレイ
112 操作部
DESCRIPTION OF SYMBOLS 10 Pulse detection apparatus 11 Diffuse part 12 Imaging part 13 Face detector 13a Face organ detection part 14 Noise reducer 15 Pulse calculator 16 Stress degree measuring instrument 17 Arousal degree measuring instrument 20 Human detector (biological detector)
20a Motion detection unit 100 Pulse detection system 101 System bus 102 Video camera 103 CPU
104 Signal processing unit 105 Communication unit 106 ROM
107 RAM
108 HDD
110 Computer 111 Display 112 Operation unit

Claims (23)

生体の脈拍を検出する脈拍検出装置であって、
所定の撮像領域を撮像し、画像信号を取得する撮像部と、
前記画像信号に基づいて前記生体の顔領域または肌領域を検出する顔検出器と、
検出された前記顔領域または前記肌領域からの画像信号からノイズを除去するノイズ除去器と、
ノイズが除去された前記顔領域または前記肌領域からの前記画像信号から脈拍を算出する脈拍算出器と、を備える、脈拍検出装置。
A pulse detection device for detecting a pulse of a living body,
An imaging unit for imaging a predetermined imaging area and acquiring an image signal;
A face detector for detecting a face area or a skin area of the living body based on the image signal;
A noise remover that removes noise from the detected image signal from the face area or the skin area;
And a pulse calculator for calculating a pulse from the image signal from the face area or the skin area from which noise has been removed.
前記顔検出器、前記ノイズ除去器、及び前記脈拍算出器は、それぞれ、複数の処理方法に対応しており、前記撮像領域及び前記生体の状況に応じて、前記複数の処理方法から一の前記処理方法を選択して、処理を実行するように構成される、請求項1に記載の脈拍検出装置。   The face detector, the noise remover, and the pulse calculator each correspond to a plurality of processing methods, and one of the plurality of processing methods is selected according to the imaging region and the state of the living body. The pulse detection device according to claim 1, configured to select a processing method and execute the processing. 前記顔検出器は、
前記撮像領域内の前記画像信号の輝度値における局所的明暗差を検出し、前記明暗差に基づいた多数決論理により前記顔領域を検出するように構成される、請求項2に記載の脈拍検出装置。
The face detector is
The pulse detection device according to claim 2, configured to detect a local light / dark difference in a luminance value of the image signal in the imaging region and detect the face region by majority logic based on the light / dark difference. .
前記顔検出器は、
前記撮像領域における画像を分割し、分割された各領域からの前記画像信号に基づいて、前記顔領域または前記肌領域を検出するように構成される、請求項2に記載の脈拍検出装置。
The face detector is
The pulse detection device according to claim 2, wherein the pulse detection device is configured to divide an image in the imaging region and detect the face region or the skin region based on the image signal from each of the divided regions.
前記顔検出器は、
前記撮像領域における画像を分割し、分割された各領域からの前記画像信号の時間変化波形と、正弦波で表わされるモデル波形とを比較して得られた結果に基づいて、前記顔領域または前記肌領域を検出するように構成される、請求項2に記載の脈拍検出装置。
The face detector is
Based on the result obtained by dividing the image in the imaging region and comparing the time-varying waveform of the image signal from each divided region with the model waveform represented by a sine wave, The pulse detection device according to claim 2, configured to detect a skin region.
前記ノイズ除去器は、
前記撮像領域における前記顔領域の位置情報を周波数分析して、得られた前記位置情報の特定の周波数成分を、前記顔領域からの画像信号から除去するように構成される、請求項2に記載の脈拍検出装置。
The noise remover is
The position information of the face area in the imaging area is frequency-analyzed, and the specific frequency component of the obtained position information is removed from the image signal from the face area. Pulse detector.
前記ノイズ除去器は、
前記画像信号のうち脈拍成分の検出に用いる波長成分以外の成分の少なくとも一部を、前記顔領域または前記肌領域からの画像信号から除去するように構成される、請求項2に記載の脈拍検出装置。
The noise remover is
The pulse detection according to claim 2, wherein at least a part of a component other than a wavelength component used for detection of a pulse component in the image signal is removed from the image signal from the face region or the skin region. apparatus.
前記脈拍算出器は、
ノイズが除去された後の前記顔領域または前記肌領域からの画像信号を周波数分析して、前記生体の脈拍を算出するように構成される、請求項2に記載の脈拍検出装置。
The pulse calculator is
The pulse detection device according to claim 2, configured to calculate a pulse of the living body by performing frequency analysis on an image signal from the face area or the skin area after noise is removed.
前記脈拍算出器は、
前記顔領域または前記肌領域からの画像信号の時間変化波形と正弦波で表わされるモデル波形とを比較して、前記生体の脈拍を算出するように構成される、請求項2に記載の脈拍検出装置。
The pulse calculator is
The pulse detection according to claim 2, configured to calculate a pulse of the living body by comparing a time-varying waveform of an image signal from the face region or the skin region with a model waveform represented by a sine wave. apparatus.
前記画像信号の周期的変動成分に基づいて前記生体の有無を検出する生体検出器をさらに有し、
前記顔検出器は、前記生体検出器により得られた前記生体の存在領域からの画像信号に基づいて前記顔領域または前記肌領域を検出するように構成される、請求項1に記載の脈拍検出装置。
Further comprising a living body detector for detecting the presence or absence of the living body based on a periodic fluctuation component of the image signal;
2. The pulse detection according to claim 1, wherein the face detector is configured to detect the face region or the skin region based on an image signal from the presence region of the living body obtained by the living body detector. apparatus.
前記生体検出器は、複数の処理方法に対応しており、前記撮像領域及び前記生体の状況に応じて、前記複数の処理方法から一の前記処理方法を選択して、処理を実行するように構成される、請求項10に記載の脈拍検出装置。   The living body detector corresponds to a plurality of processing methods, and selects one processing method from the plurality of processing methods according to the imaging region and the state of the living body, and executes the processing. The pulse detection device according to claim 10, which is configured. 前記生体検出器は、
前記撮像領域における画像を分割し、分割された各領域からの前記画像信号に基づいて、前記生体の有無を検出するように構成される、請求項11に記載の脈拍検出装置。
The biological detector is
The pulse detection device according to claim 11, configured to divide an image in the imaging region and detect presence or absence of the living body based on the image signal from each of the divided regions.
前記生体検出器は、
前記撮像領域における画像を分割し、分割された各領域からの前記画像信号の時間変化波形と正弦波で表わされるモデル波形とを比較して、前記生体の有無を検出するように構成される、請求項11に記載の脈拍検出装置。
The biological detector is
The image in the imaging region is divided, and the time-varying waveform of the image signal from each divided region is compared with a model waveform represented by a sine wave, and configured to detect the presence or absence of the living body. The pulse detection device according to claim 11.
前記撮像部への入射光を散乱および/または減光する散光部をさらに備える、請求項1ないし13のいずれかに記載の脈拍検出装置。   The pulse detection device according to any one of claims 1 to 13, further comprising a diffuser that scatters and / or attenuates light incident on the imaging unit. 前記脈拍算出器より得られた脈拍間隔に基づいて、前記生体のストレス度を測定するストレス測定器をさらに備える、請求項1ないし14のいずれかに記載の脈拍検出装置。   The pulse detection device according to any one of claims 1 to 14, further comprising a stress measurement device that measures a stress level of the living body based on a pulse interval obtained from the pulse calculator. 前記脈拍算出器より得られた脈拍間隔に基づいて、前記生体の覚醒度を測定する覚醒度測定器をさらに備える、請求項1ないし15のいずれかに記載の脈拍検出装置。   The pulse detection device according to any one of claims 1 to 15, further comprising a wakefulness measuring device that measures the wakefulness of the living body based on a pulse interval obtained from the pulse calculator. 生体の脈拍を検出する脈拍検出方法であって、
所定の撮像領域を撮像し、画像信号を得る撮像ステップと、
前記画像信号に基づいて前記生体の顔領域または肌領域を検出する顔検出ステップと、
検出された前記顔領域または前記肌領域からの画像信号からノイズを除去するノイズ除去ステップと、
ノイズが除去された前記顔領域または前記肌領域からの画像信号から脈拍を算出する脈拍算出ステップと、を備える、脈拍検出方法。
A pulse detection method for detecting a pulse of a living body,
An imaging step of imaging a predetermined imaging area and obtaining an image signal;
A face detection step of detecting a face area or a skin area of the living body based on the image signal;
A noise removal step of removing noise from the detected image signal from the face area or the skin area;
And a pulse calculating step of calculating a pulse from the image signal from the face area or the skin area from which noise has been removed.
前記顔検出ステップ、前記ノイズ除去ステップ、及び前記脈拍算出ステップは、それぞれ、複数の処理方法に対応しており、前記撮像領域及び前記生体の状況に応じて、前記複数の処理方法から一の前記処理方法を選択して、処理を実行する、請求項17に記載の脈拍検出方法。   The face detection step, the noise removal step, and the pulse calculation step each correspond to a plurality of processing methods, and one of the plurality of processing methods is selected according to the imaging region and the state of the living body. The pulse detection method according to claim 17, wherein the processing is executed by selecting a processing method. 前記画像信号の周期的変動成分に基づいて前記生体の有無を検出する生体検出ステップ、をさらに備え、
前記顔検出ステップにおいて、
前記生体検出ステップにより得られた前記生体の存在領域からの画像信号に基づいて前記顔領域または前記肌領域を検出する、請求項18に記載の脈拍検出方法。
A living body detecting step of detecting the presence or absence of the living body based on a periodic variation component of the image signal,
In the face detection step,
The pulse detection method according to claim 18, wherein the face area or the skin area is detected based on an image signal obtained from the living body presence area obtained by the living body detection step.
前記生体検出ステップは、複数の処理方法に対応しており、前記撮像領域及び前記生体の状況に応じて、前記複数の処理方法から一の前記処理方法を選択して、処理を実行する、請求項19に記載の脈拍検出方法。   The living body detection step corresponds to a plurality of processing methods, and selects one processing method from the plurality of processing methods according to the imaging region and the state of the living body, and executes the processing. Item 20. The pulse detection method according to Item 19. 前記撮像領域からの光を散乱および/または減光して、撮像部に入力する散光ステップをさらに備える、請求項17ないし20のいずれかに記載の脈拍検出方法。   21. The pulse detection method according to claim 17, further comprising a scattering step of scattering and / or dimming light from the imaging region and inputting the light to the imaging unit. 前記脈拍算出ステップで得られた脈拍間隔に基づいて、前記生体のストレス度を測定するストレス測定ステップをさらに備える、請求項17ないし21のいずれかに記載の脈拍検出方法。   The pulse detection method according to any one of claims 17 to 21, further comprising a stress measurement step of measuring a stress level of the living body based on a pulse interval obtained in the pulse calculation step. 前記脈拍算出ステップで得られた脈拍間隔に基づいて、前記生体の覚醒度を測定する覚醒度測定ステップをさらに備える、請求項17ないし22のいずれかに記載の脈拍検出方法。   The pulse detection method according to any one of claims 17 to 22, further comprising a wakefulness measurement step of measuring the wakefulness of the living body based on the pulse interval obtained in the pulse calculation step.
JP2016212961A 2016-10-31 2016-10-31 Pulse detection device and pulse detection method Active JP6817782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016212961A JP6817782B2 (en) 2016-10-31 2016-10-31 Pulse detection device and pulse detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212961A JP6817782B2 (en) 2016-10-31 2016-10-31 Pulse detection device and pulse detection method

Publications (2)

Publication Number Publication Date
JP2018068720A true JP2018068720A (en) 2018-05-10
JP6817782B2 JP6817782B2 (en) 2021-01-20

Family

ID=62113175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212961A Active JP6817782B2 (en) 2016-10-31 2016-10-31 Pulse detection device and pulse detection method

Country Status (1)

Country Link
JP (1) JP6817782B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112638244A (en) * 2018-09-10 2021-04-09 三菱电机株式会社 Information processing apparatus, program, and information processing method
JP7443044B2 (en) 2019-12-13 2024-03-05 シャープ株式会社 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151079A (en) * 2003-11-14 2005-06-09 Fuji Photo Film Co Ltd Digital camera and solid-state imaging apparatus
JP2007304707A (en) * 2006-05-09 2007-11-22 Denso Wave Inc Information code reader
JP2010146395A (en) * 2008-12-19 2010-07-01 Olympus Corp Image processing device, image processing method, image processing program, and electronic equipment
JP2013121420A (en) * 2011-12-09 2013-06-20 Sony Corp Measuring apparatus, measuring method, program, and recording medium
JP2014186560A (en) * 2013-03-22 2014-10-02 Fujitsu Ltd Crime prevention device, crime prevention method, and crime prevention program
JP2014216828A (en) * 2013-04-25 2014-11-17 株式会社テスコムジャパン Monitor camera
JP2015100432A (en) * 2013-11-22 2015-06-04 三星電子株式会社Samsung Electronics Co.,Ltd. Heart rate measuring apparatus and heart rate measuring method
JP2015116368A (en) * 2013-12-19 2015-06-25 富士通株式会社 Pulse measuring device, pulse measuring method and pulse measuring program
JP2016077426A (en) * 2014-10-14 2016-05-16 富士通株式会社 Pulse wave propagation speed calculation system, pulse wave propagation speed calculation method, and pulse wave propagation speed calculation program
WO2016147678A1 (en) * 2015-03-13 2016-09-22 ノーリツプレシジョン株式会社 Vital sign measurement apparatus, vital sign measurement method, and vital sign measurement program
WO2016159150A1 (en) * 2015-03-31 2016-10-06 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program
WO2016163019A1 (en) * 2015-04-10 2016-10-13 株式会社日立製作所 Biological information analyzing system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151079A (en) * 2003-11-14 2005-06-09 Fuji Photo Film Co Ltd Digital camera and solid-state imaging apparatus
JP2007304707A (en) * 2006-05-09 2007-11-22 Denso Wave Inc Information code reader
JP2010146395A (en) * 2008-12-19 2010-07-01 Olympus Corp Image processing device, image processing method, image processing program, and electronic equipment
JP2013121420A (en) * 2011-12-09 2013-06-20 Sony Corp Measuring apparatus, measuring method, program, and recording medium
JP2014186560A (en) * 2013-03-22 2014-10-02 Fujitsu Ltd Crime prevention device, crime prevention method, and crime prevention program
JP2014216828A (en) * 2013-04-25 2014-11-17 株式会社テスコムジャパン Monitor camera
JP2015100432A (en) * 2013-11-22 2015-06-04 三星電子株式会社Samsung Electronics Co.,Ltd. Heart rate measuring apparatus and heart rate measuring method
JP2015116368A (en) * 2013-12-19 2015-06-25 富士通株式会社 Pulse measuring device, pulse measuring method and pulse measuring program
JP2016077426A (en) * 2014-10-14 2016-05-16 富士通株式会社 Pulse wave propagation speed calculation system, pulse wave propagation speed calculation method, and pulse wave propagation speed calculation program
WO2016147678A1 (en) * 2015-03-13 2016-09-22 ノーリツプレシジョン株式会社 Vital sign measurement apparatus, vital sign measurement method, and vital sign measurement program
WO2016159150A1 (en) * 2015-03-31 2016-10-06 株式会社エクォス・リサーチ Pulse wave detection device and pulse wave detection program
WO2016163019A1 (en) * 2015-04-10 2016-10-13 株式会社日立製作所 Biological information analyzing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112638244A (en) * 2018-09-10 2021-04-09 三菱电机株式会社 Information processing apparatus, program, and information processing method
CN112638244B (en) * 2018-09-10 2024-01-02 三菱电机株式会社 Information processing apparatus, computer-readable storage medium, and information processing method
JP7443044B2 (en) 2019-12-13 2024-03-05 シャープ株式会社 Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium

Also Published As

Publication number Publication date
JP6817782B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
Wang et al. Exploiting spatial redundancy of image sensor for motion robust rPPG
US10004410B2 (en) System and methods for measuring physiological parameters
JP6932150B2 (en) Methods and devices for face detection / recognition systems
RU2656760C2 (en) System and method for extracting physiological information from remotely detected electromagnetic radiation
US9913587B2 (en) Method and system for screening of atrial fibrillation
EP2967376B1 (en) Device and method for determining vital signs of a subject
CN106999116B (en) Apparatus and method for skin detection
KR102322029B1 (en) Method and Apparatus for acquiring a biometric information
JP6521845B2 (en) Device and method for measuring periodic fluctuation linked to heart beat
JP6256488B2 (en) Signal processing apparatus, signal processing method, and signal processing program
KR20120048021A (en) Method and system for image analysis
Liu et al. Multi-channel remote photoplethysmography correspondence feature for 3d mask face presentation attack detection
JP6504959B2 (en) Image processing method and program for stress monitoring
JP6817782B2 (en) Pulse detection device and pulse detection method
JP2020537552A (en) Computer implementation methods and systems for direct photopretismography (PPG) with multiple sensors
EP3422931B1 (en) Device, system and method for determining a vital sign of a subject
TWI652040B (en) Non-contact living body identification method
JP2018196426A (en) Pore detection method and pore detection device
JP7124974B2 (en) Blood volume pulse signal detection device, blood volume pulse signal detection method, and program
KR20130142570A (en) Method and apparatus for measuring physiological signal usuing infrared image
Lee et al. Smartphone-based heart-rate measurement using facial images and a spatiotemporal alpha-trimmed mean filter
Mejia-Herrera et al. Presentation Attack Detection using Heart Rate from Amplified Color Videos and Pulse Oximeter Information
US20230346296A1 (en) Monitoring of Autonomic Nervous System Activity Through Sweat Pore Activation
Nithyaa et al. Contactless measurement of heart rate from live video and comparison with standard method
KR102122973B1 (en) Method for estimating emotion by measuring micro movement of human body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201225

R150 Certificate of patent or registration of utility model

Ref document number: 6817782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150