JP2010264095A - Heart rate measuring apparatus and heart rate measuring method - Google Patents

Heart rate measuring apparatus and heart rate measuring method Download PDF

Info

Publication number
JP2010264095A
JP2010264095A JP2009118443A JP2009118443A JP2010264095A JP 2010264095 A JP2010264095 A JP 2010264095A JP 2009118443 A JP2009118443 A JP 2009118443A JP 2009118443 A JP2009118443 A JP 2009118443A JP 2010264095 A JP2010264095 A JP 2010264095A
Authority
JP
Japan
Prior art keywords
heart rate
user
temperature information
rate measuring
temperature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009118443A
Other languages
Japanese (ja)
Other versions
JP5446443B2 (en
Inventor
Toshiyuki Shimizu
俊行 清水
Okiyoshi Nanbu
起可 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009118443A priority Critical patent/JP5446443B2/en
Publication of JP2010264095A publication Critical patent/JP2010264095A/en
Application granted granted Critical
Publication of JP5446443B2 publication Critical patent/JP5446443B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a heart rate measuring apparatus which can measure the heart rate of a living body without coming into contact with the living body. <P>SOLUTION: This heart rate measuring apparatus includes: acquiring means 10 to 13 which acquire temperature information at one or two or more areas of the living body; an extracting means which extracts frequency data corresponding to the frequency component of a frequency zone being equivalent to the heart rate of the living body; and a measuring means which measures the heart rate of the living body conforming to the frequency data which has been extracted by the extracting means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、心拍数測定装置および心拍数測定方法に関するものである。   The present invention relates to a heart rate measuring device and a heart rate measuring method.

従来、被測定者の鼻腔の温度の時間変化を赤外線カメラで測定することにより、被測定者に接触することなく、被測定者の呼吸の回数や呼吸の強弱等を測定する技術が知られている(特許文献1)。   Conventionally, a technique for measuring the number of breaths of a person to be measured, the intensity of breathing, etc. without touching the person to be measured by measuring the time change of the temperature of the nasal cavity of the person to be measured without using an infrared camera is known. (Patent Document 1).

特開平9−253071号公報Japanese Patent Laid-Open No. 9-253071

しかしながら、従来技術は、被測定者の呼吸の測定を目的とするものであり、被測定者の心拍数を測定することはできなかった。   However, the conventional technique is intended to measure the respiration of the measurement subject and cannot measure the heart rate of the measurement subject.

本発明が解決しようとする課題は、生体に接触することなく、生体の心拍数を測定可能な心拍数測定装置を提供することである。   The problem to be solved by the present invention is to provide a heart rate measuring device capable of measuring the heart rate of a living body without contacting the living body.

本発明は、生体の1または2以上の部位の温度情報から、生体の心拍に対応する周波数帯域の周波数成分を抽出し、この周波数成分に基づき、生体の心拍数を測定することにより、上記課題を解決する。   The present invention extracts the frequency component of the frequency band corresponding to the heartbeat of the living body from the temperature information of one or more parts of the living body, and measures the heart rate of the living body based on the frequency component. To solve.

本発明によれば、生体の1または2以上の部位の温度情報から、周波数成分を取得することができるため、生体に接触することなく、生体の心拍数を測定することができる。   According to the present invention, since the frequency component can be acquired from the temperature information of one or more parts of the living body, the heart rate of the living body can be measured without contacting the living body.

第1実施形態に係る心拍数計測システムの構成を示す図である。It is a figure which shows the structure of the heart rate measuring system which concerns on 1st Embodiment. 第1実施係に係る心拍数計測処理を示すフローチャートである。It is a flowchart which shows the heart rate measurement process which concerns on 1st implementation person. 赤外線カメラにより撮像された熱画像の一例を示す図である。It is a figure which shows an example of the thermal image imaged with the infrared camera. 図3に示す熱画像のうち、ユーザの鼻腔部周辺を拡大して示した拡大図である。It is the enlarged view which expanded and showed the user's nasal cavity part periphery among the thermal images shown in FIG. 鼻突部の温度情報の一例を示す図である。It is a figure which shows an example of the temperature information of a nose protrusion. 図5に示す鼻突部の温度情報からフーリエ変換により変換された周波数成分を示す図である。It is a figure which shows the frequency component converted by the Fourier transform from the temperature information of a nose protrusion shown in FIG. 図6に示す周波数成分から心拍に相当する周波数帯域の周波数成分をバンドパスフィルターにより抽出し、抽出された周波数成分から再変換された温度情報の一例を示す図である。It is a figure which shows an example of the temperature information which extracted the frequency component of the frequency band corresponded to a heartbeat from the frequency component shown in FIG. 6 by the band pass filter, and was reconverted from the extracted frequency component. ウェーブレット変換により、ユーザの心拍数を計測する方法を説明するための図である。It is a figure for demonstrating the method of measuring a user's heart rate by wavelet transformation. 耳朶部の温度情報の一例を示す図である。It is a figure which shows an example of the temperature information of an earlobe part. 図9に示す耳朶部の温度情報からフーリエ変換により変換された周波数成分を示す図である。It is a figure which shows the frequency component converted by the Fourier transform from the temperature information of the earlobe part shown in FIG. 第2実施形態に係る心拍数測定処理を示すフローチャートである。It is a flowchart which shows the heart rate measurement process which concerns on 2nd Embodiment. 第3実施形態に係る心拍数測定処理を示すフローチャートである。It is a flowchart which shows the heart rate measurement process which concerns on 3rd Embodiment. 第4実施形態に係る心拍数測定処理を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the heart rate measurement process which concerns on 4th Embodiment. 第4実施形態に係る心拍数測定処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the heart rate measurement process which concerns on 4th Embodiment. 第5実施形態に係る心拍数測定処理を示すフローチャートである。It is a flowchart which shows the heart rate measurement process which concerns on 5th Embodiment. 複数のセルに分割されたユーザの顔部を示す図である。It is a figure which shows the user's face divided | segmented into the several cell. 第6実施形態に係る心拍数測定処理を示すフローチャートである。It is a flowchart which shows the heart rate measurement process which concerns on 6th Embodiment. 第7実施形態における赤外線カメラの設置例を示す図である。It is a figure which shows the example of installation of the infrared camera in 7th Embodiment. 第7実施形態に係る心拍数測定処理を示すフローチャートである。It is a flowchart which shows the heart rate measurement process which concerns on 7th Embodiment. ユーザの左側に設置された赤外線カメラにより撮像された熱画像の一例を示す図である。It is a figure which shows an example of the thermal image imaged with the infrared camera installed in the user's left side. 第8実施形態に係る心拍数測定システムを示す構成図である。It is a block diagram which shows the heart rate measurement system which concerns on 8th Embodiment. 第8実施形態に係る心拍数測定処理を示すフローチャートである。It is a flowchart which shows the heart rate measurement process which concerns on 8th Embodiment. 可視光カメラを用いてユーザの部位を特定する方法を説明するための図であって、可視光カメラにより撮像された輝度画像を示す図である。It is a figure for demonstrating the method of specifying a user's site | part using a visible light camera, Comprising: It is a figure which shows the brightness | luminance image imaged with the visible light camera. 可視光カメラを用いてユーザの部位を特定する方法を説明するための図であって、赤外線カメラにより撮像された熱画像を示す図である。It is a figure for demonstrating the method of specifying a user's site | part using a visible light camera, Comprising: It is a figure which shows the thermal image imaged with the infrared camera.

≪第1実施形態≫
以下、本発明の実施形態を図面に基づいて説明する。本実施形態の心拍数測定システムは、例えば、車両に搭載され、ユーザの心拍数を測定するものである。心拍数測定システムにより測定されたユーザの心拍数は、例えば、ユーザの運転状態を推定する際などに用いられる。
<< First Embodiment >>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The heart rate measurement system of this embodiment is mounted on a vehicle, for example, and measures a user's heart rate. The user's heart rate measured by the heart rate measurement system is used, for example, when estimating the user's driving state.

図1は、本実施形態の心拍数測定システムの構成を示す図である。図1に示すように、心拍数測定システムは、ユーザの表面(皮膚)温度を検出するための赤外線カメラ10およびユーザの心拍数を測定するためのコントローラ20を備える。   FIG. 1 is a diagram showing a configuration of a heart rate measurement system according to the present embodiment. As shown in FIG. 1, the heart rate measurement system includes an infrared camera 10 for detecting the surface (skin) temperature of the user and a controller 20 for measuring the heart rate of the user.

赤外線カメラ10は、図1に示すように、ユーザの正面位置、例えば、ユーザの前方60cmの位置に設置され、ユーザの顔部を中心とした範囲の温度データを検出する。赤外線カメラ10は、撮像素子を備え、赤外線カメラ10の撮像範囲における温度データを検出することができる。また、赤外線カメラ10の撮像素子上には複数の画素(ピクセル)を備え、例えば、赤外線カメラの撮像素子としては、画素数320×240を有するものが用いられる。撮像素子上の各画素は、各画素が撮像する範囲における温度データを検出することができる。また、赤外線カメラ10は、例えば、フレームレート1/30fs、放射率1.0に設定されており、ユーザの表面(皮膚)の温度データを周期的に検出する。赤外線カメラ10は、各画素において検出された複数の温度データを、順次、コントローラ20に送信する。   As shown in FIG. 1, the infrared camera 10 is installed at a front position of the user, for example, a position 60 cm ahead of the user, and detects temperature data in a range centered on the user's face. The infrared camera 10 includes an image sensor and can detect temperature data in the imaging range of the infrared camera 10. In addition, a plurality of pixels (pixels) are provided on the imaging device of the infrared camera 10. For example, an imaging device having a pixel number of 320 × 240 is used as the imaging device of the infrared camera. Each pixel on the image sensor can detect temperature data in a range captured by each pixel. The infrared camera 10 is set to, for example, a frame rate of 1/30 fs and an emissivity of 1.0, and periodically detects temperature data of the user's surface (skin). The infrared camera 10 sequentially transmits a plurality of temperature data detected in each pixel to the controller 20.

コントローラ20は、ユーザの心拍数を測定するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成される。   The controller 20 functions as a ROM (Read Only Memory) storing a program for measuring a user's heart rate, a CPU (Central Processing Unit) executing the program stored in the ROM, and an accessible storage device RAM (Random Access Memory).

コントローラ20は、ROMに格納したプログラムをCPUにより実行することにより、温度データ取得機能、特定機能、平均温度算出機能、記憶機能、温度情報取得機能、変換機能、抽出機能、および計測機能の各機能を実現する。以下に、コントローラ20が備える各機能について説明する。   The controller 20 executes a program stored in the ROM by the CPU, so that each function of a temperature data acquisition function, a specific function, an average temperature calculation function, a storage function, a temperature information acquisition function, a conversion function, an extraction function, and a measurement function To realize. Below, each function with which the controller 20 is provided is demonstrated.

コントローラ20の温度データ取得機能は、赤外線カメラ10の各画素において検出された温度データを、赤外線カメラ10から取得する。上述したように、赤外線カメラ10は、複数の画素を有し、各画素において温度データを検出するため、温度データ取得機能は、赤外線カメラ10から、複数の温度データを取得することになる。   The temperature data acquisition function of the controller 20 acquires temperature data detected in each pixel of the infrared camera 10 from the infrared camera 10. As described above, since the infrared camera 10 has a plurality of pixels and detects temperature data in each pixel, the temperature data acquisition function acquires a plurality of temperature data from the infrared camera 10.

コントローラ20の特定機能は、温度データ取得機能により取得された温度データに基づいて、ユーザの所定部位を特定し、取得した温度データがユーザのどの部位に基づく温度データであるかを特定する。なお、特定機能により、赤外線カメラ10で検出された温度データが、ユーザのどの部位に基づく温度データであるかを特定する方法については後述する。   The specifying function of the controller 20 specifies a predetermined part of the user based on the temperature data acquired by the temperature data acquiring function, and specifies which part of the user the acquired temperature data is based on. A method for specifying which part of the user the temperature data detected by the infrared camera 10 by the specifying function will be described later.

コントローラ20の記憶機能は、ユーザの所定部位の平均温度データを、コントローラ20のRAMに記憶する。記憶機能により記憶されるユーザの所定部位の平均温度データは、コントローラ20の平均温度算出機能により算出されたユーザの所定部位の平均温度データである。すなわち、平均温度算出機能は、赤外線カメラ10の全ての画素で検出された温度データのうち、特定機能により特定されたユーザの所定部位において検出された複数の温度データから平均温度データを算出し、記憶機能は、平均温度算出機能により算出された平均温度データを、時系列に沿って記憶する。記憶機能により記憶された所定部位の平均温度データの時系列データは、コントローラ20の温度情報取得機能により、該所定部位の温度情報として取得される。   The storage function of the controller 20 stores the average temperature data of a predetermined part of the user in the RAM of the controller 20. The average temperature data of the predetermined part of the user stored by the storage function is the average temperature data of the predetermined part of the user calculated by the average temperature calculation function of the controller 20. That is, the average temperature calculation function calculates average temperature data from a plurality of temperature data detected at a predetermined part of the user specified by the specific function among the temperature data detected by all the pixels of the infrared camera 10, The storage function stores the average temperature data calculated by the average temperature calculation function along a time series. The time series data of the average temperature data of the predetermined part stored by the storage function is acquired as the temperature information of the predetermined part by the temperature information acquisition function of the controller 20.

コントローラ20の変換機能は、温度情報取得機能により取得されたユーザの部位の温度情報を周波数成分に変換し、コントローラ20の抽出機能は、温度情報から変換された周波数成分から、心拍に相当する周波数帯域の周波数成分を抽出する。ここで、人などの表面(皮膚)温度は、体を循環する血液変動による影響を受ける。すなわち、血管の収縮変動に応じて、表面(皮膚)温度が変化する。抽出機能は、ユーザの所定部位の温度情報から変換された周波数成分の中から、心拍に相当する周波数帯域の周波数成分を抽出することにより、血管の収縮成分を抽出するものである。変換機能および抽出機能により、温度情報を周波数成分に変換し、変換された周波数成分の中から、心拍に相当する周波数帯域の周波数成分を抽出する方法については後述する。   The conversion function of the controller 20 converts the temperature information of the user's part acquired by the temperature information acquisition function into a frequency component, and the extraction function of the controller 20 calculates the frequency corresponding to the heartbeat from the frequency component converted from the temperature information. Extract frequency components of the band. Here, the surface (skin) temperature of a person or the like is affected by fluctuations in blood circulating in the body. That is, the surface (skin) temperature changes according to the blood vessel contraction fluctuation. The extraction function extracts a blood vessel contraction component by extracting a frequency component in a frequency band corresponding to a heartbeat from frequency components converted from temperature information of a predetermined part of the user. A method of converting the temperature information into frequency components by the conversion function and the extraction function and extracting the frequency components in the frequency band corresponding to the heartbeat from the converted frequency components will be described later.

コントローラ20の計測機能は、抽出機能により抽出された周波数成分に基づいて、ユーザの心拍数を計測する。計測機能によるユーザの心拍数の計測方法については後述する。   The measurement function of the controller 20 measures the user's heart rate based on the frequency component extracted by the extraction function. A method for measuring the user's heart rate by the measurement function will be described later.

次に、図2を参照して、本実施形態における心拍数計測処理について説明する。図2は、第1実施形態に係る心拍数計測処理を示すフローチャートである。以下においては、ユーザの顔部のうち鼻の中心部付近である鼻突部の温度データに基づいて、ユーザの心拍数を計測する方法について説明する。なお、図2に示す心拍数計測処理は、コントローラ20により、一定時間間隔で実行される。   Next, a heart rate measurement process in the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing a heart rate measurement process according to the first embodiment. In the following, a method for measuring the user's heart rate based on the temperature data of the nasal protrusion near the center of the nose of the user's face will be described. 2 is executed by the controller 20 at regular time intervals.

ステップS101では、温度データ取得機能により、赤外線カメラ10において検出された温度データが取得される。図3は、赤外線カメラ10により撮像された熱画像の一例を示す図である。図3においては、温度の低い温度データを検出した画素を薄い色、温度の高い温度データを検出された画素を濃い色として、検出された温度データの温度の高低を白黒の濃淡で表している。すなわち、図3においては、ユーザの顔部の温度は、背景温度Tと比べ濃い色で表示されているので、ユーザの顔部の温度は、背景温度Tよりも高い温度であることを示している。温度データ取得機能は、赤外線カメラ10で検出された温度データの全て、例えば図3に示す例では、ユーザの顔部を撮像する画素において検出された温度データの他に、ユーザの顔部以外の部分を撮像する画素で検出された温度データをも取得する。 In step S101, temperature data detected by the infrared camera 10 is acquired by the temperature data acquisition function. FIG. 3 is a diagram illustrating an example of a thermal image captured by the infrared camera 10. In FIG. 3, a pixel in which low temperature data is detected is a light color, a pixel in which high temperature data is detected is a dark color, and the temperature level of the detected temperature data is expressed in black and white. . That is, that in FIG. 3, the temperature of the face of the user, because it is displayed in a dark color compared to the background temperature T b, the temperature of the face of the user is at a temperature higher than the background temperature T b Show. The temperature data acquisition function includes all temperature data detected by the infrared camera 10, for example, in the example shown in FIG. 3, in addition to the temperature data detected in the pixel that images the user's face, Temperature data detected by a pixel that images the portion is also acquired.

ステップS102では、取得された温度データに基づいて、複数の画素で撮像された温度データのうち、ユーザの顔部のうち鼻の中心部付近である鼻突部に基づく各温度データが特定される。以下において、ユーザの鼻突部に基づく温度データを特定する方法の一例について説明する。   In step S102, based on the acquired temperature data, among the temperature data captured by a plurality of pixels, each temperature data based on the nasal protrusion near the center of the nose of the user's face is specified. . Below, an example of the method of specifying the temperature data based on a user's nose protrusion is demonstrated.

まず、特定機能は、ユーザの鼻突部の温度データを特定するために、ユーザの左右一対の鼻腔部の特定を行う。例えば、特定機能は、図3に示すように、赤外線カメラ10により撮像された熱画像から、ユーザの顔部の中心部分を求める一方で、ユーザの顔部以外の部分であって背景の温度と判断できる背景温度Tを検出する。そして、赤外線カメラ10により撮像された熱画像において、ユーザの顔部の中心部分から最も近い位置にあり、かつ、背景温度Tに近い温度データを検出した画素を2箇所検出することで、ユーザの鼻腔部を特定する。図3に示すように、鼻腔部は顔部の中心付近に位置し、また鼻腔部の温度データは、ユーザの呼吸により、他の顔部の部分と比べて低い温度として検出されるためである。なお、ユーザの鼻腔部の検出精度を向上させるため、ユーザの鼻腔部を特定する際には、ユーザの顔部の中心部分から近い位置にあり、かつ、背景温度Tに近い温度データを検出する複数の画素が連続する部分を鼻腔部と特定することが好適である。 First, the specifying function specifies a pair of left and right nasal cavity portions of the user in order to specify temperature data of the user's nasal protrusion. For example, as shown in FIG. 3, the specific function obtains the central portion of the user's face from the thermal image captured by the infrared camera 10, while the background temperature and the portion other than the user's face detecting a background temperature T b can be determined. Then, in the thermal image captured by the infrared camera 10, located in the nearest position from the central portion of the face portion of the user, and, by detecting the pixels detected temperature data close to the background temperature T b 2 places, the user Identify the nasal cavity. As shown in FIG. 3, the nasal cavity is located near the center of the face, and the temperature data of the nasal cavity is detected as a lower temperature than other facial parts by the user's breathing. . In order to improve the detection accuracy of the nasal cavity of the user, in identifying nasal portion of the user is at a position closer to the center portion of the face portion of the user, and detects the temperature data close to the background temperature T b It is preferable to specify a portion where a plurality of pixels are continuous as a nasal cavity portion.

次に、特定された左右一対の鼻腔部に基づいて、ユーザの鼻突部が特定される。図4は、図3に示す熱画像のうち、ユーザの鼻腔部周辺を拡大して示した拡大図である。なお、図4においても、図3と同様に、温度の高低を白黒の濃淡で表している。図4に示すように、鼻突部は、鼻の中心部周辺の部位をいう。まず、特定機能は、鼻突部を特定するために、特定した左右一対の鼻腔部の間の中心位置をY軸方向に通る中心線を求め、その一方で、左右一対の鼻腔部の上限(上端)を通るX軸方向の上限線を求める。そして、特定機能は、図4に示すように、左右一対の鼻腔部の中心線を中心としてX軸方向に所定範囲広がった領域であり、左右一対の鼻腔部の上限線よりも上に位置してY軸方向に所定範囲広がった領域を鼻突部として特定する。これにより、特定機能は、特定された鼻突部を撮像する画素において検出された各温度データを、鼻突部に基づく温度データと特定することができる。   Next, the user's nasal projection is specified based on the specified pair of left and right nasal cavity portions. FIG. 4 is an enlarged view showing an enlargement of the periphery of the user's nasal cavity in the thermal image shown in FIG. 3. In FIG. 4, as in FIG. 3, the temperature level is represented by black and white shading. As shown in FIG. 4, the nose protrusion refers to a portion around the center of the nose. First, in order to identify the nasal protrusion, the specifying function obtains a center line passing through the center position between the specified pair of left and right nasal cavity parts in the Y-axis direction, while the upper limit of the pair of left and right nasal cavity parts ( The upper limit line in the X-axis direction passing through (upper end) is obtained. Then, as shown in FIG. 4, the specific function is a region that extends a predetermined range in the X-axis direction around the center line of the pair of left and right nasal cavity portions, and is located above the upper limit line of the pair of left and right nasal cavity portions. Then, an area that extends a predetermined range in the Y-axis direction is specified as a nose protrusion. Thereby, the specific function can specify each temperature data detected in the pixel which images the specified nose protrusion as temperature data based on the nose protrusion.

ステップS103では、平均温度算出機能により、ステップS102において特定されたユーザの鼻突部に基づく各温度データから、ユーザの鼻突部の平均温度データが算出される。赤外線カメラ10は撮像素子上に複数の画素を備えており、ステップS102において、ユーザの鼻突部を撮像する複数の画素により、ユーザの鼻突部の温度データが複数検出される。ステップS103では、ユーザの鼻突部を撮像する複数の画素において検出された各温度データから、ユーザの鼻突部の平均温度データが算出される。   In step S103, the average temperature calculation function calculates average temperature data of the user's nasal protrusion from each temperature data based on the user's nasal protrusion identified in step S102. The infrared camera 10 includes a plurality of pixels on the image sensor, and in step S102, a plurality of temperature data of the user's nasal protrusion is detected by a plurality of pixels that capture the nasal protrusion of the user. In step S103, average temperature data of the user's nasal projection is calculated from each temperature data detected in a plurality of pixels that image the nasal projection of the user.

ステップS104では、記憶機能により、ステップS103で算出された鼻突部の平均温度データが、コントローラ20のRAMに記憶される。ここで、図5は、ユーザの鼻突部の温度情報の一例を示す図である。赤外線カメラ10は、設定されたフレームレートで撮度データを検出し、検出された温度データを順次、コントローラ20に送信する。そして、赤外線カメラ10からの温度データの送信に応じて、ステップS101〜104までの処理が行われる。そのため、ステップS104では、鼻突部の平均温度データが時系列に沿って記憶されることになる。ステップS105では、温度情報取得機能により、時系列に沿って記憶された鼻突部の平均温度データが、ユーザの鼻突部の温度情報として取得される。   In step S104, the average temperature data of the nose protrusion calculated in step S103 is stored in the RAM of the controller 20 by the storage function. Here, FIG. 5 is a diagram illustrating an example of temperature information of the user's nose protrusion. The infrared camera 10 detects the photographing data at the set frame rate, and sequentially transmits the detected temperature data to the controller 20. And according to transmission of the temperature data from the infrared camera 10, the process to step S101-104 is performed. Therefore, in step S104, the average temperature data of the nose protrusion is stored in time series. In step S105, the temperature information acquisition function acquires the average temperature data of the nasal protrusion stored along the time series as the temperature information of the user's nasal protrusion.

ステップS106では、変換機能により、ユーザの鼻突部の温度情報が、周波数成分に変換される。続くステップS107では、ユーザの鼻突部の温度情報から変換された周波数成分の中から、心拍に相当する周波数帯域の周波数成分が抽出される。そして、ステップS108では、計測機能により、抽出された周波数成分に基づいて、ユーザの心拍数が計測される。ステップS106〜ステップS108までの処理は、例えば、フーリエ変換、バンドパスフィルター処理、またはウェーブレット変換などの手法を用いて行われる。以下において、各手法を用いて、ユーザの心拍数を計測する方法について具体的に説明する。   In step S106, the temperature information of the user's nasal protrusion is converted into a frequency component by the conversion function. In subsequent step S107, a frequency component in a frequency band corresponding to the heartbeat is extracted from the frequency components converted from the temperature information of the user's nose protrusion. In step S108, the heart rate of the user is measured by the measurement function based on the extracted frequency component. The processing from step S106 to step S108 is performed using a technique such as Fourier transform, band pass filter processing, or wavelet transform, for example. Hereinafter, a method for measuring a user's heart rate using each method will be described in detail.

まず、フーリエ変換を用いて、ユーザの心拍数を計測する方法について説明する。   First, a method for measuring a user's heart rate using Fourier transform will be described.

図6は、フーリエ変換により、図5に示す鼻突部の温度情報から変換された周波数成分を示す図である。変換機能は、図5に示す鼻突部の温度情報を、フーリエ変換することで、図6に示すように、鼻突部の温度情報を周波数成分に変換する。   FIG. 6 is a diagram illustrating frequency components converted from the temperature information of the nose protrusion illustrated in FIG. 5 by Fourier transform. The conversion function performs Fourier transform on the temperature information of the nasal protrusion shown in FIG. 5, thereby converting the temperature information of the nasal protrusion into a frequency component as shown in FIG.

抽出機能は、変換機能によりユーザの鼻突部の温度情報から変換された周波数成分の中から、心拍に相当する周波数帯域、例えば、0.8〜1.5Hzの周波数帯域において、パワースペクトル強度が最大となる周波数を抽出する。例えば、図6に示す例に関して、抽出機能は、心拍に相当する周波数帯域である周波数0.8Hz〜1.5Hzの周波数帯域において、パワースペクトル強度が最大となる周波数である周波数f1を抽出する。   The extraction function has a power spectrum intensity in a frequency band corresponding to a heartbeat, for example, a frequency band of 0.8 to 1.5 Hz, among frequency components converted from temperature information of the user's nose protrusion by the conversion function. Extract the maximum frequency. For example, regarding the example illustrated in FIG. 6, the extraction function extracts a frequency f <b> 1 that is a frequency at which the power spectrum intensity is maximum in a frequency band of frequency 0.8 Hz to 1.5 Hz that is a frequency band corresponding to a heartbeat.

次いで、計測機能は、抽出機能により抽出された周波数に基づいて、ユーザの心拍数を計測する。例えば、図6に示す例に関して、計測機能は、この検出された周波数f1に基づき、下記式(1)により、心拍数(拍/分)を計測する。
心拍数(拍/分) = f1×60 … (1)
すなわち、周波数f1は、心拍に相当する周波数と想定されるため、1分当たりの周波数f1を算出することで、ユーザの心拍数を計測することができる。
Next, the measurement function measures the user's heart rate based on the frequency extracted by the extraction function. For example, regarding the example shown in FIG. 6, the measurement function measures the heart rate (beats / minute) by the following formula (1) based on the detected frequency f1.
Heart rate (beats / minute) = f1 × 60 (1)
That is, since the frequency f1 is assumed to be a frequency corresponding to a heartbeat, the heart rate of the user can be measured by calculating the frequency f1 per minute.

なお、計測手段により心拍数を計測する際には、図6に示すように、パワースペクトル強度が最大となる周波数f1を用いて心拍数を計測するのではなく、心拍に相当する周波数帯域である周波数0.8Hz〜1.5Hzの周波数帯域において重心となる周波数f2を検出し、検出された周波数f2を用い、下記式(2)に基づいて、心拍数(拍/分)を計測してもよい。
心拍数(拍/分) = f2×60 … (2)
When the heart rate is measured by the measuring means, as shown in FIG. 6, the heart rate is not measured using the frequency f1 at which the power spectrum intensity is maximum, but a frequency band corresponding to the heart rate. Even if the frequency f2 that is the center of gravity is detected in the frequency band from 0.8 Hz to 1.5 Hz, and the heart rate (beats / minute) is measured based on the following equation (2) using the detected frequency f2. Good.
Heart rate (beats / minute) = f2 x 60 (2)

次に、バンドパスフィルター処理により、ユーザの心拍数を計測する方法について説明する。   Next, a method of measuring the user's heart rate by bandpass filter processing will be described.

まず、変換機能により、鼻突部の温度情報をフーリエ変換し、図6に示すように、鼻突部の温度情報が周波数成分に変換される。次に、抽出機能は、変換された周波数成分の中から、心拍に相当する周波数0.8Hz〜1.5Hzの周波数帯域の周波数成分を、バンドパスフィルターにより抽出する。そして、抽出機能は、抽出された周波数成分を対して、逆フーリエ変換を行い、抽出された周波数成分を鼻突部の温度情報に再変換する。   First, the temperature information of the nasal protrusion is Fourier-transformed by the conversion function, and the temperature information of the nasal protrusion is converted into a frequency component as shown in FIG. Next, the extraction function extracts a frequency component in a frequency band of a frequency band of 0.8 Hz to 1.5 Hz corresponding to a heartbeat from the converted frequency component by a band pass filter. Then, the extraction function performs inverse Fourier transform on the extracted frequency component, and reconverts the extracted frequency component into temperature information of the nasal protrusion.

図7は、図6に示す周波数成分から心拍に相当する周波数帯域の周波数成分をバンドパスフィルターで抽出し、抽出された周波数成分を逆フーリエ変換により再変換した鼻突部の温度情報の一例を示す図である。なお、図7において、バンドパスフィルター処理により抽出した後の鼻突部の温度情報を実線で示しており、また、鼻突部の温度情報との比較のため、指先に取り付けた脈波形を用いて計測した指尖脈波を一点鎖線で示している。   FIG. 7 shows an example of temperature information of the nasal protrusion obtained by extracting a frequency component of the frequency band corresponding to the heartbeat from the frequency component shown in FIG. 6 using a bandpass filter, and reconverting the extracted frequency component by inverse Fourier transform. FIG. In FIG. 7, the temperature information of the nasal protrusion after extraction by bandpass filter processing is indicated by a solid line, and a pulse waveform attached to the fingertip is used for comparison with the temperature information of the nasal protrusion. The finger plethysmogram measured in this way is indicated by a one-dot chain line.

計測機能は、測定時間t秒の間、実線で示す鼻突部の温度情報のピーク数nを検出し、下記式(3)によりユーザの心拍数を計測する。
心拍数(拍/分) = (60/t)×n … (3)
なお、温度情報においてピークであるかの判断基準は、適宜決定することができ、例えば、所定時間における温度上昇率が一定値以上となった後に、所定時間における温度下降率が一定値以上となった場合に、ピークであると判断することができる。
The measurement function detects the peak number n of the temperature information of the nasal protrusion indicated by a solid line for the measurement time t seconds, and measures the user's heart rate by the following equation (3).
Heart rate (beats / minute) = (60 / t) × n (3)
Note that the criterion for determining whether the temperature information is a peak can be appropriately determined. For example, after the temperature increase rate at a predetermined time exceeds a certain value, the temperature decrease rate at the predetermined time becomes a certain value or more. It can be determined that it is a peak.

また、図7には、指尖脈波が一点鎖線で表示されている。図7に示すように、指尖脈波と、バンドパスフィルター処理後の鼻突部の温度情報とは、ほぼ一致しており、鼻突部の温度情報に基づいて、ユーザの心拍数が適切に測定できることがわかる。   Further, in FIG. 7, the finger plethysmogram is displayed by a one-dot chain line. As shown in FIG. 7, the finger plethysmogram and the temperature information of the nasal protrusion after the band-pass filter processing are almost the same, and the user's heart rate is appropriate based on the temperature information of the nasal protrusion. It can be seen that it can be measured.

次に、ウェーブレット変換を用いて、ユーザの心拍数を計測する方法について説明する。   Next, a method for measuring a user's heart rate using wavelet transform will be described.

図8は、ウェーブレット変換により、ユーザの心拍数を計測する方法を説明するための図である。なお、図8中の左側の図である温度情報Sは、鼻突部の温度情報の一例を示している。   FIG. 8 is a diagram for explaining a method of measuring a user's heart rate by wavelet transform. Note that the temperature information S on the left side in FIG. 8 shows an example of temperature information of the nose protrusion.

まず、変換機能は、ウェーブレット変換により、図8の左図に示す鼻突部の温度情報Sについて多重解像度分解を行い、図8の中央に示す階層d1からd5までの周波数成分を得る。この階層d1からd5の周波数成分は、温度情報S=d1+d2+d3+d4+d5の関係にあり、階層d1が温度情報Sの最も高い周波数帯域に対応する周波数成分を示しており、また階層d5が温度情報Sの最も低い周波数帯域の周波数成分を示している。このように、図8に示す階層d5から階層d1は、階層d5から階層d1に向かって、温度情報Sのうち低い周波数帯域の周波数成分を抽出したものから、高い周波数帯域に対応する周波数成分を抽出したものとなっている。   First, the conversion function performs multi-resolution decomposition on the temperature information S of the nose protrusion shown in the left diagram of FIG. 8 by wavelet transform, and obtains frequency components from the layers d1 to d5 shown in the center of FIG. The frequency components of the layers d1 to d5 have the relationship of temperature information S = d1 + d2 + d3 + d4 + d5, the layer d1 indicates the frequency component corresponding to the highest frequency band of the temperature information S, and the layer d5 is the highest of the temperature information S. The frequency component of the low frequency band is shown. As described above, the hierarchy d5 to the hierarchy d1 shown in FIG. 8 extract the frequency component corresponding to the high frequency band from the frequency information of the low frequency band extracted from the temperature information S from the hierarchy d5 to the hierarchy d1. It has been extracted.

ここで、鼻突部の温度情報Sを多重解像度分解して得られた階層d1からd5の周波数成分のうち、階層d2およびd3の周波数成分は、鼻突部の温度情報Sから心拍に相当する周波数帯域の周波数成分を抽出したものである。そこで、抽出機能は、階層d1からd5までの周波数成分のうち、階層d2およびd3の周波数成分を抽出する。そして、抽出機能は、心拍に相当する周波数帯域である階層d2およびd3の周波数成分について、逆ウェーブレット変換を行い、図8の右図に示す温度情報に再変換する。   Here, out of the frequency components of the layers d1 to d5 obtained by multi-resolution decomposition of the temperature information S of the nasal projection, the frequency components of the layers d2 and d3 correspond to the heart rate from the temperature information S of the nasal projection. The frequency components of the frequency band are extracted. Therefore, the extraction function extracts the frequency components of the layers d2 and d3 from the frequency components of the layers d1 to d5. Then, the extraction function performs inverse wavelet transform on the frequency components of the layers d2 and d3, which are frequency bands corresponding to heartbeats, and reconverts the temperature information shown in the right diagram of FIG.

図8の右図に示す温度情報S’は、図8の左図に示す鼻突部の温度情報Sから、心拍に対応する周波数帯域の周波数成分を抽出して求めた温度情報である。計測機能により、測定時間t秒間の温度情報S’におけるピーク数nをカウントすることで、上記式(3)に基づいて、ユーザの心拍数(拍/分)を適切に計測することができる。   The temperature information S ′ shown in the right diagram of FIG. 8 is temperature information obtained by extracting the frequency component of the frequency band corresponding to the heartbeat from the temperature information S of the nose protrusion shown in the left diagram of FIG. 8. By counting the number of peaks n in the temperature information S ′ for the measurement time t seconds by the measurement function, it is possible to appropriately measure the user's heart rate (beats / minute) based on the above equation (3).

このように、フーリエ変換、バンドパスフィルター処理、ウェーブレット変換などを用いて、鼻突部の温度情報から心拍に相当する周波数帯域の周波数成分を抽出し、抽出した周波数成分に基づいて、ユーザの心拍数を計測することができる。   As described above, the frequency component of the frequency band corresponding to the heartbeat is extracted from the temperature information of the nasal projection using Fourier transform, bandpass filter processing, wavelet transform, and the user's heartbeat is based on the extracted frequency component. The number can be measured.

以上のように、本実施形態では、赤外線カメラ10によりユーザの表面(皮膚)の温度データを検出し、検出された温度データの時系列データである温度情報に基づいて、ユーザの心拍数が測定される。ここで、生体の表面(皮膚)温度は、体内を循環する血液の変動による影響を受ける。すなわち、血管の収縮変動により、生体の表面(皮膚)温度は微小変化する。そのため、赤外線カメラ10によりユーザの表面(皮膚)の温度データを検出し、検出された温度データから求められる温度情報に基づいて、血管の収縮成分を抽出することで、ユーザに接触することなく、ユーザの心拍数を測定することができる。   As described above, in the present embodiment, the temperature data of the user's surface (skin) is detected by the infrared camera 10, and the heart rate of the user is measured based on the temperature information that is time-series data of the detected temperature data. Is done. Here, the surface (skin) temperature of a living body is affected by fluctuations in blood circulating in the body. That is, the surface (skin) temperature of the living body changes minutely due to the blood vessel contraction fluctuation. Therefore, by detecting the temperature data of the user's surface (skin) with the infrared camera 10 and extracting the contraction component of the blood vessel based on the temperature information obtained from the detected temperature data, without touching the user, The user's heart rate can be measured.

特に、本実施形態では、フーリエ変換、バンドパスフィルター処理、またはウェーブレット変換を用いて、温度情報から心拍に相当する周波数帯域の周波数成分を抽出し、抽出された周波数成分に基づいて、ユーザの心拍数を測定する。これにより、赤外線カメラ10により検出された温度データに基づく温度情報から、ユーザの心拍に起因しない温度変動成分(ノイズ)を取り除くことができ、ユーザの心拍数の測定精度を向上させることができる。   In particular, in this embodiment, the frequency component of the frequency band corresponding to the heartbeat is extracted from the temperature information using Fourier transform, bandpass filter processing, or wavelet transform, and the user's heartbeat is based on the extracted frequency component. Measure the number. Thereby, the temperature fluctuation component (noise) which does not originate in a user's heartbeat can be removed from the temperature information based on the temperature data detected by the infrared camera 10, and the measurement accuracy of the user's heart rate can be improved.

さらに、本実施形態では、ユーザの顔部、特に鼻突部の温度データに基づいて、ユーザの心拍数が計測される。鼻突部は、血管吻合部であり、皮膚表面に毛細血管が集中する部位である。そのため、ユーザの鼻突部の温度データを検出することで、毛細血管の収縮変動による温度変化を適切に検出することができ、その結果、ユーザの心拍数を適切に測定することができる。   Furthermore, in this embodiment, a user's heart rate is measured based on the temperature data of a user's face part, especially a nose protrusion part. A nasal protrusion is a blood vessel anastomosis part, and is a site | part where a capillary vessel concentrates on the skin surface. Therefore, by detecting the temperature data of the user's nasal protrusion, it is possible to appropriately detect the temperature change due to the capillary blood vessel contraction fluctuation, and as a result, it is possible to appropriately measure the user's heart rate.

なお、第1実施形態では、ユーザの鼻突部の温度情報に基づいて、ユーザの心拍数を計測しているが、他の部位、例えば、ユーザの左右一対の耳朶部または左右一対の頬部の温度データを検出し、これら部位の温度データから求めた温度情報に基づいて、ユーザの心拍数を測定してもよい。図9は、ユーザの耳朶部において取得された温度情報の一例を示す図である。そして、図10は、図9に示すユーザの耳朶部の温度情報を、フーリエ変換により変換して求めた周波数成分を示す図である。例えば、赤外線カメラ10により、ユーザの耳朶部の温度データを所定時間検出することで、図9に示すようなユーザの耳朶部の温度情報を取得することができる。図10に示す例に関して、心拍に相当する周波数帯域、例えば、0.8Hz〜1.5Hzの周波数帯域のうち、周波数f3において、パワーベクトル強度が最大となっている。そのため、計測機能は、ユーザの心拍数を、周波数f3×60(拍/分)として計測する。例えば、周波数f3が1.15Hzである場合には、ユーザの心拍数は、1.15×60=69(拍/分)として計測される。   In addition, in 1st Embodiment, although a user's heart rate is measured based on the temperature information of a user's nose protrusion part, for example, a pair of left and right earlobe parts or a pair of left and right cheek parts of a user The user's heart rate may be measured based on temperature information obtained from the temperature data of these parts. FIG. 9 is a diagram illustrating an example of temperature information acquired in the user's earlobe. FIG. 10 is a diagram showing frequency components obtained by transforming the temperature information of the user's earlobe shown in FIG. 9 by Fourier transform. For example, the temperature information of the user's earlobe can be acquired by detecting the temperature data of the user's earlobe for a predetermined time by the infrared camera 10 as shown in FIG. In the example shown in FIG. 10, the power vector intensity is maximum at a frequency f3 in a frequency band corresponding to a heartbeat, for example, a frequency band of 0.8 Hz to 1.5 Hz. Therefore, the measurement function measures the user's heart rate as a frequency f3 × 60 (beats / minute). For example, when the frequency f3 is 1.15 Hz, the user's heart rate is measured as 1.15 × 60 = 69 (beats / minute).

耳朶部は、毛細血管が集中する末梢部位であり、この末梢部位の毛細血管の収縮は、体温変化に微小な変化を与える。そのため耳朶部の温度データを検出することで、鼻突部と同様に、血管の収縮成分を適切に抽出することができ、ユーザに接触することなく、ユーザの心拍数を測定することができる。また、頬部も、顔部の中で血管が集中する部位であり、頬部の温度変化を検出することで、鼻突部または耳朶部と同様に、血管の収縮成分を抽出することができ、ユーザに接触することなく、ユーザの心拍数を測定することができる。   The earlobe is a peripheral site where the capillaries are concentrated, and the contraction of the capillaries in the peripheral site gives a minute change to the body temperature change. Therefore, by detecting the temperature data of the earlobe, the contraction component of the blood vessel can be appropriately extracted as in the case of the nasal protrusion, and the heart rate of the user can be measured without touching the user. The cheek is also a part of the face where blood vessels are concentrated, and by detecting changes in the temperature of the cheek, it is possible to extract the blood vessel contraction component in the same way as the nasal protrusion or earlobe. The user's heart rate can be measured without touching the user.

≪第2実施形態≫
続いて、本発明の第2実施形態について説明する。図11は、第2実施形態に係る心拍数測定処理を示すフローチャートである。第2実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、ユーザの鼻突部において検出した温度データと、ユーザの額部において検出した温度データとの差を差分データとして算出する温度データ算出機能を備え、図11に示すフローチャットに従ってユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図11に示すフローチャートを参照して、第2実施形態に係る心拍数測定処理について説明する。なお、図11に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
<< Second Embodiment >>
Subsequently, a second embodiment of the present invention will be described. FIG. 11 is a flowchart showing a heart rate measurement process according to the second embodiment. In addition to the function of the controller 20 of the first embodiment, the controller 20 of the second embodiment uses the difference between the temperature data detected at the user's nose and the temperature data detected at the user's forehead as difference data. A temperature data calculation function for calculating is provided, and the configuration is the same as that of the first embodiment except that the user's heart rate is measured according to the flow chat shown in FIG. In the following, the heart rate measurement process according to the second embodiment will be described with reference to the flowchart shown in FIG. The heart rate measurement process shown in FIG. 11 is also executed by the controller 20 at regular time intervals.

ステップS201では、第1実施形態のステップS101と同様に、赤外線カメラ10の全ての画素において検出された温度データが取得される。そして、ステップS202においては、取得された温度データから、ユーザの鼻突部に基づく各温度データとともに、ユーザの額部に基づく各温度データが特定される。なお、ユーザの鼻突部および額部を特定する方法としては、特に限定されず、例えば、第1実施形態のステップS102と同様に、ユーザの鼻腔部を特定し、ユーザの鼻腔部に基づいて、ユーザの鼻突部および額部を特定してよい。   In step S201, temperature data detected in all the pixels of the infrared camera 10 is acquired as in step S101 of the first embodiment. And in step S202, each temperature data based on a user's forehead part is specified with each temperature data based on a user's nose protrusion part from the acquired temperature data. In addition, it does not specifically limit as a method of specifying a user's nose protrusion and forehead part, For example, similarly to step S102 of 1st Embodiment, a user's nasal cavity part is specified and based on a user's nasal cavity part. The user's nose and forehead may be specified.

ステップS203では、平均温度算出機能により、ユーザの鼻突部および額部において検出された各温度データから、鼻突部の平均温度データTおよび額部の平均温度データTが算出される。 In step S203, the average temperature calculation function, from the temperature data detected in nasal projection and forehead of the user, the average temperature data T n and average temperature data T h forehead portion of the nose projection is calculated.

そして、ステップS204では、温度データ算出機能により、額部の平均温度データTとユーザの鼻突部の平均温度データTとの差が、差分データT−Tとして算出される。次に、ステップS205では、ステップS204で算出された差分データが、コントローラ20のRAMに記憶される。 In step S204, the temperature data calculation, the difference between the average temperature data T n of the average temperature data T h and the user's nose projection forehead portion is calculated as the difference data T h -T n. Next, in step S205, the difference data calculated in step S204 is stored in the RAM of the controller 20.

ステップS206〜ステップS209では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、時系列に沿って記憶された差分データが温度情報として取得され(ステップS206)、取得された温度情報が周波数成分に変換される(ステップS207)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS208)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS209)。   In step S206 to step S209, processing similar to that in steps S105 to S108 of the first embodiment is performed. That is, the difference data stored along the time series is acquired as temperature information (step S206), and the acquired temperature information is converted into frequency components (step S207). Then, the frequency component in the frequency band corresponding to the heartbeat is extracted from the frequency components converted from the temperature information (step S208), and the heart rate of the user is measured based on the extracted frequency component (step S209). .

以上のように、第2実施形態では、鼻突部の平均温度データと、額部の平均温度データとの差から差分データを算出し、この差分データに基づいて、ユーザの心拍数が計測される。人の体温は、個人差、病気、または慨日リズムにより変動する場合がある一方、額部は脳の近くに位置するため、額部の温度変動は比較的安定している。そこで、第2実施形態では、額部の温度データと鼻突部の温度データとの差分データを求めることで、第1実施形態の効果に加えて、ユーザの鼻突部において検出される温度データにおける個人差や状態差の影響を低減することができ、ユーザの心拍数の測定精度を向上させることができる。   As described above, in the second embodiment, difference data is calculated from the difference between the average temperature data of the nose and the average temperature data of the forehead, and the heart rate of the user is measured based on the difference data. The While the body temperature of a person may vary due to individual differences, illness, or rhythm of the sun, since the forehead is located near the brain, temperature fluctuations in the forehead are relatively stable. Therefore, in the second embodiment, by obtaining difference data between the temperature data of the forehead and the temperature data of the nose protrusion, in addition to the effects of the first embodiment, the temperature data detected in the nose protrusion of the user The influence of individual differences and state differences can be reduced, and the measurement accuracy of the user's heart rate can be improved.

なお、第2実施形態においては、ユーザの鼻突部の温度データとユーザの額部の温度データとの差から差分データを求め、この差分データに基づいて、ユーザの心拍数を測定しているが、ユーザの心拍数を測定するために、例えば、ユーザの耳朶部の温度データとユーザの額部の温度データとの差から差分データを求めてもよいし、ユーザの頬部の温度データとユーザの額部の温度データとの差から差分データを求めてよい。   In the second embodiment, difference data is obtained from the difference between the temperature data of the user's nose and the temperature data of the forehead of the user, and the heart rate of the user is measured based on the difference data. However, in order to measure the heart rate of the user, for example, difference data may be obtained from the difference between the temperature data of the user's earlobe and the temperature data of the user's forehead, or the temperature data of the user's cheek You may obtain | require difference data from the difference with the temperature data of a user's forehead part.

≪第3実施形態≫
続いて、本発明の第3実施形態について説明する。図12は、第3実施形態に係る心拍数測定処理を示すフローチャートである。第3実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の複数の部位で求めた平均温度データの和を加算データとして算出する温度データ算出機能を備え、図12に示すフローチャットに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図12に示すフローチャートを参照して、第3実施形態に係る心拍数測定処理について説明する。なお、図12に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
<< Third Embodiment >>
Subsequently, a third embodiment of the present invention will be described. FIG. 12 is a flowchart showing a heart rate measurement process according to the third embodiment. In addition to the function of the controller 20 of the first embodiment, the controller 20 of the third embodiment includes average temperature data obtained at a plurality of parts of the user's nose projection, a pair of left and right earlobe, and a pair of left and right cheeks. A temperature data calculation function for calculating the sum as addition data is provided, and the configuration is the same as that of the first embodiment except that the user's heart rate is measured according to the flow chat shown in FIG. In the following, the heart rate measurement process according to the third embodiment will be described with reference to the flowchart shown in FIG. The heart rate measurement process shown in FIG. 12 is also executed by the controller 20 at regular time intervals.

ステップS301では、第1実施形態のステップS101と同様に、赤外線カメラ10の全ての画素において検出された温度データが取得される。次いで、ステップS302では、取得された温度データのうち、ユーザの鼻突部に基づく各温度データに加えて、左右一対の耳朶部および左右一対の頬部に基づく各温度データが特定される。なお、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の特定方法は、任意の方法を用いればよく、特に限定されない。   In step S301, temperature data detected in all pixels of the infrared camera 10 is acquired as in step S101 of the first embodiment. Next, in step S302, in addition to the temperature data based on the user's nasal protrusion, the temperature data based on the pair of left and right earlobes and the pair of left and right cheeks is specified among the acquired temperature data. In addition, the identification method of a user's nose protrusion part, a pair of left and right earlobe parts, and a pair of left and right cheek parts may use arbitrary methods, and is not specifically limited.

ステップS303では、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部に基づく各温度データから、それぞれの部位における平均温度データが算出される。ステップS304では、算出されたユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の平均温度データの和から加算データが算出される。そして、ステップS305では、算出された加算データが、コントローラ20のRAMに記憶される。   In step S303, average temperature data in each part is calculated from each temperature data based on the user's nasal protrusion, a pair of left and right earlobe, and a pair of left and right cheeks. In step S <b> 304, addition data is calculated from the sum of the calculated average temperature data of the user's nasal protrusion, the pair of left and right earlobe, and the pair of left and right cheeks. In step S305, the calculated addition data is stored in the RAM of the controller 20.

ステップS306〜ステップS309では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、時系列に沿って記憶された加算データが温度情報として取得され(ステップS306)、取得された温度情報が周波数成分に変換される(ステップS307)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS308)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS309)。   In steps S306 to S309, processing similar to that in steps S105 to S108 of the first embodiment is performed. That is, the addition data stored along the time series is acquired as temperature information (step S306), and the acquired temperature information is converted into frequency components (step S307). The frequency component in the frequency band corresponding to the heartbeat is extracted from the frequency components converted from the temperature information (step S308), and the heart rate of the user is measured based on the extracted frequency component (step S309). .

以上のように、第3実施形態では、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の平均温度データを算出し、算出された複数の部位の平均温度データの和から算出される加算データに基づいて、ユーザの心拍数が計測される。このように、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の平均温度データの加算データに基づいて、ユーザの心拍数を測定することで、第1実施形態の効果に加えて、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部のそれぞれの部位において検出された温度データに含まれる心拍に起因しない周波数成分(ノイズ)の影響を低減することができ、かつ、ユーザの心拍に対応する周波数成分を強調することができる。その結果、ユーザの心拍数の測定精度を高めることができる。   As described above, in the third embodiment, the average temperature data of the user's nasal protrusion, the pair of left and right earlobes, and the pair of left and right cheeks is calculated and calculated from the sum of the calculated average temperature data of a plurality of parts. The heart rate of the user is measured based on the added data. As described above, by measuring the user's heart rate based on the addition data of the average temperature data of the user's nasal protrusion, the pair of left and right earlobes, and the pair of left and right cheeks, the effect of the first embodiment is achieved. In addition, it is possible to reduce the influence of frequency components (noise) that are not caused by heartbeats included in the temperature data detected in the respective parts of the user's nasal protrusion, the pair of left and right earlobes, and the pair of left and right cheeks. The frequency component corresponding to the user's heartbeat can be emphasized. As a result, the measurement accuracy of the user's heart rate can be improved.

なお、温度データ算出機能により、ユーザの各部位の平均温度データを加算する際には、加算される各部位の平均温度データを正規化し、正規化された各部位の平均温度データの和から、加算データを算出してもよい。   In addition, when adding the average temperature data of each part of the user by the temperature data calculation function, normalize the average temperature data of each part to be added, from the sum of the normalized average temperature data of each part, Additional data may be calculated.

≪第4実施形態≫
続いて、本発明の第4実施形態について説明する。図13Aおよび図13Bは、第4実施形態に係る心拍数測定処理を示すフローチャートである。第4実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、ユーザの顔の向きを推定し、推定されたユーザの顔の向きに応じて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から周波数成分を抽出するための部位を選択する選択機能と、選択機能により選択された部位の平均温度データの和から加算データを算出する温度データ算出機能を備え、図13Aおよび図13Bに係るフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図13Aおよび図13Bに示すフローチャートを参照して、第4実施形態に係る心拍数測定処理について説明する。なお、図13Aおよび図13Bに示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
<< Fourth Embodiment >>
Subsequently, a fourth embodiment of the present invention will be described. 13A and 13B are flowcharts showing a heart rate measurement process according to the fourth embodiment. The controller 20 of the fourth embodiment estimates the orientation of the user's face in addition to the function of the controller 20 of the first embodiment, and according to the estimated orientation of the user's face, Temperature for calculating addition data from the sum of the selection function for selecting a part for extracting frequency components from a pair of earlobe parts and a pair of left and right cheek parts, and the average temperature data for the part selected by the selection function A data calculation function is provided, and the configuration is the same as that of the first embodiment except that the user's heart rate is measured according to the flowcharts of FIGS. 13A and 13B. Hereinafter, the heart rate measurement process according to the fourth embodiment will be described with reference to the flowcharts shown in FIGS. 13A and 13B. The heart rate measurement process shown in FIGS. 13A and 13B is also executed by the controller 20 at regular time intervals.

ステップS401では、第1実施形態のステップS101と同様に、赤外線カメラ10の全ての画素において検出された温度データが取得される。次いで、ステップS402では、取得された温度データのうち、ユーザの鼻突部に基づく各温度データに加えて、左右一対の耳朶部および左右一対の頬部に基づく各温度データが特定される。そして、ステップS403では、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部に基づく各温度データから、それぞれの部位の平均温度データが算出される。続くステップS404では、算出されたユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の平均温度データがコントローラ20のRAMにそれぞれ記憶される。   In step S401, temperature data detected in all pixels of the infrared camera 10 is acquired as in step S101 of the first embodiment. Next, in step S402, among the acquired temperature data, in addition to the temperature data based on the user's nasal protrusion, the temperature data based on the pair of left and right earlobes and the pair of left and right cheeks are specified. In step S403, average temperature data of each part is calculated from each temperature data based on the user's nose projection, a pair of left and right earlobe, and a pair of left and right cheeks. In the subsequent step S404, the calculated average temperature data of the user's nose protrusion, the pair of left and right earlobes, and the pair of left and right cheeks are stored in the RAM of the controller 20, respectively.

ステップS405では、選択機能により、ユーザの顔の向きが推定される。ユーザの顔の向きを推定する方法は、特に限定されないが、例えば、RAMに記憶されたユーザの顔が正面を向いている際の画像と、現在のユーザの顔の画像との差分から、オプティカルフローを求めることで、ユーザの顔の向きを推定できる。なお、ユーザの顔が正面を向いているかの判断は、例えば、所定時間にわたって撮像されたユーザの顔の画像から、ユーザが向いている傾向の大きい方向を正面と推定してもよいし、所定のテンプレートを予め用意し、このテンプレートに近似する方向を正面と推定してもよい。   In step S405, the orientation of the user's face is estimated by the selection function. The method for estimating the orientation of the user's face is not particularly limited. For example, the optical direction is calculated based on the difference between the image stored in the RAM when the user's face is facing the front and the current user's face image. By obtaining the flow, the orientation of the user's face can be estimated. Note that the determination of whether the user's face is facing the front may be, for example, estimated from the image of the user's face captured over a predetermined time as a front direction in which the user tends to be facing, The template may be prepared in advance, and the direction approximating this template may be estimated as the front.

ステップS406では、選択機能により、推定されたユーザの顔の向きが下向であるか判断される。ユーザの顔の向きが下向きであると判断された場合は、ステップS407に進み、選択機能により、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から、周波数成分を抽出するための部位として左右一対の耳朶部が選択される。そして、温度データ算出機能により、選択された左右一対の耳朶部の平均温度データが加算される。一方、ステップS406において、ユーザの顔の向きが下向きではないと判断された場合は、ステップS408に進む。   In step S406, it is determined by the selection function whether the estimated orientation of the user's face is downward. When it is determined that the orientation of the user's face is downward, the process proceeds to step S407, and the frequency component is selected from the user's nose protrusion, the pair of left and right earlobes, and the pair of left and right cheeks by the selection function. A pair of left and right earlobe parts is selected as a part for extracting. Then, the average temperature data of the selected pair of left and right earlobe parts is added by the temperature data calculation function. On the other hand, if it is determined in step S406 that the user's face is not facing downward, the process proceeds to step S408.

ステップS408では、選択機能により、推定されたユーザの顔の向きが右向きであるか判断される。ユーザの顔の向きが右向きであると判断された場合は、ステップS409に進み、選択機能により、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から、周波数成分を抽出するための部位として左頬部、左耳朶部が選択される。そして、温度データ算出機能により、選択された左頬部、左耳朶部の平均温度データが加算される。一方、ステップS408において、ユーザの顔の向きが右向きではないと判断された場合は、ステップS410に進む。   In step S408, the selection function determines whether the estimated orientation of the user's face is rightward. If it is determined that the orientation of the user's face is rightward, the process proceeds to step S409, and the frequency component is selected from the user's nasal protrusion, the pair of left and right earlobes, and the pair of left and right cheeks by the selection function. The left cheek portion and the left ear buttock portion are selected as the parts for extracting. Then, the temperature data calculation function adds the average temperature data of the selected left cheek and left earlobe. On the other hand, if it is determined in step S408 that the user's face is not facing right, the process proceeds to step S410.

ステップS410では、選択機能により、推定されたユーザの顔の向きが左向きであるか判断される。ユーザの顔の向きが左向きであると判断された場合は、ステップS411に進み、選択機能により、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から、周波数成分を抽出するための部位として右頬部、右耳朶部が選択される。そして、温度データ算出機能により、選択された右頬部、右耳朶部の平均温度データが加算される。一方、ステップS410において、ユーザの顔の向きが左向きではないと判断された場合は、ステップS412に進む。   In step S410, it is determined by the selection function whether the estimated orientation of the user's face is leftward. If it is determined that the orientation of the user's face is leftward, the process proceeds to step S411, and the frequency component is selected from the user's nasal protrusion, the pair of left and right earlobes, and the pair of left and right cheeks by the selection function. The right cheek and right ear buttock are selected as the parts for extracting Then, the temperature data calculation function adds the average temperature data of the selected right cheek and right earlobe. On the other hand, if it is determined in step S410 that the user's face is not facing left, the process proceeds to step S412.

ステップS412では、ユーザの顔の向きが下向き、右向きまたは左向きのいずれでもないと判断されているため、ユーザの顔の向きが正面であると推定される。そして、ステップS413に進み、選択機能により、周波数成分を抽出するための部位としてユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の全ての部位が選択される。そして、温度データ算出機能により、選択されたユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の全ての部位の平均温度データが加算される。   In step S <b> 412, since it is determined that the user's face direction is neither downward, rightward, or leftward, it is estimated that the user's face direction is front. And it progresses to step S413 and all the site | parts of a user's nose projection part, a pair of left and right earlobe parts, and a pair of left and right cheek parts are selected as a part for extracting a frequency component by a selection function. Then, the temperature data calculation function adds the average temperature data of all parts of the selected user's nose projection, left and right pair of earlobe, and left and right pair of cheeks.

なお、ステップS406からステップS413までのユーザの顔向きを判断する処理は、この順番としなくてもよく、例えば、ステップS412のユーザの顔の向きが正面であるかを初めに判断してもよい。   Note that the process of determining the user's face orientation from step S406 to step S413 may not be performed in this order. For example, it may be first determined whether the user's face orientation in step S412 is the front. .

ステップS414では、ユーザの顔の向きに応じて選択された部位の平均温度データの和から算出された加算データが、コントローラ20のRAMに記憶される。ステップS415〜ステップS418では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、ユーザの顔の向きに応じて選択された部位の温度データの和から算出された加算データの時系列データが温度情報として取得され(ステップS415)、取得された温度情報が周波数成分に変換される(ステップS416)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS417)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS418)。   In step S414, the addition data calculated from the sum of the average temperature data of the parts selected according to the orientation of the user's face is stored in the RAM of the controller 20. In steps S415 to S418, processing similar to that in steps S105 to S108 of the first embodiment is performed. That is, the time series data of the addition data calculated from the sum of the temperature data of the parts selected according to the orientation of the user's face is acquired as temperature information (step S415), and the acquired temperature information is converted into frequency components. (Step S416). Then, the frequency component in the frequency band corresponding to the heartbeat is extracted from the frequency components converted from the temperature information (step S417), and the heart rate of the user is measured based on the extracted frequency component (step S418). .

以上のように、第4実施形態においては、ユーザの顔の向きを推定し、推定されたユーザの顔の向きに応じて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の中から、周波数成分を抽出するための部位が選択され、選択された部位の平均温度データの和から加算データが算出される。このように、第4実施形態においては、ユーザの顔の向きを推定することで、第1実施形態の効果に加えて、仮に、ユーザが顔を傾けた場合でも、ユーザの表面(皮膚)の温度データを適切に検出できる部位を選択し、選択された部位の温度データに基づいて、ユーザの心拍数を適切に測定することができる。例えば、ユーザが顔を右方向に向けている場合に、周波数成分を抽出するための部位として左耳朶部および左頬部を選択し、選択された左耳朶部および左頬部の平均温度データの和から加算データを算出することで、ユーザが顔を右方向に向けているため、ユーザの正面に設置される赤外線カメラ10で、ユーザの鼻突部、右耳朶部、および右頬部の温度データを適切に検出することができない場合であっても、ユーザの心拍数を適切に測定することができる。   As described above, in the fourth embodiment, the orientation of the user's face is estimated, and according to the estimated orientation of the user's face, the user's nose projection, the pair of left and right earlobes, and the pair of left and right cheeks The part for extracting the frequency component is selected from among the above, and the addition data is calculated from the sum of the average temperature data of the selected part. Thus, in the fourth embodiment, by estimating the orientation of the user's face, in addition to the effects of the first embodiment, even if the user tilts his / her face, the surface of the user (skin) A site where temperature data can be appropriately detected is selected, and the heart rate of the user can be appropriately measured based on the temperature data of the selected site. For example, when the user turns the face to the right, the left earlobe part and the left cheek part are selected as the parts for extracting the frequency component, and the average temperature data of the selected left earlobe part and left cheek part is selected. By calculating the sum data from the sum, the temperature of the user's nose, the right earlobe, and the right cheek is detected by the infrared camera 10 installed in front of the user because the user faces the right direction. Even when data cannot be detected properly, the user's heart rate can be measured appropriately.

≪第5実施形態≫
続いて、本発明の第5実施形態について説明する。図14は、第5実施形態に係る心拍数測定処理を示すフローチャートである。第5実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、顔部を複数のセルに分割し、各セルの平均温度データを求めるセル温度算出機能と、複数のセルのうち周波数成分の抽出に用いるセルを選択する選択機能とを備え、図14に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図14に示すフローチャートを参照して、第5実施形態に係る心拍数測定処理について説明する。なお、図14に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
«Fifth embodiment»
Subsequently, a fifth embodiment of the present invention will be described. FIG. 14 is a flowchart showing a heart rate measurement process according to the fifth embodiment. In addition to the function of the controller 20 of the first embodiment, the controller 20 of the fifth embodiment divides the face into a plurality of cells and calculates a cell temperature for obtaining average temperature data of each cell. And a selection function for selecting a cell used for extraction of frequency components, and has the same configuration as that of the first embodiment except that the user's heart rate is measured according to the flowchart shown in FIG. Hereinafter, a heart rate measurement process according to the fifth embodiment will be described with reference to a flowchart shown in FIG. The heart rate measurement process shown in FIG. 14 is also executed by the controller 20 at regular time intervals.

ステップS501では、第1実施形態のステップS101と同様に、赤外線カメラ10により検出された温度データが取得される。   In step S501, temperature data detected by the infrared camera 10 is acquired as in step S101 of the first embodiment.

ステップS502では、赤外線カメラ10により撮像された熱画像のうちユーザの顔部が特定され、セル温度算出機能により、特定されたユーザの顔部が複数のセルに分割される。ここで、図15は、複数のセルに分割されたユーザの顔部を示す図である。なお、図15においても、図3と同様に、温度の高低を白黒の濃淡で表している。図15に示す例では、セル温度算出機能は、ユーザの顔部を、6×7個のセルで分割している。また、各セルは、他のセルと同じ大きさの領域となるに分割される。なお、図15に示すユーザの顔部の分割は一例であって、ユーザの顔部を分割するセルの数は特に限定されず、また、セルの大きさ(各セルの画素数)も特に限定されない。   In step S502, the user's face is identified from the thermal image captured by the infrared camera 10, and the identified user's face is divided into a plurality of cells by the cell temperature calculation function. Here, FIG. 15 is a diagram showing a user's face divided into a plurality of cells. In FIG. 15, similarly to FIG. 3, the temperature level is expressed by black and white shading. In the example illustrated in FIG. 15, the cell temperature calculation function divides the user's face by 6 × 7 cells. Each cell is divided into regions having the same size as other cells. The division of the user's face shown in FIG. 15 is an example, and the number of cells that divide the user's face is not particularly limited, and the cell size (number of pixels of each cell) is also particularly limited. Not.

ステップS503では、セル温度算出機能により、所定の基準温度よりも所定温度以上低い温度データを検出した画素が特定される。これにより、人の表面(皮膚)の温度とは判断されない温度データを検出した画素を特定することができる。図15に示すように、赤外線カメラ10により人の顔部の温度データを検出する場合には、例えば、一般的に人の平熱またはそれに近いと考えられる36.5度が基準温度とされる。そして、セル温度算出機能は、各画素において検出された温度データが、この基準温度36.5度よりも所定温度以上低いか判断し、この基準温度36.5度よりも所定温度以上低い場合に、この画素で検出した温度データは、人の表面(皮膚)温度ではないと判断する。そして、ステップS504では、セル温度算出機能により、人の皮膚の温度ではないと判断された温度データを除いて、各セルにおける平均温度データが算出される。例えば、図15に示すように、ユーザが眼鏡を着用している場合、この眼鏡を撮像する画素において検出される温度データは、基準温度36.5度よりも所定温度以上低い温度として検出され、眼鏡を撮像する画素で検出された温度データを除いて、各セルの平均温度データが算出される。   In step S503, a pixel that detects temperature data that is lower than a predetermined reference temperature by a predetermined temperature or higher is specified by the cell temperature calculation function. Thereby, the pixel which detected the temperature data which is not judged as the temperature of a person's surface (skin) can be specified. As shown in FIG. 15, when temperature data of a human face is detected by the infrared camera 10, for example, 36.5 degrees that is generally considered to be normal or close to human heat is set as the reference temperature. The cell temperature calculation function determines whether the temperature data detected in each pixel is lower than the reference temperature of 36.5 degrees by a predetermined temperature or more, and if the temperature is lower than the reference temperature of 36.5 degrees by a predetermined temperature or more. The temperature data detected by this pixel is determined not to be the human surface (skin) temperature. In step S504, average temperature data in each cell is calculated by removing the temperature data determined not to be the temperature of the human skin by the cell temperature calculation function. For example, as shown in FIG. 15, when the user wears spectacles, the temperature data detected in the pixel that images the spectacles is detected as a temperature that is lower than the reference temperature 36.5 degrees by a predetermined temperature or more, The average temperature data of each cell is calculated excluding the temperature data detected by the pixels that image the glasses.

ステップS505では、算出された各セルの平均温度データがコントローラ20のRAMに記憶される。そして、ステップS506では、各セルの平均温度データの時系列データが温度情報として取得され、ステップS507で、取得された各セルの温度情報が周波数成分に変換される。次に、ステップS508では、選択機能が、セルの温度情報から変換された周波数成分のうち、心拍に相当する周波数帯域である周波数0.8〜1.5Hzにおいて、パワースペクトル強度が最大となる周波数の値を最大強度として求める。   In step S505, the calculated average temperature data of each cell is stored in the RAM of the controller 20. In step S506, time series data of average temperature data of each cell is acquired as temperature information, and in step S507, the acquired temperature information of each cell is converted into a frequency component. Next, in step S508, the frequency at which the power spectrum intensity is maximized at a frequency of 0.8 to 1.5 Hz, which is a frequency band corresponding to the heartbeat, among the frequency components converted from the cell temperature information by the selection function. Is determined as the maximum intensity.

ステップS509では、選択機能により、全てのセルの中から、最大強度の大きさが大きい上位n個のセルが選択される。次いで、ステップS510において、選択された上位n個のセルの周波数成分から、心拍に相当する周波数帯域の周波数成分が抽出され、ステップS511では、抽出された上位n個のセルの周波数成分が温度情報に再変換される。   In step S509, the top n cells having the largest maximum intensity are selected from all the cells by the selection function. Next, in step S510, frequency components in the frequency band corresponding to the heartbeat are extracted from the frequency components of the selected top n cells, and in step S511, the extracted frequency components of the top n cells are temperature information. Reconverted to

ステップS512では、再変換された上位n個のセルの温度情報において、各時点における温度データ同士を加算することで、上位n個のセルの温度データの和からなる時系列データが温度情報として算出される。そして、ステップS513では、算出された時系列データに基づいて、ユーザの心拍数が計測される。   In step S512, by adding the temperature data at each time point in the temperature information of the re-converted top n cells, time series data consisting of the sum of the temperature data of the top n cells is calculated as temperature information. Is done. In step S513, the user's heart rate is measured based on the calculated time-series data.

以上のように、第5実施形態では、ユーザの顔部を複数のセルに分割し、分割された複数のセルの中から、心拍に相当する周波数帯域におけるパワースペクトル強度の値が大きな上位n個のセルを選択し、選択されたセルの周波数成分に基づいて、ユーザの心拍数が計測される。このように、第5実施形態では、複数のセルの周波数成分のうち、心拍に相当する周波数成分が良好に検出されたセルを選択して、ユーザの心拍数を測定することができるため、第1実施形態の効果に加えて、ユーザの心拍数の計測精度を向上することができる。   As described above, in the fifth embodiment, the user's face is divided into a plurality of cells, and among the divided cells, the top n power spectrum intensity values in the frequency band corresponding to the heartbeat are large. The user's heart rate is measured based on the frequency component of the selected cell. Thus, in the fifth embodiment, since the cell in which the frequency component corresponding to the heartbeat is well detected among the frequency components of the plurality of cells can be selected and the heart rate of the user can be measured, In addition to the effects of the embodiment, the measurement accuracy of the user's heart rate can be improved.

さらに、第5実施形態では、セル内の複数の画素において検出された温度データのうち、ユーザの表面(皮膚)温度と判断できない温度データを除いて、セルの平均温度データが算出される。このように、ユーザの表面(皮膚)温度と判断できない温度データを除いて、ユーザの表面(皮膚)の温度と判断される温度データのみからセルの平均温度データを算出することで、例えば、図15に示すように、ユーザが、ユーザの顔部に、眼鏡などの人工物を着用している場合でも、ユーザの表面(皮膚)の温度データに基づいて、ユーザの心拍数を適切に測定することができる。   Furthermore, in the fifth embodiment, average temperature data of a cell is calculated by excluding temperature data that cannot be determined as a user's surface (skin) temperature from temperature data detected in a plurality of pixels in the cell. Thus, by calculating the average temperature data of the cell from only the temperature data determined to be the temperature of the user's surface (skin), excluding temperature data that cannot be determined as the user's surface (skin) temperature, for example, FIG. As shown in FIG. 15, even when the user wears an artificial object such as glasses on the user's face, the user's heart rate is appropriately measured based on the temperature data of the user's surface (skin). be able to.

≪第6実施形態≫
続いて、本発明の第6実施形態について説明する。図16は、第6実施形態に係る心拍数測定処理を示すフローチャートである。第6実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、顔部を複数のセルに分割し、各セルの平均温度データを求めるセル温度算出機能と、各セルの温度情報の相関を判断して、周波数成分の抽出に用いるセルを選択する選択機能と、セルの温度データの和から加算データを算出する温度データ算出機能を備え、図16に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図16に示すフローチャートを参照して、第6実施形態に係る心拍数測定処理について説明する。なお、図16に示す心拍数計測処理は、コントローラ20により、一定時間間隔で実行される。
<< Sixth Embodiment >>
Subsequently, a sixth embodiment of the present invention will be described. FIG. 16 is a flowchart showing a heart rate measurement process according to the sixth embodiment. In addition to the function of the controller 20 of the first embodiment, the controller 20 of the sixth embodiment divides the face into a plurality of cells and calculates the cell temperature and obtains the average temperature data of each cell, and the temperature of each cell. It has a selection function for judging the correlation of information and selecting a cell to be used for extraction of frequency components, and a temperature data calculation function for calculating addition data from the sum of the temperature data of the cells. According to the flowchart shown in FIG. Except for measuring the heart rate, the configuration is the same as that of the first embodiment. In the following, the heart rate measurement process according to the sixth embodiment will be described with reference to the flowchart shown in FIG. The heart rate measurement process shown in FIG. 16 is executed by the controller 20 at regular time intervals.

ステップS601では、第1実施形態のステップS101と同様に、赤外線カメラ10により検出された温度データが取得される。   In step S601, temperature data detected by the infrared camera 10 is acquired as in step S101 of the first embodiment.

ステップS602では、ユーザの顔部が特定され、セル温度算出機能により、図15に示すように、ユーザの顔部が複数のセルに分割される。そして、ステップS603では、セル温度算出機能により、人の表面(皮膚)の温度とは判断されない温度データを検出した画素を特定するため、所定の基準温度よりも所定温度以上低い温度データを検出した画素が特定される。次のステップS604では、セル温度算出機能により、人の表面(皮膚)温度ではないと判断された温度データを除いて、セルの平均温度データが算出される。   In step S602, the user's face is specified, and the user's face is divided into a plurality of cells as shown in FIG. 15 by the cell temperature calculation function. In step S603, the cell temperature calculation function detects temperature data that is lower than a predetermined reference temperature by a temperature that is lower than a predetermined reference temperature in order to identify a pixel that has detected temperature data that is not determined to be a human surface (skin) temperature. A pixel is identified. In the next step S604, the cell temperature calculation function calculates cell average temperature data excluding temperature data determined not to be a human surface (skin) temperature.

ステップS605では、各セルにおいて算出された平均温度データが、コントローラ20のRAMに記憶される。そして、ステップS606では、各セルにおいて算出された平均温度データの時系列データが温度情報として取得される。   In step S605, the average temperature data calculated in each cell is stored in the RAM of the controller 20. In step S606, time series data of average temperature data calculated in each cell is acquired as temperature information.

ステップS607では、選択機能により、独立成分分析、または独立成分分析に主成分分析を組み合わせた手法により、各セルの温度情報の相関が判断される。そして、相関が低いと判断されたセルの温度情報が除かれる。続くステップS608では、選択機能により、相関が低いと判断されたセルを除いたセルの温度情報が選択される。そして、温度データ算出機能により、選択された温度情報において、各時点における温度データ同士を加算して、加算データの時系列データを算出する。   In step S607, the correlation of the temperature information of each cell is determined by the selection function by an independent component analysis or a method in which independent component analysis is combined with principal component analysis. Then, the temperature information of the cell determined to have a low correlation is removed. In subsequent step S608, cell temperature information excluding cells determined to have low correlation is selected by the selection function. Then, the temperature data calculation function adds the temperature data at each time point in the selected temperature information to calculate the time series data of the added data.

ステップS609〜ステップS612では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、加算データの時系列データが温度情報として取得され(ステップS609)、温度情報が周波数成分に変換され(ステップS610)る。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS611)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS612)。   In steps S609 to S612, processing similar to that in steps S105 to S108 of the first embodiment is performed. That is, the time series data of the addition data is acquired as temperature information (step S609), and the temperature information is converted into a frequency component (step S610). The frequency component in the frequency band corresponding to the heartbeat is extracted from the frequency components converted from the temperature information (step S611), and the user's heart rate is measured based on the extracted frequency component (step S612). .

以上のように、第6実施形態では、独立成分分析、または独立成分分析に主成分分析を組み合わせた手法により、複数のセルの温度情報の中から、相関の低いセルの温度情報を除いたセルの温度情報が選択され、選択されたセルの温度情報に基づいて、ユーザの心拍数が計測される。これにより、第6実施形態では、第1実施形態の効果に加えて、相関の低いセルの温度情報を除いて、ユーザの心拍数を計測することができ、ユーザの心拍数の測定精度を向上させることができる。   As described above, in the sixth embodiment, a cell obtained by removing temperature information of a cell having low correlation from temperature information of a plurality of cells by independent component analysis or a method in which principal component analysis is combined with independent component analysis. Temperature information is selected, and the heart rate of the user is measured based on the temperature information of the selected cell. As a result, in the sixth embodiment, in addition to the effects of the first embodiment, it is possible to measure the user's heart rate by removing the temperature information of the cell having low correlation, and improve the measurement accuracy of the user's heart rate. Can be made.

≪第7実施形態≫
続いて、本発明の第7実施形態について説明する。図17は、第7実施形態における赤外線カメラの設置例を示す図であり、また、図18は、第7実施形態に係る心拍数測定処理を示すフローチャートである。第7実施形態では、図17に示すように、ユーザの手の甲の温度データを検出するための赤外線カメラ11〜13がユーザの右側、左側、および頭上側のそれぞれの位置に設けられており、図18に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。
<< Seventh Embodiment >>
Subsequently, a seventh embodiment of the present invention will be described. FIG. 17 is a diagram illustrating an installation example of the infrared camera according to the seventh embodiment, and FIG. 18 is a flowchart illustrating a heart rate measurement process according to the seventh embodiment. In the seventh embodiment, as shown in FIG. 17, infrared cameras 11 to 13 for detecting temperature data of the back of the user's hand are provided at positions on the right side, the left side, and the upper side of the user. 18 has the same configuration as that of the first embodiment except that the user's heart rate is measured according to the flowchart shown in FIG.

図17に示すように、ユーザの右側位置に設置された赤外線カメラ11はユーザの右側からユーザの左手の甲を、ユーザの左側に設置された赤外線カメラ12はユーザの左側からユーザの右手の甲を、またユーザの頭上側に設置された赤外線カメラ13はユーザの頭上側の位置からユーザの右手および左手の甲を、それぞれ異なる角度で撮像する。図19は、図17に示すユーザの左側に設置された赤外線カメラ12により撮像された熱画像の一例を示す図である。なお、図19においても、図3と同様に、温度の高低を白黒の濃淡で表している。図19に示すように、ユーザの左側に設置された赤外線カメラ12は、ハンドルを握るユーザの左手の甲の温度データを検出することができる。   As shown in FIG. 17, the infrared camera 11 installed at the right side of the user has the back of the user's left hand from the right side of the user, and the infrared camera 12 installed on the left of the user has the back of the user's right hand from the left side of the user. The infrared camera 13 installed on the upper side of the user images the back of the user's right hand and left hand from different positions from the position above the user's head. FIG. 19 is a diagram illustrating an example of a thermal image captured by the infrared camera 12 installed on the left side of the user illustrated in FIG. In FIG. 19, similarly to FIG. 3, the temperature level is expressed by black and white shading. As shown in FIG. 19, the infrared camera 12 installed on the left side of the user can detect the temperature data of the back of the user's left hand holding the handle.

次に、図18に示すフローチャートを参照して、第7実施形態に係る心拍数測定処理について説明する。なお、図18に示す心拍数計測処理は、コントローラ20により、一定時間間隔で実行される。   Next, a heart rate measurement process according to the seventh embodiment will be described with reference to the flowchart shown in FIG. The heart rate measurement process shown in FIG. 18 is executed by the controller 20 at regular time intervals.

ステップS701では、例えば図19に示すように、それぞれの赤外線カメラ11〜13の全ての画素において検出された温度データが取得される。そして、ステップS702では、それぞれの赤外線カメラ11〜13から取得された温度データのうち、ユーザの手の甲に基づく各温度データが特定される。続くステップS703では、ユーザの手の甲に基づく各温度データから、ユーザの手の甲の平均温度データが算出され、ステップS704で、算出されたユーザの手の甲の平均温度データが、コントローラ20のRAMに記憶される。   In step S701, for example, as shown in FIG. 19, temperature data detected in all the pixels of the respective infrared cameras 11 to 13 is acquired. In step S702, among the temperature data acquired from each of the infrared cameras 11 to 13, each temperature data based on the back of the user's hand is specified. In subsequent step S703, average temperature data of the back of the user's hand is calculated from each temperature data based on the back of the user's hand, and in step S704, the calculated average temperature data of the back of the user's hand is stored in the RAM of the controller 20. .

ステップS705では、時系列に沿って記憶されたユーザの手の甲の平均温度データが、ユーザの手の甲の温度情報として取得される。ここで、ユーザはハンドルを操作するためにユーザの手を動かす場合があるため、温度情報を取得する際には、例えば、ユーザの手の動きに応じて、ユーザの手の甲を撮像する画素の割合が最も高い赤外線カメラにより検出されたユーザの手の甲の温度情報を取得するようにしてもよく、また複数の赤外線カメラ11〜13のそれぞれにおいて検出されたユーザの手の甲の平均温度データの和から加算データを算出し、算出された加算データに基づいて、温度情報を取得してもよい。   In step S705, the average temperature data of the back of the user's hand stored along the time series is acquired as temperature information of the back of the user's hand. Here, since the user may move the user's hand to operate the handle, when acquiring the temperature information, for example, the ratio of the pixels that image the back of the user's hand according to the movement of the user's hand The temperature information of the back of the user's hand detected by the infrared camera having the highest value may be acquired, and addition data from the sum of the average temperature data of the back of the user's hand detected in each of the plurality of infrared cameras 11 to 13 And temperature information may be acquired based on the calculated addition data.

ステップS706〜ステップS708では、第1実施形態のステップS106〜S108と同様の処理が行われる。すなわち、温度情報が周波数成分に変換され(ステップS706)、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS707)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS708)。   In steps S706 to S708, processing similar to that in steps S106 to S108 of the first embodiment is performed. That is, the temperature information is converted into frequency components (step S706), and the frequency components in the frequency band corresponding to the heartbeat are extracted from the frequency components converted from the temperature information (step S707). Based on the extracted frequency components The user's heart rate is measured (step S708).

以上のように、第7実施形態においては、ユーザの手の甲の温度データを検出し、ユーザの手の甲の温度データから求めたユーザの手の甲の温度情報に基づいて、ユーザの心拍数が測定される。手の甲は血管が集中する部位であり、ユーザの手の甲の温度情報から、血管の収縮成分を抽出することできる。そのため、ユーザの手の甲の温度を検出することで、ユーザに接触することなく、ユーザの心拍数を測定することができる。   As described above, in the seventh embodiment, the temperature data of the back of the user's hand is detected, and the heart rate of the user is measured based on the temperature information of the back of the user's hand obtained from the temperature data of the back of the user's hand. The back of the hand is a part where blood vessels concentrate, and the contraction component of the blood vessel can be extracted from the temperature information on the back of the user's hand. Therefore, by detecting the temperature of the back of the user's hand, the user's heart rate can be measured without touching the user.

さらに、手の甲は、人の顔部の中の鼻突部、一対の耳朶部、または一対の頬部と比べて、特定することが容易である。そのため、人の顔部の中の鼻突部、一対の耳朶部、または一対の頬部の温度データに基づいてユーザの心拍数を測定する場合と比べて、容易に、ユーザの手の甲の温度データに基づいてユーザの心拍数を測定することができる。   Furthermore, the back of the hand is easier to identify than a nose projection, a pair of earlobe, or a pair of cheeks in a human face. Therefore, the temperature data of the back of the user's hand can be easily compared with the case where the user's heart rate is measured based on the temperature data of the nose protrusion, the pair of earlobe, or the pair of cheeks in the human face. Based on the user's heart rate.

なお、第7実施形態における赤外線カメラ11〜13の設置方法は一例であって、適宜設置してよい。また、設置されるカメラの数も限定されず、例えば、赤外線カメラをユーザの左側位置およびユーザの右側位置だけに設置してもよいし、あるいは赤外線カメラを3つよりも多く設置してもよい。   In addition, the installation method of the infrared cameras 11-13 in 7th Embodiment is an example, You may install suitably. Also, the number of cameras to be installed is not limited. For example, infrared cameras may be installed only at the left side position of the user and the right side position of the user, or more than three infrared cameras may be installed. .

≪第8実施形態≫
続いて、本発明の第8実施形態について説明する。図20は、第8実施形態に係る心拍数測定システムを示す構成図である。また図21は、第8実施形態に係る心拍数測定処理を示すフローチャートである。第8実施形態では、図20に示すように、可視光カメラ30がユーザの前方位置に設けられており、ユーザの顔部を撮像する。そして、第8実施形態では、第1実施形態のコントローラ20の機能に加えて、ユーザの顔部の所定部位を撮像する可視光カメラ30の画素の位置座標を検出する位置座標検出機能と、検出された画素の位置座標を参照して、赤外線カメラ10の各画素において検出された温度データがユーザのいずれの部位に基づく温度データであるかを特定するマッチング機能と、ユーザの複数の部位において算出された平均温度データの和を加算データとして算出する温度データ算出機能とを備え、図21に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。
<< Eighth Embodiment >>
Next, an eighth embodiment of the present invention will be described. FIG. 20 is a configuration diagram showing a heart rate measurement system according to the eighth embodiment. FIG. 21 is a flowchart showing a heart rate measurement process according to the eighth embodiment. In the eighth embodiment, as shown in FIG. 20, the visible light camera 30 is provided at the front position of the user and images the face of the user. And in 8th Embodiment, in addition to the function of the controller 20 of 1st Embodiment, the position coordinate detection function which detects the position coordinate of the pixel of the visible light camera 30 which images the predetermined site | part of a user's face part, and detection With reference to the position coordinates of the pixels, a matching function for specifying which part of the user the temperature data detected in each pixel of the infrared camera 10 is based on, and calculation in a plurality of parts of the user A temperature data calculation function for calculating the sum of the average temperature data as addition data, and has the same configuration as that of the first embodiment except that the user's heart rate is measured according to the flowchart shown in FIG.

可視光カメラ30は、撮像素子上に複数の画素を備え、輝度画像を撮像するものであり、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などが挙げられる。また、可視光カメラ30と赤外線カメラ10の画角、画素数、およびフレームレートは同じに設定されており、可視光カメラ30と赤外線カメラ10との撮像範囲および撮像時間は略一致する。可視光カメラ30の各画素において撮像された画像情報は、コントローラ20に送信される。   The visible light camera 30 includes a plurality of pixels on an image pickup device and picks up a luminance image. Examples thereof include a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS). The angle of view, the number of pixels, and the frame rate of the visible light camera 30 and the infrared camera 10 are set to be the same, and the imaging ranges and imaging times of the visible light camera 30 and the infrared camera 10 are substantially the same. Image information captured by each pixel of the visible light camera 30 is transmitted to the controller 20.

次に、図21に示すフローチャートを参照して、第8実施形態に係る心拍数測定処理について説明する。なお、図21に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。   Next, a heart rate measurement process according to the eighth embodiment will be described with reference to a flowchart shown in FIG. The heart rate measurement process shown in FIG. 21 is also executed by the controller 20 at regular time intervals.

ステップS801では、位置座標検出機能により、可視光カメラ30の各画素で撮像された画像情報が取得される。そして、ステップS802では、位置座標検出機能により、可視光カメラ30により撮像された輝度画像に基づいて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部が特定される。可視光カメラ30により撮像された輝度画像に基づいて、これらのユーザの部位を特定する方法は、特に限定されず、例えば、論文(T. F. Cootes, G, J, Edwards, and C. J. Taylor, Active Appearance Model, Proc. European Conf. on Computer Version, Vol.2, p484-498, (1998))による手法や、FSE(Face Sensing Engine/http://www.oki.com/jp/fse/:沖電気工業株式会社開発)による手法を用いる方法が挙げられる。   In step S801, image information captured by each pixel of the visible light camera 30 is acquired by the position coordinate detection function. In step S <b> 802, the position coordinate detection function identifies the user's nasal protrusion, the pair of left and right earlobes, and the pair of left and right cheeks based on the luminance image captured by the visible light camera 30. The method for specifying the user's part based on the luminance image captured by the visible light camera 30 is not particularly limited. For example, a paper (TF Cootes, G, J, Edwards, and CJ Taylor, Active Appearance Model , Proc. European Conf. On Computer Version, Vol.2, p484-498, (1998)) and FSE (Face Sensing Engine / http: //www.oki.com/jp/fse/: Oki Electric Industry And a method using a method developed by Co., Ltd.).

図22および図23は、可視光カメラ30により撮像された輝度画像を用いて、ユーザの各部位を特定する方法を説明するための図である。図22は、可視光カメラ30により撮像された輝度画像を示した図であり、ユーザの顔の特徴点(図中において四角で囲われた部分)およびこの特徴点から特定されるユーザの鼻突部、左右一対の耳朶部、左右一対の頬部(図中において斜線で示された部分)が示されている。また、図23は、赤外線カメラ10により撮像された熱画像を示す図であり、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部(図中において斜線で示された部分)が示されている。なお、図23においても、図3と同様に、温度の高低を白黒の濃淡で表している。位置座標検出機能は、可視光カメラ30により撮像された輝度画像を上記手法により処理することで、図22に示すように、ユーザの鼻、目、耳、口などの顔の特徴点を検出することができる。そして、位置座標検出機能は、検出されたユーザの鼻、目、耳、口などの顔の特徴点に基づいて、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部を特定する。例えば、位置座標検出機能は、ユーザの鼻と特定された位置の中心周辺を鼻突部として特定し、また目、鼻、耳と特定された位置の間を頬部として特定し、また耳と特定された領域のうち3分の1の下部領域を耳朶部として特定する。そして、位置座標検出機能は、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部と特定された部位を撮像する可視光カメラ30の画素の位置座標を検出する。   22 and 23 are diagrams for explaining a method of specifying each part of the user using the luminance image captured by the visible light camera 30. FIG. FIG. 22 is a diagram showing a luminance image captured by the visible light camera 30, and the user's face feature points (portions enclosed by squares in the figure) and the user's nose bumps identified from the feature points , A pair of left and right earlobe portions, and a pair of left and right cheeks (portions indicated by oblique lines in the figure). FIG. 23 is a diagram illustrating a thermal image captured by the infrared camera 10, in which a user's nose projection, a pair of left and right earlobe portions, and a pair of left and right cheeks (portions indicated by diagonal lines in the drawing). It is shown. In FIG. 23, as in FIG. 3, the temperature level is represented by black and white shading. The position coordinate detection function detects facial feature points such as the user's nose, eyes, ears, and mouth as shown in FIG. 22 by processing the luminance image captured by the visible light camera 30 by the above-described method. be able to. The position coordinate detection function identifies the user's nose protrusion, the pair of left and right earlobes, and the pair of left and right cheeks based on the detected facial feature points such as the user's nose, eyes, ears, and mouth. To do. For example, the position coordinate detection function specifies the periphery of the center of the position specified as the user's nose as a nose protrusion, specifies the position between the eyes, nose and ears as the cheek, and One-third of the identified area is identified as the earlobe area. Then, the position coordinate detection function detects the position coordinates of the pixels of the visible light camera 30 that images the region identified as the user's nose projection, the pair of left and right earlobes, and the pair of left and right cheeks.

ステップS803では、第1実施形態のステップS101と同様に、赤外線カメラ10により検出された温度データが取得される。なお、ステップS801およびステップS802と、ステップS803とを、同時に行ってもよく、またステップS803を、ステップS801およびステップS802よりも先に行ってもよい。   In step S803, temperature data detected by the infrared camera 10 is acquired as in step S101 of the first embodiment. Note that step S801, step S802, and step S803 may be performed simultaneously, and step S803 may be performed prior to step S801 and step S802.

ステップS804では、マッチング機能により、ステップS802において検出された位置座標が参照され、図23に示すように、赤外線カメラ10において検出された温度データのうち、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部に基づく各温度データが特定される。   In step S804, the position coordinates detected in step S802 are referred to by the matching function, and among the temperature data detected in the infrared camera 10, as shown in FIG. , And each temperature data based on a pair of left and right cheeks.

ステップS805では、ステップS804において特定されたユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の温度データから、これら部位の平均温度データが算出される。そして、ステップS806では、温度データ算出機能により、算出された鼻突部、耳朶部、および頬部の平均温度データの和から加算データが算出される。次に、ステップS807では、算出された加算データがコントローラ20のRAMに記憶される。   In step S805, average temperature data of these parts is calculated from the temperature data of the user's nose protrusion, the pair of left and right earlobes, and the pair of left and right cheeks identified in step S804. In step S806, the temperature data calculation function calculates addition data from the sum of the calculated average temperature data of the nasal protrusion, earlobe, and cheek. Next, in step S807, the calculated addition data is stored in the RAM of the controller 20.

ステップS808〜ステップS811では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、時系列に沿って記憶された加算データが温度情報として取得され(ステップS808)、取得された温度情報が周波数成分に変換される(ステップS809)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS810)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS811)。   In steps S808 to S811, processes similar to those in steps S105 to S108 of the first embodiment are performed. That is, the addition data stored along the time series is acquired as temperature information (step S808), and the acquired temperature information is converted into a frequency component (step S809). The frequency component in the frequency band corresponding to the heartbeat is extracted from the frequency components converted from the temperature information (step S810), and the user's heart rate is measured based on the extracted frequency component (step S811). .

以上のように、第8実施形態では、可視光カメラ30と赤外線カメラ10とが撮像する範囲および時間を略一致させ、可視光カメラ30で撮像された輝度画像からユーザの鼻突部、耳朶部、および頬部を特定することで、これら部位を撮像する可視光カメラ30の位置座標を参照して、赤外線カメラ10の各画素で検出された温度データが、ユーザのどの部位に基づく温度データであるかを特定する。可視光カメラ30は、赤外線カメラ10と比べて、ユーザの体が動いた場合にも、ユーザの体の動きを追行して、ユーザの部位を特定する性能に優れている。そのため、可視光カメラ30の輝度画像から特定されたユーザの鼻突部、耳朶部、および頬部を撮像する画素の位置座標を参照して、赤外線カメラ10の各画素で検出された温度データがユーザのどの部位に基づく温度データであるかを特定することで、第1実施形態の効果に加えて、仮に、ユーザの体が動いた場合であっても、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部に基づく温度データを適切に検出することができ、これにより、ユーザの心拍数を適切に測定することができる。   As described above, in the eighth embodiment, the range and time taken by the visible light camera 30 and the infrared camera 10 are substantially matched, and the user's nasal projection and earlobe from the luminance image captured by the visible light camera 30. By identifying the cheeks and referring to the position coordinates of the visible light camera 30 that images these parts, the temperature data detected by each pixel of the infrared camera 10 is the temperature data based on which part of the user Determine if it exists. Compared with the infrared camera 10, the visible light camera 30 is excellent in performance of specifying the user's part by following the movement of the user's body even when the user's body moves. Therefore, the temperature data detected by each pixel of the infrared camera 10 is obtained by referring to the position coordinates of the pixels that image the user's nose, earlobe, and cheeks identified from the luminance image of the visible light camera 30. By specifying which part of the user the temperature data is based on, in addition to the effect of the first embodiment, even if the user's body moves, the user's nose protrusion, a pair of left and right Temperature data based on the earlobe and the pair of left and right cheeks can be detected appropriately, and the heart rate of the user can be measured appropriately.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

また、本発明は、上述した実施形態に限られず、また上述した実施形態を組み合わせて実施してもよい。実施形態を組み合わせるに際しては、例えば、ユーザの運転状況に応じて、最適な実施形態を選択して組み合わせることが好適である。   Further, the present invention is not limited to the above-described embodiment, and may be implemented by combining the above-described embodiments. When combining the embodiments, for example, it is preferable to select and combine the optimal embodiments according to the driving situation of the user.

例えば、ユーザの顔が傾く、手が動くなどにより、ユーザの部位の一定割合以上の画素において温度データを検出することができない場合は、その部位において検出した温度データは除いて、他の部位において検出した温度データの和から加算データを算出し、算出された加算データに基づいて、ユーザの心拍数を測定してもよい。これにより、ユーザの顔が傾く、手が動くなどの場合でも、適切に温度データが検出された部位の温度情報に基づいて、ユーザの心拍数を適切に測定できる。   For example, if the temperature data cannot be detected in pixels of a certain percentage or more of the user's part due to the user's face tilting, moving hands, etc., the temperature data detected in that part is excluded and other parts Additional data may be calculated from the sum of detected temperature data, and the user's heart rate may be measured based on the calculated additional data. Thereby, even when the user's face is tilted or the hand moves, the user's heart rate can be appropriately measured based on the temperature information of the part where the temperature data is appropriately detected.

また、上述した実施形態において、心拍に相当する周波数帯域として、0.8〜1.5Hzの周波数帯域を用いたが、心拍に相当する周波数帯域は、0.8〜1.5Hzに限定されるものではなく適宜設定できる。   In the above-described embodiment, the frequency band corresponding to the heartbeat is 0.8 to 1.5 Hz. However, the frequency band corresponding to the heartbeat is limited to 0.8 to 1.5 Hz. It is not a thing and can be set suitably.

また、第5実施形態および第6実施形態においては、ユーザの顔部を複数のセルに分割して、各セルにおいて検出された温度データに基づいて、ユーザの心拍数を測定しているが、第7実施形態において、ユーザの手の甲の温度データを検出する際にも、ユーザの手の甲を複数のセルに分割して、各セルの温度データを検出し、検出された温度データに基づいて、ユーザの心拍数を測定してもよい。   In the fifth embodiment and the sixth embodiment, the user's face is divided into a plurality of cells, and the user's heart rate is measured based on the temperature data detected in each cell. In the seventh embodiment, when detecting the temperature data of the back of the user's hand, the back of the user's hand is divided into a plurality of cells, the temperature data of each cell is detected, and based on the detected temperature data, the user You may measure your heart rate.

なお、上述した実施形態の赤外線カメラ10〜13は本発明の取得手段に、変換機能および抽出機能は本発明の抽出手段に、計測機能は本発明の計測手段に、温度データ算出機能は本発明の算出手段に、選択機能は本発明の選択手段に、特定機能は本発明の特定手段にそれぞれ相当する。   The infrared cameras 10 to 13 of the above-described embodiments are the acquisition means of the present invention, the conversion function and the extraction function are the extraction means of the present invention, the measurement function is the measurement means of the present invention, and the temperature data calculation function is the present invention. The selection function corresponds to the selection means of the present invention, and the specific function corresponds to the specification means of the present invention.

10〜13…赤外線カメラ
20…コントローラ
30…可視光カメラ
10-13 ... Infrared camera 20 ... Controller 30 ... Visible light camera

Claims (13)

生体の1または2以上の部位の温度情報を取得する取得手段と、
前記温度情報から、前記生体の心拍に相当する周波数帯域の周波数成分に対応する周波数データを抽出する抽出手段と、
前記抽出手段により抽出された周波数データに基づいて、前記生体の心拍数を計測する計測手段と、を備えることを特徴とする心拍数測定装置。
Obtaining means for obtaining temperature information of one or more parts of the living body;
Extraction means for extracting frequency data corresponding to frequency components in a frequency band corresponding to the heartbeat of the living body from the temperature information;
A heart rate measuring apparatus comprising: a measuring unit that measures the heart rate of the living body based on the frequency data extracted by the extracting unit.
請求項1に記載の心拍数測定装置であって、
前記取得手段は、前記生体の顔部上の1または2以上の部位の温度情報を取得することを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 1,
The said acquisition means acquires the temperature information of the 1 or 2 or more site | part on the face part of the said biological body, The heart rate measuring apparatus characterized by the above-mentioned.
請求項1または2に記載の心拍数測定装置であって、
前記1または2以上の部位の温度データの和から加算データを算出し、前記加算データに基づき、前記抽出手段による前記周波数データの抽出に用いる温度情報を算出する算出手段をさらに備えることを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 1 or 2,
The apparatus further comprises calculation means for calculating addition data from a sum of temperature data of the one or more parts, and calculating temperature information used for extraction of the frequency data by the extraction means based on the addition data. Heart rate measuring device.
請求項3に記載の心拍数測定装置であって、
前記取得手段は、前記生体の鼻突部、左右一対の耳朶部、または左右一対の頬部のうち少なくとも1つの部位の温度情報を取得することを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 3,
The said acquisition means acquires the temperature information of at least 1 site | part among the nose projection part of the said biological body, a pair of left and right earlobe parts, or a pair of left and right cheek parts, The heart rate measuring apparatus characterized by the above-mentioned.
請求項4に記載の心拍数測定装置であって、
前記取得手段は、前記生体の額部の温度情報をさらに取得するとともに、
前記生体の鼻突部、耳朶部、または頬部のうち少なくとも1つの部位の温度情報と、前記生体の額部の温度情報とに基づき、前記鼻突部、耳朶部、または頬部のうち少なくとも1つの部位の温度データと、前記生体の額部の温度データとの差から差分データを算出し、前記差分データに基づき、前記抽出手段による前記周波数データの抽出に用いる温度情報を算出する算出手段をさらに備えることを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 4,
The acquisition means further acquires temperature information of the forehead portion of the living body,
Based on temperature information of at least one portion of the living body's nasal protrusion, earlobe, or cheek and temperature information of the forehead of the living body, at least of the nasal protrusion, earlobe, or cheek Calculation means for calculating difference data from a difference between temperature data of one part and temperature data of the forehead of the living body, and calculating temperature information used for extraction of the frequency data by the extraction means based on the difference data The heart rate measuring device further comprising:
請求項1〜5のいずれかに記載の心拍数測定装置であって、
前記取得手段は、前記生体の手の甲の温度情報を取得することを特徴とする心拍数測定装置。
The heart rate measuring device according to any one of claims 1 to 5,
The heart rate measuring apparatus according to claim 1, wherein the acquisition means acquires temperature information of the back of the living body.
請求項1〜6のいずれかに記載の心拍数測定装置であって、
前記抽出手段は、フーリエ変換、バンドパスフィルター処理、またはウェーブレット変換により、前記温度情報から前記周波数データを抽出することを特徴とする心拍数測定装置。
The heart rate measuring device according to any one of claims 1 to 6,
The heart rate measuring apparatus, wherein the extraction means extracts the frequency data from the temperature information by Fourier transform, band pass filter processing, or wavelet transform.
請求項1〜7のいずれかに記載の心拍数測定装置であって、
前記取得手段により取得された1または2以上の部位の温度情報のなかから、前記抽出手段による前記周波数データの抽出に用いる温度情報を選択する選択手段をさらに備えることを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 1,
A heart rate measuring apparatus, further comprising a selection unit that selects temperature information used for extraction of the frequency data by the extraction unit from among temperature information of one or more parts acquired by the acquisition unit. .
請求項8に記載の心拍数測定装置であって、
前記選択手段は、顔の向きに応じて、前記生体の鼻突部、左右の耳朶部、または左右の頬部の各部位の温度情報から、前記抽出手段による前記周波数データの抽出に用いる温度情報を選択することを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 8,
The selection means uses temperature information for extracting the frequency data by the extraction means from temperature information of each part of the living body's nasal protrusion, left and right earlobe, or left and right cheeks according to the orientation of the face. A heart rate measuring device characterized by selecting.
請求項8または9に記載の心拍数測定装置であって、
前記選択手段は、前記取得手段により取得された1または2以上の部位の温度情報から、前記抽出手段による前記周波数データの抽出に用いる温度情報を選択する際に、前記生体の心拍数に対する相関が低いと判断される部位の温度情報を除外して、前記選択を行うことを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 8 or 9,
When the selection means selects temperature information used for extraction of the frequency data by the extraction means from the temperature information of one or more parts acquired by the acquisition means, the correlation with the heart rate of the living body is A heart rate measuring apparatus that performs the selection by excluding temperature information of a part determined to be low.
請求項1〜10のいずれかに記載の心拍数測定装置であって、
前記部位を特定するための特定手段をさらに有することを特徴とする心拍数測定装置。
The heart rate measuring device according to any one of claims 1 to 10,
The heart rate measuring apparatus further comprising a specifying unit for specifying the part.
請求項11に記載の心拍数測定装置であって、
前記特定手段は、可視光カメラで撮像した画像情報に基づいて、前記部位を特定することを特徴とする心拍数測定装置。
The heart rate measuring device according to claim 11,
The heart rate measuring apparatus characterized in that the specifying means specifies the part based on image information captured by a visible light camera.
生体の1または2以上の部位の温度情報から、前記生体の心拍に対応する周波数帯域の周波数成分を抽出し、前記周波数成分に基づき、前記生体の心拍数を測定することを特徴とする心拍数測定方法。   Extracting a frequency component of a frequency band corresponding to the heartbeat of the living body from temperature information of one or more parts of the living body, and measuring the heart rate of the living body based on the frequency component Measuring method.
JP2009118443A 2009-05-15 2009-05-15 Heart rate measuring apparatus and heart rate measuring method Expired - Fee Related JP5446443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009118443A JP5446443B2 (en) 2009-05-15 2009-05-15 Heart rate measuring apparatus and heart rate measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009118443A JP5446443B2 (en) 2009-05-15 2009-05-15 Heart rate measuring apparatus and heart rate measuring method

Publications (2)

Publication Number Publication Date
JP2010264095A true JP2010264095A (en) 2010-11-25
JP5446443B2 JP5446443B2 (en) 2014-03-19

Family

ID=43361643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009118443A Expired - Fee Related JP5446443B2 (en) 2009-05-15 2009-05-15 Heart rate measuring apparatus and heart rate measuring method

Country Status (1)

Country Link
JP (1) JP5446443B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012239661A (en) * 2011-05-20 2012-12-10 Fujitsu Ltd Heart rate/respiration rate detection apparatus, method and program
WO2014002276A1 (en) * 2012-06-29 2014-01-03 富士通株式会社 Vital sign detection method, vital sign detection device and vital sign detection program
WO2014038077A1 (en) * 2012-09-07 2014-03-13 富士通株式会社 Pulse wave detection method, pulse wave detection device and pulse wave detection program
CN103714660A (en) * 2013-12-26 2014-04-09 苏州清研微视电子科技有限公司 System for achieving fatigue driving judgment on basis of image processing and fusion between heart rate characteristic and expression characteristic
CN103824420A (en) * 2013-12-26 2014-05-28 苏州清研微视电子科技有限公司 Fatigue driving identification system based on heart rate variability non-contact measuring
JP2014518647A (en) * 2011-04-12 2014-08-07 ダイムラー・アクチェンゲゼルシャフト Method and apparatus for monitoring at least one vehicle occupant and method for operating at least one assistant device
CN104071110A (en) * 2013-03-27 2014-10-01 原相科技股份有限公司 Safety monitoring device and safety monitoring method for manned mobile carrier
JP2014198202A (en) * 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection device, pulse wave detection method, and pulse wave detection program
JP2014198201A (en) * 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection program, pulse wave detection method, and pulse wave detection device
JP2015198789A (en) * 2014-04-08 2015-11-12 富士通株式会社 Information processing device, pulse wave measurement program and pulse wave measurement method
CN105769130A (en) * 2016-02-26 2016-07-20 严定远 Device and method for measuring temperature of human body
JP2016159108A (en) * 2015-03-05 2016-09-05 オムロン株式会社 Pulse measurement device and control method therefor
WO2017065315A1 (en) * 2015-10-15 2017-04-20 ダイキン工業株式会社 Driver state determination device and driver state determination method
JP2017131413A (en) * 2016-01-28 2017-08-03 Kddi株式会社 Pulse measuring device
KR101772585B1 (en) * 2013-04-05 2017-08-30 한국전자통신연구원 Method and apparatus for measuring heart rate through non-contact and wireless
JP2017158802A (en) * 2016-03-09 2017-09-14 株式会社デンソー Biological information measuring device
JP2017205426A (en) * 2016-05-20 2017-11-24 美貴子 隈元 Psychological state evaluation program and psychological state evaluation device
US9854976B2 (en) 2013-03-08 2018-01-02 Fujifilm Corporation Pulse wave velocity measurement method
TWI626072B (en) * 2017-03-29 2018-06-11 國立中興大學 Image-based heart rate feedback control fitness device
JP2018183564A (en) * 2017-04-26 2018-11-22 パナソニックIpマネジメント株式会社 Deep body temperature measuring apparatus, deep body temperature measuring system, and deep body temperature measuring method
JP2019111317A (en) * 2017-12-22 2019-07-11 カシオ計算機株式会社 Image processing device, image processing method and program
JP2020178964A (en) * 2019-04-26 2020-11-05 株式会社日立製作所 Biological information detection device, biological information detection method and biological information detection program
US10912516B2 (en) 2015-12-07 2021-02-09 Panasonic Corporation Living body information measurement device, living body information measurement method, and storage medium storing program
US10952626B2 (en) 2016-01-26 2021-03-23 Kddi Corporation Pulsebeat measurement apparatus
CN112826488A (en) * 2021-01-29 2021-05-25 姜珲 Heart rate detection terminal and method
JP7014280B1 (en) 2020-10-29 2022-02-01 横浜ゴム株式会社 Mirror system
CN114469037A (en) * 2022-01-29 2022-05-13 武汉大学 High-reliability heart rate measurement method based on millimeter wave radar
JP2022526409A (en) * 2019-04-04 2022-05-24 ウィリアム イー バトラー, Optical cross-correlation of the underlying contrast agent Wavelet angiography
US11445921B2 (en) 2015-03-30 2022-09-20 Tohoku University Biological information measuring apparatus and biological information measuring method, and computer program product
JP2022172305A (en) * 2018-01-05 2022-11-15 ラドウィスプ プライベート リミテッド Diagnosis support program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077785B1 (en) * 2018-07-19 2020-04-02 서울시립대학교 산학협력단 Drunken Driving Detecting Apparatus

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04348741A (en) * 1991-05-28 1992-12-03 Matsushita Electric Works Ltd Sleeping state deciding device
JPH09253071A (en) * 1996-03-22 1997-09-30 Agency Of Ind Science & Technol Method for measuring respiration
JPH09262213A (en) * 1996-03-28 1997-10-07 Toyota Central Res & Dev Lab Inc Detecting apparatus of biological information
JPH09294724A (en) * 1996-05-08 1997-11-18 Sanyo Electric Co Ltd Tranquilization training system
JPH11197126A (en) * 1998-01-19 1999-07-27 Nippon Soken Inc Pulse waveform detector
JP2004528085A (en) * 2001-04-03 2004-09-16 ウェルチ・アリン・インコーポレーテッド Infrared thermometer
JP2004529703A (en) * 2001-04-19 2004-09-30 ハネウェル・インターナショナル・インコーポレーテッド Thermal image analysis for polygraph inspection
JP2005519666A (en) * 2002-03-08 2005-07-07 ウェルチ・アリン・インコーポレーテッド Compound otoscope
JP2006006355A (en) * 2004-06-22 2006-01-12 Sony Corp Processor for biological information and video and sound reproducing device
JP2007025871A (en) * 2005-07-13 2007-02-01 Cci:Kk Operator state evaluation device
JP2007244478A (en) * 2006-03-14 2007-09-27 Mitsuba Corp Pulse wave detector and method of detecting pulse wave
JP2009028085A (en) * 2007-07-24 2009-02-12 Nissan Motor Co Ltd Biological condition evaluation equipment

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04348741A (en) * 1991-05-28 1992-12-03 Matsushita Electric Works Ltd Sleeping state deciding device
JPH09253071A (en) * 1996-03-22 1997-09-30 Agency Of Ind Science & Technol Method for measuring respiration
JPH09262213A (en) * 1996-03-28 1997-10-07 Toyota Central Res & Dev Lab Inc Detecting apparatus of biological information
JPH09294724A (en) * 1996-05-08 1997-11-18 Sanyo Electric Co Ltd Tranquilization training system
JPH11197126A (en) * 1998-01-19 1999-07-27 Nippon Soken Inc Pulse waveform detector
JP2004528085A (en) * 2001-04-03 2004-09-16 ウェルチ・アリン・インコーポレーテッド Infrared thermometer
JP2004529703A (en) * 2001-04-19 2004-09-30 ハネウェル・インターナショナル・インコーポレーテッド Thermal image analysis for polygraph inspection
JP2005519666A (en) * 2002-03-08 2005-07-07 ウェルチ・アリン・インコーポレーテッド Compound otoscope
JP2006006355A (en) * 2004-06-22 2006-01-12 Sony Corp Processor for biological information and video and sound reproducing device
JP2007025871A (en) * 2005-07-13 2007-02-01 Cci:Kk Operator state evaluation device
JP2007244478A (en) * 2006-03-14 2007-09-27 Mitsuba Corp Pulse wave detector and method of detecting pulse wave
JP2009028085A (en) * 2007-07-24 2009-02-12 Nissan Motor Co Ltd Biological condition evaluation equipment

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014518647A (en) * 2011-04-12 2014-08-07 ダイムラー・アクチェンゲゼルシャフト Method and apparatus for monitoring at least one vehicle occupant and method for operating at least one assistant device
US10140532B2 (en) 2011-04-12 2018-11-27 Daimler Ag Method and device for monitoring at least one vehicle occupant, and method for operating at least one assistance device
JP2012239661A (en) * 2011-05-20 2012-12-10 Fujitsu Ltd Heart rate/respiration rate detection apparatus, method and program
WO2014002276A1 (en) * 2012-06-29 2014-01-03 富士通株式会社 Vital sign detection method, vital sign detection device and vital sign detection program
JPWO2014002276A1 (en) * 2012-06-29 2016-05-30 富士通株式会社 Vital sign detection method, vital sign detection device, and vital sign detection program
JP5915757B2 (en) * 2012-09-07 2016-05-11 富士通株式会社 Pulse wave detection method, pulse wave detection device, and pulse wave detection program
WO2014038077A1 (en) * 2012-09-07 2014-03-13 富士通株式会社 Pulse wave detection method, pulse wave detection device and pulse wave detection program
US9986922B2 (en) 2012-09-07 2018-06-05 Fujitsu Limited Pulse wave detection method, pulse wave detection apparatus, and recording medium
US9854976B2 (en) 2013-03-08 2018-01-02 Fujifilm Corporation Pulse wave velocity measurement method
CN104071110A (en) * 2013-03-27 2014-10-01 原相科技股份有限公司 Safety monitoring device and safety monitoring method for manned mobile carrier
JP2014198201A (en) * 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection program, pulse wave detection method, and pulse wave detection device
JP2014198202A (en) * 2013-03-29 2014-10-23 富士通株式会社 Pulse wave detection device, pulse wave detection method, and pulse wave detection program
KR101772585B1 (en) * 2013-04-05 2017-08-30 한국전자통신연구원 Method and apparatus for measuring heart rate through non-contact and wireless
CN103824420A (en) * 2013-12-26 2014-05-28 苏州清研微视电子科技有限公司 Fatigue driving identification system based on heart rate variability non-contact measuring
CN103714660A (en) * 2013-12-26 2014-04-09 苏州清研微视电子科技有限公司 System for achieving fatigue driving judgment on basis of image processing and fusion between heart rate characteristic and expression characteristic
JP2015198789A (en) * 2014-04-08 2015-11-12 富士通株式会社 Information processing device, pulse wave measurement program and pulse wave measurement method
WO2016139871A1 (en) * 2015-03-05 2016-09-09 オムロン株式会社 Pulse measuring device and control method therefor
US11129539B2 (en) 2015-03-05 2021-09-28 Omron Corporation Pulse measuring device and control method thereof
JP2016159108A (en) * 2015-03-05 2016-09-05 オムロン株式会社 Pulse measurement device and control method therefor
US11445921B2 (en) 2015-03-30 2022-09-20 Tohoku University Biological information measuring apparatus and biological information measuring method, and computer program product
JP2017153936A (en) * 2015-10-15 2017-09-07 ダイキン工業株式会社 Operator state determination device and operator state determination method
WO2017065315A1 (en) * 2015-10-15 2017-04-20 ダイキン工業株式会社 Driver state determination device and driver state determination method
EP3363353B1 (en) * 2015-10-15 2022-08-03 Daikin Industries, Ltd. Driver state determination device and driver state determination method
US10912516B2 (en) 2015-12-07 2021-02-09 Panasonic Corporation Living body information measurement device, living body information measurement method, and storage medium storing program
US10952626B2 (en) 2016-01-26 2021-03-23 Kddi Corporation Pulsebeat measurement apparatus
JP2017131413A (en) * 2016-01-28 2017-08-03 Kddi株式会社 Pulse measuring device
US10980434B2 (en) 2016-01-28 2021-04-20 Kddi Corporation Pulsebeat measurement apparatus
WO2017130569A1 (en) * 2016-01-28 2017-08-03 Kddi株式会社 Pulse measurement device
CN105769130A (en) * 2016-02-26 2016-07-20 严定远 Device and method for measuring temperature of human body
JP2017158802A (en) * 2016-03-09 2017-09-14 株式会社デンソー Biological information measuring device
JP2017205426A (en) * 2016-05-20 2017-11-24 美貴子 隈元 Psychological state evaluation program and psychological state evaluation device
TWI626072B (en) * 2017-03-29 2018-06-11 國立中興大學 Image-based heart rate feedback control fitness device
JP2018183564A (en) * 2017-04-26 2018-11-22 パナソニックIpマネジメント株式会社 Deep body temperature measuring apparatus, deep body temperature measuring system, and deep body temperature measuring method
JP7054800B2 (en) 2017-04-26 2022-04-15 パナソニックIpマネジメント株式会社 Deep body temperature measuring device, deep body temperature measuring system and deep body temperature measuring method
JP2019111317A (en) * 2017-12-22 2019-07-11 カシオ計算機株式会社 Image processing device, image processing method and program
JP7415318B2 (en) 2017-12-22 2024-01-17 カシオ計算機株式会社 Image processing device, image processing method and program
JP7310048B2 (en) 2018-01-05 2023-07-19 ラドウィスプ プライベート リミテッド Diagnostic support program
JP2022172305A (en) * 2018-01-05 2022-11-15 ラドウィスプ プライベート リミテッド Diagnosis support program
JP2022526409A (en) * 2019-04-04 2022-05-24 ウィリアム イー バトラー, Optical cross-correlation of the underlying contrast agent Wavelet angiography
JP7299998B2 (en) 2019-04-04 2023-06-28 ウィリアム イー バトラー, Method, optical system and computer program product for extracting cardiac frequency phenomena
JP7373298B2 (en) 2019-04-26 2023-11-02 株式会社日立製作所 Biological information detection device, biological information detection method, and biological information detection program
JP2020178964A (en) * 2019-04-26 2020-11-05 株式会社日立製作所 Biological information detection device, biological information detection method and biological information detection program
JP2022072117A (en) * 2020-10-29 2022-05-17 横浜ゴム株式会社 Mirror system
WO2022091461A1 (en) * 2020-10-29 2022-05-05 横浜ゴム株式会社 Mirror system and aircraft lavatory unit
JP7014280B1 (en) 2020-10-29 2022-02-01 横浜ゴム株式会社 Mirror system
CN112826488A (en) * 2021-01-29 2021-05-25 姜珲 Heart rate detection terminal and method
CN114469037A (en) * 2022-01-29 2022-05-13 武汉大学 High-reliability heart rate measurement method based on millimeter wave radar
CN114469037B (en) * 2022-01-29 2024-01-12 武汉大学 Heart rate measuring method based on millimeter wave radar

Also Published As

Publication number Publication date
JP5446443B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5446443B2 (en) Heart rate measuring apparatus and heart rate measuring method
JP6493680B2 (en) Non-contact blood pressure measuring device and non-contact blood pressure measuring method
JP6334925B2 (en) Motion information processing apparatus and method
JP6181373B2 (en) Medical information processing apparatus and program
JP6098257B2 (en) Signal processing apparatus, signal processing method, and signal processing program
WO2016006027A1 (en) Pulse wave detection method, pulse wave detection program, and pulse wave detection device
WO2016151966A1 (en) Infant monitoring device, infant monitoring method, and infant monitoring program
JP2017209486A (en) Blood pressure measurement device
JP2016193021A (en) Pulse wave detection device and pulse wave detection program
JP5273030B2 (en) Facial feature point detection device and drowsiness detection device
KR102285999B1 (en) Heart rate estimation based on facial color variance and micro-movement
JP6717424B2 (en) Heart rate estimation device
Chen et al. Estimating carotid pulse and breathing rate from near-infrared video of the neck
JP2014194617A (en) Visual line direction estimating device, visual line direction estimating method, and visual line direction estimating program
Heinrich et al. Body movement analysis during sleep based on video motion estimation
Sugimoto et al. A method for detecting transitions of emotional states using a thermal facial image based on a synthesis of facial expressions
JP4153819B2 (en) Gesture recognition device, gesture recognition method, and gesture recognition program
JP2018538078A (en) Device, method and computer program product for continuous monitoring of vital signs
JP6455761B2 (en) Pulse wave detection device and pulse wave detection program
EP3370422B1 (en) Image processing apparatus and pulse estimation system provided therewith, and image processing method
JP2006285531A (en) Detection device for eye direction, detecting method for eye direction, program for executing the same detecting method for eye direction by computer
WO2017085894A1 (en) Pulse wave analysis device, pulse wave analysis method, and pulse wave analysis program
JP5276454B2 (en) Facial expression measurement method, facial expression measurement program, and facial expression measurement apparatus
Malasinghe et al. Remote heart rate extraction using microsoft kinecttm V2. 0
Wuerich et al. Contactless Optical Respiration Rate Measurement for a Fast Triage of SARS-CoV-2 Patients in Hospitals.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Ref document number: 5446443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees