JP5446443B2 - 心拍数測定装置および心拍数測定方法 - Google Patents

心拍数測定装置および心拍数測定方法 Download PDF

Info

Publication number
JP5446443B2
JP5446443B2 JP2009118443A JP2009118443A JP5446443B2 JP 5446443 B2 JP5446443 B2 JP 5446443B2 JP 2009118443 A JP2009118443 A JP 2009118443A JP 2009118443 A JP2009118443 A JP 2009118443A JP 5446443 B2 JP5446443 B2 JP 5446443B2
Authority
JP
Japan
Prior art keywords
user
heart rate
temperature data
temperature
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009118443A
Other languages
English (en)
Other versions
JP2010264095A (ja
Inventor
俊行 清水
起可 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009118443A priority Critical patent/JP5446443B2/ja
Publication of JP2010264095A publication Critical patent/JP2010264095A/ja
Application granted granted Critical
Publication of JP5446443B2 publication Critical patent/JP5446443B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、心拍数測定装置および心拍数測定方法に関するものである。
従来、被測定者の鼻腔の温度の時間変化を赤外線カメラで測定することにより、被測定者に接触することなく、被測定者の呼吸の回数や呼吸の強弱等を測定する技術が知られている(特許文献1)。
特開平9−253071号公報
しかしながら、従来技術は、被測定者の呼吸の測定を目的とするものであり、被測定者の心拍数を測定することはできなかった。
本発明が解決しようとする課題は、生体に接触することなく、生体の心拍数を測定可能な心拍数測定装置を提供することである。
本発明は、生体の鼻突部、左右一対の耳朶部、または左右一対の頬部のうち少なくとも1つの部位の温度データと、生体の額部の温度データとの差分に基づく温度情報から、生体の心拍に対応する周波数帯域の周波数成分を抽出し、この周波数成分に基づき、生体の心拍数を測定することにより、上記課題を解決する。
本発明によれば、生体の1または2以上の部位の温度情報から、周波数成分を取得することができるため、生体に接触することなく、生体の心拍数を測定することができる。
第1実施形態に係る心拍数計測システムの構成を示す図である。 第1実施係に係る心拍数計測処理を示すフローチャートである。 赤外線カメラにより撮像された熱画像の一例を示す図である。 図3に示す熱画像のうち、ユーザの鼻腔部周辺を拡大して示した拡大図である。 鼻突部の温度情報の一例を示す図である。 図5に示す鼻突部の温度情報からフーリエ変換により変換された周波数成分を示す図である。 図6に示す周波数成分から心拍に相当する周波数帯域の周波数成分をバンドパスフィルターにより抽出し、抽出された周波数成分から再変換された温度情報の一例を示す図である。 ウェーブレット変換により、ユーザの心拍数を計測する方法を説明するための図である。 耳朶部の温度情報の一例を示す図である。 図9に示す耳朶部の温度情報からフーリエ変換により変換された周波数成分を示す図である。 第2実施形態に係る心拍数測定処理を示すフローチャートである。 第3実施形態に係る心拍数測定処理を示すフローチャートである。 第4実施形態に係る心拍数測定処理を示すフローチャート(その1)である。 第4実施形態に係る心拍数測定処理を示すフローチャート(その2)である。 第5実施形態に係る心拍数測定処理を示すフローチャートである。 複数のセルに分割されたユーザの顔部を示す図である。 第6実施形態に係る心拍数測定処理を示すフローチャートである。 第7実施形態における赤外線カメラの設置例を示す図である。 第7実施形態に係る心拍数測定処理を示すフローチャートである。 ユーザの左側に設置された赤外線カメラにより撮像された熱画像の一例を示す図である。 第8実施形態に係る心拍数測定システムを示す構成図である。 第8実施形態に係る心拍数測定処理を示すフローチャートである。 可視光カメラを用いてユーザの部位を特定する方法を説明するための図であって、可視光カメラにより撮像された輝度画像を示す図である。 可視光カメラを用いてユーザの部位を特定する方法を説明するための図であって、赤外線カメラにより撮像された熱画像を示す図である。
≪第1実施形態≫
以下、本発明の実施形態を図面に基づいて説明する。本実施形態の心拍数測定システムは、例えば、車両に搭載され、ユーザの心拍数を測定するものである。心拍数測定システムにより測定されたユーザの心拍数は、例えば、ユーザの運転状態を推定する際などに用いられる。
図1は、本実施形態の心拍数測定システムの構成を示す図である。図1に示すように、心拍数測定システムは、ユーザの表面(皮膚)温度を検出するための赤外線カメラ10およびユーザの心拍数を測定するためのコントローラ20を備える。
赤外線カメラ10は、図1に示すように、ユーザの正面位置、例えば、ユーザの前方60cmの位置に設置され、ユーザの顔部を中心とした範囲の温度データを検出する。赤外線カメラ10は、撮像素子を備え、赤外線カメラ10の撮像範囲における温度データを検出することができる。また、赤外線カメラ10の撮像素子上には複数の画素(ピクセル)を備え、例えば、赤外線カメラの撮像素子としては、画素数320×240を有するものが用いられる。撮像素子上の各画素は、各画素が撮像する範囲における温度データを検出することができる。また、赤外線カメラ10は、例えば、フレームレート1/30fs、放射率1.0に設定されており、ユーザの表面(皮膚)の温度データを周期的に検出する。赤外線カメラ10は、各画素において検出された複数の温度データを、順次、コントローラ20に送信する。
コントローラ20は、ユーザの心拍数を測定するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成される。
コントローラ20は、ROMに格納したプログラムをCPUにより実行することにより、温度データ取得機能、特定機能、平均温度算出機能、記憶機能、温度情報取得機能、変換機能、抽出機能、および計測機能の各機能を実現する。以下に、コントローラ20が備える各機能について説明する。
コントローラ20の温度データ取得機能は、赤外線カメラ10の各画素において検出された温度データを、赤外線カメラ10から取得する。上述したように、赤外線カメラ10は、複数の画素を有し、各画素において温度データを検出するため、温度データ取得機能は、赤外線カメラ10から、複数の温度データを取得することになる。
コントローラ20の特定機能は、温度データ取得機能により取得された温度データに基づいて、ユーザの所定部位を特定し、取得した温度データがユーザのどの部位に基づく温度データであるかを特定する。なお、特定機能により、赤外線カメラ10で検出された温度データが、ユーザのどの部位に基づく温度データであるかを特定する方法については後述する。
コントローラ20の記憶機能は、ユーザの所定部位の平均温度データを、コントローラ20のRAMに記憶する。記憶機能により記憶されるユーザの所定部位の平均温度データは、コントローラ20の平均温度算出機能により算出されたユーザの所定部位の平均温度データである。すなわち、平均温度算出機能は、赤外線カメラ10の全ての画素で検出された温度データのうち、特定機能により特定されたユーザの所定部位において検出された複数の温度データから平均温度データを算出し、記憶機能は、平均温度算出機能により算出された平均温度データを、時系列に沿って記憶する。記憶機能により記憶された所定部位の平均温度データの時系列データは、コントローラ20の温度情報取得機能により、該所定部位の温度情報として取得される。
コントローラ20の変換機能は、温度情報取得機能により取得されたユーザの部位の温度情報を周波数成分に変換し、コントローラ20の抽出機能は、温度情報から変換された周波数成分から、心拍に相当する周波数帯域の周波数成分を抽出する。ここで、人などの表面(皮膚)温度は、体を循環する血液変動による影響を受ける。すなわち、血管の収縮変動に応じて、表面(皮膚)温度が変化する。抽出機能は、ユーザの所定部位の温度情報から変換された周波数成分の中から、心拍に相当する周波数帯域の周波数成分を抽出することにより、血管の収縮成分を抽出するものである。変換機能および抽出機能により、温度情報を周波数成分に変換し、変換された周波数成分の中から、心拍に相当する周波数帯域の周波数成分を抽出する方法については後述する。
コントローラ20の計測機能は、抽出機能により抽出された周波数成分に基づいて、ユーザの心拍数を計測する。計測機能によるユーザの心拍数の計測方法については後述する。
次に、図2を参照して、本実施形態における心拍数計測処理について説明する。図2は、第1実施形態に係る心拍数計測処理を示すフローチャートである。以下においては、ユーザの顔部のうち鼻の中心部付近である鼻突部の温度データに基づいて、ユーザの心拍数を計測する方法について説明する。なお、図2に示す心拍数計測処理は、コントローラ20により、一定時間間隔で実行される。
ステップS101では、温度データ取得機能により、赤外線カメラ10において検出された温度データが取得される。図3は、赤外線カメラ10により撮像された熱画像の一例を示す図である。図3においては、温度の低い温度データを検出した画素を薄い色、温度の高い温度データを検出された画素を濃い色として、検出された温度データの温度の高低を白黒の濃淡で表している。すなわち、図3においては、ユーザの顔部の温度は、背景温度Tと比べ濃い色で表示されているので、ユーザの顔部の温度は、背景温度Tよりも高い温度であることを示している。温度データ取得機能は、赤外線カメラ10で検出された温度データの全て、例えば図3に示す例では、ユーザの顔部を撮像する画素において検出された温度データの他に、ユーザの顔部以外の部分を撮像する画素で検出された温度データをも取得する。
ステップS102では、取得された温度データに基づいて、複数の画素で撮像された温度データのうち、ユーザの顔部のうち鼻の中心部付近である鼻突部に基づく各温度データが特定される。以下において、ユーザの鼻突部に基づく温度データを特定する方法の一例について説明する。
まず、特定機能は、ユーザの鼻突部の温度データを特定するために、ユーザの左右一対の鼻腔部の特定を行う。例えば、特定機能は、図3に示すように、赤外線カメラ10により撮像された熱画像から、ユーザの顔部の中心部分を求める一方で、ユーザの顔部以外の部分であって背景の温度と判断できる背景温度Tを検出する。そして、赤外線カメラ10により撮像された熱画像において、ユーザの顔部の中心部分から最も近い位置にあり、かつ、背景温度Tに近い温度データを検出した画素を2箇所検出することで、ユーザの鼻腔部を特定する。図3に示すように、鼻腔部は顔部の中心付近に位置し、また鼻腔部の温度データは、ユーザの呼吸により、他の顔部の部分と比べて低い温度として検出されるためである。なお、ユーザの鼻腔部の検出精度を向上させるため、ユーザの鼻腔部を特定する際には、ユーザの顔部の中心部分から近い位置にあり、かつ、背景温度Tに近い温度データを検出する複数の画素が連続する部分を鼻腔部と特定することが好適である。
次に、特定された左右一対の鼻腔部に基づいて、ユーザの鼻突部が特定される。図4は、図3に示す熱画像のうち、ユーザの鼻腔部周辺を拡大して示した拡大図である。なお、図4においても、図3と同様に、温度の高低を白黒の濃淡で表している。図4に示すように、鼻突部は、鼻の中心部周辺の部位をいう。まず、特定機能は、鼻突部を特定するために、特定した左右一対の鼻腔部の間の中心位置をY軸方向に通る中心線を求め、その一方で、左右一対の鼻腔部の上限(上端)を通るX軸方向の上限線を求める。そして、特定機能は、図4に示すように、左右一対の鼻腔部の中心線を中心としてX軸方向に所定範囲広がった領域であり、左右一対の鼻腔部の上限線よりも上に位置してY軸方向に所定範囲広がった領域を鼻突部として特定する。これにより、特定機能は、特定された鼻突部を撮像する画素において検出された各温度データを、鼻突部に基づく温度データと特定することができる。
ステップS103では、平均温度算出機能により、ステップS102において特定されたユーザの鼻突部に基づく各温度データから、ユーザの鼻突部の平均温度データが算出される。赤外線カメラ10は撮像素子上に複数の画素を備えており、ステップS102において、ユーザの鼻突部を撮像する複数の画素により、ユーザの鼻突部の温度データが複数検出される。ステップS103では、ユーザの鼻突部を撮像する複数の画素において検出された各温度データから、ユーザの鼻突部の平均温度データが算出される。
ステップS104では、記憶機能により、ステップS103で算出された鼻突部の平均温度データが、コントローラ20のRAMに記憶される。ここで、図5は、ユーザの鼻突部の温度情報の一例を示す図である。赤外線カメラ10は、設定されたフレームレートで撮度データを検出し、検出された温度データを順次、コントローラ20に送信する。そして、赤外線カメラ10からの温度データの送信に応じて、ステップS101〜104までの処理が行われる。そのため、ステップS104では、鼻突部の平均温度データが時系列に沿って記憶されることになる。ステップS105では、温度情報取得機能により、時系列に沿って記憶された鼻突部の平均温度データが、ユーザの鼻突部の温度情報として取得される。
ステップS106では、変換機能により、ユーザの鼻突部の温度情報が、周波数成分に変換される。続くステップS107では、ユーザの鼻突部の温度情報から変換された周波数成分の中から、心拍に相当する周波数帯域の周波数成分が抽出される。そして、ステップS108では、計測機能により、抽出された周波数成分に基づいて、ユーザの心拍数が計測される。ステップS106〜ステップS108までの処理は、例えば、フーリエ変換、バンドパスフィルター処理、またはウェーブレット変換などの手法を用いて行われる。以下において、各手法を用いて、ユーザの心拍数を計測する方法について具体的に説明する。
まず、フーリエ変換を用いて、ユーザの心拍数を計測する方法について説明する。
図6は、フーリエ変換により、図5に示す鼻突部の温度情報から変換された周波数成分を示す図である。変換機能は、図5に示す鼻突部の温度情報を、フーリエ変換することで、図6に示すように、鼻突部の温度情報を周波数成分に変換する。
抽出機能は、変換機能によりユーザの鼻突部の温度情報から変換された周波数成分の中から、心拍に相当する周波数帯域、例えば、0.8〜1.5Hzの周波数帯域において、パワースペクトル強度が最大となる周波数を抽出する。例えば、図6に示す例に関して、抽出機能は、心拍に相当する周波数帯域である周波数0.8Hz〜1.5Hzの周波数帯域において、パワースペクトル強度が最大となる周波数である周波数f1を抽出する。
次いで、計測機能は、抽出機能により抽出された周波数に基づいて、ユーザの心拍数を計測する。例えば、図6に示す例に関して、計測機能は、この検出された周波数f1に基づき、下記式(1)により、心拍数(拍/分)を計測する。
心拍数(拍/分) = f1×60 … (1)
すなわち、周波数f1は、心拍に相当する周波数と想定されるため、1分当たりの周波数f1を算出することで、ユーザの心拍数を計測することができる。
なお、計測手段により心拍数を計測する際には、図6に示すように、パワースペクトル強度が最大となる周波数f1を用いて心拍数を計測するのではなく、心拍に相当する周波数帯域である周波数0.8Hz〜1.5Hzの周波数帯域において重心となる周波数f2を検出し、検出された周波数f2を用い、下記式(2)に基づいて、心拍数(拍/分)を計測してもよい。
心拍数(拍/分) = f2×60 … (2)
次に、バンドパスフィルター処理により、ユーザの心拍数を計測する方法について説明する。
まず、変換機能により、鼻突部の温度情報をフーリエ変換し、図6に示すように、鼻突部の温度情報が周波数成分に変換される。次に、抽出機能は、変換された周波数成分の中から、心拍に相当する周波数0.8Hz〜1.5Hzの周波数帯域の周波数成分を、バンドパスフィルターにより抽出する。そして、抽出機能は、抽出された周波数成分を対して、逆フーリエ変換を行い、抽出された周波数成分を鼻突部の温度情報に再変換する。
図7は、図6に示す周波数成分から心拍に相当する周波数帯域の周波数成分をバンドパスフィルターで抽出し、抽出された周波数成分を逆フーリエ変換により再変換した鼻突部の温度情報の一例を示す図である。なお、図7において、バンドパスフィルター処理により抽出した後の鼻突部の温度情報を実線で示しており、また、鼻突部の温度情報との比較のため、指先に取り付けた脈波形を用いて計測した指尖脈波を一点鎖線で示している。
計測機能は、測定時間t秒の間、実線で示す鼻突部の温度情報のピーク数nを検出し、下記式(3)によりユーザの心拍数を計測する。
心拍数(拍/分) = (60/t)×n … (3)
なお、温度情報においてピークであるかの判断基準は、適宜決定することができ、例えば、所定時間における温度上昇率が一定値以上となった後に、所定時間における温度下降率が一定値以上となった場合に、ピークであると判断することができる。
また、図7には、指尖脈波が一点鎖線で表示されている。図7に示すように、指尖脈波と、バンドパスフィルター処理後の鼻突部の温度情報とは、ほぼ一致しており、鼻突部の温度情報に基づいて、ユーザの心拍数が適切に測定できることがわかる。
次に、ウェーブレット変換を用いて、ユーザの心拍数を計測する方法について説明する。
図8は、ウェーブレット変換により、ユーザの心拍数を計測する方法を説明するための図である。なお、図8中の左側の図である温度情報Sは、鼻突部の温度情報の一例を示している。
まず、変換機能は、ウェーブレット変換により、図8の左図に示す鼻突部の温度情報Sについて多重解像度分解を行い、図8の中央に示す階層d1からd5までの周波数成分を得る。この階層d1からd5の周波数成分は、温度情報S=d1+d2+d3+d4+d5の関係にあり、階層d1が温度情報Sの最も高い周波数帯域に対応する周波数成分を示しており、また階層d5が温度情報Sの最も低い周波数帯域の周波数成分を示している。このように、図8に示す階層d5から階層d1は、階層d5から階層d1に向かって、温度情報Sのうち低い周波数帯域の周波数成分を抽出したものから、高い周波数帯域に対応する周波数成分を抽出したものとなっている。
ここで、鼻突部の温度情報Sを多重解像度分解して得られた階層d1からd5の周波数成分のうち、階層d2およびd3の周波数成分は、鼻突部の温度情報Sから心拍に相当する周波数帯域の周波数成分を抽出したものである。そこで、抽出機能は、階層d1からd5までの周波数成分のうち、階層d2およびd3の周波数成分を抽出する。そして、抽出機能は、心拍に相当する周波数帯域である階層d2およびd3の周波数成分について、逆ウェーブレット変換を行い、図8の右図に示す温度情報に再変換する。
図8の右図に示す温度情報S’は、図8の左図に示す鼻突部の温度情報Sから、心拍に対応する周波数帯域の周波数成分を抽出して求めた温度情報である。計測機能により、測定時間t秒間の温度情報S’におけるピーク数nをカウントすることで、上記式(3)に基づいて、ユーザの心拍数(拍/分)を適切に計測することができる。
このように、フーリエ変換、バンドパスフィルター処理、ウェーブレット変換などを用いて、鼻突部の温度情報から心拍に相当する周波数帯域の周波数成分を抽出し、抽出した周波数成分に基づいて、ユーザの心拍数を計測することができる。
以上のように、本実施形態では、赤外線カメラ10によりユーザの表面(皮膚)の温度データを検出し、検出された温度データの時系列データである温度情報に基づいて、ユーザの心拍数が測定される。ここで、生体の表面(皮膚)温度は、体内を循環する血液の変動による影響を受ける。すなわち、血管の収縮変動により、生体の表面(皮膚)温度は微小変化する。そのため、赤外線カメラ10によりユーザの表面(皮膚)の温度データを検出し、検出された温度データから求められる温度情報に基づいて、血管の収縮成分を抽出することで、ユーザに接触することなく、ユーザの心拍数を測定することができる。
特に、本実施形態では、フーリエ変換、バンドパスフィルター処理、またはウェーブレット変換を用いて、温度情報から心拍に相当する周波数帯域の周波数成分を抽出し、抽出された周波数成分に基づいて、ユーザの心拍数を測定する。これにより、赤外線カメラ10により検出された温度データに基づく温度情報から、ユーザの心拍に起因しない温度変動成分(ノイズ)を取り除くことができ、ユーザの心拍数の測定精度を向上させることができる。
さらに、本実施形態では、ユーザの顔部、特に鼻突部の温度データに基づいて、ユーザの心拍数が計測される。鼻突部は、血管吻合部であり、皮膚表面に毛細血管が集中する部位である。そのため、ユーザの鼻突部の温度データを検出することで、毛細血管の収縮変動による温度変化を適切に検出することができ、その結果、ユーザの心拍数を適切に測定することができる。
なお、第1実施形態では、ユーザの鼻突部の温度情報に基づいて、ユーザの心拍数を計測しているが、他の部位、例えば、ユーザの左右一対の耳朶部または左右一対の頬部の温度データを検出し、これら部位の温度データから求めた温度情報に基づいて、ユーザの心拍数を測定してもよい。図9は、ユーザの耳朶部において取得された温度情報の一例を示す図である。そして、図10は、図9に示すユーザの耳朶部の温度情報を、フーリエ変換により変換して求めた周波数成分を示す図である。例えば、赤外線カメラ10により、ユーザの耳朶部の温度データを所定時間検出することで、図9に示すようなユーザの耳朶部の温度情報を取得することができる。図10に示す例に関して、心拍に相当する周波数帯域、例えば、0.8Hz〜1.5Hzの周波数帯域のうち、周波数f3において、パワーベクトル強度が最大となっている。そのため、計測機能は、ユーザの心拍数を、周波数f3×60(拍/分)として計測する。例えば、周波数f3が1.15Hzである場合には、ユーザの心拍数は、1.15×60=69(拍/分)として計測される。
耳朶部は、毛細血管が集中する末梢部位であり、この末梢部位の毛細血管の収縮は、体温変化に微小な変化を与える。そのため耳朶部の温度データを検出することで、鼻突部と同様に、血管の収縮成分を適切に抽出することができ、ユーザに接触することなく、ユーザの心拍数を測定することができる。また、頬部も、顔部の中で血管が集中する部位であり、頬部の温度変化を検出することで、鼻突部または耳朶部と同様に、血管の収縮成分を抽出することができ、ユーザに接触することなく、ユーザの心拍数を測定することができる。
≪第2実施形態≫
続いて、本発明の第2実施形態について説明する。図11は、第2実施形態に係る心拍数測定処理を示すフローチャートである。第2実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、ユーザの鼻突部において検出した温度データと、ユーザの額部において検出した温度データとの差を差分データとして算出する温度データ算出機能を備え、図11に示すフローチャットに従ってユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図11に示すフローチャートを参照して、第2実施形態に係る心拍数測定処理について説明する。なお、図11に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
ステップS201では、第1実施形態のステップS101と同様に、赤外線カメラ10の全ての画素において検出された温度データが取得される。そして、ステップS202においては、取得された温度データから、ユーザの鼻突部に基づく各温度データとともに、ユーザの額部に基づく各温度データが特定される。なお、ユーザの鼻突部および額部を特定する方法としては、特に限定されず、例えば、第1実施形態のステップS102と同様に、ユーザの鼻腔部を特定し、ユーザの鼻腔部に基づいて、ユーザの鼻突部および額部を特定してよい。
ステップS203では、平均温度算出機能により、ユーザの鼻突部および額部において検出された各温度データから、鼻突部の平均温度データTおよび額部の平均温度データTが算出される。
そして、ステップS204では、温度データ算出機能により、額部の平均温度データTとユーザの鼻突部の平均温度データTとの差が、差分データT−Tとして算出される。次に、ステップS205では、ステップS204で算出された差分データが、コントローラ20のRAMに記憶される。
ステップS206〜ステップS209では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、時系列に沿って記憶された差分データが温度情報として取得され(ステップS206)、取得された温度情報が周波数成分に変換される(ステップS207)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS208)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS209)。
以上のように、第2実施形態では、鼻突部の平均温度データと、額部の平均温度データとの差から差分データを算出し、この差分データに基づいて、ユーザの心拍数が計測される。人の体温は、個人差、病気、または慨日リズムにより変動する場合がある一方、額部は脳の近くに位置するため、額部の温度変動は比較的安定している。そこで、第2実施形態では、額部の温度データと鼻突部の温度データとの差分データを求めることで、第1実施形態の効果に加えて、ユーザの鼻突部において検出される温度データにおける個人差や状態差の影響を低減することができ、ユーザの心拍数の測定精度を向上させることができる。
なお、第2実施形態においては、ユーザの鼻突部の温度データとユーザの額部の温度データとの差から差分データを求め、この差分データに基づいて、ユーザの心拍数を測定しているが、ユーザの心拍数を測定するために、例えば、ユーザの耳朶部の温度データとユーザの額部の温度データとの差から差分データを求めてもよいし、ユーザの頬部の温度データとユーザの額部の温度データとの差から差分データを求めてよい。
≪第3実施形態≫
続いて、本発明の第3実施形態について説明する。図12は、第3実施形態に係る心拍数測定処理を示すフローチャートである。第3実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の複数の部位で求めた平均温度データの和を加算データとして算出する温度データ算出機能を備え、図12に示すフローチャットに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図12に示すフローチャートを参照して、第3実施形態に係る心拍数測定処理について説明する。なお、図12に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
ステップS301では、第1実施形態のステップS101と同様に、赤外線カメラ10の全ての画素において検出された温度データが取得される。次いで、ステップS302では、取得された温度データのうち、ユーザの鼻突部に基づく各温度データに加えて、左右一対の耳朶部および左右一対の頬部に基づく各温度データが特定される。なお、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の特定方法は、任意の方法を用いればよく、特に限定されない。
ステップS303では、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部に基づく各温度データから、それぞれの部位における平均温度データが算出される。ステップS304では、算出されたユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の平均温度データの和から加算データが算出される。そして、ステップS305では、算出された加算データが、コントローラ20のRAMに記憶される。
ステップS306〜ステップS309では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、時系列に沿って記憶された加算データが温度情報として取得され(ステップS306)、取得された温度情報が周波数成分に変換される(ステップS307)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS308)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS309)。
以上のように、第3実施形態では、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の平均温度データを算出し、算出された複数の部位の平均温度データの和から算出される加算データに基づいて、ユーザの心拍数が計測される。このように、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の平均温度データの加算データに基づいて、ユーザの心拍数を測定することで、第1実施形態の効果に加えて、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部のそれぞれの部位において検出された温度データに含まれる心拍に起因しない周波数成分(ノイズ)の影響を低減することができ、かつ、ユーザの心拍に対応する周波数成分を強調することができる。その結果、ユーザの心拍数の測定精度を高めることができる。
なお、温度データ算出機能により、ユーザの各部位の平均温度データを加算する際には、加算される各部位の平均温度データを正規化し、正規化された各部位の平均温度データの和から、加算データを算出してもよい。
≪第4実施形態≫
続いて、本発明の第4実施形態について説明する。図13Aおよび図13Bは、第4実施形態に係る心拍数測定処理を示すフローチャートである。第4実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、ユーザの顔の向きを推定し、推定されたユーザの顔の向きに応じて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から周波数成分を抽出するための部位を選択する選択機能と、選択機能により選択された部位の平均温度データの和から加算データを算出する温度データ算出機能を備え、図13Aおよび図13Bに係るフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図13Aおよび図13Bに示すフローチャートを参照して、第4実施形態に係る心拍数測定処理について説明する。なお、図13Aおよび図13Bに示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
ステップS401では、第1実施形態のステップS101と同様に、赤外線カメラ10の全ての画素において検出された温度データが取得される。次いで、ステップS402では、取得された温度データのうち、ユーザの鼻突部に基づく各温度データに加えて、左右一対の耳朶部および左右一対の頬部に基づく各温度データが特定される。そして、ステップS403では、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部に基づく各温度データから、それぞれの部位の平均温度データが算出される。続くステップS404では、算出されたユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の平均温度データがコントローラ20のRAMにそれぞれ記憶される。
ステップS405では、選択機能により、ユーザの顔の向きが推定される。ユーザの顔の向きを推定する方法は、特に限定されないが、例えば、RAMに記憶されたユーザの顔が正面を向いている際の画像と、現在のユーザの顔の画像との差分から、オプティカルフローを求めることで、ユーザの顔の向きを推定できる。なお、ユーザの顔が正面を向いているかの判断は、例えば、所定時間にわたって撮像されたユーザの顔の画像から、ユーザが向いている傾向の大きい方向を正面と推定してもよいし、所定のテンプレートを予め用意し、このテンプレートに近似する方向を正面と推定してもよい。
ステップS406では、選択機能により、推定されたユーザの顔の向きが下向であるか判断される。ユーザの顔の向きが下向きであると判断された場合は、ステップS407に進み、選択機能により、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から、周波数成分を抽出するための部位として左右一対の耳朶部が選択される。そして、温度データ算出機能により、選択された左右一対の耳朶部の平均温度データが加算される。一方、ステップS406において、ユーザの顔の向きが下向きではないと判断された場合は、ステップS408に進む。
ステップS408では、選択機能により、推定されたユーザの顔の向きが右向きであるか判断される。ユーザの顔の向きが右向きであると判断された場合は、ステップS409に進み、選択機能により、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から、周波数成分を抽出するための部位として左頬部、左耳朶部が選択される。そして、温度データ算出機能により、選択された左頬部、左耳朶部の平均温度データが加算される。一方、ステップS408において、ユーザの顔の向きが右向きではないと判断された場合は、ステップS410に進む。
ステップS410では、選択機能により、推定されたユーザの顔の向きが左向きであるか判断される。ユーザの顔の向きが左向きであると判断された場合は、ステップS411に進み、選択機能により、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の部位の中から、周波数成分を抽出するための部位として右頬部、右耳朶部が選択される。そして、温度データ算出機能により、選択された右頬部、右耳朶部の平均温度データが加算される。一方、ステップS410において、ユーザの顔の向きが左向きではないと判断された場合は、ステップS412に進む。
ステップS412では、ユーザの顔の向きが下向き、右向きまたは左向きのいずれでもないと判断されているため、ユーザの顔の向きが正面であると推定される。そして、ステップS413に進み、選択機能により、周波数成分を抽出するための部位としてユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の全ての部位が選択される。そして、温度データ算出機能により、選択されたユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の全ての部位の平均温度データが加算される。
なお、ステップS406からステップS413までのユーザの顔向きを判断する処理は、この順番としなくてもよく、例えば、ステップS412のユーザの顔の向きが正面であるかを初めに判断してもよい。
ステップS414では、ユーザの顔の向きに応じて選択された部位の平均温度データの和から算出された加算データが、コントローラ20のRAMに記憶される。ステップS415〜ステップS418では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、ユーザの顔の向きに応じて選択された部位の温度データの和から算出された加算データの時系列データが温度情報として取得され(ステップS415)、取得された温度情報が周波数成分に変換される(ステップS416)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS417)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS418)。
以上のように、第4実施形態においては、ユーザの顔の向きを推定し、推定されたユーザの顔の向きに応じて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部の中から、周波数成分を抽出するための部位が選択され、選択された部位の平均温度データの和から加算データが算出される。このように、第4実施形態においては、ユーザの顔の向きを推定することで、第1実施形態の効果に加えて、仮に、ユーザが顔を傾けた場合でも、ユーザの表面(皮膚)の温度データを適切に検出できる部位を選択し、選択された部位の温度データに基づいて、ユーザの心拍数を適切に測定することができる。例えば、ユーザが顔を右方向に向けている場合に、周波数成分を抽出するための部位として左耳朶部および左頬部を選択し、選択された左耳朶部および左頬部の平均温度データの和から加算データを算出することで、ユーザが顔を右方向に向けているため、ユーザの正面に設置される赤外線カメラ10で、ユーザの鼻突部、右耳朶部、および右頬部の温度データを適切に検出することができない場合であっても、ユーザの心拍数を適切に測定することができる。
≪第5実施形態≫
続いて、本発明の第5実施形態について説明する。図14は、第5実施形態に係る心拍数測定処理を示すフローチャートである。第5実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、顔部を複数のセルに分割し、各セルの平均温度データを求めるセル温度算出機能と、複数のセルのうち周波数成分の抽出に用いるセルを選択する選択機能とを備え、図14に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図14に示すフローチャートを参照して、第5実施形態に係る心拍数測定処理について説明する。なお、図14に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
ステップS501では、第1実施形態のステップS101と同様に、赤外線カメラ10により検出された温度データが取得される。
ステップS502では、赤外線カメラ10により撮像された熱画像のうちユーザの顔部が特定され、セル温度算出機能により、特定されたユーザの顔部が複数のセルに分割される。ここで、図15は、複数のセルに分割されたユーザの顔部を示す図である。なお、図15においても、図3と同様に、温度の高低を白黒の濃淡で表している。図15に示す例では、セル温度算出機能は、ユーザの顔部を、6×7個のセルで分割している。また、各セルは、他のセルと同じ大きさの領域となるに分割される。なお、図15に示すユーザの顔部の分割は一例であって、ユーザの顔部を分割するセルの数は特に限定されず、また、セルの大きさ(各セルの画素数)も特に限定されない。
ステップS503では、セル温度算出機能により、所定の基準温度よりも所定温度以上低い温度データを検出した画素が特定される。これにより、人の表面(皮膚)の温度とは判断されない温度データを検出した画素を特定することができる。図15に示すように、赤外線カメラ10により人の顔部の温度データを検出する場合には、例えば、一般的に人の平熱またはそれに近いと考えられる36.5度が基準温度とされる。そして、セル温度算出機能は、各画素において検出された温度データが、この基準温度36.5度よりも所定温度以上低いか判断し、この基準温度36.5度よりも所定温度以上低い場合に、この画素で検出した温度データは、人の表面(皮膚)温度ではないと判断する。そして、ステップS504では、セル温度算出機能により、人の皮膚の温度ではないと判断された温度データを除いて、各セルにおける平均温度データが算出される。例えば、図15に示すように、ユーザが眼鏡を着用している場合、この眼鏡を撮像する画素において検出される温度データは、基準温度36.5度よりも所定温度以上低い温度として検出され、眼鏡を撮像する画素で検出された温度データを除いて、各セルの平均温度データが算出される。
ステップS505では、算出された各セルの平均温度データがコントローラ20のRAMに記憶される。そして、ステップS506では、各セルの平均温度データの時系列データが温度情報として取得され、ステップS507で、取得された各セルの温度情報が周波数成分に変換される。次に、ステップS508では、選択機能が、セルの温度情報から変換された周波数成分のうち、心拍に相当する周波数帯域である周波数0.8〜1.5Hzにおいて、パワースペクトル強度が最大となる周波数の値を最大強度として求める。
ステップS509では、選択機能により、全てのセルの中から、最大強度の大きさが大きい上位n個のセルが選択される。次いで、ステップS510において、選択された上位n個のセルの周波数成分から、心拍に相当する周波数帯域の周波数成分が抽出され、ステップS511では、抽出された上位n個のセルの周波数成分が温度情報に再変換される。
ステップS512では、再変換された上位n個のセルの温度情報において、各時点における温度データ同士を加算することで、上位n個のセルの温度データの和からなる時系列データが温度情報として算出される。そして、ステップS513では、算出された時系列データに基づいて、ユーザの心拍数が計測される。
以上のように、第5実施形態では、ユーザの顔部を複数のセルに分割し、分割された複数のセルの中から、心拍に相当する周波数帯域におけるパワースペクトル強度の値が大きな上位n個のセルを選択し、選択されたセルの周波数成分に基づいて、ユーザの心拍数が計測される。このように、第5実施形態では、複数のセルの周波数成分のうち、心拍に相当する周波数成分が良好に検出されたセルを選択して、ユーザの心拍数を測定することができるため、第1実施形態の効果に加えて、ユーザの心拍数の計測精度を向上することができる。
さらに、第5実施形態では、セル内の複数の画素において検出された温度データのうち、ユーザの表面(皮膚)温度と判断できない温度データを除いて、セルの平均温度データが算出される。このように、ユーザの表面(皮膚)温度と判断できない温度データを除いて、ユーザの表面(皮膚)の温度と判断される温度データのみからセルの平均温度データを算出することで、例えば、図15に示すように、ユーザが、ユーザの顔部に、眼鏡などの人工物を着用している場合でも、ユーザの表面(皮膚)の温度データに基づいて、ユーザの心拍数を適切に測定することができる。
≪第6実施形態≫
続いて、本発明の第6実施形態について説明する。図16は、第6実施形態に係る心拍数測定処理を示すフローチャートである。第6実施形態のコントローラ20は、第1実施形態のコントローラ20の機能に加えて、顔部を複数のセルに分割し、各セルの平均温度データを求めるセル温度算出機能と、各セルの温度情報の相関を判断して、周波数成分の抽出に用いるセルを選択する選択機能と、セルの温度データの和から加算データを算出する温度データ算出機能を備え、図16に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。以下においては、図16に示すフローチャートを参照して、第6実施形態に係る心拍数測定処理について説明する。なお、図16に示す心拍数計測処理は、コントローラ20により、一定時間間隔で実行される。
ステップS601では、第1実施形態のステップS101と同様に、赤外線カメラ10により検出された温度データが取得される。
ステップS602では、ユーザの顔部が特定され、セル温度算出機能により、図15に示すように、ユーザの顔部が複数のセルに分割される。そして、ステップS603では、セル温度算出機能により、人の表面(皮膚)の温度とは判断されない温度データを検出した画素を特定するため、所定の基準温度よりも所定温度以上低い温度データを検出した画素が特定される。次のステップS604では、セル温度算出機能により、人の表面(皮膚)温度ではないと判断された温度データを除いて、セルの平均温度データが算出される。
ステップS605では、各セルにおいて算出された平均温度データが、コントローラ20のRAMに記憶される。そして、ステップS606では、各セルにおいて算出された平均温度データの時系列データが温度情報として取得される。
ステップS607では、選択機能により、独立成分分析、または独立成分分析に主成分分析を組み合わせた手法により、各セルの温度情報の相関が判断される。そして、相関が低いと判断されたセルの温度情報が除かれる。続くステップS608では、選択機能により、相関が低いと判断されたセルを除いたセルの温度情報が選択される。そして、温度データ算出機能により、選択された温度情報において、各時点における温度データ同士を加算して、加算データの時系列データを算出する。
ステップS609〜ステップS612では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、加算データの時系列データが温度情報として取得され(ステップS609)、温度情報が周波数成分に変換され(ステップS610)る。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS611)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS612)。
以上のように、第6実施形態では、独立成分分析、または独立成分分析に主成分分析を組み合わせた手法により、複数のセルの温度情報の中から、相関の低いセルの温度情報を除いたセルの温度情報が選択され、選択されたセルの温度情報に基づいて、ユーザの心拍数が計測される。これにより、第6実施形態では、第1実施形態の効果に加えて、相関の低いセルの温度情報を除いて、ユーザの心拍数を計測することができ、ユーザの心拍数の測定精度を向上させることができる。
≪第7実施形態≫
続いて、本発明の第7実施形態について説明する。図17は、第7実施形態における赤外線カメラの設置例を示す図であり、また、図18は、第7実施形態に係る心拍数測定処理を示すフローチャートである。第7実施形態では、図17に示すように、ユーザの手の甲の温度データを検出するための赤外線カメラ11〜13がユーザの右側、左側、および頭上側のそれぞれの位置に設けられており、図18に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。
図17に示すように、ユーザの右側位置に設置された赤外線カメラ11はユーザの右側からユーザの左手の甲を、ユーザの左側に設置された赤外線カメラ12はユーザの左側からユーザの右手の甲を、またユーザの頭上側に設置された赤外線カメラ13はユーザの頭上側の位置からユーザの右手および左手の甲を、それぞれ異なる角度で撮像する。図19は、図17に示すユーザの左側に設置された赤外線カメラ12により撮像された熱画像の一例を示す図である。なお、図19においても、図3と同様に、温度の高低を白黒の濃淡で表している。図19に示すように、ユーザの左側に設置された赤外線カメラ12は、ハンドルを握るユーザの左手の甲の温度データを検出することができる。
次に、図18に示すフローチャートを参照して、第7実施形態に係る心拍数測定処理について説明する。なお、図18に示す心拍数計測処理は、コントローラ20により、一定時間間隔で実行される。
ステップS701では、例えば図19に示すように、それぞれの赤外線カメラ11〜13の全ての画素において検出された温度データが取得される。そして、ステップS702では、それぞれの赤外線カメラ11〜13から取得された温度データのうち、ユーザの手の甲に基づく各温度データが特定される。続くステップS703では、ユーザの手の甲に基づく各温度データから、ユーザの手の甲の平均温度データが算出され、ステップS704で、算出されたユーザの手の甲の平均温度データが、コントローラ20のRAMに記憶される。
ステップS705では、時系列に沿って記憶されたユーザの手の甲の平均温度データが、ユーザの手の甲の温度情報として取得される。ここで、ユーザはハンドルを操作するためにユーザの手を動かす場合があるため、温度情報を取得する際には、例えば、ユーザの手の動きに応じて、ユーザの手の甲を撮像する画素の割合が最も高い赤外線カメラにより検出されたユーザの手の甲の温度情報を取得するようにしてもよく、また複数の赤外線カメラ11〜13のそれぞれにおいて検出されたユーザの手の甲の平均温度データの和から加算データを算出し、算出された加算データに基づいて、温度情報を取得してもよい。
ステップS706〜ステップS708では、第1実施形態のステップS106〜S108と同様の処理が行われる。すなわち、温度情報が周波数成分に変換され(ステップS706)、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS707)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS708)。
以上のように、第7実施形態においては、ユーザの手の甲の温度データを検出し、ユーザの手の甲の温度データから求めたユーザの手の甲の温度情報に基づいて、ユーザの心拍数が測定される。手の甲は血管が集中する部位であり、ユーザの手の甲の温度情報から、血管の収縮成分を抽出することできる。そのため、ユーザの手の甲の温度を検出することで、ユーザに接触することなく、ユーザの心拍数を測定することができる。
さらに、手の甲は、人の顔部の中の鼻突部、一対の耳朶部、または一対の頬部と比べて、特定することが容易である。そのため、人の顔部の中の鼻突部、一対の耳朶部、または一対の頬部の温度データに基づいてユーザの心拍数を測定する場合と比べて、容易に、ユーザの手の甲の温度データに基づいてユーザの心拍数を測定することができる。
なお、第7実施形態における赤外線カメラ11〜13の設置方法は一例であって、適宜設置してよい。また、設置されるカメラの数も限定されず、例えば、赤外線カメラをユーザの左側位置およびユーザの右側位置だけに設置してもよいし、あるいは赤外線カメラを3つよりも多く設置してもよい。
≪第8実施形態≫
続いて、本発明の第8実施形態について説明する。図20は、第8実施形態に係る心拍数測定システムを示す構成図である。また図21は、第8実施形態に係る心拍数測定処理を示すフローチャートである。第8実施形態では、図20に示すように、可視光カメラ30がユーザの前方位置に設けられており、ユーザの顔部を撮像する。そして、第8実施形態では、第1実施形態のコントローラ20の機能に加えて、ユーザの顔部の所定部位を撮像する可視光カメラ30の画素の位置座標を検出する位置座標検出機能と、検出された画素の位置座標を参照して、赤外線カメラ10の各画素において検出された温度データがユーザのいずれの部位に基づく温度データであるかを特定するマッチング機能と、ユーザの複数の部位において算出された平均温度データの和を加算データとして算出する温度データ算出機能とを備え、図21に示すフローチャートに従って、ユーザの心拍数を測定すること以外は、第1実施形態と同様の構成を有する。
可視光カメラ30は、撮像素子上に複数の画素を備え、輝度画像を撮像するものであり、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などが挙げられる。また、可視光カメラ30と赤外線カメラ10の画角、画素数、およびフレームレートは同じに設定されており、可視光カメラ30と赤外線カメラ10との撮像範囲および撮像時間は略一致する。可視光カメラ30の各画素において撮像された画像情報は、コントローラ20に送信される。
次に、図21に示すフローチャートを参照して、第8実施形態に係る心拍数測定処理について説明する。なお、図21に示す心拍数計測処理も、コントローラ20により、一定時間間隔で実行される。
ステップS801では、位置座標検出機能により、可視光カメラ30の各画素で撮像された画像情報が取得される。そして、ステップS802では、位置座標検出機能により、可視光カメラ30により撮像された輝度画像に基づいて、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部が特定される。可視光カメラ30により撮像された輝度画像に基づいて、これらのユーザの部位を特定する方法は、特に限定されず、例えば、論文(T. F. Cootes, G, J, Edwards, and C. J. Taylor, Active Appearance Model, Proc. European Conf. on Computer Version, Vol.2, p484-498, (1998))による手法や、FSE(Face Sensing Engine/http://www.oki.com/jp/fse/:沖電気工業株式会社開発)による手法を用いる方法が挙げられる。
図22および図23は、可視光カメラ30により撮像された輝度画像を用いて、ユーザの各部位を特定する方法を説明するための図である。図22は、可視光カメラ30により撮像された輝度画像を示した図であり、ユーザの顔の特徴点(図中において四角で囲われた部分)およびこの特徴点から特定されるユーザの鼻突部、左右一対の耳朶部、左右一対の頬部(図中において斜線で示された部分)が示されている。また、図23は、赤外線カメラ10により撮像された熱画像を示す図であり、ユーザの鼻突部、左右一対の耳朶部、左右一対の頬部(図中において斜線で示された部分)が示されている。なお、図23においても、図3と同様に、温度の高低を白黒の濃淡で表している。位置座標検出機能は、可視光カメラ30により撮像された輝度画像を上記手法により処理することで、図22に示すように、ユーザの鼻、目、耳、口などの顔の特徴点を検出することができる。そして、位置座標検出機能は、検出されたユーザの鼻、目、耳、口などの顔の特徴点に基づいて、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部を特定する。例えば、位置座標検出機能は、ユーザの鼻と特定された位置の中心周辺を鼻突部として特定し、また目、鼻、耳と特定された位置の間を頬部として特定し、また耳と特定された領域のうち3分の1の下部領域を耳朶部として特定する。そして、位置座標検出機能は、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部と特定された部位を撮像する可視光カメラ30の画素の位置座標を検出する。
ステップS803では、第1実施形態のステップS101と同様に、赤外線カメラ10により検出された温度データが取得される。なお、ステップS801およびステップS802と、ステップS803とを、同時に行ってもよく、またステップS803を、ステップS801およびステップS802よりも先に行ってもよい。
ステップS804では、マッチング機能により、ステップS802において検出された位置座標が参照され、図23に示すように、赤外線カメラ10において検出された温度データのうち、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部に基づく各温度データが特定される。
ステップS805では、ステップS804において特定されたユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部の温度データから、これら部位の平均温度データが算出される。そして、ステップS806では、温度データ算出機能により、算出された鼻突部、耳朶部、および頬部の平均温度データの和から加算データが算出される。次に、ステップS807では、算出された加算データがコントローラ20のRAMに記憶される。
ステップS808〜ステップS811では、第1実施形態のステップS105〜S108と同様の処理が行われる。すなわち、時系列に沿って記憶された加算データが温度情報として取得され(ステップS808)、取得された温度情報が周波数成分に変換される(ステップS809)。そして、温度情報から変換された周波数成分のうち心拍に相当する周波数帯域の周波数成分が抽出され(ステップS810)、抽出された周波数成分に基づいて、ユーザの心拍数が計測される(ステップS811)。
以上のように、第8実施形態では、可視光カメラ30と赤外線カメラ10とが撮像する範囲および時間を略一致させ、可視光カメラ30で撮像された輝度画像からユーザの鼻突部、耳朶部、および頬部を特定することで、これら部位を撮像する可視光カメラ30の位置座標を参照して、赤外線カメラ10の各画素で検出された温度データが、ユーザのどの部位に基づく温度データであるかを特定する。可視光カメラ30は、赤外線カメラ10と比べて、ユーザの体が動いた場合にも、ユーザの体の動きを追行して、ユーザの部位を特定する性能に優れている。そのため、可視光カメラ30の輝度画像から特定されたユーザの鼻突部、耳朶部、および頬部を撮像する画素の位置座標を参照して、赤外線カメラ10の各画素で検出された温度データがユーザのどの部位に基づく温度データであるかを特定することで、第1実施形態の効果に加えて、仮に、ユーザの体が動いた場合であっても、ユーザの鼻突部、左右一対の耳朶部、および左右一対の頬部に基づく温度データを適切に検出することができ、これにより、ユーザの心拍数を適切に測定することができる。
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
また、本発明は、上述した実施形態に限られず、また上述した実施形態を組み合わせて実施してもよい。実施形態を組み合わせるに際しては、例えば、ユーザの運転状況に応じて、最適な実施形態を選択して組み合わせることが好適である。
例えば、ユーザの顔が傾く、手が動くなどにより、ユーザの部位の一定割合以上の画素において温度データを検出することができない場合は、その部位において検出した温度データは除いて、他の部位において検出した温度データの和から加算データを算出し、算出された加算データに基づいて、ユーザの心拍数を測定してもよい。これにより、ユーザの顔が傾く、手が動くなどの場合でも、適切に温度データが検出された部位の温度情報に基づいて、ユーザの心拍数を適切に測定できる。
また、上述した実施形態において、心拍に相当する周波数帯域として、0.8〜1.5Hzの周波数帯域を用いたが、心拍に相当する周波数帯域は、0.8〜1.5Hzに限定されるものではなく適宜設定できる。
また、第5実施形態および第6実施形態においては、ユーザの顔部を複数のセルに分割して、各セルにおいて検出された温度データに基づいて、ユーザの心拍数を測定しているが、第7実施形態において、ユーザの手の甲の温度データを検出する際にも、ユーザの手の甲を複数のセルに分割して、各セルの温度データを検出し、検出された温度データに基づいて、ユーザの心拍数を測定してもよい。
なお、上述した実施形態の赤外線カメラ10〜13は本発明の取得手段に、変換機能および抽出機能は本発明の抽出手段に、計測機能は本発明の計測手段に、温度データ算出機能は本発明の算出手段に、選択機能は本発明の選択手段に、特定機能は本発明の特定手段にそれぞれ相当する。
10〜13…赤外線カメラ
20…コントローラ
30…可視光カメラ

Claims (8)

  1. 生体の鼻突部、左右一対の耳朶部、または左右一対の頬部のうち少なくとも1つの部位と、生体の額部とを含む部位の温度データを取得する取得手段と、
    前記鼻突部、耳朶部、または頬部のうち少なくとも1つの部位の温度データと、前記生体の額部の温度データとの差から差分データを算出し、前記差分データに基づいて算出した温度情報から、前記生体の心拍に相当する周波数帯域の周波数成分に対応する周波数データを抽出する抽出手段と、
    前記抽出手段により抽出された周波数データに基づいて、前記生体の心拍数を計測する計測手段と、を備えることを特徴とする心拍数測定装置。
  2. 請求項1に記載の心拍数測定装置であって、
    前記生体の鼻突部、左右一対の耳朶部、または左右一対の頬部のうち2以上の部位の温度データの和から加算データを算出し、前記加算データに基づいて、前記温度情報を算出する算出手段をさらに備えることを特徴とする心拍数測定装置。
  3. 請求項1または2に記載の心拍数測定装置であって、
    前記抽出手段は、フーリエ変換、バンドパスフィルター処理、またはウェーブレット変換により、前記温度情報から前記周波数データを抽出することを特徴とする心拍数測定装置。
  4. 請求項1〜3のいずれかに記載の心拍数測定装置であって、
    顔の向きに応じて、前記生体の鼻突部、左右の耳朶部、または左右の頬部の各部位の温度データの中から、前記差分データの算出に用いる温度データを選択する選択手段をさらに備えることを特徴とする心拍数測定装置。
  5. 請求項に記載の心拍数測定装置であって、
    前記選択手段は、前記生体の鼻突部、左右の耳朶部、または左右の頬部の各部位の温度データから、前記差分データの算出に用いる温度データを選択する際に、前記生体の心拍数に対する相関が低いと判断される部位の温度データを除外して、前記選択を行うことを特徴とする心拍数測定装置。
  6. 請求項1〜のいずれかに記載の心拍数測定装置であって、
    前記部位を特定するための特定手段をさらに有することを特徴とする心拍数測定装置。
  7. 請求項に記載の心拍数測定装置であって、
    前記特定手段は、可視光カメラで撮像した画像情報に基づいて、前記部位を特定することを特徴とする心拍数測定装置。
  8. 生体の鼻突部、左右一対の耳朶部、または左右一対の頬部のうち少なくとも1つの部位の温度データと、生体の額部の温度データとの差分に基づく温度情報から、前記生体の心拍に対応する周波数帯域の周波数成分を抽出し、前記周波数成分に基づき、前記生体の心拍数を測定することを特徴とする心拍数測定方法。
JP2009118443A 2009-05-15 2009-05-15 心拍数測定装置および心拍数測定方法 Expired - Fee Related JP5446443B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009118443A JP5446443B2 (ja) 2009-05-15 2009-05-15 心拍数測定装置および心拍数測定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009118443A JP5446443B2 (ja) 2009-05-15 2009-05-15 心拍数測定装置および心拍数測定方法

Publications (2)

Publication Number Publication Date
JP2010264095A JP2010264095A (ja) 2010-11-25
JP5446443B2 true JP5446443B2 (ja) 2014-03-19

Family

ID=43361643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009118443A Expired - Fee Related JP5446443B2 (ja) 2009-05-15 2009-05-15 心拍数測定装置および心拍数測定方法

Country Status (1)

Country Link
JP (1) JP5446443B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108135497A (zh) * 2015-10-15 2018-06-08 大金工业株式会社 驾驶员状态判定装置及驾驶员状态判定方法
KR20200009699A (ko) * 2018-07-19 2020-01-30 서울시립대학교 산학협력단 음주운전 판별장치

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011016772B4 (de) 2011-04-12 2024-04-25 Mercedes-Benz Group AG 12.04.2021Verfahren und Vorrichtung zur Überwachung zumindest eines Fahrzeuginsassen und Verfahren zum Betrieb zumindest einer Assistenzvorrichtung
JP5672144B2 (ja) * 2011-05-20 2015-02-18 富士通株式会社 心拍数・呼吸数検出装置,方法およびプログラム
WO2014002276A1 (ja) * 2012-06-29 2014-01-03 富士通株式会社 バイタルサイン検出方法、バイタルサイン検出装置及びバイタルサイン検出プログラム
JP5915757B2 (ja) * 2012-09-07 2016-05-11 富士通株式会社 脈波検出方法、脈波検出装置及び脈波検出プログラム
DE112013006788T5 (de) 2013-03-08 2015-12-17 Fujifilm Corporation Pulswellengeschwindigkeitsmess-Verfahren und -System und Abbildungsvorrichtung
TWI511092B (zh) * 2013-03-27 2015-12-01 原相科技股份有限公司 用於載人行動載具的安全監控裝置及安全監控方法
JP6102433B2 (ja) * 2013-03-29 2017-03-29 富士通株式会社 脈波検出プログラム、脈波検出方法および脈波検出装置
JP6098304B2 (ja) * 2013-03-29 2017-03-22 富士通株式会社 脈波検出装置、脈波検出方法及び脈波検出プログラム
KR101772585B1 (ko) * 2013-04-05 2017-08-30 한국전자통신연구원 비접촉 무선 심박 측정 방법 및 심박 측정 장치
CN103824420B (zh) * 2013-12-26 2016-12-07 苏州清研微视电子科技有限公司 基于心率变异性非接触式测量的疲劳驾驶识别系统
CN103714660B (zh) * 2013-12-26 2017-02-08 苏州清研微视电子科技有限公司 基于图像处理融合心率特征与表情特征实现疲劳驾驶判别的系统
JP6417697B2 (ja) * 2014-04-08 2018-11-07 富士通株式会社 情報処理装置、脈波計測プログラムおよび脈波計測方法
JP6384365B2 (ja) * 2015-03-05 2018-09-05 オムロン株式会社 脈拍計測装置及びその制御方法
JP6683367B2 (ja) 2015-03-30 2020-04-22 国立大学法人東北大学 生体情報計測装置、生体情報計測方法及び生体情報計測プログラム
US10912516B2 (en) 2015-12-07 2021-02-09 Panasonic Corporation Living body information measurement device, living body information measurement method, and storage medium storing program
JP6557611B2 (ja) 2016-01-26 2019-08-07 Kddi株式会社 脈拍測定装置
JP6509751B2 (ja) 2016-01-28 2019-05-08 Kddi株式会社 脈拍測定装置
CN105769130A (zh) * 2016-02-26 2016-07-20 严定远 一种测量人体体温的装置和方法
JP6612658B2 (ja) * 2016-03-09 2019-11-27 株式会社デンソー 生体情報計測装置
JP6781979B2 (ja) * 2016-05-20 2020-11-11 美貴子 隈元 心理状態評価用プログラム及び心理状態評価装置
TWI626072B (zh) * 2017-03-29 2018-06-11 國立中興大學 影像式心律操控運動訓練機
JP7054800B2 (ja) * 2017-04-26 2022-04-15 パナソニックIpマネジメント株式会社 深部体温測定装置、深部体温測定システム及び深部体温測定方法
JP7415318B2 (ja) * 2017-12-22 2024-01-17 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
MX2020006984A (es) * 2018-01-05 2020-10-05 Paramevia Pte Ltd Programa de soporte de diagnostico.
WO2020206430A1 (en) * 2019-04-04 2020-10-08 Butler William E Intrinsic contrast optical cross-correlated wavelet angiography
JP7373298B2 (ja) 2019-04-26 2023-11-02 株式会社日立製作所 生体情報検出装置、生体情報検出方法および生体情報検出プログラム
JP7014280B1 (ja) 2020-10-29 2022-02-01 横浜ゴム株式会社 ミラーシステム
CN112826488A (zh) * 2021-01-29 2021-05-25 姜珲 心率检测终端、方法
CN114469037B (zh) * 2022-01-29 2024-01-12 武汉大学 一种基于毫米波雷达的心率测量方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04348741A (ja) * 1991-05-28 1992-12-03 Matsushita Electric Works Ltd 睡眠状態判定装置
JP2802365B2 (ja) * 1996-03-22 1998-09-24 工業技術院長 呼吸の測定装置
JPH09262213A (ja) * 1996-03-28 1997-10-07 Toyota Central Res & Dev Lab Inc 生体情報検出装置
JPH09294724A (ja) * 1996-05-08 1997-11-18 Sanyo Electric Co Ltd 精神安定化訓練装置
JP3547968B2 (ja) * 1998-01-19 2004-07-28 株式会社日本自動車部品総合研究所 脈拍波形検出装置
US6631287B2 (en) * 2001-04-03 2003-10-07 Welch Allyn, Inc. Infrared thermometer
US7111980B2 (en) * 2001-04-19 2006-09-26 Honeywell International Inc. System and method using thermal image analysis and slope threshold classification for polygraph testing
US20030171655A1 (en) * 2002-03-08 2003-09-11 Newman Richard W. Combination otoscope
JP2006006355A (ja) * 2004-06-22 2006-01-12 Sony Corp 生体情報の処理装置および映像音響再生装置
JP2007025871A (ja) * 2005-07-13 2007-02-01 Cci:Kk 運転者状態評価装置
JP2007244478A (ja) * 2006-03-14 2007-09-27 Mitsuba Corp 脈波計及び脈波検出方法
JP2009028085A (ja) * 2007-07-24 2009-02-12 Nissan Motor Co Ltd 生体状態評価装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108135497A (zh) * 2015-10-15 2018-06-08 大金工业株式会社 驾驶员状态判定装置及驾驶员状态判定方法
KR20200009699A (ko) * 2018-07-19 2020-01-30 서울시립대학교 산학협력단 음주운전 판별장치
KR102077785B1 (ko) * 2018-07-19 2020-04-02 서울시립대학교 산학협력단 음주운전 판별장치

Also Published As

Publication number Publication date
JP2010264095A (ja) 2010-11-25

Similar Documents

Publication Publication Date Title
JP5446443B2 (ja) 心拍数測定装置および心拍数測定方法
JP6493680B2 (ja) 非接触血圧測定装置、及び、非接触血圧測定方法
JP6308161B2 (ja) 脈波検出装置、及び脈波検出プログラム
JP6098257B2 (ja) 信号処理装置、信号処理方法及び信号処理プログラム
JP6547160B2 (ja) 脈波検出装置、及び脈波検出プログラム
JP6188477B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2016006027A1 (ja) 脈波検出方法、脈波検出プログラム及び脈波検出装置
JP6717424B2 (ja) 心拍推定装置
JP2017209486A (ja) 血圧計測装置
JP5273030B2 (ja) 顔特徴点検出装置および眠気検出装置
KR102285999B1 (ko) 얼굴 색상과 떨림을 이용한 카메라 기반 심박 측정 방법 및 시스템
Chen et al. Estimating carotid pulse and breathing rate from near-infrared video of the neck
JP2014194617A (ja) 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
Heinrich et al. Body movement analysis during sleep based on video motion estimation
Sugimoto et al. A method for detecting transitions of emotional states using a thermal facial image based on a synthesis of facial expressions
JP6455761B2 (ja) 脈波検出装置、及び脈波検出プログラム
JP4153819B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
Fernández et al. Unobtrusive health monitoring system using video-based physiological information and activity measurements
JP4682372B2 (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
EP3370422B1 (en) Image processing apparatus and pulse estimation system provided therewith, and image processing method
WO2017085894A1 (ja) 脈波分析装置、脈波分析方法、および脈波分析プログラム
WO2019187852A1 (ja) モデル設定装置、非接触式血圧測定装置、モデル設定方法、モデル設定プログラム、および記録媒体
KR20200001911A (ko) 사용자의 신원 파악이 가능한 혈압 모니터링 방법 및 시스템
JP5276454B2 (ja) 表情測定方法、表情測定プログラムならびに表情測定装置
Malasinghe et al. Remote heart rate extraction using microsoft kinecttm V2. 0

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Ref document number: 5446443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees