JP2021178055A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2021178055A JP2021178055A JP2020085084A JP2020085084A JP2021178055A JP 2021178055 A JP2021178055 A JP 2021178055A JP 2020085084 A JP2020085084 A JP 2020085084A JP 2020085084 A JP2020085084 A JP 2020085084A JP 2021178055 A JP2021178055 A JP 2021178055A
- Authority
- JP
- Japan
- Prior art keywords
- pulse
- skin color
- skin
- color model
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うための技術を提供する。【解決手段】情報処理装置は、時系列に並ぶ複数の画像を取得する取得手段と、前記画像ごとに、それぞれ互いに異なる肌色モデルに基づく複数の皮膚領域を抽出する抽出手段と、前記抽出手段の抽出結果に基づき、前記肌色モデルごとに、脈拍を示す脈拍推定情報を取得する推定手段と、前記肌色モデルごとの前記脈拍推定情報に基づき、脈拍数を決定する決定手段と、を有する。【選択図】図3
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
画像解析により非接触で被写体(主にヒト)の脈拍を推定する脈拍推定技術が知られている。この種の脈拍推定技術では、カメラにより撮像された時系列画像における被写体の皮膚領域の色変化を解析することにより、脈拍の推定が行われる。
脈拍推定を行う際には、画像から被写体の皮膚領域を抽出する必要があり、そのための具体的な手法として、まず顔領域を抽出し、その中から肌色の画素を抽出する、という手法が用いられる。肌色の画素の抽出は、肌色モデルを用いて実現される。肌色モデルは色空間内における肌色の分布を定義するモデルであり、肌色モデルに合致する画素を抽出することにより、肌色の画素を抽出することが可能になる。色空間としては、色相(Hue)、彩度(Saturation)、明度(Brightness)の3つの成分からなるHSV色空間が多く用いられる。
脈拍推定を行う際には、画像から被写体の皮膚領域を抽出する必要があり、そのための具体的な手法として、まず顔領域を抽出し、その中から肌色の画素を抽出する、という手法が用いられる。肌色の画素の抽出は、肌色モデルを用いて実現される。肌色モデルは色空間内における肌色の分布を定義するモデルであり、肌色モデルに合致する画素を抽出することにより、肌色の画素を抽出することが可能になる。色空間としては、色相(Hue)、彩度(Saturation)、明度(Brightness)の3つの成分からなるHSV色空間が多く用いられる。
しかしながら、ヒトの肌の色には個人差があり、また、画像に現れる肌の色は撮影条件によっても変化する。したがって、単一の肌色モデルだけを用いても、皮膚領域を適切に抽出することは難しい。
これに対し、被写体ごとに肌色モデルを切り替えて皮膚領域を抽出する方法が知られている。特許文献1には、予め複数の肌色モデルを学習しておき、被写体ごとに適切な肌色モデルを1つ選択することによって、皮膚領域の抽出処理の精度を高めようとする技術が開示されている。
これに対し、被写体ごとに肌色モデルを切り替えて皮膚領域を抽出する方法が知られている。特許文献1には、予め複数の肌色モデルを学習しておき、被写体ごとに適切な肌色モデルを1つ選択することによって、皮膚領域の抽出処理の精度を高めようとする技術が開示されている。
しかしながら、特許文献1に記載の技術を用いたとしても、脈拍推定処理の精度が上がらない場合がある。その理由の1つは、そもそも肌色モデルを選択している点にある。万一不適切な肌色モデルを選択してしまうと、皮膚領域抽出処理の精度が下がり、その結果として脈拍推定処理の精度も下がってしまう。
また、脈拍推定処理では時系列画像を用いるという点も理由の1つである。すなわち、時系列画像の取得期間内に照明条件の変化などによって肌の色に変化が生ずると、被写体の肌の色と肌色モデルが一致しなくなったり、適用する肌色モデルが切り替わったりする場合がある。そうすると、時系列画像から得られるデータの質が損なわれ、脈拍推定処理の精度が低下することになる。
本発明はこのような課題に鑑みてなされたものであり、その目的は、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うための技術を提供することにある。
また、脈拍推定処理では時系列画像を用いるという点も理由の1つである。すなわち、時系列画像の取得期間内に照明条件の変化などによって肌の色に変化が生ずると、被写体の肌の色と肌色モデルが一致しなくなったり、適用する肌色モデルが切り替わったりする場合がある。そうすると、時系列画像から得られるデータの質が損なわれ、脈拍推定処理の精度が低下することになる。
本発明はこのような課題に鑑みてなされたものであり、その目的は、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うための技術を提供することにある。
本発明の1つの態様による情報処理装置は、時系列に並ぶ複数の画像を取得する取得手段と、前記画像ごとに、それぞれ互いに異なる肌色モデルに基づく複数の皮膚領域を抽出する抽出手段と、前記抽出手段の抽出結果に基づき、前記肌色モデルごとに、脈拍を示す脈拍推定情報を取得する推定手段と、前記肌色モデルごとの前記脈拍推定情報に基づき、脈拍数を決定する決定手段と、を有することを特徴とする。
本発明によれば、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うことが可能になる。
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
[第1の実施形態]
図1は、本発明の第1の実施形態による脈拍推定システム1の装置構成を示す図である。同図に示すように、脈拍推定システム1は、情報処理装置100と撮像装置110とを含んで構成される。情報処理装置100と撮像装置110は、例えばインターネットであるネットワーク120を介して、相互に通信可能に接続されている。また、情報処理装置100には、入力装置106及び出力装置107が接続される。
図1は、本発明の第1の実施形態による脈拍推定システム1の装置構成を示す図である。同図に示すように、脈拍推定システム1は、情報処理装置100と撮像装置110とを含んで構成される。情報処理装置100と撮像装置110は、例えばインターネットであるネットワーク120を介して、相互に通信可能に接続されている。また、情報処理装置100には、入力装置106及び出力装置107が接続される。
情報処理装置100は、脈拍推定ソフトウェアを内蔵し、脈拍推定ソフトウェアを実行することで、画像から脈拍推定処理を行う装置である。本実施形態では、情報処理装置100として、一般的なPC(パーソナルコンピュータ)を用いる。
図2(a)は、情報処理装置100のハードウェア構成を示す図である。同図に示すように、情報処理装置100は、CPU101、主記憶装置102、補助記憶装置103、及びネットワークI/F104がバス105を介して相互に接続された構成を有している。バス105には、図1に示した入力装置106及び出力装置107も接続される。
図2(a)は、情報処理装置100のハードウェア構成を示す図である。同図に示すように、情報処理装置100は、CPU101、主記憶装置102、補助記憶装置103、及びネットワークI/F104がバス105を介して相互に接続された構成を有している。バス105には、図1に示した入力装置106及び出力装置107も接続される。
CPU101は、情報処理装置100の中央処理装置(Central Processing Unit)であり、補助記憶装置103に記憶されるプログラムを主記憶装置102に展開し、実行する役割を果たす。プログラムの実行によって実現される処理には、バス105に接続される各ハードウェアの制御や各種の演算処理が含まれる。
主記憶装置102は、各種データを記憶するための装置であり、例えばDRAM(Dynamic Random Access Memory)によって構成される。主記憶装置102は、CPU101にて実行中のプログラムや、画像などプログラムの実行のために必要な各種のデータを保持する役割を担う。
主記憶装置102は、各種データを記憶するための装置であり、例えばDRAM(Dynamic Random Access Memory)によって構成される。主記憶装置102は、CPU101にて実行中のプログラムや、画像などプログラムの実行のために必要な各種のデータを保持する役割を担う。
補助記憶装置103は、データの永続的な記憶や、主記憶装置102の補助に用いるための装置であり、例えばハードディスクやSSD(Solid State Drive)によって構成される。プログラムやデータは、補助記憶装置103に記憶され、CPU101による実行に際して主記憶装置102に展開される。
ネットワークI/F104は、情報処理装置100がネットワーク120と接続するためのインターフェース部であり、例えばLANポートによって構成される。ネットワークI/F104は、CPU101の制御に従い、ネットワーク120の通信方式に則ったデータの送受信を行う。
ネットワークI/F104は、情報処理装置100がネットワーク120と接続するためのインターフェース部であり、例えばLANポートによって構成される。ネットワークI/F104は、CPU101の制御に従い、ネットワーク120の通信方式に則ったデータの送受信を行う。
バス105は、情報処理装置100の各部(入力装置106及び出力装置107を含む)を相互に接続し、これらの間におけるデータの受け渡しを担う機構である。
入力装置106は、情報処理装置100に対するユーザの入力を受け付ける装置であり、例えばマウス又はキーボードを含んで構成される。
出力装置107は、情報処理装置100から情報を出力する装置であり、例えばディスプレイを含んで構成される。
入力装置106は、情報処理装置100に対するユーザの入力を受け付ける装置であり、例えばマウス又はキーボードを含んで構成される。
出力装置107は、情報処理装置100から情報を出力する装置であり、例えばディスプレイを含んで構成される。
図1に戻り、撮像装置110は、撮像を行うカメラ等の撮像装置であり、撮像した画像を情報処理装置100に渡す送信部等を備える。本実施形態においては、撮像装置110は、ネットワーク120を介して情報処理装置100へ画像の受け渡しが可能なネットワークカメラである。
図2(b)は、撮像装置110のハードウェア構成を示す図である。同図に示すように、撮像装置110は、撮像部111、CPU112、主記憶装置113、及びネットワークI/F114を備える。
図2(b)は、撮像装置110のハードウェア構成を示す図である。同図に示すように、撮像装置110は、撮像部111、CPU112、主記憶装置113、及びネットワークI/F114を備える。
撮像部111は、外部から取り込んだ光をデジタル画像として撮像するための機構であり、レンズ、撮像素子、及びA/D変換装置を含んで構成される。
CPU112は、撮像装置110の中央処理装置であり、主記憶装置113に記憶されるプログラムを実行する役割を果たす。プログラムの実行によって実現される処理には、撮像装置110の各部の制御や各種の演算処理が含まれる。
CPU112は、撮像装置110の中央処理装置であり、主記憶装置113に記憶されるプログラムを実行する役割を果たす。プログラムの実行によって実現される処理には、撮像装置110の各部の制御や各種の演算処理が含まれる。
主記憶装置113は、各種データを記憶するための装置であり、例えばDRAMによって構成される。
ネットワークI/F114は、撮像装置110がネットワーク120と接続するためのインターフェース部であり、例えばLANポートによって構成される。ネットワークI/F114は、CPU112の制御に従い、ネットワーク120の通信方式に則ったデータの送受信を行う。
ネットワークI/F114は、撮像装置110がネットワーク120と接続するためのインターフェース部であり、例えばLANポートによって構成される。ネットワークI/F114は、CPU112の制御に従い、ネットワーク120の通信方式に則ったデータの送受信を行う。
図1に戻り、ネットワーク120は、複数の装置と接続可能に構成され、接続された装置間の通信を仲介する役割を担う仕組みである。具体的には、インターネットやLAN(Local Area Network)などによって構成され得る。本実施形態においては、ネットワーク120は、情報処理装置100と撮像装置110との間の通信を実現する役割を担う。
図3は、脈拍を推定するためのプログラムである脈拍推定ソフトウェア200をCPU101が実行することによって実現される機能ブロックを示す図である。同図に示すように、脈拍推定ソフトウェア200によれば、画像取得部201、顔検出部202、皮膚領域抽出部203、肌色モデル記憶部204、色情報取得部205、脈拍推定部206、統合部207、及び結果出力部208が実現される。
図3は、脈拍を推定するためのプログラムである脈拍推定ソフトウェア200をCPU101が実行することによって実現される機能ブロックを示す図である。同図に示すように、脈拍推定ソフトウェア200によれば、画像取得部201、顔検出部202、皮膚領域抽出部203、肌色モデル記憶部204、色情報取得部205、脈拍推定部206、統合部207、及び結果出力部208が実現される。
画像取得部201は、撮像装置110によって撮像されたデジタル画像をネットワーク120を介して取得することにより、時系列に並ぶ複数の画像を取得する。具体的には、画像取得部201が撮像装置110に対して画像取得要求を送信すると、撮像装置110は、撮像部111によって撮像されたデジタル画像を送信する。画像取得部201は、送信されたデジタル画像を受け取って主記憶装置102に記憶する。
なお、脈拍推定には、時間的に連続な複数の画像が必要である。本実施形態による画像取得部201は、脈拍推定に必要な枚数を取得するまで繰り返し画像取得処理を行うことにより、時系列に並ぶ複数の画像を取得する。ただし、画像取得部201は、1回の画像取得要求に対し、撮像装置110が時間的に連続な複数の画像を情報処理装置100に送信し続けるストリーム形式の画像取得により、時系列に並ぶ複数の画像を取得することとしてもよい。
なお、脈拍推定には、時間的に連続な複数の画像が必要である。本実施形態による画像取得部201は、脈拍推定に必要な枚数を取得するまで繰り返し画像取得処理を行うことにより、時系列に並ぶ複数の画像を取得する。ただし、画像取得部201は、1回の画像取得要求に対し、撮像装置110が時間的に連続な複数の画像を情報処理装置100に送信し続けるストリーム形式の画像取得により、時系列に並ぶ複数の画像を取得することとしてもよい。
顔検出部202は、画像取得部201が取得した画像に対して顔検出処理を行うことにより、画像内に含まれる顔領域を示す複数の座標を抽出する。この顔検出処理の具体的な処理方法は、パターンマッチングなど、取得された動画像又は静止画像に対して顔及び顔の位置を検出するものであれば、いかなる形態のものであってもよい。
肌色モデル記憶部204は複数の肌色モデルを保管する記憶部であり、補助記憶装置103内に実装される。肌色モデルとは、上述したHSV色空間における色相(H)、彩度(S)、明度(B)の各値の範囲(上限値と下限値)を定義するものであり、H・S・Vのすべてにおいて肌色モデルの定める範囲内である色を肌色とするものである。CPU101は、ユーザから入力装置106を介して肌色モデルの設定を受け付け、設定された肌色モデルに名前を付けて補助記憶装置103に保管する。
肌色モデル記憶部204は複数の肌色モデルを保管する記憶部であり、補助記憶装置103内に実装される。肌色モデルとは、上述したHSV色空間における色相(H)、彩度(S)、明度(B)の各値の範囲(上限値と下限値)を定義するものであり、H・S・Vのすべてにおいて肌色モデルの定める範囲内である色を肌色とするものである。CPU101は、ユーザから入力装置106を介して肌色モデルの設定を受け付け、設定された肌色モデルに名前を付けて補助記憶装置103に保管する。
皮膚領域抽出部203は、画像取得部201によって取得された画像ごとに、それぞれ互いに異なる肌色モデルに基づく複数の皮膚領域を抽出する。
具体的に説明すると、皮膚領域抽出部203は、画像取得部201によって取得された画像と肌色モデル記憶部204に記憶される肌色モデルのすべての組み合わせについて、以下の処理を行う。すなわち、皮膚領域抽出部203はまず、処理対象の画像から、顔検出部202によって検出された顔領域に相当する部分のみを切り出す。そして、切り出した部分に含まれる各画素についてH・S・Vを取得し、それぞれが処理対象の肌色モデルに定義される範囲に含まれるか否かを判定する。皮膚領域抽出部203は、この判定の結果、H・S・Vのすべてが処理対象の肌色モデルに定義される範囲に含まれると判定した画素の集合を、皮膚領域として取得する。
具体的に説明すると、皮膚領域抽出部203は、画像取得部201によって取得された画像と肌色モデル記憶部204に記憶される肌色モデルのすべての組み合わせについて、以下の処理を行う。すなわち、皮膚領域抽出部203はまず、処理対象の画像から、顔検出部202によって検出された顔領域に相当する部分のみを切り出す。そして、切り出した部分に含まれる各画素についてH・S・Vを取得し、それぞれが処理対象の肌色モデルに定義される範囲に含まれるか否かを判定する。皮膚領域抽出部203は、この判定の結果、H・S・Vのすべてが処理対象の肌色モデルに定義される範囲に含まれると判定した画素の集合を、皮膚領域として取得する。
皮膚領域を抽出した皮膚領域抽出部203は、皮膚領域を表現するマスク画像を生成し、主記憶装置102に記憶する。マスク画像は、顔領域と同じサイズのモノクロ画像であり、皮膚領域に該当する画素の値を255、それ以外の画素の値を0としたデジタル画像である(後述する図7を参照)。また、皮膚領域抽出部203は、皮膚領域の画素数を顔領域の画素数で割ることによって顔領域中の皮膚領域の割合を算出し、主記憶装置102に記憶する。
色情報取得部205は、皮膚領域抽出部203によって抽出された皮膚領域に現れる色情報を取得する。色情報は、具体的には、HSV色空間におけるHの値(色相成分)の全画素の平均値である。色情報取得部205は、皮膚領域内の各画素の色相成分を取得し、それらの平均値を導出することにより、画像取得部201によって取得された画像と肌色モデル記憶部204に記憶される肌色モデルのすべての組み合わせのそれぞれについて、色情報を取得する。こうして取得された色情報は、肌色モデルごとの時系列データを構成する。
色情報取得部205は、皮膚領域抽出部203によって抽出された皮膚領域に現れる色情報を取得する。色情報は、具体的には、HSV色空間におけるHの値(色相成分)の全画素の平均値である。色情報取得部205は、皮膚領域内の各画素の色相成分を取得し、それらの平均値を導出することにより、画像取得部201によって取得された画像と肌色モデル記憶部204に記憶される肌色モデルのすべての組み合わせのそれぞれについて、色情報を取得する。こうして取得された色情報は、肌色モデルごとの時系列データを構成する。
脈拍推定部206は、皮膚領域抽出部203の抽出結果に基づき、被写体の脈拍を示す脈拍推定情報を取得する。具体的には、時系列データである色情報に基づいて脈拍推定処理を行うことにより、脈拍推定情報を取得する。脈拍推定処理は、具体的には周波数解析である。
詳しく説明すると、脈拍推定部206は、色情報にバンドパスフィルタを適用することにより、特定の周波数帯に属する周波数成分のみを色情報から取り出す。この特定の周波数帯としては、一般的なヒトの脈拍数の範囲(50bpm(beats per minute)から200bpm)に相当する、0.83Hzから3.33Hzの範囲の周波数帯を用いることが好適である。以下、こうして取り出した周波数成分を「フィルタ値」と称する。
詳しく説明すると、脈拍推定部206は、色情報にバンドパスフィルタを適用することにより、特定の周波数帯に属する周波数成分のみを色情報から取り出す。この特定の周波数帯としては、一般的なヒトの脈拍数の範囲(50bpm(beats per minute)から200bpm)に相当する、0.83Hzから3.33Hzの範囲の周波数帯を用いることが好適である。以下、こうして取り出した周波数成分を「フィルタ値」と称する。
脈拍推定部206は、取得したフィルタ値を主記憶装置102に記憶する。そして、高速フーリエ変換を行うことによってフィルタ値の周波数特性を生成し、主記憶装置102に記憶する。フィルタ値の周波数特性は、具体的には、フィルタ値の周波数スペクトルである。上述した脈拍推定情報は、こうして主記憶装置102に記憶されたフィルタ値の周波数特性によって構成される。色情報が肌色モデルごとの時系列データであることから、脈拍推定情報も肌色モデルごとに生成されることになる。
統合部207は、肌色モデルごとの脈拍推定情報に基づき、被写体の脈拍数を決定する。
統合部207は、肌色モデルごとの脈拍推定情報に基づき、被写体の脈拍数を決定する。
具体的に説明すると、統合部207は、各肌色モデルによる脈拍推定処理の結果として保存された周波数スペクトルを読み込み、読み込んだすべてのスペクトルの重み付け合算処理を行う。そのために、統合部207はまず、肌色モデルごとに、複数の皮膚領域それぞれの画像内(具体的には、対応する顔領域内)に占める割合の平均値を重み付け係数として導出する。続いて統合部207は、対応する周波数スペクトルに該重み付け係数を乗算し、肌色モデルごとの乗算結果を加算することにより、統合周波数特性を取得する。そして、統合周波数特性のピーク周波数(最も振幅レベルが大きい周波数)を被写体の脈拍数として決定し、主記憶装置102に記憶する。
結果出力部208は、統合部207によって主記憶装置102に書き込まれた脈拍数を、出力装置107を介してユーザに表示する。
結果出力部208は、統合部207によって主記憶装置102に書き込まれた脈拍数を、出力装置107を介してユーザに表示する。
次に、脈拍推定ソフトウェア200の処理について、図4〜図8を参照して説明する。図4は、本実施形態による脈拍推定ソフトウェア200の処理を示すフロー図である。図5は、図4に示したS306までの処理の結果の例を示す概略図である。図6は、肌色モデルの例を示す図である。図7は、図4に示したS307までの処理の結果の例を示す概略図である。図8は、図4に示したS308以降の処理の結果の例を示す概略図である。
図4に示すように、まず画像取得部201が、撮像装置110からデジタル画像を取得し、主記憶装置102に記憶する(S301)。図5に示したデジタル画像401は、こうして主記憶装置102に格納されるデジタル画像の一例である。同図に示すように、デジタル画像401には、脈拍数取得の対象となる被写体が映り込んでいる必要がある。
図4に示すように、まず画像取得部201が、撮像装置110からデジタル画像を取得し、主記憶装置102に記憶する(S301)。図5に示したデジタル画像401は、こうして主記憶装置102に格納されるデジタル画像の一例である。同図に示すように、デジタル画像401には、脈拍数取得の対象となる被写体が映り込んでいる必要がある。
次に、顔検出部202が、デジタル画像に対して顔検出処理を行う(S302)。顔検出部202は、顔検出処理の結果として得られた顔領域を示す情報を主記憶装置102に記憶する。図5のデジタル画像402は、デジタル画像401内の顔領域を示している。
続いて、皮膚領域抽出部203が、肌色モデル記憶部204から肌色モデルを1つ読み込む(S303)。図6を参照すると、この例による肌色モデル記憶部204には、肌色モデル1、肌色モデル2、肌色モデル3という3つの肌色モデルが予め格納されている。同図に示すように、各肌色モデルは、上述したH・S・Vそれぞれの下限値と上限値とによって構成される。なお、Hは0以上179以下の値、Sは0以上255以下の値、Vは0以上255以下の値をそれぞれ取り得る。
続いて、皮膚領域抽出部203が、肌色モデル記憶部204から肌色モデルを1つ読み込む(S303)。図6を参照すると、この例による肌色モデル記憶部204には、肌色モデル1、肌色モデル2、肌色モデル3という3つの肌色モデルが予め格納されている。同図に示すように、各肌色モデルは、上述したH・S・Vそれぞれの下限値と上限値とによって構成される。なお、Hは0以上179以下の値、Sは0以上255以下の値、Vは0以上255以下の値をそれぞれ取り得る。
図6の例において、肌色モデル1におけるHの下限値及び上限値はそれぞれ0及び25、Sの下限値及び上限値はそれぞれ50及び170、Vの下限値及び上限値はそれぞれは70及び230である。また、肌色モデル2におけるHの下限値及び上限値はそれぞれ0及び25、Sの下限値及び上限値はそれぞれ50及び190、Vの下限値及び上限値はそれぞれは150及び250である。さらに、肌色モデル3におけるHの下限値及び上限値はそれぞれ0及び25、Sの下限値及び上限値はそれぞれ30及び170、Vの下限値及び上限値はそれぞれは10及び120である。以下、肌色モデル1を読み込んだものとして以降の処理を説明する。
肌色モデル1を読み込んだ皮膚領域抽出部203は、顔検出部202により検出された顔領域に対し、読み込んだ肌色モデル1を用いて皮膚領域抽出処理を行う(S304)。そして、皮膚領域抽出部203は、皮膚領域抽出処理の結果として皮膚領域のマスク画像を取得するとともに、顔領域に占める皮膚領域の割合を導出する。皮膚領域抽出部203は、取得したマスク画像及び導出した割合を主記憶装置102に記憶する。図5には、皮膚領域抽出処理411の結果として取得されるマスク画像412及び皮膚領域の割合413を示している。
肌色モデル1を読み込んだ皮膚領域抽出部203は、顔検出部202により検出された顔領域に対し、読み込んだ肌色モデル1を用いて皮膚領域抽出処理を行う(S304)。そして、皮膚領域抽出部203は、皮膚領域抽出処理の結果として皮膚領域のマスク画像を取得するとともに、顔領域に占める皮膚領域の割合を導出する。皮膚領域抽出部203は、取得したマスク画像及び導出した割合を主記憶装置102に記憶する。図5には、皮膚領域抽出処理411の結果として取得されるマスク画像412及び皮膚領域の割合413を示している。
続いて皮膚領域抽出部203は、皮膚領域に現れる色情報(皮膚領域内における色相成分の平均値)を取得するよう色情報取得部205を制御する(S305)。色情報取得部205は、取得した色情報を主記憶装置102に記憶する。図5には、皮膚領域抽出処理411の結果として抽出された皮膚領域内における色相成分の平均値414を示している。
その後、皮膚領域抽出部203は、肌色モデル記憶部204に保管されているすべての肌色モデルについて、S303からS305までの処理を行ったか否かを判定する(S306)。判定の結果が偽の場合、皮膚領域抽出部203はS303に移行して未処理の肌色モデルを1つ読み込み、上記同様にS305までの処理を行う。皮膚領域抽出部203は、こうしてS303からS305までの処理を繰り返し行うことにより、肌色モデル記憶部204に保管されているすべての肌色モデルについて、マスク画像、皮膚領域の割合、色相成分の平均値を取得する。
その後、皮膚領域抽出部203は、肌色モデル記憶部204に保管されているすべての肌色モデルについて、S303からS305までの処理を行ったか否かを判定する(S306)。判定の結果が偽の場合、皮膚領域抽出部203はS303に移行して未処理の肌色モデルを1つ読み込み、上記同様にS305までの処理を行う。皮膚領域抽出部203は、こうしてS303からS305までの処理を繰り返し行うことにより、肌色モデル記憶部204に保管されているすべての肌色モデルについて、マスク画像、皮膚領域の割合、色相成分の平均値を取得する。
図5には、肌色モデル2についての皮膚領域抽出処理421の結果として得られるマスク画像422、皮膚領域の割合423、及び色相成分の平均値424を図示している。また図5には、肌色モデル3についての皮膚領域抽出処理431の結果として得られるマスク画像432、皮膚領域の割合433、及び色相成分の平均値434も図示している。
S306の判定結果が真となった場合、皮膚領域抽出部203は、所定の画像数を処理したか否かを判定する(S307)。所定の画像数は、例えば、10fpsの動画の5秒分にあたる画像50枚である。S307の判定の結果が偽の場合、S301における画像取得から処理が繰り返される。これにより、肌色モデルごとに、所定の画像数分のマスク画像、皮膚領域の割合、色相成分の平均値それぞれの時系列データが主記憶装置102内に格納されることになる。
S306の判定結果が真となった場合、皮膚領域抽出部203は、所定の画像数を処理したか否かを判定する(S307)。所定の画像数は、例えば、10fpsの動画の5秒分にあたる画像50枚である。S307の判定の結果が偽の場合、S301における画像取得から処理が繰り返される。これにより、肌色モデルごとに、所定の画像数分のマスク画像、皮膚領域の割合、色相成分の平均値それぞれの時系列データが主記憶装置102内に格納されることになる。
この点について、図7を参照してさらに詳しく説明する。同図に示すように、脈拍推定ソフトウェア200は、時系列に並ぶ複数のデジタル画像601それぞれから顔領域を検出することにより、時系列に並ぶ複数のデジタル画像602を取得する。そしてまず、肌色モデル1を用いて皮膚領域抽出処理611を行うことにより、複数のデジタル画像601にそれぞれ対応する複数のマスク画像612、皮膚領域の割合613、色相平均値614を得る。
肌色モデル1についての処理が終了したら、脈拍推定ソフトウェア200は次に、肌色モデル2を用いて皮膚領域抽出処理621を行う。これにより、複数のデジタル画像601にそれぞれ対応する複数のマスク画像622、皮膚領域の割合623、色相平均値624が得られる。さらに、脈拍推定ソフトウェア200は、肌色モデル3を用いて皮膚領域抽出処理631を行う。これにより、複数のデジタル画像601にそれぞれ対応する複数のマスク画像632、皮膚領域の割合633、色相平均値634が得られる。
肌色モデル1についての処理が終了したら、脈拍推定ソフトウェア200は次に、肌色モデル2を用いて皮膚領域抽出処理621を行う。これにより、複数のデジタル画像601にそれぞれ対応する複数のマスク画像622、皮膚領域の割合623、色相平均値624が得られる。さらに、脈拍推定ソフトウェア200は、肌色モデル3を用いて皮膚領域抽出処理631を行う。これにより、複数のデジタル画像601にそれぞれ対応する複数のマスク画像632、皮膚領域の割合633、色相平均値634が得られる。
ここで、色相平均値614,624,634はそれぞれ時系列データとなる。したがって、図7に示すように、時間を横軸とし、色相平均値を縦軸とするグラフにより表すことができる。
図4に戻る。S307の判定結果が真となった場合、脈拍推定部206は、フィルタ処理を行う(S308)。具体的には、いずれかの肌色モデルを選択し、選択した肌色モデルに関して主記憶装置102内に記憶されている色相平均値の時系列データに、上述したバンドパスフィルタを適用する(S308)。これにより、上述したフィルタ値が得られる。続いて脈拍推定部206は、時系列データであるフィルタ値に対してフーリエ変換を行うことにより、周波数スペクトルを得る(S309)。その後、脈拍推定部206は、すべての肌色モデルについてS308,S309の処理を行ったか否かを判定し(S310)、偽と判定した場合にはS308に戻って残りの肌色モデルの1つを選択し、上記処理を繰り返す。
図4に戻る。S307の判定結果が真となった場合、脈拍推定部206は、フィルタ処理を行う(S308)。具体的には、いずれかの肌色モデルを選択し、選択した肌色モデルに関して主記憶装置102内に記憶されている色相平均値の時系列データに、上述したバンドパスフィルタを適用する(S308)。これにより、上述したフィルタ値が得られる。続いて脈拍推定部206は、時系列データであるフィルタ値に対してフーリエ変換を行うことにより、周波数スペクトルを得る(S309)。その後、脈拍推定部206は、すべての肌色モデルについてS308,S309の処理を行ったか否かを判定し(S310)、偽と判定した場合にはS308に戻って残りの肌色モデルの1つを選択し、上記処理を繰り返す。
図8に示したフィルタ値711,721,731はそれぞれ、図7にも示した色相平均値614,624,634に対してS308の処理を行った結果として得られるフィルタ値を示している。また、フーリエ変換結果712,722,732はそれぞれ、フィルタ値711,721,731に対してS309の処理を行った結果として得られる周波数スペクトルを示している。
S310の判定結果が真となった場合、統合部207により、全肌色モデルによるフーリエ変換結果(スペクトル)の合算を行う。この合算は、具体的には、S304で導出した皮膚領域の割合の平均値を肌色モデルごとに導出し、導出した平均値を重み付け係数としてフーリエ変換結果としてのスペクトルに乗算し、その結果を平均化することによって行う(S311)。統合部207は、合算の結果として得られた統合周波数特性のピーク周波数を検出し(S312)、脈拍数の推定結果として決定する。決定した脈拍数は、統合部207により主記憶装置102に格納されるとともに、結果出力部208によりユーザに対して出力される(S313)。
S310の判定結果が真となった場合、統合部207により、全肌色モデルによるフーリエ変換結果(スペクトル)の合算を行う。この合算は、具体的には、S304で導出した皮膚領域の割合の平均値を肌色モデルごとに導出し、導出した平均値を重み付け係数としてフーリエ変換結果としてのスペクトルに乗算し、その結果を平均化することによって行う(S311)。統合部207は、合算の結果として得られた統合周波数特性のピーク周波数を検出し(S312)、脈拍数の推定結果として決定する。決定した脈拍数は、統合部207により主記憶装置102に格納されるとともに、結果出力部208によりユーザに対して出力される(S313)。
図8では、図7に示した皮膚領域の割合613の平均値0.37がフーリエ変換結果712に重み付け係数として乗算される。同様に、図7に示した皮膚領域の割合623の平均値0.15がフーリエ変換結果722に重み付け係数として乗算され、図7に示した皮膚領域の割合633の平均値0.11がフーリエ変換結果732に重み付け係数として乗算される。統合スペクトル701は、それぞれの重み付け係数を乗算した後のフーリエ変換結果712,722,732を加算した結果を示している。図8に示した統合スペクトル701のピーク周波数702は、81bpmである。したがって、図8の例による推定脈拍数703は、図示したように81bpmとなる。
以上説明したように、本実施の形態による脈拍推定システム1によれば、複数の肌色モデルのそれぞれを用いて脈拍推定情報(時系列データである色情報の周波数解析を行うことによって得られる周波数特性)を取得している。そして、その結果に基づいて脈拍数を決定している。したがって、1つの肌色モデルのみを用いて脈拍数を決定する従来の技術に比べ、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うことが可能になる。
以上説明したように、本実施の形態による脈拍推定システム1によれば、複数の肌色モデルのそれぞれを用いて脈拍推定情報(時系列データである色情報の周波数解析を行うことによって得られる周波数特性)を取得している。そして、その結果に基づいて脈拍数を決定している。したがって、1つの肌色モデルのみを用いて脈拍数を決定する従来の技術に比べ、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うことが可能になる。
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。本実施形態による脈拍推定システム1は、図2に示した統合部207が行う処理の点で、第1の実施形態による脈拍推定システム1と相違する。図1〜図3に示した構成を含め、その他の点では第1の実施形態による脈拍推定システム1と同様であるので、以下では、第1の実施形態による脈拍推定システム1との相違点に着目して説明する。
図9は、本実施形態による脈拍推定ソフトウェア200の処理を示すフロー図である。同図と図4を比較すると理解されるように、本実施形態による脈拍推定ソフトウェア200の処理は、S311,S312に代えてS320,S321が実行される点で、第1の実施形態による脈拍推定ソフトウェア200の処理と相違する。
次に、本発明の第2の実施形態について説明する。本実施形態による脈拍推定システム1は、図2に示した統合部207が行う処理の点で、第1の実施形態による脈拍推定システム1と相違する。図1〜図3に示した構成を含め、その他の点では第1の実施形態による脈拍推定システム1と同様であるので、以下では、第1の実施形態による脈拍推定システム1との相違点に着目して説明する。
図9は、本実施形態による脈拍推定ソフトウェア200の処理を示すフロー図である。同図と図4を比較すると理解されるように、本実施形態による脈拍推定ソフトウェア200の処理は、S311,S312に代えてS320,S321が実行される点で、第1の実施形態による脈拍推定ソフトウェア200の処理と相違する。
本実施形態による統合部207は、S310で真の判定結果を得た後、肌色モデルごとに、周波数特性のピーク周波数を検出する(S320)。そして、検出した各ピーク周波数に基づいて、脈拍数を決定する。より具体的に言えば、統合部207は、検出した各ピーク周波数の中央値を算出し、脈拍数として決定する(S321)。その後の処理は、第1の実施形態と同様である。
図10は、図9に示したS308以降の処理の結果の例を示す概略図である。同図に示すフーリエ変換結果712,722,732は、図8に示したものと同様である。本実施形態では、フーリエ変換結果712,722,732のそれぞれについてピーク周波数の検出処理が行われる。図示したピーク周波数911,921,931は、フーリエ変換結果712,722,732のそれぞれに対して検出されたピーク周波数を示している。同図に示す推定脈拍数902は、ピーク周波数911,921,931の中央値となっている。
図10は、図9に示したS308以降の処理の結果の例を示す概略図である。同図に示すフーリエ変換結果712,722,732は、図8に示したものと同様である。本実施形態では、フーリエ変換結果712,722,732のそれぞれについてピーク周波数の検出処理が行われる。図示したピーク周波数911,921,931は、フーリエ変換結果712,722,732のそれぞれに対して検出されたピーク周波数を示している。同図に示す推定脈拍数902は、ピーク周波数911,921,931の中央値となっている。
本実施の形態による脈拍推定システム1によっても、複数の肌色モデルのそれぞれを用いて脈拍推定情報(時系列データである色情報の周波数解析を行うことによって得られる周波数特性)を取得し、その結果に基づいて脈拍数を決定している。したがって、1つの肌色モデルのみを用いて脈拍数を決定する従来の技術に比べ、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うことが可能になる。
また、肌色モデルごとにピーク周波数を検出し、その中央値を脈拍数として決定しているので、スペクトルの合算を行う第1の実施形態に比べ、CPU101の処理コストを軽減することが可能になる。
また、肌色モデルごとにピーク周波数を検出し、その中央値を脈拍数として決定しているので、スペクトルの合算を行う第1の実施形態に比べ、CPU101の処理コストを軽減することが可能になる。
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。本実施形態による脈拍推定システム1は、図2に示した統合部207が行う処理の点で、第2の実施形態による脈拍推定システム1と相違する。図1〜図3に示した構成を含め、その他の点では第2の実施形態による脈拍推定システム1と同様であるので、以下では、第2の実施形態による脈拍推定システム1との相違点に着目して説明する。
図11は、本実施形態による脈拍推定ソフトウェア200の処理を示すフロー図である。同図と図9を比較すると理解されるように、本実施形態による脈拍推定ソフトウェア200の処理は、S321に代えてS322が実行される点で、第2の実施形態による脈拍推定ソフトウェア200の処理と相違する。
次に、本発明の第3の実施形態について説明する。本実施形態による脈拍推定システム1は、図2に示した統合部207が行う処理の点で、第2の実施形態による脈拍推定システム1と相違する。図1〜図3に示した構成を含め、その他の点では第2の実施形態による脈拍推定システム1と同様であるので、以下では、第2の実施形態による脈拍推定システム1との相違点に着目して説明する。
図11は、本実施形態による脈拍推定ソフトウェア200の処理を示すフロー図である。同図と図9を比較すると理解されるように、本実施形態による脈拍推定ソフトウェア200の処理は、S321に代えてS322が実行される点で、第2の実施形態による脈拍推定ソフトウェア200の処理と相違する。
本実施形態による統合部207は、S320で肌色モデルごとのピーク周波数を検出した後、検出した各ピーク周波数の最頻値を算出し、脈拍数として決定する(S322)。なお、最頻値が単一に定まらない場合には、最頻値の中で中央値に最も近いものを算出結果とする。その後の処理は、第2の実施形態と同様である。
本実施の形態による脈拍推定システム1によっても、複数の肌色モデルのそれぞれを用いて脈拍推定情報(時系列データである色情報の周波数解析を行うことによって得られる周波数特性)を取得し、その結果に基づいて脈拍数を決定している。したがって、1つの肌色モデルのみを用いて脈拍数を決定する従来の技術に比べ、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うことが可能になる。
本実施の形態による脈拍推定システム1によっても、複数の肌色モデルのそれぞれを用いて脈拍推定情報(時系列データである色情報の周波数解析を行うことによって得られる周波数特性)を取得し、その結果に基づいて脈拍数を決定している。したがって、1つの肌色モデルのみを用いて脈拍数を決定する従来の技術に比べ、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うことが可能になる。
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。本実施形態による脈拍推定システム1は、図2に示した統合部207が行う処理の点で、第1の実施形態による脈拍推定システム1と相違する。図1〜図3に示した構成を含め、その他の点では第1の実施形態による脈拍推定システム1と同様であるので、以下では、第1の実施形態による脈拍推定システム1との相違点に着目して説明する。
図12は、本実施形態による脈拍推定ソフトウェア200の処理を示すフロー図である。同図と図4を比較すると理解されるように、本実施形態による脈拍推定ソフトウェア200の処理は、S303とS304の間にS303aが実行される点で、第1の実施形態による脈拍推定ソフトウェア200の処理と相違する。
次に、本発明の第4の実施形態について説明する。本実施形態による脈拍推定システム1は、図2に示した統合部207が行う処理の点で、第1の実施形態による脈拍推定システム1と相違する。図1〜図3に示した構成を含め、その他の点では第1の実施形態による脈拍推定システム1と同様であるので、以下では、第1の実施形態による脈拍推定システム1との相違点に着目して説明する。
図12は、本実施形態による脈拍推定ソフトウェア200の処理を示すフロー図である。同図と図4を比較すると理解されるように、本実施形態による脈拍推定ソフトウェア200の処理は、S303とS304の間にS303aが実行される点で、第1の実施形態による脈拍推定ソフトウェア200の処理と相違する。
本実施形態による皮膚領域抽出部203は、S303で肌色モデルを読み込んだ後、その明度を補正する(S303a)。具体的には、S301で取得される一連の画像が撮影された時間帯、及び、これら一連の画像内における被写体の位置の少なくとも一方に基づき、肌色モデルの明度(B)を補正する。
明度の補正には、所定の函数を用いることが好適である。この函数は、S301にて取得された一連の画像が撮影された時間帯と、S302にて検出された顔領域の座標とに応じて決定される所定値を、肌色モデルの明度(B)の上限値及び下限値に対して加算又は減算する函数である。所定値は、時間帯及び顔領域の座標に対応付けて、主記憶装置102又は補助記憶装置103に予め記憶される。S303aの処理を実行する皮膚領域抽出部203は、まず初めに、S301で取得される一連の画像が撮影された時間帯を取得するとともに、S302にて検出された顔領域の座標を取得する。そして、これらに対応付けて記憶される所定値を取得し、上記函数による計算を行うことにより、明度の補正を行う。その後の処理は、第1の実施形態と同様である。
明度の補正には、所定の函数を用いることが好適である。この函数は、S301にて取得された一連の画像が撮影された時間帯と、S302にて検出された顔領域の座標とに応じて決定される所定値を、肌色モデルの明度(B)の上限値及び下限値に対して加算又は減算する函数である。所定値は、時間帯及び顔領域の座標に対応付けて、主記憶装置102又は補助記憶装置103に予め記憶される。S303aの処理を実行する皮膚領域抽出部203は、まず初めに、S301で取得される一連の画像が撮影された時間帯を取得するとともに、S302にて検出された顔領域の座標を取得する。そして、これらに対応付けて記憶される所定値を取得し、上記函数による計算を行うことにより、明度の補正を行う。その後の処理は、第1の実施形態と同様である。
本実施の形態による脈拍推定システム1によっても、複数の肌色モデルのそれぞれを用いて脈拍推定情報(時系列データである色情報の周波数解析を行うことによって得られる周波数特性)を取得し、その結果に基づいて脈拍数を決定している。したがって、1つの肌色モデルのみを用いて脈拍数を決定する従来の技術に比べ、多様な肌の色のヒトに対し、普遍的に精度よく脈拍推定を行うことが可能になる。
また、脈拍数検出のために用いる一連の画像の撮影時間帯及び画像内における顔領域の位置に応じて明度を補正することができるので、より適切に脈拍数を推定することが可能になる。
また、脈拍数検出のために用いる一連の画像の撮影時間帯及び画像内における顔領域の位置に応じて明度を補正することができるので、より適切に脈拍数を推定することが可能になる。
本発明は、上述の実施形態の一部又は1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(又はCPUやMPU等)における1つ以上のプロセッサがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、本発明は、コンピュータが読み出したプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部又は全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
また、本発明は、コンピュータが読み出したプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部又は全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
1…脈拍推定システム、100…情報処理装置、101,112…CPU、102,113…主記憶装置、103…補助記憶装置、104,114…ネットワークI/F、105…バス、106…入力装置、107…出力装置、110…撮像装置、120…ネットワーク、200…脈拍推定ソフトウェア、201…画像取得部、202…顔検出部、203…皮膚領域抽出部、204…肌色モデル記憶部、205…色情報取得部、206…脈拍推定部、207…統合部、208…結果出力部、401,601…デジタル画像、402,602…デジタル画像(顔領域)、411,421,431,611,621,631…皮膚領域抽出処理、412,422,432,612,622,632…マスク画像、413,423,433,613,623,633…皮膚領域の割合、414,424,434,614,624,634…色相平均値、711,721,731…フィルタ値、712,722,732…フーリエ変換結果、701…統合スペクトル、702…ピーク周波数、703…推定脈拍数、911,921,931…肌色モデル別ピーク周波数、902…推定脈拍数
Claims (10)
- 時系列に並ぶ複数の画像を取得する取得手段と、
前記画像ごとに、それぞれ互いに異なる肌色モデルに基づく複数の皮膚領域を抽出する抽出手段と、
前記抽出手段の抽出結果に基づき、前記肌色モデルごとに、脈拍を示す脈拍推定情報を取得する推定手段と、
前記肌色モデルごとの前記脈拍推定情報に基づき、脈拍数を決定する決定手段と、
を有することを特徴とする情報処理装置。 - 前記推定手段は、前記複数の画像のそれぞれに対して抽出された前記皮膚領域に現れる色情報を時系列データとして取得し、
前記脈拍推定情報は、前記時系列データの周波数解析を行うことによって得られる周波数特性である、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記色情報は、前記皮膚領域内における色相成分の平均値である、
ことを特徴とする請求項2に記載の情報処理装置。 - 前記決定手段は、前記肌色モデルごとに、前記複数の皮膚領域それぞれの画像内に占める割合の平均値を重み付け係数として導出し、対応する前記周波数特性に該重み付け係数を乗算し、前記肌色モデルごとの乗算結果を加算することにより得られる統合周波数特性のピーク周波数を前記脈拍数として決定する、
ことを特徴とする請求項2又は3に記載の情報処理装置。 - 前記決定手段は、前記肌色モデルごとの前記周波数特性のピーク周波数に基づいて、前記脈拍数を決定する、
ことを特徴とする請求項2又は3に記載の情報処理装置。 - 前記脈拍は、前記肌色モデルごとの前記周波数特性のピーク周波数の中央値である、
ことを特徴とする請求項5に記載の情報処理装置。 - 前記脈拍は、前記肌色モデルごとの前記周波数特性のピーク周波数の最頻値である、
ことを特徴とする請求項5に記載の情報処理装置。 - 前記抽出手段は、前記複数の画像が撮影された時間帯、及び、前記複数の画像内における被写体の位置の少なくとも一方に基づき、前記肌色モデルの明度を補正する、
ことを特徴とする請求項1から7のいずれか一項に記載の情報処理装置。 - 時系列に並ぶ複数の画像を取得するステップと、
前記画像ごとに、それぞれ互いに異なる肌色モデルに基づく複数の皮膚領域を抽出するステップと、
前記抽出ステップでの抽出結果に基づき、前記肌色モデルごとに、脈拍を示す脈拍推定情報を取得するステップと、
前記肌色モデルごとの前記脈拍推定情報に基づき、脈拍数を決定するステップと、
を有することを特徴とする情報処理方法。 - コンピュータを、請求項1から8のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020085084A JP2021178055A (ja) | 2020-05-14 | 2020-05-14 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020085084A JP2021178055A (ja) | 2020-05-14 | 2020-05-14 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021178055A true JP2021178055A (ja) | 2021-11-18 |
Family
ID=78510056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020085084A Pending JP2021178055A (ja) | 2020-05-14 | 2020-05-14 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021178055A (ja) |
-
2020
- 2020-05-14 JP JP2020085084A patent/JP2021178055A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5856960B2 (ja) | 第1の信号の少なくとも一つの周期的成分を特徴付けるための分析のため第1の信号を得るための方法及びシステム | |
JP4453734B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム、並びに撮像装置 | |
US10478079B2 (en) | Pulse estimation device, pulse estimation system, and pulse estimation method | |
US20160338603A1 (en) | Signal processing device, signal processing method, and computer-readable recording medium | |
US11647913B2 (en) | Image processing apparatus and pulse estimation system provided therewith, and image processing method | |
CN111513701A (zh) | 心率检测方法、装置、计算机设备和可读存储介质 | |
Nguyen et al. | Non-contact heart rate measurement from deteriorated videos | |
JP2020537552A (ja) | 複数のセンサを伴うダイレクトフォトプレチスモグラフィ(ppg)のためのコンピュータ実装方法及びシステム | |
JP2021178055A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR102468654B1 (ko) | 보정된 이미지 기반 심박 추정 방법 및 그 장치 | |
KR102369059B1 (ko) | 비접촉식 심박 측정 장치 및 방법 | |
US11812167B2 (en) | Determining pixel intensity values in imaging | |
JP2004157778A (ja) | 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 | |
JP2019170407A (ja) | 信号制御装置、信号制御プログラム、及び信号制御方法 | |
JP7237768B2 (ja) | 生体情報検出装置 | |
JP6585623B2 (ja) | 生体情報計測装置、生体情報計測方法および生体情報計測プログラム | |
US20230419738A1 (en) | Video processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium | |
Troglio et al. | Unsupervised change-detection in retinal images by a multiple-classifier approach | |
WO2023171337A1 (ja) | 心拍測定システムおよび心拍測定方法、並びにプログラム | |
JP7253278B2 (ja) | 画像処理方法、画像処理プログラム、及び画像処理装置。 | |
JPH10146319A (ja) | 眼球運動解析装置 | |
JP6937473B2 (ja) | 画像処理装置及びこれを備えたバイタル情報取得システムならびに画像処理方法 | |
JPH06154171A (ja) | 眼底画像処理装置 | |
Alzahrani | Preprocessing Realistic Video for Contactless Heart Rate Monitoring Using Video Amplification Methodologies | |
JP2023075384A (ja) | 脈波検出システム、脈波検出方法及びプログラム |