JP2022119467A - 脈波推定装置、脈波推定方法および脈波推定プログラム - Google Patents

脈波推定装置、脈波推定方法および脈波推定プログラム Download PDF

Info

Publication number
JP2022119467A
JP2022119467A JP2021016611A JP2021016611A JP2022119467A JP 2022119467 A JP2022119467 A JP 2022119467A JP 2021016611 A JP2021016611 A JP 2021016611A JP 2021016611 A JP2021016611 A JP 2021016611A JP 2022119467 A JP2022119467 A JP 2022119467A
Authority
JP
Japan
Prior art keywords
region
pulse wave
area
forehead
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2021016611A
Other languages
English (en)
Inventor
礼華 岡
Reika Oka
伸一 堀内
Shinichi Horiuchi
瑶子 八木
Yoko Yagi
のぞみ 宮原
Nozomi Miyahara
康夫 森山
Yasuo Moriyama
史弥 小林
Fumiya Kobayashi
輝 野口
Akira Noguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021016611A priority Critical patent/JP2022119467A/ja
Publication of JP2022119467A publication Critical patent/JP2022119467A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

【課題】マスク着用時における脈波推定を可能とする。【解決手段】実施形態の脈波推定装置は、取得部と、判定部と、額領域抽出部と、有効領域抽出部と、脈波推定部と、を有する。取得部は、撮像画像に含まれる顔領域を取得する。判定部は、取得した顔領域に基づき、マスクの着用の有無を判定する。額領域抽出部は、マスク着用ありと判定した場合、取得した顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、重畳した画像に基づいて額に対応する額領域を抽出する。有効領域抽出部は、抽出した額領域の中から肌の露出部分に対応する領域を有効領域として抽出する。脈波推定部は、抽出した有効領域における時系列のデータから、撮像画像に含まれる人物の脈波を推定する。【選択図】図1

Description

本発明の実施形態は、脈波推定装置、脈波推定方法および脈波推定プログラムに関する。
従来、人物の顔を動画で撮影し、撮影動画から、対象人物の脈波を推定する技術がある。ここで、脈波とは、心臓の拍動に伴って血管に生じる体積等の変動である。また、脈波からは、脈拍間隔、波形及び伝播速度等の情報が導出される。さらに、脈波から導出された情報を解析することで、ストレス指標、血管年齢及び血圧等を把握することができる。
この脈波の推定は、撮影動画から取得される撮像画像中の対象人物の頬の色変化により行われる。また、脈波推定に関連する従来の画像処理については、サングラス・マスク等の顔の部分隠蔽に代表される大幅な画像の変化部分を補完し、登録画像を照合することで個人を認証する処理が知られている。また、対象画像における顔の画像を含む顔領域を設定する画像処理、顔画像を5つのエリアに分割し、エリア毎に特徴点を抽出する処理が知られている。
特開2007-148872号公報 特開2012-128792号公報 特開2009-110048号公報
昨今、インフルエンザ、COVID-19などの感染症対策のため、マスクを着用する機会が増えている。しかしながら、上記の従来技術では、マスク着用時に頬が隠れることにより、脈波の推定が困難となるという問題がある。
1つの側面では、マスク着用時における脈波推定を可能とする脈波推定装置、脈波推定方法および脈波推定プログラムを提供することを目的とする。
1つの案では、脈波推定装置は、取得部と、判定部と、額領域抽出部と、有効領域抽出部と、脈波推定部と、を有する。取得部は、撮像画像に含まれる顔領域を取得する。判定部は、取得した顔領域に基づき、マスクの着用の有無を判定する。額領域抽出部は、マスク着用ありと判定した場合、取得した顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、重畳した画像に基づいて額に対応する額領域を抽出する。有効領域抽出部は、抽出した額領域の中から肌の露出部分に対応する領域を有効領域として抽出する。脈波推定部は、抽出した有効領域における時系列のデータから、撮像画像に含まれる人物の脈波を推定する。
マスク着用時における脈波推定を行うことができる。
図1は、実施形態にかかる脈波推定装置を含むシステム構成例を示す説明図である。 図2は、実施形態にかかる脈波推定装置の機能構成例を示すブロック図である。 図3は、実施形態にかかる脈波推定装置の動作例を示すフローチャートである。 図4は、マスク着用の有無の判定を説明する説明図である。 図5は、額領域抽出処理の一例を示すフローチャートである。 図6は、顔画像への鼻口画像の貼り付けを説明する説明図である。 図7は、ランドマーク座標および髪領域マスク画像の抽出を説明する説明図である。 図8は、顔上部領域の抽出を説明する説明図である。 図9は、額領域の抽出を説明する説明図である。 図10は、有効額領域抽出処理の一例を示すフローチャートである。 図11は、重心座標および2値化画像の取得を説明する説明図である。 図12は、有効額領域の抽出を説明する説明図である。 図13は、有効額領域の選定を説明する説明図である。 図14は、脈波推定に関するROIの取得を説明する説明図である。 図15は、コンピュータ構成の一例を説明する説明図である。
以下、図面を参照して、実施形態にかかる脈波推定装置、脈波推定方法および脈波推定プログラムを説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する脈波推定装置、脈波推定方法および脈波推定プログラムは、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかる脈波推定装置を含むシステム構成例を示す説明図である。図1に示すように、システム構成例では、ネットワークNを介して相互に通信可能に接続される脈波推定装置1および端末装置2を有する。ネットワークNの通信方式は、有線や無線のいずれでもよく、ネットワークNは、インターネットなどの各種通信網でよい。
脈波推定装置1は、ネットワークNを介して端末装置2が撮影したユーザ3a、3b、3cの撮影動画を取得する。そして、脈波推定装置1は、取得した撮影動画に含まれる各フレーム(撮像画像)を時系列の順に解析することで、撮影動画に含まれる対象人物(ユーザ3a、3b、3c)の脈波を推定する。脈波推定装置1は、この脈波の推定結果をネットワークNを介して端末装置2へ出力する。
具体的には、脈波推定装置1は、撮像画像に含まれる顔領域の画像より、マスクの着用の有無を判定する。マスク着用なしの場合、脈波推定装置1は、撮像画像に含まれる頬部分に対応する頬領域を脈波推定に用いる有効領域とする。マスク着用ありの場合、脈波推定装置1は、撮像画像に含まれる額部分に対応する額領域の中の、肌の露出部分に対応する領域を抽出して脈波推定に用いる有効領域とする。次いで、脈波推定装置1は、有効領域における時系列のデータ(撮影動画における有効領域の画像の時系列順のデータ)から、有効領域における色変化により対象人物の脈波を推定する。
端末装置2は、ユーザ3a、3b、3cを撮影するカメラを有する装置であり、一例としてロボット2a、PC2b(PC:Personal Computer)またはスマートフォン2cなどを適用できる。端末装置2は、カメラで撮影したユーザ3a、3b、3cの撮影動画をネットワークNを介して脈波推定装置1へ送信し、脈波推定装置1よりユーザ3a、3b、3cの脈波の推定結果を受信する。これにより、端末装置2は、脈波推定装置1が推定したユーザ3a、3b、3cの脈波について、例えばBPM(Beats Per Minute)として音声出力または表示出力する。
ユーザ3a、3b、3cについては、例えば、ユーザ3a、3bのようにマスクを着用していない場合と、ユーザ3cのようにマスクを着用している場合とがある。なお、ユーザ3a、3b、3cについては、以後の説明では特に区別することなくユーザ3とする。
図2は、実施形態にかかる脈波推定装置1の機能構成例を示すブロック図である。図2に示すように、脈波推定装置1は、通信部10、記憶部20および制御部30を有する。
通信部10は、他の装置との間の通信を制御する処理部であり、例えば、通信インタフェースである。
記憶部20は、各種データや、制御部30が実行するプログラムを記憶する記憶装置の一例であり、例えば、メモリやハードディスクなどである。記憶部20は、画像DB21、額領域情報DB22および有効領域情報DB23を記憶する。
画像DB21は、端末装置2で撮影された撮影動画、撮影動画から取得された顔領域および顔領域に含まれる眉、目、鼻、口などに対応する特徴点(ランドマーク座標)などの情報を記憶する。なお、画像DB21が記憶する情報には、各種画像処理に用いるために予め設定されたテンプレート画像(例えば、顔の鼻口部分に関して予め設定された鼻口画像)、各撮像画像においてマスクの着用の有無を判定した判定結果なども含まれている。
額領域情報DB22は、画像DB21に記憶された撮影動画について、撮像画像ごとに顔領域より抽出した顔の額部分に対応する額領域を示す情報を記憶する。具体的には、額領域情報DB22は、各撮像画像を識別する識別情報(フレーム番号)ごとに、各撮像画像より抽出した額領域の座標情報を記憶する。
有効領域情報DB23は、画像DB21に記憶された撮影動画について、撮像画像ごとに顔領域より抽出した脈波の推定に用いる有効領域を示す情報を記憶する。具体的には、有効領域情報DB23は、各撮像画像を識別するフレーム番号ごとに、各撮像画像より抽出した有効領域の座標情報を記憶する。有効領域は、心臓の拍動に伴って血管等に生じた変動が肌の色変化として現れる顔の一領域であり、例えば顔の頬、額などである。
制御部30は、脈波推定装置1全体を司る処理部であり、プロセッサなどである。制御部30は、取得部31、判定部32、額領域抽出部33、有効領域抽出部34および脈波推定部35を有する。この各処理部は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
取得部31は、端末装置2で撮影された撮影動画における撮像画像ごとに、撮像画像に含まれる顔領域を取得する処理部である。具体的には、取得部31は、通信部10を介して端末装置2より撮影動画を取得し、取得した撮影動画を画像DB21に格納する。次いで、取得部31は、撮影動画に含まれる撮像画像ごとに、撮像画像に含まれる額・目・鼻・口などを含めた顔領域を公知のOSS(Open Source Software)などを用いて取得する。次いで、取得部31は、撮影動画ごとに取得した顔領域の座標情報を画像DB21に格納する。
判定部32は、取得部31が取得した顔領域に基づき、マスクの着用の有無を判定する処理部である。具体的には、画像DB21に格納された顔領域の座標情報をもとに撮像画像ごとの顔領域の画像を取得し、取得した顔領域の画像よりマスク着用の有無を判定する。次いで、画像DB21は、撮影動画ごとに判定したマスク着用の有無の判定結果を画像DB21に格納する。
額領域抽出部33は、判定部32がマスク着用ありと判定した場合に、顔領域より額領域を抽出する処理部である。具体的には、額領域抽出部33は、撮像画像ごとに、取得した顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳する。次いで、額領域抽出部33は、顔領域に鼻口画像を重畳した画像に基づいて顔の額部分に対応する額領域を抽出する。次いで、額領域抽出部33は、撮像画像ごとに、抽出した額領域の座標情報を額領域情報DB22に格納する。
有効領域抽出部34は、画像DB21に格納された各撮像画像について、脈波推定に用いる有効領域を抽出する処理部である。具体的には、有効領域抽出部34は、画像DB21より各撮像画像の情報を読み出し、マスク着用なしの場合、撮像画像に含まれる頬部分に対応する頬領域を抽出し、脈波推定に用いる有効領域とする。また、有効領域抽出部34は、マスク着用ありの場合、額領域情報DB22により額領域の座標情報を読み出し、撮像画像における額領域の中から肌の露出部分に対応する領域を有効領域として抽出する。次いで、有効領域抽出部34は、抽出した有効領域の座標情報を有効領域抽出部34に格納する。
脈波推定部35は、撮影動画の各撮像画像より有効領域抽出部34が抽出した有効領域の時系列のデータ(有効領域の画像の時系列順のデータ)をもとに撮影動画中の対象人物(ユーザ3)の脈波を推定する処理部である。具体的には、脈波推定部35は、有効領域抽出部34より有効領域の座標情報を読み出し、画像DB21に格納された各撮像画像より有効領域の画像を取得する。次いで、脈波推定部35は、各撮像画像より取得した有効領域の色変化に基づいて、対象人物の脈拍数などを推定する。次いで、脈波推定部35は、推定結果を通信部10を介して端末装置2へ送信する。なお、画像の色変化に基づく脈波の推定については、habom2310/Heart-rate-measurement-using-cameraなどの公知のOSSを適用することで、実施することができる。また、有効領域における色変化を用いて脈波を推定することも可能である。
図3は、実施形態にかかる脈波推定装置1の動作例を示すフローチャートである。図3に示すように、処理が開始されると、取得部31は、通信部10を介して端末装置2が撮影した映像(撮影動画)の入力を受け付け、受け付けた撮影動画を画像DB21に格納する(S1)。
次いで、脈波推定装置1は、撮影動画についてフレーム単位でS2~S10のループ処理を行うことで、撮影動画に含まれるユーザ3の脈波を推定する。ついで、脈波推定装置1は、推定結果を通信部10を介して端末装置2へ出力する(S11)。
各ループ処理では、取得部31は、画像に含まれる顔領域の検出を行うOSSを用いて撮像画像内に顔を含むか否かを判定する(S3)。撮像画像内に顔を含まない場合(S3:No)、脈波推定装置1は、S10へ処理を進め、次のフレームのループ処理へ処理を進める。
撮像画像内に顔を含む場合(S3:Yes)、取得部31は、顔領域を検出し、検出した顔領域の座標情報を画像DB21に格納する(S4)。
次いで、判定部32は、画像DB21に格納された顔領域の座標情報をもとに撮像画像に含まれる顔領域の画像を取得し、AIZOOTech/FaceMaskDetectionなどのOSSを用いてマスク着用の有無を判定する(S5)。
図4は、マスク着用の有無の判定を説明する説明図である。図4に示すように、ケースC1は、ユーザ3がマスク4を着用した場合の撮像画像G1よりマスク着用の有無を判定するケースを例示している。また、ケースC2は、マスク4未着用のユーザ3の撮像画像G2よりマスク着用の有無を判定するケースを例示している。
ケースC1に示すように、判定部32は、AIZOOTech/FaceMaskDetectionなどのOSSを用いることで、撮像画像G1についてはマスク着用あり(Mask 1.00)と判定する。また、ケースC2に示すように、判定部32は、撮像画像G2についてはマスク着用なし(No Mask 1.00)と判定する。この場合、有効領域抽出部34は、ユーザ3の頬部分に対応する頬領域G3aの画像を有効領域として脈波の推定を行う。
ケースC2のようにマスク4を着用していない場合(S5:No)、有効領域抽出部34は、ユーザ3の頬部分に対応する頬領域G3aの画像を有効領域として脈波の推定を行い(S6)、S10へ処理を進める。
ケースC1のようにマスク4を着用している場合(S5:Yes)、額領域抽出部33は、顔領域より額領域を抽出する額領域抽出処理を行う(S7)。
図5は、額領域抽出処理の一例を示すフローチャートである。図5に示すように、額領域抽出処理が開始されると、額領域抽出部33は、検出した顔領域をもとに、画像DB21において予め用意した鼻口画像をリサイズする(S21)。
図6は、顔画像への鼻口画像の貼り付けを説明する説明図である。図6に示すように、鼻口画像G4は、顔の鼻口部分に関するテンプレート画像であり、所定の画像サイズを有している。したがって、撮像画像G1の中の顔領域G3の顔画像に鼻口画像G4を貼り付ける場合には、顔領域G3の大きさに合わせてリサイズする必要がある。
具体的には、額領域抽出部33は、画像DB21に格納された顔領域G3の座標情報(501,132)、(932,132)、(501,715)、(932,715)を取得する。次いで、額領域抽出部33は、取得した座標情報の縦方向のピクセル数(図示例では583[pixel])をもとに、鼻口画像G4をリサイズする。一例として、額領域抽出部33は、鼻口画像G4を583の半分以下(縦の長さの3/8、219[pixel])へリサイズする。
次いで、額領域抽出部33は、リサイズ後の鼻口画像G4の上端が顔領域G3の中央に重なるように鼻口画像G4を撮像画像G1に貼り付ける(S22)。図6の例では、額領域抽出部33は、顔領域G3の中央(716,423)にリサイズ後の鼻口画像G4の上端を合わせて貼り付けることで重畳画像G5を得る。
次いで、額領域抽出部33は、鼻口画像G4を貼り付けた顔領域G3を使用し、ユーザ3の顔のランドマーク(眉、目、鼻、口などに対応する特徴点)を検出する(S23)。次いで、額領域抽出部33は、顔領域G3から髪部分に対応する髪領域を検出する(S24)。
図7は、ランドマーク座標および髪領域マスク画像の抽出を説明する説明図である。図7に示すように、額領域抽出部33は、dlib.shape_predictorなどの公知のOSSを用いることで、重畳画像G5より、眉、目、鼻、口、顔の輪郭などに対応するランドマーク座標LMを検出する。
マスク4を着用したままの撮像画像G1では、鼻、口部分がマスク4で隠されることから、公知のOSSでランドマーク座標LMの検出を正常に行うことが困難となる。しかしながら、本実施形態では、鼻口画像G4を貼り付けた重畳画像G5であることから、公知のOSSでランドマーク座標LMの検出を正常に行うことができる。
同様に、額領域抽出部33は、wonbeomjang/mobile-hair-segmentation-pytorchなどの公知のOSSを用いることで、重畳画像G5より髪領域を検出する。額領域抽出部33は、検出した髪領域をもとに、撮像画像G1と重畳することで髪領域をマスクする髪領域マスクG6を取得する。
図5に戻り、S24に次いで、額領域抽出部33は、額、眉、目が含まれると想定される、顔領域G3から上半分の領域(顔上部領域)を抽出する(S25)。
図8は、顔上部領域の抽出を説明する説明図である。図8に示すように、額領域抽出部33は、顔領域G3の座標情報(501,132)、(932,132)、(501,715)、(932,715)より、上半分の顔上部領域G7を取得する。図示例では、額領域抽出部33は、(501,132)、(932,132)、(501,292)、(932,292)の顔上部領域G7を得る。
図5に戻り、S25に次いで、額領域抽出部33は、抽出した顔上部領域G7の内、顔のランドマークを結線した領域と、髪領域とを除いた領域(推定額領域)を抽出する(S26)。
図9は、額領域の抽出を説明する説明図である。図9に示すように、額領域抽出部33は、重畳画像G5より検出したランドマーク座標LMおよび髪領域マスクG6より、眉、顔の輪郭などのランドマーク座標LMを結線した額部分の領域に対応する額領域マスクG6aを作成する。次いで、額領域抽出部33は、撮像画像G1における顔上部領域G7に、額領域マスクG6aを合わせることで、額部分と推定される推定額領域G8aを得る。
図5に戻り、S26に次いで、額領域抽出部33は、抽出した領域(推定額領域G8a)の内、最も広い面積を持つ領域を額領域G8とし(S27)、処理を終了する。
具体的には、図9に示すように、推定額領域G8aには、額以外の小さなノイズ(図示例では左右2箇所)が含まれている。そこで、額領域抽出部33は、Suzuki85のアルゴリズム(S.Suzuki and K.Abe, Topological structural analysis of digitized binary images by border following, Computer Vision, Graphics, and Image Processing. 30(1) (1985) 32-46)を用いて各領域に対応する輪郭を抽出する。次いで、額領域抽出部33は、抽出した輪郭からグリーンの定理(G. Green, An Essay on the Application of Mathematical Analysis to the Theories of Electricity and Magnetism, Nottingham, 1828)を用いて各領域の面積を求める。次いで、額領域抽出部33は、求めた面積の最大の領域を額領域G8とする。
図3に戻り、S7に次いで、有効領域抽出部34は、額領域抽出部33が抽出した額領域G8から有効領域を抽出する有効領域抽出処理を行う(S8)。
図10は、有効額領域抽出処理の一例を示すフローチャートである。図10に示すように、有効額領域抽出処理が開始されると、有効領域抽出部34は、額領域G8の重心座標を取得する(S31)。次いで、有効領域抽出部34は、額領域G8について、特定の輝度値をもとに、肌色の部分と、前髪による影などの肌色以外の部分とに分けるように2値化を行う(S32)。
図11は、重心座標および2値化画像の取得を説明する説明図である。図11に示すように、有効領域抽出部34は、次の式(1)を用いた公知の手法により、額領域G8の重心座標を算出する。
Figure 2022119467000002
ここで、Mは額領域G8のモーメントを示す。また、Iは、入力画像(額領域G8)を示す。また、xはx座標、yはy座標、Gは重心画像を示す。一例として、M10=28251106、M01=9176552、M00=38811が得られたものとする。この場合、C=M10/M00=28251106/38811=727.91となる。また、C=M01/M00=9176552/38811=236.44となる。したがって、有効領域抽出部34は、額領域G8の重心座標として(728,236)を得る。
肌色の部分と、前髪による影などの肌色以外の部分とに分ける2値化手法については、輝度値ベースの公知の手法を用いることができる。一例として、有効領域抽出部34は、2値化手法として、特定の輝度値より上の平均輝度値とその輝度値以下の平均輝度値の平均を閾値として選択し、2値化するIsoData algorithmを用いてもよい。また、有効領域抽出部34は、特定の輝度値の上下の領域で分布のエントロピーが最大となる閾値を選択し、2値化するMaximum Entropy algorithmを用いてもよい。
なお、IsoData algorithmについては、T.W. Ridler and S. Calvard. Picture thresholding using an iterative selection method. IEEE transactions on Systems, Man and Cybernetics, 8(8):630-632, 1978. 1, 2.3に記載がある。また、Maximum Entropy algorithmについては、J.N. Kapur, P.K. Sahoo, and A.K.CWong. A new method for gray-level picture thresholding using theentropy of the histogram.Computer vision, graphics, and image processing, 29(3):273-285, 1985. 1, 2.5, 2.6に記載がある。
本実施形態では、有効領域抽出部34は、IsoData algorithmの変法であるIJ_IsoData:IsoData algorithm(AutoThresholder)を用いて、額領域G8内から影の影響を除外するための閾値を求める。具体的には、有効領域抽出部34は、次の式(2)により閾値(T)を算出する。
Figure 2022119467000003
なお、式(2)において、hist[i]は、輝度値(i)を持つ合計ピクセル数である。また、maxは、hist[i]≠0を満たす最大輝度値である。また、minは、hist[i]≠0を満たす最小輝度値である。
図10に戻り、S32に次いで、有効領域抽出部34は、2値化した領域の内、重心点を含む領域を有効額領域(影領域を除いた領域)とし(S33)、処理を終了する。すなわち、有効額領域は、有効領域の一例である。
図12は、有効額領域の抽出を説明する説明図である。図12に示すように、有効領域抽出部34は、額領域G8の重心座標(728,236)と、式(2)により求めた閾値(T)で2値化した2値化画像G8bとをもとに、重心座標を含む方の2値化領域を有効額領域G9として抽出する。
なお、有効領域抽出部34は、有効額領域G9について、肌が露出している箇所(例えば眉間)の色と近しい色を持つ領域を更に選定してもよい。
図13は、有効額領域の選定を説明する説明図である。図13に示すように、有効領域抽出部34は、ランドマーク座標LMの中の眉頭に対応する眉頭座標(図示例では(673,315)・(739,312))より、眉の間のLa*b*輝度値平均(図示例では(60,15,19))を求める。有効領域抽出部34は、この輝度値平均より肌色を算出する。
次いで、有効領域抽出部34は、求めた肌色との色差(例:RGB、HSV、La*b*表色系などを用いて算出する)が一定以下(例:色差10以下など)の領域を有効額領域G9aとする。一例として、有効領域抽出部34は、La*b*表色系における2点間(点A、点B)の色差を次の式(3)に示すCIE1976(ISO/CIE 11664-4:2019)計算式を用いて算出する。
Figure 2022119467000004
また、有効領域抽出部34は、有効額領域G9、G9aについて、特定の関心領域(ROI:Region Of Interest)を抽出してもよい。具体的には、有効領域抽出部34は、脈波推定部35が推定に用いるための関心領域(例えば矩形領域)に合わせる形で、有効額領域G9、G9aの中から関心領域を抽出する。
図14は、脈波推定に関するROIの取得を説明する説明図である。図14に示すように、有効領域抽出部34は、有効額領域G9の内、最大面積となる矩形の4点座標を取得することでROI G9aが取得できる。また、有効領域抽出部34は、有効額領域G9のピクセルを4点座標の矩形へ再配置などの方法でもROI G9cを取得できる。
図3に戻り、脈波推定部35は、有効領域抽出部34が抽出した有効額領域G9、G9a、ROI G9cの時系列のデータをもとに脈波を推定し(S9)、S10へ処理を進める。脈波推定装置1では、上記のループ処理(S2~S10)を繰り返すことで、撮影動画よりユーザ3の脈波を得ることができる。
以上のように、脈波推定装置1は、取得部31と、判定部32と、額領域抽出部33と、有効領域抽出部34と、脈波推定部35とを有する。取得部31は、撮像画像(G1、G2)に含まれる顔領域(G3)を取得する。判定部32は、取得した顔領域に基づき、マスクの着用の有無を判定する。額領域抽出部33は、マスク着用ありと判定した場合、取得した顔領域に対して鼻口部分に関して予め設定された鼻口画像(G4)を重畳したうえで、重畳した画像(G5)に基づいて額に対応する額領域(G8)を抽出する。有効領域抽出部34は、抽出した額領域の中から肌の露出部分に対応する領域を有効領域(G9)として抽出する。脈波推定部35は、抽出した有効領域における時系列のデータから、撮像画像に含まれる人物(3)の脈波を推定する。
これにより、脈波推定装置1は、マスク着用で頬が隠れることにより、脈波の推定が困難となる状況であっても、マスクで隠された鼻口を重畳した画像より額領域を抽出できる。そして、脈波推定装置1は、抽出した額領域の中の、肌の露出部分に対応する領域を有効領域として脈波を推定することができる。
また、有効領域抽出部34は、マスク着用なしと判定した場合、取得した顔領域の中から頬に対応する頬領域(G3a)を有効領域として抽出する。これにより、脈波推定装置1は、マスク着用なしの場合は、額領域ではなく、頬領域を有効領域として脈波を推定することができる。
また、額領域抽出部33は、取得した顔領域のサイズに基づいて鼻口画像をリサイズし、リサイズ後の鼻口画像を顔領域の特定位置に重畳する。これにより、脈波推定装置1は、顔領域のサイズに合わせた鼻口画像を顔領域の特定位置に重畳することで、より精度よく額領域を抽出することができる。
また、額領域抽出部33は、重畳した画像より抽出した顔の特徴を示す特徴点の中の特定の特徴点に基づいて特定した領域において髪領域を除いた領域を額領域として抽出する。これにより、脈波推定装置1は、例えば、眉などの特定の特徴点より上で髪の部分を除いた額領域を精度よく抽出することができる。
また、有効領域抽出部34は、抽出した額領域を特定の輝度値に基づいて2値化し、2値化した領域の内で重心座標を含む領域を有効領域として抽出する。これにより、脈波推定装置1は、例えば髪の生え際などの額の脇における陰影部分を除いた領域を有効領域として抽出することができる。
また、有効領域抽出部34は、特徴点の中の眉頭に対応する特徴点をもとに取得した輝度値に基づいて有効領域を選定する。これにより、脈波推定装置1は、例えば、眉頭に対応する特徴点の間(眉の間)など、肌が露出している箇所の輝度値に対応する部分を有効領域とすることができる。
また、有効領域抽出部34は、抽出した有効領域の中の特定の矩形領域を脈波の推定に用いる関心領域(ROI)として脈波推定部35に出力する。これにより、脈波推定装置1は、脈波の推定に用いる関心領域(ROI)を矩形とする場合にも対応することができる。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、本実施形態では端末装置2とは別の脈波推定装置1でユーザ3の脈波を推定する構成を例示したが、端末装置2が脈波推定装置1と同等の機能を有してもよい。この場合は、端末装置2単体でユーザ3の脈波を推定することができる。
また、脈波推定装置1の制御部30で行われる取得部31、判定部32、額領域抽出部33、有効領域抽出部34および脈波推定部35の各種処理機能は、制御部30の一例としてのCPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、脈波推定装置1で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ構成(ハードウエア)の一例を説明する。図15は、コンピュータ構成の一例を説明する説明図である。
図15に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203と、スピーカー204とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置205と、各種装置と接続するためのインタフェース装置206と、有線または無線により外部機器と通信接続するための通信装置207とを有する。また、脈波推定装置1は、各種情報を一時記憶するRAM208と、ハードディスク装置209とを有する。また、コンピュータ200内の各部(201~209)は、バス210に接続される。
ハードディスク装置209には、上記の実施形態で説明した機能構成(例えば取得部31、判定部32、額領域抽出部33、有効領域抽出部34および脈波推定部35)における各種の処理を実行するためのプログラム211が記憶される。また、ハードディスク装置209には、プログラム211が参照する各種データ212が記憶される。入力装置202は、例えば、操作者から操作情報の入力を受け付ける。モニタ203は、例えば、操作者が操作する各種画面を表示する。インタフェース装置206は、例えば印刷装置等が接続される。通信装置207は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU201は、ハードディスク装置209に記憶されたプログラム211を読み出して、RAM208に展開して実行することで、上記の機能構成(例えば取得部31、判定部32、額領域抽出部33、有効領域抽出部34および脈波推定部35)に関する各種の処理を行う。なお、プログラム211は、ハードディスク装置209に記憶されていなくてもよい。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラム211を読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD-ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム211を記憶させておき、コンピュータ200がこれらからプログラム211を読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)撮像画像に含まれる顔領域を取得する取得部と、
取得した前記顔領域に基づき、マスクの着用の有無を判定する判定部と、
マスク着用ありと判定した場合、取得した前記顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、当該重畳した画像に基づいて額に対応する額領域を抽出する額領域抽出部と、
抽出した前記額領域の中から肌の露出部分に対応する領域を有効領域として抽出する有効領域抽出部と、
抽出した前記有効領域における時系列のデータから、前記撮像画像に含まれる人物の脈波を推定する脈波推定部と、
を有することを特徴とする脈波推定装置。
(付記2)前記有効領域抽出部は、マスク着用なしと判定した場合、取得した前記顔領域の中から頬に対応する頬領域を有効領域として抽出する、
ことを特徴とする付記1に記載の脈波推定装置。
(付記3)前記額領域抽出部は、取得した前記顔領域のサイズに基づいて前記鼻口画像をリサイズし、当該リサイズ後の鼻口画像を前記顔領域の特定位置に重畳する、
ことを特徴とする付記1または2に記載の脈波推定装置。
(付記4)前記額領域抽出部は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の特定の特徴点に基づいて特定した領域において髪領域を除いた領域を前記額領域として抽出する、
ことを特徴とする付記1乃至3のいずれか一に記載の脈波推定装置。
(付記5)前記有効領域抽出部は、抽出した前記額領域を特定の輝度値に基づいて2値化し、当該2値化した領域の内で重心座標を含む領域を前記有効領域として抽出する、
ことを特徴とする付記1乃至4のいずれか一に記載の脈波推定装置。
(付記6)前記有効領域抽出部は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の眉頭に対応する特徴点をもとに取得した輝度値に基づいて前記有効領域を選定する、
ことを特徴とする付記1乃至5のいずれか一に記載の脈波推定装置。
(付記7)前記有効領域抽出部は、抽出した前記有効領域の中の特定の矩形領域を脈波の推定に用いる関心領域として前記脈波推定部に出力する、
ことを特徴とする付記1乃至6のいずれか一に記載の脈波推定装置。
(付記8)撮像画像に含まれる顔領域を取得し、
取得した前記顔領域に基づき、マスクの着用の有無を判定する判定部と、
マスク着用ありと判定した場合、取得した前記顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、当該重畳した画像に基づいて額に対応する額領域を抽出し、
抽出した前記額領域の中から肌の露出部分に対応する領域を有効領域として抽出し、
抽出した前記有効領域における時系列のデータから、前記撮像画像に含まれる人物の脈波を推定する、
処理をコンピュータが実行することを特徴とする脈波推定方法。
(付記9)前記有効領域として抽出する処理は、マスク着用なしと判定した場合、取得した前記顔領域の中から頬に対応する頬領域を有効領域として抽出する、
ことを特徴とする付記8に記載の脈波推定方法。
(付記10)前記額領域を抽出する処理は、取得した前記顔領域のサイズに基づいて前記鼻口画像をリサイズし、当該リサイズ後の鼻口画像を前記顔領域の特定位置に重畳する、
ことを特徴とする付記8または9に記載の脈波推定方法。
(付記11)前記額領域を抽出する処理は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の特定の特徴点に基づいて特定した領域において髪領域を除いた領域を前記額領域として抽出する、
ことを特徴とする付記8乃至10のいずれか一に記載の脈波推定方法。
(付記12)前記有効領域として抽出する処理は、抽出した前記額領域を特定の輝度値に基づいて2値化し、当該2値化した領域の内で重心座標を含む領域を前記有効領域として抽出する、
ことを特徴とする付記8乃至11のいずれか一に記載の脈波推定方法。
(付記13)前記有効領域として抽出する処理は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の眉頭に対応する特徴点をもとに取得した輝度値に基づいて前記有効領域を選定する、
ことを特徴とする付記8乃至12のいずれか一に記載の脈波推定方法。
(付記14)前記有効領域として抽出する処理は、抽出した前記有効領域の中の特定の矩形領域を脈波の推定に用いる関心領域として前記推定する処理に出力する、
ことを特徴とする付記8乃至13のいずれか一に記載の脈波推定方法。
(付記15)撮像画像に含まれる顔領域を取得し、
取得した前記顔領域に基づき、マスクの着用の有無を判定する判定部と、
マスク着用ありと判定した場合、取得した前記顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、当該重畳した画像に基づいて額に対応する額領域を抽出し、
抽出した前記額領域の中から肌の露出部分に対応する領域を有効領域として抽出し、
抽出した前記有効領域における時系列のデータから、前記撮像画像に含まれる人物の脈波を推定する、
処理をコンピュータに実行させることを特徴とする脈波推定プログラム。
(付記16)前記有効領域として抽出する処理は、マスク着用なしと判定した場合、取得した前記顔領域の中から頬に対応する頬領域を有効領域として抽出する、
ことを特徴とする付記15に記載の脈波推定プログラム。
(付記17)前記額領域を抽出する処理は、取得した前記顔領域のサイズに基づいて前記鼻口画像をリサイズし、当該リサイズ後の鼻口画像を前記顔領域の特定位置に重畳する、
ことを特徴とする付記15または16に記載の脈波推定プログラム。
(付記18)前記額領域を抽出する処理は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の特定の特徴点に基づいて特定した領域において髪領域を除いた領域を前記額領域として抽出する、
ことを特徴とする付記15乃至17のいずれか一に記載の脈波推定プログラム。
(付記19)前記有効領域として抽出する処理は、抽出した前記額領域を特定の輝度値に基づいて2値化し、当該2値化した領域の内で重心座標を含む領域を前記有効領域として抽出する、
ことを特徴とする付記15乃至18のいずれか一に記載の脈波推定プログラム。
(付記20)前記有効領域として抽出する処理は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の眉頭に対応する特徴点をもとに取得した輝度値に基づいて前記有効領域を選定する、
ことを特徴とする付記15乃至19のいずれか一に記載の脈波推定プログラム。
(付記21)前記有効領域として抽出する処理は、抽出した前記有効領域の中の特定の矩形領域を脈波の推定に用いる関心領域として前記推定する処理に出力する、
ことを特徴とする付記15乃至20のいずれか一に記載の脈波推定プログラム。
1…脈波推定装置
2…端末装置
2a…ロボット
2b…PC
2c…スマートフォン
3、3a、3b、3c…ユーザ
4…マスク
N…ネットワーク
10…通信部
20…記憶部
21…画像DB
22…額領域情報DB
23…有効領域情報DB
30…制御部
31…取得部
32…判定部
33…額領域抽出部
34…有効領域抽出部
35…脈波推定部
200…コンピュータ
201…CPU
202…入力装置
203…モニタ
204…スピーカー
205…媒体読取装置
206…インタフェース装置
207…通信装置
208…RAM
209…ハードディスク装置
210…バス
211…プログラム
212…各種データ
C1、C2…ケース
G1、G2…撮像画像
G3…顔領域
G3a…頬領域
G4…鼻口画像
G5…重畳画像
G6…髪領域マスク
G6a…額領域マスク
G7…顔上部領域
G8…額領域
G8a…推定額領域
G8b…2値化画像
G9、G9a…有効額領域
G9c…ROI
LM…ランドマーク座標

Claims (9)

  1. 撮像画像に含まれる顔領域を取得する取得部と、
    取得した前記顔領域に基づき、マスクの着用の有無を判定する判定部と、
    マスク着用ありと判定した場合、取得した前記顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、当該重畳した画像に基づいて額に対応する額領域を抽出する額領域抽出部と、
    抽出した前記額領域の中から肌の露出部分に対応する領域を有効領域として抽出する有効領域抽出部と、
    抽出した前記有効領域における時系列のデータから、前記撮像画像に含まれる人物の脈波を推定する脈波推定部と、
    を有することを特徴とする脈波推定装置。
  2. 前記有効領域抽出部は、マスク着用なしと判定した場合、取得した前記顔領域の中から頬に対応する頬領域を有効領域として抽出する、
    ことを特徴とする請求項1に記載の脈波推定装置。
  3. 前記額領域抽出部は、取得した前記顔領域のサイズに基づいて前記鼻口画像をリサイズし、当該リサイズ後の鼻口画像を前記顔領域の特定位置に重畳する、
    ことを特徴とする請求項1または2に記載の脈波推定装置。
  4. 前記額領域抽出部は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の特定の特徴点に基づいて特定した領域において髪領域を除いた領域を前記額領域として抽出する、
    ことを特徴とする請求項1乃至3のいずれか一項に記載の脈波推定装置。
  5. 前記有効領域抽出部は、抽出した前記額領域を特定の輝度値に基づいて2値化し、当該2値化した領域の内で重心座標を含む領域を前記有効領域として抽出する、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の脈波推定装置。
  6. 前記有効領域抽出部は、前記重畳した画像より抽出した顔の特徴を示す特徴点の中の眉頭に対応する特徴点をもとに取得した輝度値に基づいて前記有効領域を選定する、
    ことを特徴とする請求項1乃至5のいずれか一項に記載の脈波推定装置。
  7. 前記有効領域抽出部は、抽出した前記有効領域の中の特定の矩形領域を脈波の推定に用いる関心領域として前記脈波推定部に出力する、
    ことを特徴とする請求項1乃至6のいずれか一項に記載の脈波推定装置。
  8. 撮像画像に含まれる顔領域を取得し、
    取得した前記顔領域に基づき、マスクの着用の有無を判定する判定部と、
    マスク着用ありと判定した場合、取得した前記顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、当該重畳した画像に基づいて額に対応する額領域を抽出し、
    抽出した前記額領域の中から肌の露出部分に対応する領域を有効領域として抽出し、
    抽出した前記有効領域における時系列のデータから、前記撮像画像に含まれる人物の脈波を推定する、
    処理をコンピュータが実行することを特徴とする脈波推定方法。
  9. 撮像画像に含まれる顔領域を取得し、
    取得した前記顔領域に基づき、マスクの着用の有無を判定する判定部と、
    マスク着用ありと判定した場合、取得した前記顔領域に対して鼻口部分に関して予め設定された鼻口画像を重畳したうえで、当該重畳した画像に基づいて額に対応する額領域を抽出し、
    抽出した前記額領域の中から肌の露出部分に対応する領域を有効領域として抽出し、
    抽出した前記有効領域における時系列のデータから、前記撮像画像に含まれる人物の脈波を推定する、
    処理をコンピュータに実行させることを特徴とする脈波推定プログラム。
JP2021016611A 2021-02-04 2021-02-04 脈波推定装置、脈波推定方法および脈波推定プログラム Withdrawn JP2022119467A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021016611A JP2022119467A (ja) 2021-02-04 2021-02-04 脈波推定装置、脈波推定方法および脈波推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021016611A JP2022119467A (ja) 2021-02-04 2021-02-04 脈波推定装置、脈波推定方法および脈波推定プログラム

Publications (1)

Publication Number Publication Date
JP2022119467A true JP2022119467A (ja) 2022-08-17

Family

ID=82848175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021016611A Withdrawn JP2022119467A (ja) 2021-02-04 2021-02-04 脈波推定装置、脈波推定方法および脈波推定プログラム

Country Status (1)

Country Link
JP (1) JP2022119467A (ja)

Similar Documents

Publication Publication Date Title
KR102299847B1 (ko) 얼굴 인증 방법 및 장치
US10599914B2 (en) Method and apparatus for human face image processing
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
CN109952594B (zh) 图像处理方法、装置、终端及存储介质
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
JP2019504386A (ja) 顔画像処理方法および装置、ならびに記憶媒体
US20140341442A1 (en) Image masks for face-related selection and processing in images
US20160092726A1 (en) Using gestures to train hand detection in ego-centric video
US11315360B2 (en) Live facial recognition system and method
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP6157165B2 (ja) 視線検出装置及び撮像装置
JPWO2017061106A1 (ja) 情報処理装置、画像処理システム、画像処理方法及びプログラム
US20210174062A1 (en) Image processing device, image processing method, and recording medium
WO2018149350A1 (zh) 一种非面部roi识别方法及装置
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
KR102468648B1 (ko) 영상에 대한 원격 광용적맥파신호를 이용하여 사람의 심박수를 산출하는 방법
JP2022119467A (ja) 脈波推定装置、脈波推定方法および脈波推定プログラム
US20220309713A1 (en) Image processing apparatus, image processing method, and storage medium
Teng et al. Facial expressions recognition based on convolutional neural networks for mobile virtual reality
JP2005242535A (ja) 画像補正装置
CN113033250A (zh) 脸部肌肉状态分析与评价方法
WO2023276271A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
Sousa et al. Breast contour detection with shape priors
JP2004030006A (ja) 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231012

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20240408