JP2022030619A - 情報処理システム、情報処理方法およびプログラム - Google Patents
情報処理システム、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2022030619A JP2022030619A JP2020134744A JP2020134744A JP2022030619A JP 2022030619 A JP2022030619 A JP 2022030619A JP 2020134744 A JP2020134744 A JP 2020134744A JP 2020134744 A JP2020134744 A JP 2020134744A JP 2022030619 A JP2022030619 A JP 2022030619A
- Authority
- JP
- Japan
- Prior art keywords
- heart rate
- information
- clustering
- subject
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】より簡便かつ精度よく人の状態の検知に利用可能な情報を取得する技術を提供する。【解決手段】解析サーバ1の対象画像情報取得部60は、画像処理端末11から送信されてきた対象者画像情報および輝度情報などを含む対象者画像情報等を取得する。皮膚検知部110は、対象者画像情報のうち対象者の皮膚が露出している領域を抽出する。また、皮膚検知部110は、抽出された領域の夫々について、色情報を取得する。クラスタリング部111は、皮膚検知部110で抽出された皮膚の領域のそれぞれで取得された色情報に基づいて、自動的に複数のチャネルにクラスタリングを実行し、各クラスタでPPG信号を取得する。心拍数推定部112は、クラスタリング部111のクラスタリングの結果に基づいて、対象者の心拍数を推定する。【選択図】図4
Description
本発明は、情報処理システム、情報処理方法およびプログラムに関する。
従来より、車両は人々の生活に必要不可欠である。運転者が車両を安全に運転するためには、運転中に居眠りをせず、常に運転者が覚醒状態でいることは極めて重要である。そして、運転中の居眠りなどを防止することを目的として、心拍数に基づいて人の眠気を検知するという試みがなされている(例えば、特許文献1参照)。
しかし、心拍数を含む各種生体信号は、情報の取得や処理に問題が生じることも多く、例えば、生体信号の有効性を踏まえた処理を実現する技術などが提案されている(例えば、特許文献2参照)。
しかし、心拍数を含む各種生体信号は、情報の取得や処理に問題が生じることも多く、例えば、生体信号の有効性を踏まえた処理を実現する技術などが提案されている(例えば、特許文献2参照)。
しかしながら、上述の特許文献1に記載の技術をはじめとした従来技術では、単に心拍数に基づいて眠気の有無が検知することができるに過ぎない。
また、上述の特許文献2に記載の技術をはじめとした従来技術では、あくまでも取得された生体信号の精度の向上を目的としているに過ぎず、生体信号を取得する上でのユーザの利便性や簡便さの向上を目的とはしていない。
また、上述の特許文献2に記載の技術をはじめとした従来技術では、あくまでも取得された生体信号の精度の向上を目的としているに過ぎず、生体信号を取得する上でのユーザの利便性や簡便さの向上を目的とはしていない。
本発明は、このような状況に鑑みてなされたものであり、より簡便かつ精度よく人の状態の検知に利用可能な情報を取得する技術を提供する。
上記目的を達成するため、本発明の一態様の情報処理システムは、
対象者の状態の検知に関する情報の取得に利用可能な情報処理システムであって、
前記対象者の皮膚を含む画像に関する情報を取得する画像情報取得手段と、
前記画像に含まれる前記対象者の皮膚に関する領域を特定し、当該領域の夫々における輝度に関する輝度情報を取得する輝度情報取得手段と、
前記領域の夫々において取得された前記輝度情報の夫々を、複数のクラスタに分類し、クラスタリングを実行するクラスタリング実行手段と、
前記クラスタリングの結果に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する心拍数等決定手段と、
を備えることができる。
対象者の状態の検知に関する情報の取得に利用可能な情報処理システムであって、
前記対象者の皮膚を含む画像に関する情報を取得する画像情報取得手段と、
前記画像に含まれる前記対象者の皮膚に関する領域を特定し、当該領域の夫々における輝度に関する輝度情報を取得する輝度情報取得手段と、
前記領域の夫々において取得された前記輝度情報の夫々を、複数のクラスタに分類し、クラスタリングを実行するクラスタリング実行手段と、
前記クラスタリングの結果に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する心拍数等決定手段と、
を備えることができる。
本発明の一態様の情報処理方法およびプログラムも、本発明の一態様の情報処理システムに対応する情報処理方法またはプログラムとして提供される。
本発明によれば、より簡便かつ精度よく人の状態の検知に利用可能な情報を取得する技術を提供することができる。
[実施形態]
以下、本発明の実施形態について、図面を用いて説明する。
以下、本発明の実施形態について、図面を用いて説明する。
<概要の説明>
まず図1を用いた具体的な説明に先立ち、本発明の一実施形態にかかる情報処理システム(以下、「本システム」と呼ぶ)の適用対象となる第1のサービスおよび第2のサービスについて説明する。
第1のサービスは、対象者の眠気の有無を判定する眠気検出サービスである。第1のサービスは、例えば、車を運転する運転者などに対して提供される。
第2のサービスは、第1のサービスの事前において実施される眠気を検出するための各種指標を推定するサービスである。第2のサービスは、第1のサービスの提供を希望する運転者などに対して提供される。また、各種指標とは、例えば、対象者の心拍数、SDNN(Standard Deviation of NN intervals)、EAR(Eye aspect ratio)である。
まず図1を用いた具体的な説明に先立ち、本発明の一実施形態にかかる情報処理システム(以下、「本システム」と呼ぶ)の適用対象となる第1のサービスおよび第2のサービスについて説明する。
第1のサービスは、対象者の眠気の有無を判定する眠気検出サービスである。第1のサービスは、例えば、車を運転する運転者などに対して提供される。
第2のサービスは、第1のサービスの事前において実施される眠気を検出するための各種指標を推定するサービスである。第2のサービスは、第1のサービスの提供を希望する運転者などに対して提供される。また、各種指標とは、例えば、対象者の心拍数、SDNN(Standard Deviation of NN intervals)、EAR(Eye aspect ratio)である。
ここで、各指標の定義を詳細に説明する。
心拍数とは、1分間に心臓が拍動する回数である。本実施形態では、PPG(光電式容積脈波記録法)を用いて対象者の心拍数などを推定する。PPGは、関心のある領域または容積の光の反射率又は透過率における経時的な変化を評価する光学技術のひとつである。
すなわち、PPGは、細胞組織の毛細血管内血流量(容積)の変化を検知することで、生体内の生理現象と対応付けることができる様々な情報を取得することができる、簡便で低コストの生体情報の取得技術である。
ここで、PPGは、従来接触型の方法で行われることが多かったが、近年では、デジタルカメラなどを用いることで、非接触の方法によるrPPG(remoto PPG)と呼ばれる技術が存在する。このrPPGは、遠隔でPPG信号を取得することができることから、簡便で低コストで生体情報を取得できるという点で有用である。しかし一方で、対象者の撮像時に必要な条件が多い、信号対雑音比(以下、「SNR」と呼ぶ)が低いなどの問題が指摘されていた。なお、PPG信号とは、PPG(またはrPPG)などの手法により取得された人の状態の検知に利用可能な各種信号情報の総称である。
SDNNとは、ある期間内の連続する2つの拍動の間の時間間隔(心拍間隔、RR間隔)の標準偏差を示している。SDNNは、心拍数の時系列情報を、RR間隔(心室興奮から心室興奮までの時間間隔)に変換し、所定の期間内の標準偏差を計算することで導出できる。
EARとは、目の水平方向と垂直方向の長さの比である。例えば、目が撮像された画像から目の領域を検出し、それぞれの長さの比を計算することで算出することができる。
なお、第1のサービスにおいて、対象者の眠気の検出は、これらの各指標に基づいて、総合的になされる。そのため、第1のサービスでは、単一の指標のみにより眠気を検出する場合と比較して、より精度よく対象者の眠気を検出することができる。
また、第2のサービスにおいて、心拍数の推定は、上述のrPPGを応用した独自の方法を実施することにより行われる。しかし、これはあくまでも例示であり、各指標は任意の方法により取得されてもよいし、また、採用される指標の種別も任意である。
以上をまとめると、本システムの適用対象となる第1のサービスは、心拍数、SDNN、EARなどの複数の対象者の状態の検知に利用可能な情報(以下、「生体指標」と呼ぶ)から高精度に対象者の眠気を検出するサービスである。また、本システムの適用対象となる第2のサービスは、第1のサービスにおいて用いる生体指標の夫々を取得する生体指標の取得サービスであり、特にはrPPGを応用した高精度かつ簡便な心拍数の推定サービスである。
なお、PPG信号として用いるチャネルは、本システムの提供者などにより任意に決定されてもよいが、本実施形態では、強い容積脈派信号を示し、酸化ヘモグロビンの吸収ピークのひとつに対応する緑のチャネルを採用するものとする。
心拍数とは、1分間に心臓が拍動する回数である。本実施形態では、PPG(光電式容積脈波記録法)を用いて対象者の心拍数などを推定する。PPGは、関心のある領域または容積の光の反射率又は透過率における経時的な変化を評価する光学技術のひとつである。
すなわち、PPGは、細胞組織の毛細血管内血流量(容積)の変化を検知することで、生体内の生理現象と対応付けることができる様々な情報を取得することができる、簡便で低コストの生体情報の取得技術である。
ここで、PPGは、従来接触型の方法で行われることが多かったが、近年では、デジタルカメラなどを用いることで、非接触の方法によるrPPG(remoto PPG)と呼ばれる技術が存在する。このrPPGは、遠隔でPPG信号を取得することができることから、簡便で低コストで生体情報を取得できるという点で有用である。しかし一方で、対象者の撮像時に必要な条件が多い、信号対雑音比(以下、「SNR」と呼ぶ)が低いなどの問題が指摘されていた。なお、PPG信号とは、PPG(またはrPPG)などの手法により取得された人の状態の検知に利用可能な各種信号情報の総称である。
SDNNとは、ある期間内の連続する2つの拍動の間の時間間隔(心拍間隔、RR間隔)の標準偏差を示している。SDNNは、心拍数の時系列情報を、RR間隔(心室興奮から心室興奮までの時間間隔)に変換し、所定の期間内の標準偏差を計算することで導出できる。
EARとは、目の水平方向と垂直方向の長さの比である。例えば、目が撮像された画像から目の領域を検出し、それぞれの長さの比を計算することで算出することができる。
なお、第1のサービスにおいて、対象者の眠気の検出は、これらの各指標に基づいて、総合的になされる。そのため、第1のサービスでは、単一の指標のみにより眠気を検出する場合と比較して、より精度よく対象者の眠気を検出することができる。
また、第2のサービスにおいて、心拍数の推定は、上述のrPPGを応用した独自の方法を実施することにより行われる。しかし、これはあくまでも例示であり、各指標は任意の方法により取得されてもよいし、また、採用される指標の種別も任意である。
以上をまとめると、本システムの適用対象となる第1のサービスは、心拍数、SDNN、EARなどの複数の対象者の状態の検知に利用可能な情報(以下、「生体指標」と呼ぶ)から高精度に対象者の眠気を検出するサービスである。また、本システムの適用対象となる第2のサービスは、第1のサービスにおいて用いる生体指標の夫々を取得する生体指標の取得サービスであり、特にはrPPGを応用した高精度かつ簡便な心拍数の推定サービスである。
なお、PPG信号として用いるチャネルは、本システムの提供者などにより任意に決定されてもよいが、本実施形態では、強い容積脈派信号を示し、酸化ヘモグロビンの吸収ピークのひとつに対応する緑のチャネルを採用するものとする。
図1は、本発明の一実施形態にかかる情報処理システムの構成を示すブロック図である。
図1に示す通り、本システムは、解析サーバ1と、画像生成装置2とを備えている。解析サーバ1と画像生成装置2とはLAN(Local Area Network)やインターネットなどの所定のネットワークNを介して接続されている。
なお、ネットワークNは、LANやインターネットなどである必要はなく、例えば、ブルートゥース(登録商標)など任意の方法により通信を行ってもよい。
図1に示す通り、本システムは、解析サーバ1と、画像生成装置2とを備えている。解析サーバ1と画像生成装置2とはLAN(Local Area Network)やインターネットなどの所定のネットワークNを介して接続されている。
なお、ネットワークNは、LANやインターネットなどである必要はなく、例えば、ブルートゥース(登録商標)など任意の方法により通信を行ってもよい。
ここで、図1に示す通り、画像生成装置2は、画像処理端末11と、光源12と、カメラ13とを備えている。
光源12は、対象者などの生体の部位(特に皮膚などであり、以下、「測定部位」と呼ぶ)に対して光を照射する光源である。
カメラ13は、光源12により照射された光が測定部位を介して反射した反射光を取得し、取得した反射光に基づいて画像に関する情報(以下、「対象者画像情報」と呼ぶ)を生成する。そして、生成された対象者画像情報は、画像処理端末11で各種処理がなされたのち、解析サーバ1へ送信される。
なお、解析サーバ1は、画像処理端末11から送信された対象者画像情報を解析するための各種処理を実行する。
光源12は、対象者などの生体の部位(特に皮膚などであり、以下、「測定部位」と呼ぶ)に対して光を照射する光源である。
カメラ13は、光源12により照射された光が測定部位を介して反射した反射光を取得し、取得した反射光に基づいて画像に関する情報(以下、「対象者画像情報」と呼ぶ)を生成する。そして、生成された対象者画像情報は、画像処理端末11で各種処理がなされたのち、解析サーバ1へ送信される。
なお、解析サーバ1は、画像処理端末11から送信された対象者画像情報を解析するための各種処理を実行する。
<ハードウェア構成>
図2は、図1の情報処理システムのうち、解析サーバのハードウェア構成の一例を示すブロック図である。
解析サーバ1は、パーソナルコンピュータ等で構成される。図2に示すように、解析サーバ1は、制御部21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、出力部26と、入力部27と、記憶部28と、通信部29と、ドライブ30と、を備えている。
図2は、図1の情報処理システムのうち、解析サーバのハードウェア構成の一例を示すブロック図である。
解析サーバ1は、パーソナルコンピュータ等で構成される。図2に示すように、解析サーバ1は、制御部21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、出力部26と、入力部27と、記憶部28と、通信部29と、ドライブ30と、を備えている。
制御部21は、CPUやGPUおよび半導体メモリを含むマイクロコンピュータ等で構成され、ROM22に記録されているプログラム、または、記憶部28からRAM23にロードされたプログラムに従って各種の処理を実行する。
RAM23には、制御部21が各種の処理を実行する上において必要な情報等も適宜記憶される。
RAM23には、制御部21が各種の処理を実行する上において必要な情報等も適宜記憶される。
制御部21、ROM22およびRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェース25も接続されている。入出力インターフェース25には、出力部26、入力部27、記憶部28、通信部29、ドライブ30が接続されている。
出力部26は、各種液晶ディスプレイ等で構成され、各種情報を出力する。
入力部27は、各種ハードウェア等で構成され、各種情報を入力する。
記憶部28は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等で構成され、各種データを記憶する。例えば、各種プログラムの他、データベースを含む各種データが記憶されている。
通信部29は、インターネットを含むネットワークNを介して他の装置(例えば、画像生成装置2)との間で行う通信を制御する。
ドライブ30は、必要に応じて設けられる。ドライブ30には磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア41が適宜装着される。ドライブ30によってリムーバブルメディア41から読み出されたプログラムは、必要に応じて記憶部28にインストールされる。またリムーバブルメディア41は、記憶部28に記憶されている各種データも、記憶部28と同様に記憶することができる。
なお、画像処理端末11などのハードウェア構成は、解析サーバ1のハードウェア構成と基本的に同様とすることができるので、ここでは必要な説明のみを行う。
光源12は、汎用的な光源光または環境光などにより構成される。光源12は、カメラ13で画像を撮像するための光源として使用される。
カメラ13は、例えば、汎用的なウェブカメラや3D深度カメラなどにより構成される。カメラ13は、対象者の皮膚を含む画像を撮像するために使用される。
光源12は、汎用的な光源光または環境光などにより構成される。光源12は、カメラ13で画像を撮像するための光源として使用される。
カメラ13は、例えば、汎用的なウェブカメラや3D深度カメラなどにより構成される。カメラ13は、対象者の皮膚を含む画像を撮像するために使用される。
<機能的構成>
図3は、図2の解析サーバ1および図1の画像処理端末11の機能的構成の一例を示す機能ブロック図である。
図3に示すように、解析サーバ1の制御部21は、各種プログラム等を実行することにより、対象画像情報取得部60と、生体指標取得部61と、眠気検出部62として機能する。
また、記憶部28の一領域には、画像DB300とが設けられている。
図3は、図2の解析サーバ1および図1の画像処理端末11の機能的構成の一例を示す機能ブロック図である。
図3に示すように、解析サーバ1の制御部21は、各種プログラム等を実行することにより、対象画像情報取得部60と、生体指標取得部61と、眠気検出部62として機能する。
また、記憶部28の一領域には、画像DB300とが設けられている。
ここで、詳細については後述するが、カメラ13により撮像された対象者の皮膚を含む画像の情報(以下、「対象者画像情報」と呼ぶ)は、画像処理端末11で取得され、画像処理端末11から解析サーバ1へ送信される。
そこで、解析サーバ1の対象画像情報取得部60は、画像処理端末11から送信されてきた対象者画像情報を、通信部29を介して取得する。また、対象画像情報取得部60は、取得した対象者画像情報を画像DB300に格納する。
そこで、解析サーバ1の対象画像情報取得部60は、画像処理端末11から送信されてきた対象者画像情報を、通信部29を介して取得する。また、対象画像情報取得部60は、取得した対象者画像情報を画像DB300に格納する。
生体指標取得部61は、対象画像情報取得部60で取得された対象者画像情報に基づいて、各指標(心拍数、SDNN、EARなど)に関する情報を取得する。生体指標取得部61は、PPG処理部100と、SDNN取得部130と、EAR取得部140とを含む。
PPG処理部100は、対象画像情報取得部60で取得された対象者画像情報に基づいて、PPG信号を取得する。PPG処理部100は、取得したPPG信号に基づいて対象者の心拍数を推定する。
ここで、図4を参照しつつ、PPG処理部100のさらに詳細な機能的構成について説明する。図4に示す通り、PPG処理部100は、皮膚検知部110と、クラスタリング部111と、心拍数推定部112とを含む。
皮膚検知部110は、対象者画像情報のうち対象者の皮膚が露出している領域を抽出する。また、皮膚検知部110は、抽出された領域の夫々の色に関する各種情報(以下、「色情報」と呼ぶ)を取得する。
ここで重要な点は、従来の画像認識技術などを用いた心拍数の推定技術(以下、「従来方法」と呼ぶ)の多くは、顔を検出し、その後の顔に含まれる各部位(目、鼻、頬など)の領域を抽出し、各部位の特性を利用して心拍数の推定を行っていたという点である。これに対して本システムは、顔や体の一部分からのみでも心拍数の推定が可能なため、信号を取得できる領域(部位)が多いと言える。また、画像に顔などが含まれている必要がないため、画像を撮像する状況や環境にも自由度を持たせることができる。
ここで、図4を参照しつつ、PPG処理部100のさらに詳細な機能的構成について説明する。図4に示す通り、PPG処理部100は、皮膚検知部110と、クラスタリング部111と、心拍数推定部112とを含む。
皮膚検知部110は、対象者画像情報のうち対象者の皮膚が露出している領域を抽出する。また、皮膚検知部110は、抽出された領域の夫々の色に関する各種情報(以下、「色情報」と呼ぶ)を取得する。
ここで重要な点は、従来の画像認識技術などを用いた心拍数の推定技術(以下、「従来方法」と呼ぶ)の多くは、顔を検出し、その後の顔に含まれる各部位(目、鼻、頬など)の領域を抽出し、各部位の特性を利用して心拍数の推定を行っていたという点である。これに対して本システムは、顔や体の一部分からのみでも心拍数の推定が可能なため、信号を取得できる領域(部位)が多いと言える。また、画像に顔などが含まれている必要がないため、画像を撮像する状況や環境にも自由度を持たせることができる。
クラスタリング部111は、皮膚検知部110で抽出された皮膚の領域のそれぞれで取得された色情報に基づいて、自動的に複数のチャネルにクラスタリングを実行し、各クラスタでPPG信号を取得する。
また、クラスタリング部111は、クラスタリングを実行した結果、得られた信号に基づいて、ノイズの除去を行うことができる。
具体的に例えば、あるクラスタにノイズは多く、SNRが低いことが判明した場合には、そのクラスタをノイズとして処理することができる。すなわち、高いSNRを持つクラスタのみを正常な信号として処理すれば、取得されるPPG信号の精度が向上することになる。
また、クラスタリング部111は、クラスタリングを実行した結果、得られた信号に基づいて、ノイズの除去を行うことができる。
具体的に例えば、あるクラスタにノイズは多く、SNRが低いことが判明した場合には、そのクラスタをノイズとして処理することができる。すなわち、高いSNRを持つクラスタのみを正常な信号として処理すれば、取得されるPPG信号の精度が向上することになる。
ここで重要な点は、クラスタリング部111は、同時刻の複数のPPGチャネルを抽出することができるため、これらを補助的なチャネルとして利用できる点である。これはノイズの除去を行う点において特に重要である。例えば、クラスタリング部111は、皮膚のピクセルをクラスタリングする場合、同じような信号(性質)を持つピクセルを同じチャネルとして分類する。そのため、結果として、正常な信号を含んだピクセルは同一のチャネルに分類され、ノイズを含んだピクセルは同一のチャネルに分類されることになるため、クラスタリング部111は、ノイズの除去を効率的に行うことができる。
言い換えれば、クラスタリング部111でそれぞれの皮膚の領域(ピクセル)のクラスタから得られたPPGチャネルは、個別のROI(関心領域)として並列的に処理することができるため、相補的な補助チャネルとして利用することが可能となる。したがって、クラスタリング部111は、ノイズの多い環境などでも効率的なノイズ処理を実現し、高いSNRを得ることが可能となる。
言い換えれば、クラスタリング部111でそれぞれの皮膚の領域(ピクセル)のクラスタから得られたPPGチャネルは、個別のROI(関心領域)として並列的に処理することができるため、相補的な補助チャネルとして利用することが可能となる。したがって、クラスタリング部111は、ノイズの多い環境などでも効率的なノイズ処理を実現し、高いSNRを得ることが可能となる。
なお、このような本システムで採用する方法は、従来方法(特にrPPG)とは明確に異なる点が存在する。すなわち、上述の通り、従来方法において、顔を検出し、その後の顔に含まれる各部位(目、鼻、頬など)の領域を抽出し、各部位の特性を利用して心拍数の推定を行う方法が採用される。その意味では、従来方法においても、各部位(目、鼻、頬など)に対応する複数のチャネルを持つことは可能できるが、本システムにおける複数のチャネルのように相補的な関係を有する複数のチャネルではなく、全く異なる概念である。
また、従来方法は、顔に含まれる各部位(目、鼻、頬など)をある程度以上の解像度で撮像した画像が必要あることから、例えば、対象者の顔の正面から画像を撮像する必要であったり、顔がゆがんで撮像されてしまった場合にPPG信号の取得精度が低下するなどの欠点が存在する。
これに対して、本システムで採用する方法は、体の部位を問わない任意の部位の皮膚の画像から取得された色情報に基づくクラスタリングの結果から、複数のPPGチャネルの使用を実現するものであり、従来方法における上述のような欠点もある程度補うことができる。
また、従来方法は、顔に含まれる各部位(目、鼻、頬など)をある程度以上の解像度で撮像した画像が必要あることから、例えば、対象者の顔の正面から画像を撮像する必要であったり、顔がゆがんで撮像されてしまった場合にPPG信号の取得精度が低下するなどの欠点が存在する。
これに対して、本システムで採用する方法は、体の部位を問わない任意の部位の皮膚の画像から取得された色情報に基づくクラスタリングの結果から、複数のPPGチャネルの使用を実現するものであり、従来方法における上述のような欠点もある程度補うことができる。
心拍数推定部112は、クラスタリング部111で取得したPPG信号などに基づいて、対象者の心拍数を推定する。
すなわち、心拍数推定部112は、クラスタリング部111のクラスタリングの結果に基づいて、対象者の心拍数を推定する。
具体的に例えば、クラスタリング部111は、各クラスタにおけるPPG信号を、潜在的な心拍数の範囲(例えば、60~120)を複数のオーバーラップした間隔に分割し、それぞれで主要な周波数(心拍数)をトラッキングする。
ここで、心拍数推定部112は、各間隔での周波数に加えて、PPG信号のSNR、パワースペクトル密度、自己相関なども合わせてトラッキングしてもよい。そして、心拍数推定部112は、各クラスタで最大の強度を持つ範囲の事前選択を行う。
また、心拍数推定部112は、各クラスタの各心拍数の範囲の結果をまとめて解析し、最も関連性の高い心拍数の範囲を選択する。
また、心拍数推定部112は、心拍数の範囲を解析した事前の情報に基づいて、ベストな心拍数を各イテレーション(1s、2sなど)で選択する。
また、心拍数推定部112は、各心拍数の範囲間を比較したときの強度または確信度に応じて、最初の心拍数の範囲(60~120)を絞り込み、処理時間を短縮してもよい。
すなわち、心拍数推定部112は、例えば、クラスタリング部111のクラスタリングの結果のうち、クラスタのそれぞれから得られたPPG信号をフィルタリングし、クリーンなPPG信号を得ることなどができる。
すなわち、心拍数推定部112は、クラスタリング部111のクラスタリングの結果に基づいて、対象者の心拍数を推定する。
具体的に例えば、クラスタリング部111は、各クラスタにおけるPPG信号を、潜在的な心拍数の範囲(例えば、60~120)を複数のオーバーラップした間隔に分割し、それぞれで主要な周波数(心拍数)をトラッキングする。
ここで、心拍数推定部112は、各間隔での周波数に加えて、PPG信号のSNR、パワースペクトル密度、自己相関なども合わせてトラッキングしてもよい。そして、心拍数推定部112は、各クラスタで最大の強度を持つ範囲の事前選択を行う。
また、心拍数推定部112は、各クラスタの各心拍数の範囲の結果をまとめて解析し、最も関連性の高い心拍数の範囲を選択する。
また、心拍数推定部112は、心拍数の範囲を解析した事前の情報に基づいて、ベストな心拍数を各イテレーション(1s、2sなど)で選択する。
また、心拍数推定部112は、各心拍数の範囲間を比較したときの強度または確信度に応じて、最初の心拍数の範囲(60~120)を絞り込み、処理時間を短縮してもよい。
すなわち、心拍数推定部112は、例えば、クラスタリング部111のクラスタリングの結果のうち、クラスタのそれぞれから得られたPPG信号をフィルタリングし、クリーンなPPG信号を得ることなどができる。
ここで、心拍数推定部112が対象者の心拍数を推定する上での基本的な前提事項について言及する。
上述の通り、PPG信号は、容積脈波信号を示し、各種生理現象と対応付けられることが知られている。特に心拍数については、PPG信号におけるピークは、心臓の拍動間隔(ピーク トゥー ピーク)と連動することが知られており、心拍数の推定に広く利用されている。なお、この点は、次の非特許文献1を参照するとよい。
[非特許文献1]W.Verkruysse et al.,"Remote plethysmographic imaging using ambient light.,"Opt.Express 16,21434-21445(2008)
以上、PPG処理部100の詳細な機能的構成について説明した。続いて図3に戻り、解析サーバ1の機能的構成について引き続き説明する。
上述の通り、PPG信号は、容積脈波信号を示し、各種生理現象と対応付けられることが知られている。特に心拍数については、PPG信号におけるピークは、心臓の拍動間隔(ピーク トゥー ピーク)と連動することが知られており、心拍数の推定に広く利用されている。なお、この点は、次の非特許文献1を参照するとよい。
[非特許文献1]W.Verkruysse et al.,"Remote plethysmographic imaging using ambient light.,"Opt.Express 16,21434-21445(2008)
以上、PPG処理部100の詳細な機能的構成について説明した。続いて図3に戻り、解析サーバ1の機能的構成について引き続き説明する。
SDNN取得部130は、心拍数推定部112で推定された対象者の心拍数に基づいて、SDNNを取得する。SDNNは、上述の通り、推定された心拍数の時系列情報をRR間隔に変換し、所定の期間内の標準偏差を計算することで求めることができる。
ここで、心電図などによる場合と異なり、本システムでは、クラスタリングの結果などを含めて、主として時間的に平均化された心拍数の推定結果から、RR間隔へ変換しSDNNを導出する方法を採用することができる。これにより、本システムでは、通常よりも簡便な方法のみによって、心拍数の推定やSDNNの取得を実現することができる。
EAR取得部140は、対象画像情報取得部60で取得された対象者画像情報などに基づいて、EARを取得する。上述の通り、EAR取得部140は、例えば、対象者画像に含まれた目の領域を検出し、目の水平方向と目の垂直方向の長さの比を計算することにより取得される。
眠気検出部62は、PPG処理部100で推定された心拍数、SDNN取得部130で取得されたSDNNおよびEAR取得部140で取得されたEARなどに基づいて、対象者の眠気の有無を検出する。なお、眠気検出部62が眠気の有無を検出する具体的な方法については、図5などを参照しつつ後述する。
また、眠気検出部62は、対象者の眠気の有無の検出結果を、通信部29を介して画像処理端末11に送信する。
また、眠気検出部62は、対象者の眠気の有無の検出結果を、通信部29を介して画像処理端末11に送信する。
続いて、画像処理端末11の機能的構成の一例を説明する。
図3に示すように、画像処理端末11の制御部50は、各種プログラム等を実行することにより、対象画像情報管理部160と、検出結果管理部161として機能する。
対象画像情報管理部160は、カメラ13により撮像された対象者に関する画像の情報、すなわち対象者画像情報を取得する。また、対象画像情報管理部160は取得した対象者画像情報を、通信部51を介して解析サーバ1へ送信する。
ここで、上述の通り、対象者画像情報には、対象者の皮膚に関する画像の情報が含まれる。換言すれば、対象者画像情報には、皮膚に関する画像の情報が含まれていればよく、例えば、目、鼻、口など所定の部位に関する画像の情報が含まれている必要はない。
図3に示すように、画像処理端末11の制御部50は、各種プログラム等を実行することにより、対象画像情報管理部160と、検出結果管理部161として機能する。
対象画像情報管理部160は、カメラ13により撮像された対象者に関する画像の情報、すなわち対象者画像情報を取得する。また、対象画像情報管理部160は取得した対象者画像情報を、通信部51を介して解析サーバ1へ送信する。
ここで、上述の通り、対象者画像情報には、対象者の皮膚に関する画像の情報が含まれる。換言すれば、対象者画像情報には、皮膚に関する画像の情報が含まれていればよく、例えば、目、鼻、口など所定の部位に関する画像の情報が含まれている必要はない。
検出結果管理部161は、解析サーバ1から送信されてきた対象者の眠気検出の結果を、通信部51を介して取得する。また、検出結果管理部161は、取得した対象者の眠気の有無の検出の結果を、図示せぬ表示部に表示する制御を実行する。
次に、図5を参照しつつ眠気検出の具体的な方法について説明する。
図5は、図3の解析サーバにおいて眠気の有無を検出する具体的な方法の一例を説明するための図である。
図5の例では、取得されたPPG信号により推定された心拍数の数値が、1分ごとの単位で示されている。なお、1分ごとの単位の数値は1秒ごとに推定された数値の平均として算出されている。つまり具体的に図6の例では、1分毎に、「66.3」、「65.4」、「62.1」、「65.8」、「64.2」、「63.9」、「62.5」、「66.1」、「67.0」、「67.3」、「66.8」のように心拍数が変化していることを示している。
ここで、各数値の上部を見ると、「ベースライン区間」および「予測区間」という2つの表示が示されている。
すなわち、「ベースライン区間」とは、眠気検出の事前の対象者の心拍数を示している。他方、「予測区間」とは、眠気検出の時点およびその直近のタイミングでの心拍数を示している。生理現象は個人差の影響が大きく、単に閾値を設定するだけでは精度の高い検出を行うことが困難である。そのため、図5のように時系列的な変動を踏まえて眠気の検出を行うことで、より精度の高い検出が可能となる。
図5は、図3の解析サーバにおいて眠気の有無を検出する具体的な方法の一例を説明するための図である。
図5の例では、取得されたPPG信号により推定された心拍数の数値が、1分ごとの単位で示されている。なお、1分ごとの単位の数値は1秒ごとに推定された数値の平均として算出されている。つまり具体的に図6の例では、1分毎に、「66.3」、「65.4」、「62.1」、「65.8」、「64.2」、「63.9」、「62.5」、「66.1」、「67.0」、「67.3」、「66.8」のように心拍数が変化していることを示している。
ここで、各数値の上部を見ると、「ベースライン区間」および「予測区間」という2つの表示が示されている。
すなわち、「ベースライン区間」とは、眠気検出の事前の対象者の心拍数を示している。他方、「予測区間」とは、眠気検出の時点およびその直近のタイミングでの心拍数を示している。生理現象は個人差の影響が大きく、単に閾値を設定するだけでは精度の高い検出を行うことが困難である。そのため、図5のように時系列的な変動を踏まえて眠気の検出を行うことで、より精度の高い検出が可能となる。
このような前提のもと、図5の例では、例えば、標準化という概念を用いて、対象者の眠気の有無を検出する。
標準化とは、例えば、(予測区間の値-ベースライン区間の平均値)/ベースライン区間の標準偏差の式により得ることができるスコアである。具体的に図5の例で言えば、予測区間の値「67.0」、「67.3」、「66.8」に対応する標準化後の値はそれぞれ、「1.62」、「1.82」、「1.49」である。
具体的に例えば、解析サーバ1は、眠気が事前に検出されていない場合に、判定の対象となる時分(予測区間の3つ目)の値が所定の閾値(例えば、-2.5)を下まわり、かつ予測区間の値が継続して減少していた場合に対象者の眠気があると判定する。
なお、逆に眠気が既に検出されていた場合には、例えば、解析サーバ1は、直近の測定値(例えば、予測区間の2つ目と3つ目)がともに0以上の場合に、眠気が消失したと判定する。
本実施形態における本システムは、このように時系列的な情報を含み眠気の有無を判定することができるため、対象者の個人差や測定時の状況などによらず眠気の有無を判定することができる点に一つの特徴がある。
なお、図5の例では心拍数を例として説明を行ったが、例えば、PPG、SDNN、EARなどの各種指標についても、同様の方法により眠気検出を行うことができる。本実施形態では、例えば、心拍数、SDNN、EARの各指標に基づいて、算出された数値や眠気検出の結果を総合的に考慮することで、最終的な対象者の眠気の有無を検出することができる。
標準化とは、例えば、(予測区間の値-ベースライン区間の平均値)/ベースライン区間の標準偏差の式により得ることができるスコアである。具体的に図5の例で言えば、予測区間の値「67.0」、「67.3」、「66.8」に対応する標準化後の値はそれぞれ、「1.62」、「1.82」、「1.49」である。
具体的に例えば、解析サーバ1は、眠気が事前に検出されていない場合に、判定の対象となる時分(予測区間の3つ目)の値が所定の閾値(例えば、-2.5)を下まわり、かつ予測区間の値が継続して減少していた場合に対象者の眠気があると判定する。
なお、逆に眠気が既に検出されていた場合には、例えば、解析サーバ1は、直近の測定値(例えば、予測区間の2つ目と3つ目)がともに0以上の場合に、眠気が消失したと判定する。
本実施形態における本システムは、このように時系列的な情報を含み眠気の有無を判定することができるため、対象者の個人差や測定時の状況などによらず眠気の有無を判定することができる点に一つの特徴がある。
なお、図5の例では心拍数を例として説明を行ったが、例えば、PPG、SDNN、EARなどの各種指標についても、同様の方法により眠気検出を行うことができる。本実施形態では、例えば、心拍数、SDNN、EARの各指標に基づいて、算出された数値や眠気検出の結果を総合的に考慮することで、最終的な対象者の眠気の有無を検出することができる。
図6は、図3の機能的構成を有する解析サーバの処理のうち、rPPG取得処理の流れの一例を説明するフローチャートである。
ステップS1において、解析サーバ1の対象画像情報取得部60は、画像処理端末11から送信されてきた対象者画像情報を、通信部29を介して取得する。また、対象画像情報取得部60は、取得した対象者画像情報等を画像DB300に格納する。
ステップS1において、解析サーバ1の対象画像情報取得部60は、画像処理端末11から送信されてきた対象者画像情報を、通信部29を介して取得する。また、対象画像情報取得部60は、取得した対象者画像情報等を画像DB300に格納する。
ステップS2において、皮膚検知部110は、対象者画像情報のうち対象者の皮膚が露出している領域を抽出する。また、皮膚検知部110は、抽出された領域の夫々について、抽出された領域の夫々について、色情報を取得する。
ステップS3において、クラスタリング部111は、皮膚検知部110で抽出された皮膚の領域のそれぞれで取得された色情報に基づいて、自動的に複数のチャネルにクラスタリングを実行し、各クラスタでPPG信号を取得する。
ステップS4において、心拍数推定部112は、クラスタリング部111のクラスタリングの結果に基づいて、対象者の心拍数を推定する。これにより心拍数推定処理は終了する。
図7は、図3の機能的構成を有する解析サーバの処理のうち、眠気判定処理の流れの一例を説明するフローチャートである。
ステップS21において、心拍数推定部112は、クラスタリング部111のクラスタリングの結果に基づいて、対象者の心拍数を取得する。
ステップS21において、心拍数推定部112は、クラスタリング部111のクラスタリングの結果に基づいて、対象者の心拍数を取得する。
ステップS22において、SDNN取得部130は、心拍数推定部112で推定された対象者の心拍数に基づいて、SDNNを取得する。
ステップS23において、EAR取得部140は、対象画像情報取得部60で取得された対象者画像情報などに基づいて、EARを取得する。
眠気検出部62は、PPG処理部100で推定された心拍数、SDNN取得部130で取得されたSDNNおよびEAR取得部140で取得されたEARなどに基づいて、対象者の眠気の有無について判定する。これにより眠気判定処理を終了する。
以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
また例えば、上述の実施形態では説明を省略したが、本システムは、さらなる精度の向上に向けて、例えば、以下のような工夫を実装することができる。
すなわち本システムは、過去の計測データを収集し、新たな計測値が過去のデータのなかでどこに位置するかを算出し、閾値との関係性から眠気の検出を行うことで、さらなる精度の向上を実現することができる。
以下、本システムにおいて実装可能な工夫について、図8を参照して説明する。
図8に示す通り、本システムは、以下の3つのステップを経ることにより、最終的に、各個人に最適な眠気検出の実現を目指すものである。
すなわち、
(1)被験者(過去の対象者)全体の分布から最適な閾値を検討する。
(2)被験者を複数のカテゴリに分類し各カテゴリの中で最適な閾値を検討する。
(3)各被験者個人の分布から各個人に最適な閾値を設定する。
このようなステップを経ることにより、本システムは最終的に、個人に最適な眠気検出の実現を目指す。
すなわち本システムは、過去の計測データを収集し、新たな計測値が過去のデータのなかでどこに位置するかを算出し、閾値との関係性から眠気の検出を行うことで、さらなる精度の向上を実現することができる。
以下、本システムにおいて実装可能な工夫について、図8を参照して説明する。
図8に示す通り、本システムは、以下の3つのステップを経ることにより、最終的に、各個人に最適な眠気検出の実現を目指すものである。
すなわち、
(1)被験者(過去の対象者)全体の分布から最適な閾値を検討する。
(2)被験者を複数のカテゴリに分類し各カテゴリの中で最適な閾値を検討する。
(3)各被験者個人の分布から各個人に最適な閾値を設定する。
このようなステップを経ることにより、本システムは最終的に、個人に最適な眠気検出の実現を目指す。
また例えば、上述の実施形態では詳細な説明を省略したが、本システムは、上述の各種利点の他にも、例えば、以下のような利点を有する。
(1)本システムは、皮膚の露出した異なる部位(例えば、おでこ、鼻、右頬、左頬)からPPG信号を並列的に処理した上で、最も安定的な信号を検出し、その信号に基づいて心拍数などを推定する。
すなわち、本システムは、身体の複数の部位から取得されたPPG信号から安定的な信号を検出し、心拍数などを推定することができることから、さらに精度の良い推定が可能となる。
この点、従来の眠気検出システムの多くは、顔など特定の部位の撮像が必要であり、(PPG信号を利用する場合であっても)並列的な処理を行わないため、本システムとは異なるものである。
(2)また、並列的な処理を行うため、例えば、PPG信号を検出中に対象者の予期しない挙動(例えば、目をこする、異なる方向に向き続ける、サングラスをかけるなど)が発生しても、ある程度それらの影響を排除した信号処理を実現することもできる。
(3)さらに言えば、顔表面から信号をうまく取得できない場合、他の部位(手や腕など)の皮膚からPPG信号を取得するようなバックアップ機能を備えることもできる。
(4)また、上述の並列的な処理を行うことなどから、異なる光源下(天気や太陽の位置による違い)や、例えば、女性がメイクをするなど、従来の眠気検出システムでは心拍数の推定が困難であるような場合であっても、従来の眠気検出システムと比較して、安定した信号の取得、心拍数の推定を実現することができると考えられる。
(1)本システムは、皮膚の露出した異なる部位(例えば、おでこ、鼻、右頬、左頬)からPPG信号を並列的に処理した上で、最も安定的な信号を検出し、その信号に基づいて心拍数などを推定する。
すなわち、本システムは、身体の複数の部位から取得されたPPG信号から安定的な信号を検出し、心拍数などを推定することができることから、さらに精度の良い推定が可能となる。
この点、従来の眠気検出システムの多くは、顔など特定の部位の撮像が必要であり、(PPG信号を利用する場合であっても)並列的な処理を行わないため、本システムとは異なるものである。
(2)また、並列的な処理を行うため、例えば、PPG信号を検出中に対象者の予期しない挙動(例えば、目をこする、異なる方向に向き続ける、サングラスをかけるなど)が発生しても、ある程度それらの影響を排除した信号処理を実現することもできる。
(3)さらに言えば、顔表面から信号をうまく取得できない場合、他の部位(手や腕など)の皮膚からPPG信号を取得するようなバックアップ機能を備えることもできる。
(4)また、上述の並列的な処理を行うことなどから、異なる光源下(天気や太陽の位置による違い)や、例えば、女性がメイクをするなど、従来の眠気検出システムでは心拍数の推定が困難であるような場合であっても、従来の眠気検出システムと比較して、安定した信号の取得、心拍数の推定を実現することができると考えられる。
また例えば、上述の実施形態では説明を省略したが、本システムは、例えば、追加的に以下のような機能を実装することができる。
(1)顔利用選択機能
上述の通り、本システムは、必ずしも対象者の顔を撮像して、眠気の検出を行う必要はない。顔利用選択機能は、対象者の顔を撮像できる場合は顔を撮像し眠気の検出を行うモードと、顔が検出できない場合にはそれ以外の他の部位を自由に撮像し眠気の検出を行うモードを切り替えることができる機能である。
(2)顔検出頻度調節機能
顔検出頻度調節機能は、センサなどを利用することにより頭部の動きを検出し、検出した頭部の動きに応じて顔の検出頻度を調節する機能である。具体的に例えば、頭部の動きが大きい場合には顔の検出頻度を上げ、頭部の動きが少ない場合には顔の検出頻度を下げることができる。
(3)安定継続機能
安定継続機能は、対象者から取得された画像が安定した場合に利用する機能である。この機能は、継続的な眠気検出を行う場合に便利である。一度、対象者が安定したら顔検出の頻度を調整するために頭の動きを検出し続ける。
(1)顔利用選択機能
上述の通り、本システムは、必ずしも対象者の顔を撮像して、眠気の検出を行う必要はない。顔利用選択機能は、対象者の顔を撮像できる場合は顔を撮像し眠気の検出を行うモードと、顔が検出できない場合にはそれ以外の他の部位を自由に撮像し眠気の検出を行うモードを切り替えることができる機能である。
(2)顔検出頻度調節機能
顔検出頻度調節機能は、センサなどを利用することにより頭部の動きを検出し、検出した頭部の動きに応じて顔の検出頻度を調節する機能である。具体的に例えば、頭部の動きが大きい場合には顔の検出頻度を上げ、頭部の動きが少ない場合には顔の検出頻度を下げることができる。
(3)安定継続機能
安定継続機能は、対象者から取得された画像が安定した場合に利用する機能である。この機能は、継続的な眠気検出を行う場合に便利である。一度、対象者が安定したら顔検出の頻度を調整するために頭の動きを検出し続ける。
また例えば、上述の実施形態において、眠気を検出するための指標に、心拍数、SDNN、EARの3つを採用するものとして説明したが、特にこれに限定されない。
すなわち、本システムは眠気を算出するために他の異なる指標を採用してもよい。さらに言えば、本実施形態で採用した指標は必ずしも一般的に用いられる各種指標と同一の指標でなくともよく、導出方法や詳細な指標の意味合いに多少の変更や改変を含むものである。
すなわち、本システムは眠気を算出するために他の異なる指標を採用してもよい。さらに言えば、本実施形態で採用した指標は必ずしも一般的に用いられる各種指標と同一の指標でなくともよく、導出方法や詳細な指標の意味合いに多少の変更や改変を含むものである。
また例えば、上述の実施形態において、PPG信号の値を用いて心拍数の推定を行ったが、特にこれに限定されない。すなわち、例えば、他の波長によるPPG信号やそれらの値の平均値など様々な方法により心拍数を推定してもよい。
また例えば、上述の実施形態において、クラスタリング部111は、色情報に基づいてクラスタリングを実行するものとして説明したが、特にこれに限定されない。すなわち、例えば、クラスタリング部111は、色に限らず、輝度に関するあらゆる情報に基づいてクラスタリングを実行してもよい。
また例えば、上述の実施形態において、クラスタリング部111は、色情報に基づいてクラスタリングを実行するものとして説明したが、特にこれに限定されない。すなわち、例えば、クラスタリング部111は、色に限らず、輝度に関するあらゆる情報に基づいてクラスタリングを実行してもよい。
また例えば、上述の実施形態(特に図5の実施形態)において、眠気検出の具体的な方法について説明したが、上述の眠気検出の方法はあくまでも例示であり、限定されない。
例えば、本システムの提供者などは、異なる閾値や基準を採用し、眠気の有無を検出してもよい。さらに言えば、本システムの提供者などは、上述の標準化した値を採用せず、異なるスコアなどを採用して眠気の有無を検出してもよい。
例えば、本システムの提供者などは、異なる閾値や基準を採用し、眠気の有無を検出してもよい。さらに言えば、本システムの提供者などは、上述の標準化した値を採用せず、異なるスコアなどを採用して眠気の有無を検出してもよい。
また例えば、上述の実施形態において、カメラ13は各種プログラムなどを処理する制御部を含まないものとして説明したが、特にこれに限定されない。
すなわち、カメラ13は、必要に応じて、図示せぬ制御部や記憶部などを含み構成されてもよい。この場合、例えば、画像処理端末11で実行された各種処理に全部または一部はカメラ13で実行されてもよい。
すなわち、カメラ13は、必要に応じて、図示せぬ制御部や記憶部などを含み構成されてもよい。この場合、例えば、画像処理端末11で実行された各種処理に全部または一部はカメラ13で実行されてもよい。
また例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3および4の機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3および4の例に限定されない。また、機能ブロックの存在場所も、図3および4に特に限定されず、任意でよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
換言すると、図3および4の機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3および4の例に限定されない。また、機能ブロックの存在場所も、図3および4に特に限定されず、任意でよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
また例えば、本システムを構成する各種ハードウェアの数や使用者は任意であるし、他のハードウェア等を含み構成されてもよい。
また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
また例えば、このようなプログラムを含む記録媒体は、プレイヤにプログラムを提供するために装置本体とは別に提供される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でプレイヤに提供される記録媒体等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上をまとめると、本発明が適用されるプログラムは、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用され得る情報処理システムは、
対象者の状態の検知に関する情報の取得に利用可能な情報処理システムであって、
前記対象者の皮膚を含む画像に関する情報を取得する画像情報取得手段(例えば、対象画像情報取得部60)と、
前記画像に含まれる前記対象者の皮膚に関する領域を特定し、当該領域の夫々におおける輝度に関する輝度情報を取得する輝度情報取得手段(例えば、皮膚検知部110)と、
前記領域の夫々において取得された前記輝度情報の夫々を、複数のクラスタに分類し、クラスタリングを実行するクラスタリング実行手段(例えば、クラスタリング部111)と、
前記クラスタリングの結果に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する心拍数等決定手段(例えば、心拍数推定部112)と、
を備えることができる。
即ち、本発明が適用され得る情報処理システムは、
対象者の状態の検知に関する情報の取得に利用可能な情報処理システムであって、
前記対象者の皮膚を含む画像に関する情報を取得する画像情報取得手段(例えば、対象画像情報取得部60)と、
前記画像に含まれる前記対象者の皮膚に関する領域を特定し、当該領域の夫々におおける輝度に関する輝度情報を取得する輝度情報取得手段(例えば、皮膚検知部110)と、
前記領域の夫々において取得された前記輝度情報の夫々を、複数のクラスタに分類し、クラスタリングを実行するクラスタリング実行手段(例えば、クラスタリング部111)と、
前記クラスタリングの結果に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する心拍数等決定手段(例えば、心拍数推定部112)と、
を備えることができる。
さらに、前記画像は、前記対象者の身体の複数の部位を含み、
前記心拍数等決定手段は、前記複数の部位から取得された前記PPG信号に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定することができる。
前記心拍数等決定手段は、前記複数の部位から取得された前記PPG信号に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定することができる。
さらに、前記心拍数等決定手段は、前記クラスタリングで分類された各クラスタの特性に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定することができる。
さらに、前記情報処理システムは、
前記対象者の頭部の動きを検知する検知手段と、
前記検知手段で検知された結果に基づいて、前記画像の取得頻度や顔検出頻度を変更する画像取得調整手段をさらに備えることができる。
前記対象者の頭部の動きを検知する検知手段と、
前記検知手段で検知された結果に基づいて、前記画像の取得頻度や顔検出頻度を変更する画像取得調整手段をさらに備えることができる。
1 解析サーバ
21 制御部
60 対象画像情報取得部
61 生体指標取得部
62 眠気検出部
100 PPG処理部
110 皮膚検知部
111 クラスタリング部
112 心拍数推定部
130 SDNN取得部
140 EAR取得部
300 画像DB
2 画像生成装置
11 画像処理端末
12 光源
13 カメラ
50 制御部
160 対象画像情報管理部
161 検出結果管理部
21 制御部
60 対象画像情報取得部
61 生体指標取得部
62 眠気検出部
100 PPG処理部
110 皮膚検知部
111 クラスタリング部
112 心拍数推定部
130 SDNN取得部
140 EAR取得部
300 画像DB
2 画像生成装置
11 画像処理端末
12 光源
13 カメラ
50 制御部
160 対象画像情報管理部
161 検出結果管理部
Claims (6)
- 対象者の状態の検知に関する情報の取得に利用可能な情報処理システムであって、
前記対象者の皮膚を含む画像に関する情報を取得する画像情報取得手段と、
前記画像に含まれる前記対象者の皮膚に関する領域を特定し、当該領域の夫々における輝度に関する輝度情報を取得する輝度情報取得手段と、
前記領域の夫々において取得された前記輝度情報の夫々を、複数のクラスタに分類し、クラスタリングを実行するクラスタリング実行手段と、
前記クラスタリングの結果に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する心拍数等決定手段と、
を備える情報処理システム。 - 前記画像は、前記対象者の身体の複数の部位を含み、
前記心拍数等決定手段は、前記複数の部位から取得された前記皮膚情報に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する、
請求項1に記載の情報処理システム。 - 前記心拍数等決定手段は、前記クラスタリングで分類された各クラスタの特性に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する、
請求項1に記載の情報処理システム。 - 前記対象者の頭部の動きを検知する検知手段と、
前記検知手段で検知された結果に基づいて、前記画像の取得頻度や顔検出頻度を変更する画像取得調整手段をさらに備える、
請求項1乃至3のうちいずれか1項に記載の情報処理システム。 - 対象者の状態の検知に関する情報の取得に利用可能なコンピュータが実行する情報処理方法であって、
前記対象者の皮膚を含む画像に関する情報を取得する画像情報取得ステップと、
前記画像に含まれる前記対象者の皮膚に関する領域を特定し、当該領域の夫々における輝度に関する輝度情報を取得する輝度情報取得ステップと、
前記領域の夫々において取得された前記輝度情報の夫々を、複数のクラスタに分類するクラスタリングを実行するクラスタリング実行ステップと、
前記クラスタリングの結果に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する心拍数等決定ステップと、
を備える情報処理方法。 - 対象者の状態の検知に関する情報の取得に利用可能なコンピュータに、
前記対象者の皮膚を含む画像に関する情報を取得する画像情報取得ステップと、
前記画像に含まれる前記対象者の皮膚に関する領域を特定し、当該領域の夫々における輝度に関する輝度情報を取得する輝度情報取得ステップと、
前記領域の夫々において取得された前記輝度情報の夫々を、複数のクラスタに分類するクラスタリングを実行するクラスタリング実行ステップと、
前記クラスタリングの結果に基づいて、前記対象者の夫々の心拍数または心拍数に関する指標の値を決定する心拍数等決定ステップと、
を含む処理を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020134744A JP2022030619A (ja) | 2020-08-07 | 2020-08-07 | 情報処理システム、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020134744A JP2022030619A (ja) | 2020-08-07 | 2020-08-07 | 情報処理システム、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022030619A true JP2022030619A (ja) | 2022-02-18 |
Family
ID=80324710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020134744A Pending JP2022030619A (ja) | 2020-08-07 | 2020-08-07 | 情報処理システム、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022030619A (ja) |
-
2020
- 2020-08-07 JP JP2020134744A patent/JP2022030619A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | The obf database: A large face video database for remote physiological signal measurement and atrial fibrillation detection | |
CN110276273B (zh) | 融合面部特征与图像脉搏心率估计的驾驶员疲劳检测方法 | |
US20220151504A1 (en) | Smart windowing to reduce power consumption of a head-mounted camera used for iPPG | |
US10022082B2 (en) | Apparatus and method for detecting a state of a driver based on biometric signals of the driver | |
KR102322029B1 (ko) | 생체 정보 획득 방법 및 이를 위한 장치 | |
US20210022670A1 (en) | Systems and methods for diagnosing sleep | |
JP6521845B2 (ja) | 心拍に連動する周期的変動の計測装置及び計測方法 | |
US11857323B2 (en) | System and method for camera-based stress determination | |
McDuff et al. | Fusing partial camera signals for noncontact pulse rate variability measurement | |
JPWO2016159150A1 (ja) | 脈波検出装置、及び脈波検出プログラム | |
US20230052100A1 (en) | Systems And Methods For Optical Evaluation Of Pupillary Psychosensory Responses | |
US20180279935A1 (en) | Method and system for detecting frequency domain cardiac information by using pupillary response | |
CN111248890A (zh) | 一种基于面部视频的非接触式新生儿心率监测方法及系统 | |
KR102482796B1 (ko) | 원격 광용적맥파 측정을 이용한 비접촉 심박 변이도 분석 장치 및 방법 | |
US10631727B2 (en) | Method and system for detecting time domain cardiac parameters by using pupillary response | |
WO2019180393A1 (fr) | Méthode de génération d'un indicateur d'état d'une personne dans le coma | |
Newman et al. | Automatic nystagmus detection and quantification in long-term continuous eye-movement data | |
JP2020537552A (ja) | 複数のセンサを伴うダイレクトフォトプレチスモグラフィ(ppg)のためのコンピュータ実装方法及びシステム | |
CN114423341A (zh) | 用于血液生物标志物的基于相机的量化的系统和方法 | |
JP2024518677A (ja) | Rgb画像から心拍数を抽出するための方法及びシステム | |
Suriani et al. | Non-contact facial based vital sign estimation using convolutional neural network approach | |
KR102243017B1 (ko) | 얼굴 피부 영상을 이용한 우울증 지수 측정 및 진단 방법 | |
JP2022030619A (ja) | 情報処理システム、情報処理方法およびプログラム | |
CN116509359A (zh) | 一种工地作业的多目标心率监测方法及装置 | |
Zhang et al. | Sleep/wake classification via remote PPG signals |