JP2021019940A - 生体情報抽出装置 - Google Patents
生体情報抽出装置 Download PDFInfo
- Publication number
- JP2021019940A JP2021019940A JP2019139106A JP2019139106A JP2021019940A JP 2021019940 A JP2021019940 A JP 2021019940A JP 2019139106 A JP2019139106 A JP 2019139106A JP 2019139106 A JP2019139106 A JP 2019139106A JP 2021019940 A JP2021019940 A JP 2021019940A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- biological information
- information extraction
- image
- extraction device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
【課題】生体情報を精度よく抽出することを課題とする。【解決手段】顔画像M1と、顔とは異なる場所に設置され、顔における環境光を取得するための参照エリアRの画像である参照エリア画像M2と、を撮像するカメラ111と、参照エリア画像M2のHSV信号値が一定値に入るようにカメラ111のカメラパラメータを調整するカメラパラメータ調整部と、カメラパラメータ調整部により調整された状態で撮像された顔画像M1の時系列データから生体の生体情報を抽出する生体情報抽出部と、を備えることを特徴とする。【選択図】図1
Description
本発明は、生体情報抽出装置の技術に関する。
現在、運転者の安全技術の向上、及び健康管理サービス展開向けに、対象者の状態検知技術が望まれている。このような要望は、自動車に限らず、飛行機、鉄道、船舶等多岐に渡っている。そして、このような要望に応えるべく、大学、企業等といった様々な機関で、カメラや、センサを用いた運転者の状態監視技術が研究されている。ここで、状態監視技術の対象は、心拍、血圧、姿勢、正面を向いていないこと等である。しかし、これらの運転者の状態監視技術は、その判定精度や、コスト、準備等による運転者の負担感等により、実際に普及しているものは少ない。
非接触で人の状態を検知することで運転者の負担感を軽減する技術がある。このような技術として、カメラで撮像された運転者の画像から脈波を算出するものや、ドップラーセンサを用いて運転者の心拍や呼吸を計測するものがある。
特許文献1には、「対象者の顔を含む領域を撮影した動画を取得する動画取得手段と、前記動画に写っている前記対象者の目の部分を特定する目部分特定手段と、前記動画の撮影環境の変化によって生じた明度の変化を、前記特定した目の部分の所定の色空間成分の変化から取得する明度変化取得手段と、前記取得した明度の変化を用いて前記動画の明度を補正する明度補正手段と、前記補正された前記対象者の皮膚の部分における所定の色空間成分の時間変化から前記対象者の脈波を取得する脈波取得手段と、前記取得した脈波を出力する出力手段と、を具備したことを特徴とする」脈波検出装置、及び脈波検出プログラムが開示されている(請求項1参照)。
カメラで撮像した画像を用いて人の生体情報(呼吸、脈波、血圧等)を計測する場合、外光の影響を受けることで、運転中の生体情報を正しく測定できないことが報告されている。生体情報は、顔画像の特定色成分の揺らぎから算出される。そのため、光の当たり方が異なると、コンピュータは、人の顔色が変化したのか、外部環境が変化したのか区別することが難しい。その結果、生体情報の計測精度が低下してしまう。
特許文献1に記載の技術は、脈波シグナル(G成分)の弱領域の輝度変化を基に、顔画像を補正するものである。しかし、夕焼け等急激な光の周波数変化があった場合、顔に入射するRGB成分の比率が変化し、明度変化だけでは脈波が正しく計測できない。
このような背景に鑑みて本発明がなされたのであり、本発明は、生体情報を精度よく抽出することを課題とする。
前記した課題を解決するため、本発明は、生体の肌を含む第1の画像と、前記生体の肌とは異なる場所に設置され、前記生体の肌における環境光に関する情報を取得するための参照エリアの画像である第2の画像と、を撮像する撮像部と、前記第2の画像のHSV信号値が一定値に入るように前記撮像部のパラメータを調整するパラメータ調整部と、前記パラメータ調整部により調整された状態で撮像された前記第1の画像の時系列データから前記生体の生体情報を抽出する生体情報抽出部と、前記生体情報抽出部により抽出された前記生体情報を出力する出力部と、を有することを特徴とする。
その他の解決手段は、実施形態において適宜記載する。
その他の解決手段は、実施形態において適宜記載する。
本発明によれば、生体情報を精度よく抽出することができる。
次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。なお、本実施形態では、生体情報抽出装置1が自動車に搭載されている例を記載するが、トラック、飛行機、船舶、鉄道等、人が運転するものであれば搭載可能である。
[第1実施形態]
(概要)
図1は、第1実施形態の概要を示す図である。
図1に示すように、シートベルトBに参照エリアRが設置され、撮像部であるカメラ111が参照エリアR、及び、運転者の顔の画像を含む符号Mで示される領域の画像(以降、撮像画像Mと称する)を撮像する。カメラ111として、例えば1秒間に30フレーム程度のビデオカメラが使用される。撮像画像Mから、第1の画像である運転者の顔画像(符号M1で示される領域の画像)及び第2の画像である参照エリア画像(参照エリア画像M2と称する)が抽出される。符号M1で示される領域の画像を、以降、顔画像M1と称する。そして、参照エリア画像M2におけるHSV信号を基に、カメラパラメータが調整される。そして、カメラ111は、算出された補正値を基に、カメラパラメータを調整して顔画像M1を含む画像を撮像する。そして、カメラパラメータが調整された上で撮像された顔画像M1から脈波等の生体情報が抽出される。なお、カメラ111は、静止画を連続的に撮像してもよいし、動画を撮像してもよい。
(概要)
図1は、第1実施形態の概要を示す図である。
図1に示すように、シートベルトBに参照エリアRが設置され、撮像部であるカメラ111が参照エリアR、及び、運転者の顔の画像を含む符号Mで示される領域の画像(以降、撮像画像Mと称する)を撮像する。カメラ111として、例えば1秒間に30フレーム程度のビデオカメラが使用される。撮像画像Mから、第1の画像である運転者の顔画像(符号M1で示される領域の画像)及び第2の画像である参照エリア画像(参照エリア画像M2と称する)が抽出される。符号M1で示される領域の画像を、以降、顔画像M1と称する。そして、参照エリア画像M2におけるHSV信号を基に、カメラパラメータが調整される。そして、カメラ111は、算出された補正値を基に、カメラパラメータを調整して顔画像M1を含む画像を撮像する。そして、カメラパラメータが調整された上で撮像された顔画像M1から脈波等の生体情報が抽出される。なお、カメラ111は、静止画を連続的に撮像してもよいし、動画を撮像してもよい。
このようにすることで、参照エリアRの波長成分をリアルタイム解析し、脈波計測に必要なHSV(明度、彩度、色相)の範囲を維持するように、カメラパラメータを調整することができる。ここで、カメラパラメータは、カメラ111のホワイトバランス、ゲイン、彩度、コントラスト、露出(絞り及びシャッタ速度の少なくとも一方)等を制御する。
ここで、参照エリアRは以下のようなものが考えられる。
(1)数〜数十μmの凹凸形状を有するシート状のもので、入射した光に対しランバート反射を実現することができるもの。
(2)表面が誘電体で多層コーティングされることで特定波長のみ反射するもの。金属材料による波長選択コーティングが行われているもよい。また、前記の反射光に指向性をもたせる様な表面形状を施してもよい。例えば、脈派の検知に使用されるグリーン等である。このようにすることで、安定してHSV信号を取得することができる。
(1)数〜数十μmの凹凸形状を有するシート状のもので、入射した光に対しランバート反射を実現することができるもの。
(2)表面が誘電体で多層コーティングされることで特定波長のみ反射するもの。金属材料による波長選択コーティングが行われているもよい。また、前記の反射光に指向性をもたせる様な表面形状を施してもよい。例えば、脈派の検知に使用されるグリーン等である。このようにすることで、安定してHSV信号を取得することができる。
また、図1では、参照エリアRがシートベルトBに設けられているが、これに限らず、顔周辺であれば、服、帽子、メガネ、ネクタイ、マスク等に設けられてもよい。また、参照エリアRは、(1)、(2)の特性を有する反射板であってもよいし、シートベルトBの一部を(1)、(2)の特性を有する素材にしてもよい。つまり、参照エリアRは、顔画像M1が撮像される領域(生体情報が抽出される肌領域)の近傍に備えられる。
詳細は後記するが、第1実施形態によれば脈波等の生体情報の抽出について、外光(環境光)の影響を提言することができ、ロバスト性を向上させることができる。
[第2実施形態]
図2は、第2実施形態の概略例を示す図である。
図2において、図1と同様の構成については同一の符号を付して説明を省略する。
図2に示す手法が、図1に示す手法と異なる点は、夜間に対応している点である。そして、図2に示す手法は、夜間に対応するため近赤外線ライト112を有している。なお、図2では、近赤外線ライト112は、カメラ111と一体の装置となっているが、別の装置として設置されてもよい。
図2は、第2実施形態の概略例を示す図である。
図2において、図1と同様の構成については同一の符号を付して説明を省略する。
図2に示す手法が、図1に示す手法と異なる点は、夜間に対応している点である。そして、図2に示す手法は、夜間に対応するため近赤外線ライト112を有している。なお、図2では、近赤外線ライト112は、カメラ111と一体の装置となっているが、別の装置として設置されてもよい。
そして、環境が夜間であると判定されると、近赤外線ライト112が運転者の顔及び参照エリアRに照射される。環境が夜間であるか否かの判定方法は後記する。
第2実施形態のようなシステムとすることで、暗い環境下でも第1実施形態の効果を得ることができる。
以下では、第2実施形態の生体情報抽出装置1を基本として、機能ブロック図、システム図、フローチャートを説明するが、これらは第1実施形態に対しても適用可能である。
(システム構成)
図3は、第2実施形態に係る生体情報抽出装置1の機能ブロック図である。
生体情報抽出装置1は、夜間モード切替処理部101を有する。また、生体情報抽出装置1は、カメラ制御部102、画像取得部103を有する。さらに、生体情報抽出装置1は、後記して説明する参照エリア画像解析部140、同じく後記して説明する顔画像解析部130を有する。そして、生体情報抽出装置1は、判定部104、カメラパラメータ調整部105、学習部106、監視処理部107、緊急処理部108、ログ解析部109を有する。また、生体情報抽出装置1は、カメラ111、近赤外線ライト112を有する。さらに、生体情報抽出装置1は、カメラパラメータ記憶部121、ログ記憶部122、NGデータ記憶部123を有する。
図3は、第2実施形態に係る生体情報抽出装置1の機能ブロック図である。
生体情報抽出装置1は、夜間モード切替処理部101を有する。また、生体情報抽出装置1は、カメラ制御部102、画像取得部103を有する。さらに、生体情報抽出装置1は、後記して説明する参照エリア画像解析部140、同じく後記して説明する顔画像解析部130を有する。そして、生体情報抽出装置1は、判定部104、カメラパラメータ調整部105、学習部106、監視処理部107、緊急処理部108、ログ解析部109を有する。また、生体情報抽出装置1は、カメラ111、近赤外線ライト112を有する。さらに、生体情報抽出装置1は、カメラパラメータ記憶部121、ログ記憶部122、NGデータ記憶部123を有する。
以下、各部の説明を行うが、詳細な説明は後記するとし、ここでは簡単に説明する。
夜間モード切替処理部101は、環境が夜間であるか否かを判定し、環境が夜間であれば、夜間モードに切り替え、近赤外線ライト112を点灯する。
カメラ制御部102は、カメラパラメータに従ってカメラ111を制御する。カメラパラメータについては後記する。
画像取得部103は、カメラ111が撮像した撮像画像Mを取得する。
夜間モード切替処理部101は、環境が夜間であるか否かを判定し、環境が夜間であれば、夜間モードに切り替え、近赤外線ライト112を点灯する。
カメラ制御部102は、カメラパラメータに従ってカメラ111を制御する。カメラパラメータについては後記する。
画像取得部103は、カメラ111が撮像した撮像画像Mを取得する。
顔画像解析部130及び参照エリア画像解析部140については後記する。
判定部104は、顔画像解析部130及び参照エリア画像解析部140の解析結果を基に、カメラパラメータの調整が必要か否か判定する。
カメラパラメータ調整部105は、判定部104によってカメラパラメータの調整が必要と判定された場合、カメラパラメータの調整を行う。
判定部104は、顔画像解析部130及び参照エリア画像解析部140の解析結果を基に、カメラパラメータの調整が必要か否か判定する。
カメラパラメータ調整部105は、判定部104によってカメラパラメータの調整が必要と判定された場合、カメラパラメータの調整を行う。
また、カメラパラメータ調整部105は、算出したカメラパラメータの調整値を、画像取得部103から取得した撮像画像Mと対応付けてカメラパラメータ記憶部121に格納する。あるいは、カメラパラメータ調整部105は、図7に示す時刻記録部313及びGPS記録部314から時刻情報及び位置・方角情報を取得して、時刻情報、位置・方角情報、撮像画像Mと対応付けてカメラパラメータ記憶部121に格納してもよい。
学習部106は、カメラパラメータ記憶部121に蓄積されているカメラパラメータを学習する。学習は、例えば、撮像画像Mの輝度パターン等を基に、カメラパラメータを分類する。カメラパラメータが、撮像画像Mに加えて時刻情報、位置・方角情報にも対応付けられている場合、学習部106は、これらの情報も併せて学習する。
学習部106は、カメラパラメータ記憶部121に蓄積されているカメラパラメータを学習する。学習は、例えば、撮像画像Mの輝度パターン等を基に、カメラパラメータを分類する。カメラパラメータが、撮像画像Mに加えて時刻情報、位置・方角情報にも対応付けられている場合、学習部106は、これらの情報も併せて学習する。
監視処理部107は、顔画像解析部130によって抽出された生体情報を基に、運転者の状態を監視する。また、監視処理部107は、運転者の状態が異常と判定すると、その生体情報をNGデータ記憶部123に格納する。NGデータ記憶部123に格納されたデータは、例えば、図示しない運行管理センタに送信される。そして、運行管理センタの担当者が送信されたNGデータを解析し、必要に応じて病院等へ連絡する。
緊急処理部108は、監視処理部107によって運転者の異常を検知されると、所定の緊急処理を行う。
ログ解析部109は、ログ記憶部122に格納された生体情報を解析することで、だれがいつ、どこで生体情報抽出装置1を使用したかといったログ解析(所定の解析)を行う。このようなログ解析を行うことにより、セキュリティの向上を実現することができる。
緊急処理部108は、監視処理部107によって運転者の異常を検知されると、所定の緊急処理を行う。
ログ解析部109は、ログ記憶部122に格納された生体情報を解析することで、だれがいつ、どこで生体情報抽出装置1を使用したかといったログ解析(所定の解析)を行う。このようなログ解析を行うことにより、セキュリティの向上を実現することができる。
(顔画像解析部130)
図4は、図3に示す顔画像解析部130の詳細な構成を示す図である。
顔画像解析部130は、顔画像抽出部131、顔画像RGB信号処理部132、顔画像HSV変換部133、生体情報抽出部134を有する。
顔画像抽出部131は、画像取得部103が取得した撮像画像Mから顔画像M1を抽出する。
前記したように、例えば1秒間に30フレーム程度のビデオカメラを使用された場合、顔画像RGB信号処理部132は、フレーム毎に顔画像M1から、RGB信号それぞれ(R信号、G信号、B信号)を取得する。次に、顔画像RGB信号処理部132は、取得したRGBデータにおいて、例えば注目画素を中心とする縦横3タップすなわち3×3画素にコンボリューションカーネルを用いて畳み込み演算を実施する。得られた値が当該等注目画素の平滑化RGB信号となる。なお、コンボリューションカーネルの行列式の成分は、例えば、加重平均の係数であり、それらの合計値が1.0になればよく、平均分布やガウシアン分布などを用いて適宜定めることができる。
図4は、図3に示す顔画像解析部130の詳細な構成を示す図である。
顔画像解析部130は、顔画像抽出部131、顔画像RGB信号処理部132、顔画像HSV変換部133、生体情報抽出部134を有する。
顔画像抽出部131は、画像取得部103が取得した撮像画像Mから顔画像M1を抽出する。
前記したように、例えば1秒間に30フレーム程度のビデオカメラを使用された場合、顔画像RGB信号処理部132は、フレーム毎に顔画像M1から、RGB信号それぞれ(R信号、G信号、B信号)を取得する。次に、顔画像RGB信号処理部132は、取得したRGBデータにおいて、例えば注目画素を中心とする縦横3タップすなわち3×3画素にコンボリューションカーネルを用いて畳み込み演算を実施する。得られた値が当該等注目画素の平滑化RGB信号となる。なお、コンボリューションカーネルの行列式の成分は、例えば、加重平均の係数であり、それらの合計値が1.0になればよく、平均分布やガウシアン分布などを用いて適宜定めることができる。
顔画像HSV変換部133は、顔画像RGB信号処理部132が出力する平滑化RGB信号をR(赤)、G(緑)、B(青)に分解した信号(分解RGB信号と称する)を取得する。そして、顔画像HSV変換部133は、分解RGB信号を色相信号(H)、彩度信号(S)、明度信号(V)からなるHSV空間信号に変換する。
生体情報抽出部134は、顔画像HSV変換部133で変換された、複数フレームの連続した時系列データの差分から脈波等の生体情報を抽出する。顔画像M1から生体情報を抽出する技術は、特開2018−86130号公報、特開2019−80811号公報等に開示されている。また、生体情報抽出部134は、抽出した生体情報を、ユーザ情報、図7に示す時刻記録部313から取得した時刻情報と対応付けてログ記憶部122に格納する。生体情報抽出部134は、生体情報をログ記憶部122に格納する際に、図7に示すGPS記録部314から時刻情報や、位置・方角情報を取得してもよい。そして、生体情報抽出部134は、位置・方角情報と対応付けて生体情報をログ記憶部122に格納してもよい。
(参照エリア画像解析部140)
図5は、図3に示す参照エリア画像解析部140の詳細な構成を示す図である。
参照エリア画像解析部140は、参照エリア画像抽出部141、参照エリア画像RGB信号処理部142、参照エリア画像HSV変換部143、HSV差分算出部144を有する。
顔画像解析部130と同様に参照エリア画像抽出部141は、画像取得部103が取得した撮像画像Mから参照エリア画像M2を抽出する。
参照エリア画像RGB信号処理部142は、平滑化RGB信号を取得する。参照エリア画像RGB信号処理部142による平滑化RGB信号の取得は、対象となる画像が参照エリア画像M2となること以外は、顔画像RGB信号処理部132と同様の処理である。
参照エリア画像HSV変換部143は、平滑化RGB信号をR(赤)、G(緑)、B(青)に分解した信号(分解RGB信号)を取得する。そして、参照エリア画像HSV変換部143は、分解RGB信号を色相信号(H)、彩度信号(S)、明度信号(V)からなるHSV空間信号に変換する。参照エリア画像HSV変換部143によるHSV空間信号の変換は、対象となる画像が参照エリア画像M2となること以外は、顔画像HSV変換部133と同様の処理である。
HSV差分算出部144は、以前の複数フレームと、直近の複数フレームとにおけるHSV信号値の差分を算出する。HSV差分算出部144は、例えば、以前の複数フレームにおける色相信号(H)、彩度信号(S)、明度信号(V)それぞれの平均値と、直近の複数フレームにおける色相信号(H)、彩度信号(S)、明度信号(V)それぞれの平均値との差分を算出する。
図5は、図3に示す参照エリア画像解析部140の詳細な構成を示す図である。
参照エリア画像解析部140は、参照エリア画像抽出部141、参照エリア画像RGB信号処理部142、参照エリア画像HSV変換部143、HSV差分算出部144を有する。
顔画像解析部130と同様に参照エリア画像抽出部141は、画像取得部103が取得した撮像画像Mから参照エリア画像M2を抽出する。
参照エリア画像RGB信号処理部142は、平滑化RGB信号を取得する。参照エリア画像RGB信号処理部142による平滑化RGB信号の取得は、対象となる画像が参照エリア画像M2となること以外は、顔画像RGB信号処理部132と同様の処理である。
参照エリア画像HSV変換部143は、平滑化RGB信号をR(赤)、G(緑)、B(青)に分解した信号(分解RGB信号)を取得する。そして、参照エリア画像HSV変換部143は、分解RGB信号を色相信号(H)、彩度信号(S)、明度信号(V)からなるHSV空間信号に変換する。参照エリア画像HSV変換部143によるHSV空間信号の変換は、対象となる画像が参照エリア画像M2となること以外は、顔画像HSV変換部133と同様の処理である。
HSV差分算出部144は、以前の複数フレームと、直近の複数フレームとにおけるHSV信号値の差分を算出する。HSV差分算出部144は、例えば、以前の複数フレームにおける色相信号(H)、彩度信号(S)、明度信号(V)それぞれの平均値と、直近の複数フレームにおける色相信号(H)、彩度信号(S)、明度信号(V)それぞれの平均値との差分を算出する。
(ハードウェア構成)
図6は、第2実施形態に係る生体情報抽出装置1のハードウェア構成を示す図である。
生体情報抽出装置1は、メモリ201、CPU202(Central Processing Unit)、記憶装置203を有している。メモリ201と記憶装置203の種類は、必要に応じてROM(Read Only Memory)や、RAM(Random Access Memory)等を用いることができる。また、生体情報抽出装置1は、カメラ111、近赤外線ライト112を有している。なお、生体情報抽出装置1は、車載ECU(Electronic Control Unit)等に搭載されてもよいし、車載ECUとは別のユニットとして搭載されてもよい。ここでは、生体情報抽出装置1が、車載ECUとは別のユニットとして搭載されているものとする。
図6は、第2実施形態に係る生体情報抽出装置1のハードウェア構成を示す図である。
生体情報抽出装置1は、メモリ201、CPU202(Central Processing Unit)、記憶装置203を有している。メモリ201と記憶装置203の種類は、必要に応じてROM(Read Only Memory)や、RAM(Random Access Memory)等を用いることができる。また、生体情報抽出装置1は、カメラ111、近赤外線ライト112を有している。なお、生体情報抽出装置1は、車載ECU(Electronic Control Unit)等に搭載されてもよいし、車載ECUとは別のユニットとして搭載されてもよい。ここでは、生体情報抽出装置1が、車載ECUとは別のユニットとして搭載されているものとする。
メモリ201に格納されてるプログラムがCPU202によって実行されることによって、図3〜図5に示す各部101〜109,131〜134,141〜144が具現化する。
また、記憶装置203は、図4におけるカメラパラメータ記憶部121、ログ記憶部122、NGデータ記憶部123に相当するものである。
なお、カメラ111及び近赤外線ライト112は、図1〜図4で説明済みであるので、ここでの説明を省略する。
また、記憶装置203は、図4におけるカメラパラメータ記憶部121、ログ記憶部122、NGデータ記憶部123に相当するものである。
なお、カメラ111及び近赤外線ライト112は、図1〜図4で説明済みであるので、ここでの説明を省略する。
(運転者管理システム3)
図7は、第2実施形態における運転者管理システム3の構成を示す図である。
運転者管理システム3は、生体情報抽出装置1及び機器システム300を有している。生体情報抽出装置1は、図3〜図6において説明済みであるので、ここでの説明を省略する。
機器システム300は、車載ECU等に搭載されており、メモリ310、送受信装置301、CPU302、記憶装置303、スピーカ304、表示装置305、マイク306を有している。表示装置305は、例えば、自動車C1(図8参照)のフロントディスプレイ等である。
そして、メモリ310に格納されているプログラムがCPU302によって実行されることにより、車両制御部311、出力制御部312、時刻記録部313、GPS記録部314が具現化している。
図7は、第2実施形態における運転者管理システム3の構成を示す図である。
運転者管理システム3は、生体情報抽出装置1及び機器システム300を有している。生体情報抽出装置1は、図3〜図6において説明済みであるので、ここでの説明を省略する。
機器システム300は、車載ECU等に搭載されており、メモリ310、送受信装置301、CPU302、記憶装置303、スピーカ304、表示装置305、マイク306を有している。表示装置305は、例えば、自動車C1(図8参照)のフロントディスプレイ等である。
そして、メモリ310に格納されているプログラムがCPU302によって実行されることにより、車両制御部311、出力制御部312、時刻記録部313、GPS記録部314が具現化している。
車両制御部311は、生体情報抽出装置1により運転者の異常が確認されると、自動車C1を緊急停止させるといった自動運転に関わる処理を行う。
出力制御部312は、スピーカ304から音声を発声させたり、表示装置305に情報を表示させたりする。
時刻記録部313及びGPS記録部314は、生体情報の異常を検出した時刻及び場所を生体情報抽出部134や、カメラパラメータ調整部105等に送る。
出力制御部312は、スピーカ304から音声を発声させたり、表示装置305に情報を表示させたりする。
時刻記録部313及びGPS記録部314は、生体情報の異常を検出した時刻及び場所を生体情報抽出部134や、カメラパラメータ調整部105等に送る。
なお、本実施形態では、生体情報抽出装置1と、機器システム300とが別のユニットに備えられているとしている。しかし、それに限らず、生体情報抽出装置1と、機器システム300とが同じユニットに備えられてもよい。つまり、図6及び図7におけるメモリ201,310、CPU202,302,記憶装置203,303のそれぞれが同一のものであってもよい。
なお、生体情報抽出装置1が機器システム300を内包していてもよいし、機器システム300が生体情報抽出装置1を内包していてもよい。
なお、生体情報抽出装置1が機器システム300を内包していてもよいし、機器システム300が生体情報抽出装置1を内包していてもよい。
(管理システムZ)
図8は、第2実施形態における管理システムZの構成例を示す図である。
管理システムZは、自動車C1や、鉄道車両C2に搭載された運転者管理システム3と、運行会社4、保険会社5等がクラウドサービス(ネットワーク)SVを介して接続されている。
生体情報抽出装置1が運転者の異常を検知すると、運転者管理システム3は、運行会社4にその旨を通知する。すると、運行会社4のオペレータが対象となる自動車C1や、鉄道車両C2の運転者に呼びかけ等を行う。
保険会社5は、本実施形態の生体情報抽出装置1(運転者管理システム3)を搭載している自動車C1の保険料を安くする等の保険サービスを提供する。
このように、管理システムZが、クラウドサービスSVに接続されていることで、生体情報の様々な活用が可能となる。
図8は、第2実施形態における管理システムZの構成例を示す図である。
管理システムZは、自動車C1や、鉄道車両C2に搭載された運転者管理システム3と、運行会社4、保険会社5等がクラウドサービス(ネットワーク)SVを介して接続されている。
生体情報抽出装置1が運転者の異常を検知すると、運転者管理システム3は、運行会社4にその旨を通知する。すると、運行会社4のオペレータが対象となる自動車C1や、鉄道車両C2の運転者に呼びかけ等を行う。
保険会社5は、本実施形態の生体情報抽出装置1(運転者管理システム3)を搭載している自動車C1の保険料を安くする等の保険サービスを提供する。
このように、管理システムZが、クラウドサービスSVに接続されていることで、生体情報の様々な活用が可能となる。
(フローチャート)
図9A及び図9Bは、第1実施形態に係る生体情報抽出装置1における処理手順を示すフローチャートである。
まず、ユーザによって電源がONされる(図9AのS101)。生体情報抽出装置1が乗用車に搭載されている場合、ユーザがイグニッションスイッチをONにすることで、生体情報抽出装置1の電源がONとなる。
次に、夜間モード切替処理部101は、現在が夜間であるか否かを判定する(S102)。夜間モード切替処理部101は、カメラ111が撮像した撮像画像Mの平均RGB信号値が所定の値以下になったか否かや、時刻等を基に現在が夜間であるか否かを判定する。
図9A及び図9Bは、第1実施形態に係る生体情報抽出装置1における処理手順を示すフローチャートである。
まず、ユーザによって電源がONされる(図9AのS101)。生体情報抽出装置1が乗用車に搭載されている場合、ユーザがイグニッションスイッチをONにすることで、生体情報抽出装置1の電源がONとなる。
次に、夜間モード切替処理部101は、現在が夜間であるか否かを判定する(S102)。夜間モード切替処理部101は、カメラ111が撮像した撮像画像Mの平均RGB信号値が所定の値以下になったか否かや、時刻等を基に現在が夜間であるか否かを判定する。
現在が夜間である場合(S102→Yes)、夜間モード切替処理部101はモードを夜間モードとし(S103)、ステップS104へ処理を進める。具体的には、夜間モード切替処理部101が近赤外線ライト112を点灯する。
現在が夜間ではない場合(S102→No)、カメラ制御部102は、デフォルトとなるカメラパラメータをカメラパラメータ記憶部121から取得する(S104)。カメラパラメータは、露出、明度、コントラスト、ホワイトバランス、色の強さ、ゲイン、彩度等である。また、学習部106による学習によって、撮像画像Mの輝度パターン等と、カメラパラメータとが予め分類分けされている。つまり、このような撮像画像Mには、このようなカメラパラメータが過去使用されたことが学習されている。カメラ制御部102は、撮像された撮像画像Mの輝度パターン等を基に、カメラパラメータ記憶部121を探索し、最も類似している撮像画像Mに対応付けられているカメラパラメータを取得する。カメラパラメータが撮像画像Mに加えて、時刻情報、位置・方角情報にも対応付けられてカメラパラメータ記憶部121に格納されている場合、カメラ制御部102は、現在の時刻情報、位置・方角情報も加味してカメラパラメータを探索する。現在の時刻情報、位置・方角情報は、図7の時刻記録部313、GPS記録部314から取得される。このように、予め、学習部106による学習を行っておくことで、適切なカメラパラメータのデフォルトを取得することができる。
そして、カメラ制御部102は、取得したカメラパラメータを設定する(S105)。
そして、カメラ制御部102は、取得したカメラパラメータを設定する(S105)。
次に、カメラ制御部102は、設定されたカメラパラメータで撮像を行う(S106)。このときの撮像では、参照エリアR及び顔の撮像が一度に行われる。画像取得部103は、撮像された撮像画像Mを取得する。
そして、顔画像抽出部131は、撮像された撮像画像Mから顔画像M1を抽出する(S111)。
次に、顔画像RGB信号処理部132は、抽出された顔画像M1における平滑化RGB信号を取得する(S112)。顔画像RGB信号処理部132による平滑化RGB信号の取得方法は前記しているので、ここでの説明を省略する。
そして、顔画像HSV変換部133は、前記したように、ステップSS122で取得した平滑化RGB信号をR(赤)、G(緑)、B(青)に分解した信号(分解RGB信号)を取得する。そして、前記したように、顔画像HSV変換部133は、取得した分解RGB信号を色相信号(H)、彩度信号(S)、明度信号(V)からなるHSV空間信号に変換する(S113)。
次に、生体情報抽出部134は、複数の連続した時系列における顔画像M1から生体情報としての脈波を抽出する(S114)。ステップS114の処理は、前記したように、特開2018−86130号公報、特開2019−80811号公報等に開示されている技術を用いて行われる。また、この際、生体情報抽出部134は、時刻記録部313等から時刻情報等を取得し、ユーザ情報、取得した時刻情報等と対応付けて脈波の情報をログ記憶部122に格納する。
その後、生体情報抽出装置1は図9BのステップS131へ処理を進める。
次に、顔画像RGB信号処理部132は、抽出された顔画像M1における平滑化RGB信号を取得する(S112)。顔画像RGB信号処理部132による平滑化RGB信号の取得方法は前記しているので、ここでの説明を省略する。
そして、顔画像HSV変換部133は、前記したように、ステップSS122で取得した平滑化RGB信号をR(赤)、G(緑)、B(青)に分解した信号(分解RGB信号)を取得する。そして、前記したように、顔画像HSV変換部133は、取得した分解RGB信号を色相信号(H)、彩度信号(S)、明度信号(V)からなるHSV空間信号に変換する(S113)。
次に、生体情報抽出部134は、複数の連続した時系列における顔画像M1から生体情報としての脈波を抽出する(S114)。ステップS114の処理は、前記したように、特開2018−86130号公報、特開2019−80811号公報等に開示されている技術を用いて行われる。また、この際、生体情報抽出部134は、時刻記録部313等から時刻情報等を取得し、ユーザ情報、取得した時刻情報等と対応付けて脈波の情報をログ記憶部122に格納する。
その後、生体情報抽出装置1は図9BのステップS131へ処理を進める。
また、生体情報抽出装置1は、ステップS111〜S114の処理と並行してステップS121〜S124の処理を行う。
まず、参照エリア画像抽出部141は、撮像画像Mから参照エリア画像M2を抽出する(S121)。
次に、参照エリア画像RGB信号処理部142は、抽出した参照エリア画像M2における平滑化RGB信号を取得する(S122)。参照エリア画像RGB信号処理部142による平滑化RGB信号の取得方法は前記しているので、ここでの説明を省略する。
そして、参照エリア画像HSV変換部143は、前記したように、ステップSS122で取得した平滑化RGB信号をR(赤)、G(緑)、B(青)に分解した信号(分解RGB信号)を取得する。そして、前記したように、参照エリア画像HSV変換部143は、取得した分解RGB信号を色相信号(H)、彩度信号(S)、明度信号(V)からなるHSV空間信号に変換する(S123)。
続いて、HSV差分算出部144は、変換したHSV信号の差分を算出する(S124)。ここで、H信号、S信号、V信号それぞれについての差分が算出される。差分は、前記したように、例えば、前の複数フレームと、現在の複数フレームにおけるHSV信号の差分を算出する。あるいは、例えば、現在のフレームを時刻tの複数フレームとし、1秒前の複数フレームを時刻t−1とすると、時刻t−5〜t−1の複数フレームのHSV平均値と時刻t〜t−4の複数フレームのHSV平均値との差分が算出されてもよい。
まず、参照エリア画像抽出部141は、撮像画像Mから参照エリア画像M2を抽出する(S121)。
次に、参照エリア画像RGB信号処理部142は、抽出した参照エリア画像M2における平滑化RGB信号を取得する(S122)。参照エリア画像RGB信号処理部142による平滑化RGB信号の取得方法は前記しているので、ここでの説明を省略する。
そして、参照エリア画像HSV変換部143は、前記したように、ステップSS122で取得した平滑化RGB信号をR(赤)、G(緑)、B(青)に分解した信号(分解RGB信号)を取得する。そして、前記したように、参照エリア画像HSV変換部143は、取得した分解RGB信号を色相信号(H)、彩度信号(S)、明度信号(V)からなるHSV空間信号に変換する(S123)。
続いて、HSV差分算出部144は、変換したHSV信号の差分を算出する(S124)。ここで、H信号、S信号、V信号それぞれについての差分が算出される。差分は、前記したように、例えば、前の複数フレームと、現在の複数フレームにおけるHSV信号の差分を算出する。あるいは、例えば、現在のフレームを時刻tの複数フレームとし、1秒前の複数フレームを時刻t−1とすると、時刻t−5〜t−1の複数フレームのHSV平均値と時刻t〜t−4の複数フレームのHSV平均値との差分が算出されてもよい。
次に、判定部104がステップS124で算出された差分値が所定の閾値以下であるか否かを判定する(図9BのS131)。なお、ステップS131では、色相、彩度、明度のそれぞれについて比較が行われる。また、ステップS131では、色相、彩度、明度のいずれか1つでも閾値より大きければ、判定部104は「No」と判定する。
差分値が所定の閾値より大きい場合(S131→No)、カメラパラメータ調整部105は、現在におけるHSVの各値が、前のフレームのHSVに対して所定の範囲内の値となるようカメラパラメータのそれぞれを調整する(S141)。また、この際、カメラパラメータ調整部105は、調整したカメラパラメータと、画像取得部103から取得した撮像画像Mとを対応付けて、カメラパラメータ記憶部121に格納する。
差分値が所定の閾値より大きい場合(S131→No)、カメラパラメータ調整部105は、現在におけるHSVの各値が、前のフレームのHSVに対して所定の範囲内の値となるようカメラパラメータのそれぞれを調整する(S141)。また、この際、カメラパラメータ調整部105は、調整したカメラパラメータと、画像取得部103から取得した撮像画像Mとを対応付けて、カメラパラメータ記憶部121に格納する。
図10A〜図10Cは、カメラパラメータの調整例を示す図である。
図10Aは、色相の例を示している。
図10Aに示すように、前のフレームの参照エリアRにおける色相が符号401に示す値であったとする。また、今回のフレームの参照エリアRにおける色相が符号402に示す値であったとする。すると、カメラパラメータ調整部105は、符号402が符号401の所定範囲内に入るよう、例えば、ホワイトバランスを調整する。換言すれば、カメラパラメータ調整部105は、符号402が符号401に近づくように、例えば、ホワイトバランスを調整する。
図10Aは、色相の例を示している。
図10Aに示すように、前のフレームの参照エリアRにおける色相が符号401に示す値であったとする。また、今回のフレームの参照エリアRにおける色相が符号402に示す値であったとする。すると、カメラパラメータ調整部105は、符号402が符号401の所定範囲内に入るよう、例えば、ホワイトバランスを調整する。換言すれば、カメラパラメータ調整部105は、符号402が符号401に近づくように、例えば、ホワイトバランスを調整する。
また、図10Bに示すように、前のフレームの参照エリアRにおける彩度が符号411に示す値であったとする。また、今回のフレームの参照エリアRにおける彩度が符号412に示す値であったとする。すると、カメラパラメータ調整部105は、符号412が符号411の所定範囲内に入るよう、例えば、彩度を調整する。換言すれば、カメラパラメータ調整部105は、符号412が符号411に近づくように、例えば、彩度を調整する。
さらに、図10Cに示すように、前のフレームの参照エリアRにおける明度が符号421に示す値であったとする。また、今回のフレームの参照エリアRにおける明度が符号422に示す値であったとする。すると、カメラパラメータ調整部105は、符号422が符号421の所定範囲内に入るよう、例えば、露出を調整する。換言すれば、カメラパラメータ調整部105は、符号422が符号421に近づくように、例えば、露出を調整する。
図9Bの説明に戻る。
カメラパラメータ調整部105は、調整したカメラパラメータをカメラパラメータ記憶部121に記憶する(S142)。これにより、カメラパラメータ記憶部121には、カメラパラメータが追加記憶されていく。
そして、学習部106が、カメラパラメータ記憶部121に記憶されているカメラパラメータを学習する(S143)。学習部106による学習は前記しているため、ここでの説明を省略する。なお、本実施形態では、ステップS143のタイミングで学習を行っているが、これに限らず、例えば、自動車C1が運転されていない間に学習が行われるようにしてもよい。
そして、生体情報抽出装置1はステップS106へ処理を戻す。
カメラパラメータ調整部105は、調整したカメラパラメータをカメラパラメータ記憶部121に記憶する(S142)。これにより、カメラパラメータ記憶部121には、カメラパラメータが追加記憶されていく。
そして、学習部106が、カメラパラメータ記憶部121に記憶されているカメラパラメータを学習する(S143)。学習部106による学習は前記しているため、ここでの説明を省略する。なお、本実施形態では、ステップS143のタイミングで学習を行っているが、これに限らず、例えば、自動車C1が運転されていない間に学習が行われるようにしてもよい。
そして、生体情報抽出装置1はステップS106へ処理を戻す。
ステップS131において、差分値が所定の閾値以下の場合(S131→Yes)、判定部104は、現在の顔画像M1から生体情報としての脈波が抽出できたか否かを判定する(S132)。
脈波を抽出できない場合(S132→No)、生体情報抽出装置1はステップS141へ処理を進める。
脈波を抽出できない場合(S132→No)、生体情報抽出装置1はステップS141へ処理を進める。
脈波抽出できた場合(S132→Yes)、監視処理部107は、過去所定回数の平均脈拍数(過去平均値)NAを算出する(S151)。ここで、脈拍数は、単位時間当たりの脈波回数である。
次に、監視処理部107は、今回抽出された脈波から脈拍数Nを算出する(S152)。ステップS152では、例えば、所定時間における平均脈拍数が算出される。
次に、監視処理部107は、今回抽出された脈波から脈拍数Nを算出する(S152)。ステップS152では、例えば、所定時間における平均脈拍数が算出される。
次に、監視処理部107は、過去の平均脈拍数である過去平均値NAと、脈拍数Nとを比較して、今回の脈拍数Nが正常であるか否かを判定する(S153)。例えば、脈拍数Nが、NA―a≦NA≦NA+a(aはユーザが設定する値)の範囲内にある場合、監視処理部107は、今回の脈拍数Nが正常であると判定する。
今回の脈拍数Nが正常である場合(S153→Yes)、生体情報抽出装置1はステップS106へ処理を戻す。
今回の脈拍数Nが正常である場合(S153→Yes)、生体情報抽出装置1はステップS106へ処理を戻す。
今回の脈拍数Nが異常である場合(S153→No)、監視処理部107は異常と判定された脈拍数をNGデータとしてNGデータ記憶部123に記憶する(S154)。
続いて、監視処理部107は、M回連続で異常と判定されたか否かを判定する(S155)。
M回連続で異常と判定されていない場合(S155→No)、生体情報抽出装置1はステップS106へ処理を戻す。
M回連続で異常と判定されている場合(S155→Yes)、緊急処理部108は、機器システム300の車両制御部311に指示することにより、自動車C1を緊急停止させる(S161)。
そして、緊急処理部108は、機器システム300の送受信装置301を介して、運行会社4へ脈波数に異常が検知された旨を通知する(S162)。
その後、通知を受けた運行会社4のオペレータが、運転者に通信で会話を試みる等といった運転者の状態確認を行う(S163)。このような会話は、運行会社4の音声情報を受信した機器システム300の出力制御部312がスピーカ304を介して行われる。なお、運転者の音声応答は、マイク306を介して入力され、送受信装置301を介して運行会社4へ送信される。緊急性によっては、通知を受けた運行会社4のオペレータが、救急車の手配等を行う。
続いて、監視処理部107は、M回連続で異常と判定されたか否かを判定する(S155)。
M回連続で異常と判定されていない場合(S155→No)、生体情報抽出装置1はステップS106へ処理を戻す。
M回連続で異常と判定されている場合(S155→Yes)、緊急処理部108は、機器システム300の車両制御部311に指示することにより、自動車C1を緊急停止させる(S161)。
そして、緊急処理部108は、機器システム300の送受信装置301を介して、運行会社4へ脈波数に異常が検知された旨を通知する(S162)。
その後、通知を受けた運行会社4のオペレータが、運転者に通信で会話を試みる等といった運転者の状態確認を行う(S163)。このような会話は、運行会社4の音声情報を受信した機器システム300の出力制御部312がスピーカ304を介して行われる。なお、運転者の音声応答は、マイク306を介して入力され、送受信装置301を介して運行会社4へ送信される。緊急性によっては、通知を受けた運行会社4のオペレータが、救急車の手配等を行う。
また、ログ解析部109は、例えば、所定時間毎にログ記憶部122に格納されたデータの解析を行う。ログ解析部109が行う処理は前記しているため、ここでの説明を省略する。
なお、生体情報抽出部134は、算出した脈波からストレス指標、血圧等を算出し、監視処理部107は、これらの値が異常であるか否かを判定してもよい。つまり、図9BのステップS151〜S155における脈拍が、ストレス指標、血圧等に置き換えられてもよい。あるいは、生体情報として呼吸数が用いられてもよい。
本実施形態によれば、撮像される肌の近くに設けられた参照エリアRのHSV信号の変化を算出し、算出したHSV信号の変化を基に、カメラパラメータを調整する。これにより、取得したHSV変化を顔画像M1へフィードバックすることができ、環境光にロバストな生体情報抽出装置1を実現することができる。その結果、運転者の生体情報(脈拍)を精度良く計測する生体情報抽出装置1を提供することができる。また、個人の使用環境による生体情報のばらつきを提言することもできる。
さらに、参照エリアRがシートベルトBに備えられることにより、運転に好ましくない状態となることを避けることができる。
また、参照エリアRが反射板の構成を有することにより、HSV信号の取得が容易となる。
さらに、生体情報を抽出する対象として、顔画像M1や、腕、手、首の画像とすることで、運転者が運転しながら、第1実施形態や、第2実施形態の処理を行うことができる。
また、参照エリアRが反射板の構成を有することにより、HSV信号の取得が容易となる。
さらに、生体情報を抽出する対象として、顔画像M1や、腕、手、首の画像とすることで、運転者が運転しながら、第1実施形態や、第2実施形態の処理を行うことができる。
[第3実施形態]
図11A及び図11Bは、第3実施形態に係る生体情報抽出装置1bの例を示す図である。
第3実施形態では、図11Aに示すように、3つの参照エリアRa〜Rcが設置されている。このうち、参照エリアRaはシートベルトBに設けられ、参照エリアRbは運転者が首からぶら下げており、参照エリアRcはシートに設けられている。
図11A及び図11Bは、第3実施形態に係る生体情報抽出装置1bの例を示す図である。
第3実施形態では、図11Aに示すように、3つの参照エリアRa〜Rcが設置されている。このうち、参照エリアRaはシートベルトBに設けられ、参照エリアRbは運転者が首からぶら下げており、参照エリアRcはシートに設けられている。
そして、図11Bに示すように、顔画像M1の一部が領域M1a〜M1cに分割されている。ここで、領域M1aは参照エリアRaに対応しており、領域M1bは参照エリアRbに対応しており、領域M1cは参照エリアRcに対応している。
そして、参照エリアRaの方から光が差している場合、顔画像解析部130は領域M1aを解析し、参照エリア画像解析部140は参照エリアRaの参照エリア画像M2を解析する。また、参照エリアRcの方から光が差している場合、顔画像解析部130は領域M1cを解析し、参照エリア画像解析部140は参照エリアRcの参照エリア画像M2を解析する。
そして、参照エリアRaの方から光が差している場合、顔画像解析部130は領域M1aを解析し、参照エリア画像解析部140は参照エリアRaの参照エリア画像M2を解析する。また、参照エリアRcの方から光が差している場合、顔画像解析部130は領域M1cを解析し、参照エリア画像解析部140は参照エリアRcの参照エリア画像M2を解析する。
なお、第3実施形態の処理は、図9A及び図9Bで示す処理と以下の点で異なる以外は図9A及び図9Bに示す処理と同様であるので、ここでの説明を省略する。
・ステップS106の後、顔画像抽出部131及び参照エリア画像抽出部141のそれぞれは、撮像画像Mにおける光の方向を基に、使用する顔画像M1(M1a〜M1b)及び参照エリア画像M2を決定する。なお、光の方向は、撮像画像Mにおける影等から判定される。
・ステップS106の後、顔画像抽出部131及び参照エリア画像抽出部141のそれぞれは、撮像画像Mにおける光の方向を基に、使用する顔画像M1(M1a〜M1b)及び参照エリア画像M2を決定する。なお、光の方向は、撮像画像Mにおける影等から判定される。
このようにすることで、第1実施形態及び第2実施形態より精度の高い生体情報抽出を実現することができる。
[第4実施形態]
次に、図12A〜図14を参照して、本発明の第4実施形態について説明する。
これまでの技術では、運転者が正面以外を向いていることを検知する技術はない。本実施形態では、運転者が正面以外を向いていることを検知することで、運転者が好ましい運転を維持することを課題とする。
次に、図12A〜図14を参照して、本発明の第4実施形態について説明する。
これまでの技術では、運転者が正面以外を向いていることを検知する技術はない。本実施形態では、運転者が正面以外を向いていることを検知することで、運転者が好ましい運転を維持することを課題とする。
(概要)
図12A及び図12Bは、第4実施形態の概要を示す図である。
第4実施形態では、まず、図12Aに示すように、カメラ111によって撮像された撮像画像Mから、図12Bに示すように、参照エリアRを基準点とした顔の特徴点Pまでの距離(実線)がリアルタイムで算出される。そして、算出された距離を基に、運転者が正面以外の方向を向いているか否かを判定する。なお、図12Bに示す例では、顔の特徴点Pとして両目、鼻、口の中心が用いられている。
図12A及び図12Bは、第4実施形態の概要を示す図である。
第4実施形態では、まず、図12Aに示すように、カメラ111によって撮像された撮像画像Mから、図12Bに示すように、参照エリアRを基準点とした顔の特徴点Pまでの距離(実線)がリアルタイムで算出される。そして、算出された距離を基に、運転者が正面以外の方向を向いているか否かを判定する。なお、図12Bに示す例では、顔の特徴点Pとして両目、鼻、口の中心が用いられている。
(システム構成)
図13は、第4実施形態に係る生体情報抽出装置1cの機能ブロック図である。
図13において、図3と異なる構成を破線四角で囲って示している。
つまり、図13に示す生体情報抽出装置1cは、距離処理部151を有している点(破線で囲っている部分)が図3に示す生体情報抽出装置1とは異なっている。
距離処理部151は、図12Bで説明したように、カメラ111が撮像した撮像画像Mにおいて、参照エリアRと、顔の特徴点Pとの距離を算出し、運転者が正面以外の方向を向いているか否かを判定する。そして、距離処理部151は、運転者が正面以外の方向を向いていると判定した場合、機器システム300のスピーカ304や、表示装置305を介して運転者に注意を促す。
図13は、第4実施形態に係る生体情報抽出装置1cの機能ブロック図である。
図13において、図3と異なる構成を破線四角で囲って示している。
つまり、図13に示す生体情報抽出装置1cは、距離処理部151を有している点(破線で囲っている部分)が図3に示す生体情報抽出装置1とは異なっている。
距離処理部151は、図12Bで説明したように、カメラ111が撮像した撮像画像Mにおいて、参照エリアRと、顔の特徴点Pとの距離を算出し、運転者が正面以外の方向を向いているか否かを判定する。そして、距離処理部151は、運転者が正面以外の方向を向いていると判定した場合、機器システム300のスピーカ304や、表示装置305を介して運転者に注意を促す。
(フローチャート)
図14は、第4実施形態における顔方向検出処理の手順を示すフローチャートである。図14の処理は、図9AにおけるステップS106と、ステップS111、S121の処理との間で行われる。
まず、距離処理部151は、図9AのステップS106で撮像された撮像画像Mについて、顔における特徴点Pと、基準点としての参照エリアRとの距離dを算出する(S201)。前記したように特徴点Pとは、目、鼻、口等である。また、撮像画像M内におけるある点と、その他の点との実際の距離を推定算出する手法は、例えば、顔が動いたときにおけるフレーム間の特徴点Pの移動速度と、予めわかっているカメラ111の設置位置とを基に算出する等といった公知の技術が用いられる。
図14は、第4実施形態における顔方向検出処理の手順を示すフローチャートである。図14の処理は、図9AにおけるステップS106と、ステップS111、S121の処理との間で行われる。
まず、距離処理部151は、図9AのステップS106で撮像された撮像画像Mについて、顔における特徴点Pと、基準点としての参照エリアRとの距離dを算出する(S201)。前記したように特徴点Pとは、目、鼻、口等である。また、撮像画像M内におけるある点と、その他の点との実際の距離を推定算出する手法は、例えば、顔が動いたときにおけるフレーム間の特徴点Pの移動速度と、予めわかっているカメラ111の設置位置とを基に算出する等といった公知の技術が用いられる。
次に、ステップS201で算出した参照エリアRと、顔における特徴点Pとの距離dが所定の距離D以上であるか否かを判定する(S202)。ここでの所定の距離とは、予め設定されている距離でもよいし、過去K回の処理で算出された参照エリアRと、顔における特徴点Pの距離との平均値に、所定の値を加えたものでもよい。
所定の距離未満である場合(S202→No)、距離処理部151は、ステップS111、S121へ処理をリターンする。
所定の距離以上である場合(S202→Yes)、距離処理部151は、運転者が正面以外を向いているものとして、警報を発報させる(S211)。警報は、機器システム300の表示装置305に表示されたり、スピーカ304から音声を発生させたりすることで行われる。
続いて、画像取得部103は、画像処理を行い(S212)、ステップS111,S121へ処理をリターンする。ステップS212では、例えば、第3実施形態に示すように、複数の参照エリアRa〜Rcが設置されている場合、顔が向いた方向と逆方向の顔画像M1と参照エリアRa〜Rcとを有効にする。また、生体情報抽出装置1は、ステップS202で「Yes」と判定された撮像画像MをステップS111、S121以降の処理に用いないようにしてもよい。あるいは、生体情報抽出装置1は、短時間で、運転者が横方向を向いた場合、撮像画像MをステップS111、S121以降の処理に用いないようにしてもよい。
所定の距離以上である場合(S202→Yes)、距離処理部151は、運転者が正面以外を向いているものとして、警報を発報させる(S211)。警報は、機器システム300の表示装置305に表示されたり、スピーカ304から音声を発生させたりすることで行われる。
続いて、画像取得部103は、画像処理を行い(S212)、ステップS111,S121へ処理をリターンする。ステップS212では、例えば、第3実施形態に示すように、複数の参照エリアRa〜Rcが設置されている場合、顔が向いた方向と逆方向の顔画像M1と参照エリアRa〜Rcとを有効にする。また、生体情報抽出装置1は、ステップS202で「Yes」と判定された撮像画像MをステップS111、S121以降の処理に用いないようにしてもよい。あるいは、生体情報抽出装置1は、短時間で、運転者が横方向を向いた場合、撮像画像MをステップS111、S121以降の処理に用いないようにしてもよい。
第4実施形態によれば、運転者が正面以外を向いていることを検知することで、運転者が好ましい運転を維持することができる。
本実施形態では、顔画像M1から生体情報(脈波)を抽出しているが、顔以外でも肌が見えていればよい。例えば、ハンドルを握る手の画像から生体情報が抽出されてもよい。るいは、腕や、首の画像から生体情報が抽出されてもよい。
また、本実施形態では、生体情報抽出装置1,1cが自動車C1等に搭載されているものとしているが、これに限らず、運行会社4に設置されてもよい。
また、本実施形態では、生体情報抽出装置1,1cが自動車C1等に搭載されているものとしているが、これに限らず、運行会社4に設置されてもよい。
また、カメラ111における1つの視野に、顔及び参照エリアRの両方が入るようにしてもよいし、顔、参照エリアRのそれぞれが別々に撮像されてもよい。顔、参照エリアRのそれぞれが別々に撮像される場合、撮像時の外光(環境光)が変わらないように、同時もしくは短い時間間隔で撮像が行われる。
本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、前記した各構成、機能、各部101〜102,104〜108,131〜134,141〜144,151,311〜314、各記憶部121〜123等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、図6及び図7に示すように、前記した各構成、機能等は、CPU202,302等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリ201や、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
1,1c 生体情報抽出装置
104 判定部(出力部)
105 カメラパラメータ調整部(パラメータ調整部)
106 学習部
111 カメラ(撮像部)
121 カメラパラメータ記憶部(パラメータ記憶部)
134 生体情報抽出部
144 HSV差分算出部
151 距離処理部(測定部、行動検知部)
B シートベルト
M 撮像画像
M1,M1a〜M1c 顔画像(第1の画像、特定のエリア)
M2 参照エリア画像(第2の画像)
P 特徴点
R,Ra〜Rc 参照エリア
SV クラウドサービス(ネットワーク)
104 判定部(出力部)
105 カメラパラメータ調整部(パラメータ調整部)
106 学習部
111 カメラ(撮像部)
121 カメラパラメータ記憶部(パラメータ記憶部)
134 生体情報抽出部
144 HSV差分算出部
151 距離処理部(測定部、行動検知部)
B シートベルト
M 撮像画像
M1,M1a〜M1c 顔画像(第1の画像、特定のエリア)
M2 参照エリア画像(第2の画像)
P 特徴点
R,Ra〜Rc 参照エリア
SV クラウドサービス(ネットワーク)
Claims (12)
- 生体の肌を含む第1の画像と、前記生体の肌とは異なる場所に設置され、前記生体の肌における環境光に関する情報を取得するための参照エリアの画像である第2の画像と、を撮像する撮像部と、
前記第2の画像のHSV信号値が一定値に入るように前記撮像部のパラメータを調整するパラメータ調整部と、
前記パラメータ調整部により調整された状態で撮像された前記第1の画像の時系列データから前記生体の生体情報を抽出する生体情報抽出部と、
前記生体情報抽出部により抽出された前記生体情報を出力する出力部と、
を有することを特徴とする生体情報抽出装置。 - 前記参照エリアは、シートベルトに備えられている
ことを特徴とする請求項1に記載の生体情報抽出装置。 - 前記参照エリアは反射板で構成されている
ことを特徴とする請求項1に記載の生体情報抽出装置。 - 前記反射板は、特定の波長を反射するものである
ことを特徴とする請求項3に記載の生体情報抽出装置。 - 前記第1の画像は、顔、腕、手又は首の画像である
ことを特徴とする請求項1に記載の生体情報抽出装置。 - 前記参照エリアが複数備えられている
ことを特徴とする請求項1に記載の生体情報抽出装置。 - 複数の前記参照エリアは、前記生体における特定のエリアと対応付けられている
ことを特徴とする請求項6に記載の生体情報抽出装置。 - 前記参照エリアを基準エリアとし、前記参照エリアと、前記生体の特徴点との距離を測定する測定部
を有することを特徴とする請求項1に記載の生体情報抽出装置。 - 前記特徴点は、顔における特徴点であり、
前記測定部によって測定された距離に基づいて、運転者が正面以外の方向を向いていることを検知する行動検知部
を有することを特徴とする請求項8に記載の生体情報抽出装置。 - 対象となる前記第2の画像における前記HSV信号値と、当該第2の画像より前の時間に撮像された前記第2の画像における前記HSV信号値との差分値を算出するHSV差分算出部を有し、
前記パラメータ調整部は、
前記HSV信号値の差分値が小さくなるよう前記パラメータを調整する
ことを特徴とする請求項1に記載の生体情報抽出装置。 - 前記生体情報抽出部は、
調整された前記パラメータを、前記撮像部が撮像した撮像画像とともに、パラメータ記憶部に格納し、
前記パラメータ記憶部において、前記撮像画像を基に、前記パラメータを分類するための学習を行う学習部
を有することを特徴とする請求項1に記載の生体情報抽出装置。 - 前記抽出された生体情報に関する情報を、ネットワークを介して、前記生体情報抽出装置の外部に設置されている外部装置へ送信する送信部
を有することを請求項1に記載の生体情報抽出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139106A JP2021019940A (ja) | 2019-07-29 | 2019-07-29 | 生体情報抽出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139106A JP2021019940A (ja) | 2019-07-29 | 2019-07-29 | 生体情報抽出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021019940A true JP2021019940A (ja) | 2021-02-18 |
Family
ID=74574549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019139106A Pending JP2021019940A (ja) | 2019-07-29 | 2019-07-29 | 生体情報抽出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021019940A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023171337A1 (ja) * | 2022-03-11 | 2023-09-14 | ソニーグループ株式会社 | 心拍測定システムおよび心拍測定方法、並びにプログラム |
-
2019
- 2019-07-29 JP JP2019139106A patent/JP2021019940A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023171337A1 (ja) * | 2022-03-11 | 2023-09-14 | ソニーグループ株式会社 | 心拍測定システムおよび心拍測定方法、並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190279009A1 (en) | Systems and methods for monitoring driver state | |
CN112016457A (zh) | 驾驶员分神以及危险驾驶行为识别方法、设备和存储介质 | |
CN104200192B (zh) | 驾驶员注视检测系统 | |
CN109155106A (zh) | 状态推定装置、状态推定方法和状态推定程序 | |
US10655978B2 (en) | Controlling an autonomous vehicle based on passenger behavior | |
US11298050B2 (en) | Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method | |
WO2019028798A1 (zh) | 驾驶状态监控方法、装置和电子设备 | |
US20200320683A1 (en) | Skin diagnostic device and skin diagnostic method | |
GB2604964A (en) | Systems and methods for detecting symptoms of occupant illness | |
US20180204078A1 (en) | System for monitoring the state of vigilance of an operator | |
WO2019107167A1 (ja) | 画像処理装置、画像処理システム、撮像装置、撮像システム、及び画像処理方法 | |
CN111854620A (zh) | 基于单目相机的实际瞳距测定方法、装置以及设备 | |
CN115346197A (zh) | 一种基于双向视频流的驾驶员分心行为识别方法 | |
JP6796525B2 (ja) | 画像処理装置、画像処理システム及び画像処理方法 | |
WO2022256943A1 (en) | Contactless intoxication detection and methods and systems thereof | |
JP2021019940A (ja) | 生体情報抽出装置 | |
WO2021246010A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN111449642A (zh) | 影像式血压测量方法 | |
CN113879321B (zh) | 驾驶员监视装置及驾驶员监视方法 | |
CN114492656A (zh) | 一种基于计算机视觉和传感器的疲劳度监测系统 | |
WO2021033453A1 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP2002190027A (ja) | 画像認識による速度測定システム及び速度測定方法 | |
CN113901866A (zh) | 一种机器视觉的疲劳驾驶预警方法 | |
CN114586073A (zh) | 使用混合感测系统的生物测定数据捕获和分析 | |
CN110147713A (zh) | 一种疲劳驾驶检测方法及系统 |