JP2012014650A - 心身状態管理装置 - Google Patents

心身状態管理装置 Download PDF

Info

Publication number
JP2012014650A
JP2012014650A JP2010153362A JP2010153362A JP2012014650A JP 2012014650 A JP2012014650 A JP 2012014650A JP 2010153362 A JP2010153362 A JP 2010153362A JP 2010153362 A JP2010153362 A JP 2010153362A JP 2012014650 A JP2012014650 A JP 2012014650A
Authority
JP
Japan
Prior art keywords
target person
unit
face image
feature
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010153362A
Other languages
English (en)
Inventor
Toru Nakamura
透 中村
Matsuki Yamamoto
松樹 山本
Mikio Iwakawa
幹生 岩川
Kozue Ogawa
梢 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2010153362A priority Critical patent/JP2012014650A/ja
Publication of JP2012014650A publication Critical patent/JP2012014650A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

【課題】対象人物の心身状態を特徴付ける特徴量の抽出精度を高めて対象人物の心身状態をさらに精度よく判定する。
【解決手段】心身状態管理装置1は、処理装置2と記憶装置3とを備える。処理装置2において、顔画像取得部21は、対象人物の顔画像を取得する。認証部22は、対象人物を個人認証する。属性取得部23は、対象人物の属性を取得する。特徴抽出部24は、顔画像取得部21で取得された顔画像から対象人物の心身状態を特徴付ける特徴量を抽出する。記憶装置3の基準特徴量記憶部31は、基準特徴量を個人別に記憶する。比較部25は、対象人物に対応する基準特徴量と特徴抽出部24で抽出された特徴量とを比較する。判定部26は、比較部25の比較結果を用いて対象人物の心身状態を判定する。このような心身状態管理装置1において、特徴抽出部24は、属性取得部23で取得された属性に応じて特徴量の抽出手法を変更する。
【選択図】図1

Description

本発明は、対象人物の心身状態を管理する心身状態管理装置に関する。
従来から、対象人物の顔画像から抽出した特徴量を用いて対象人物の心身状態を判定する装置が知られている(例えば特許文献1参照)。特許文献1の装置は、対象人物の顔画像から特徴点を抽出し、この特徴点の座標データから診断データベクトルを求める。その後、特許文献1の装置は、複数の専門家の知見を数値化した診断マトリクスと診断データベクトルとを用いて診断結果ベクトルを演算して表示する。診断結果ベクトルには、心因性疾病の度合いを示す要素が含まれている。特許文献1の装置では、診断結果ベクトルを表示することによって、専門知識がなくても対象人物の心因性疾病の度合いを判断することができる。
特開2006−305260号公報
ところで、人の顔はそれぞれ個性があるにも関わらず、特許文献1の装置のような従来の装置では、対象人物が誰であっても常に同じ手法で特徴量を求めるため、特徴量の抽出精度を十分に高めることができないという問題があった。これにより、従来の装置では、対象人物の心身状態をさらに精度よく判定することができなかった。
本発明は上記の点に鑑みて為され、本発明の目的は、対象人物の心身状態を特徴付ける特徴量の抽出精度を高めて対象人物の心身状態をさらに精度よく判定することができる心身状態管理装置を提供することにある。
本発明の心身状態管理装置は、対象人物の顔画像を取得する顔画像取得部と、前記対象人物を個人認証する認証部と、前記顔画像取得部で取得された前記顔画像から前記対象人物の心身状態を特徴付ける特徴量を抽出する特徴抽出部と、前記特徴量と比較するための基準特徴量を個人別に記憶する基準特徴量記憶部と、前記対象人物に対応する前記基準特徴量を前記基準特徴量記憶部から取得し当該基準特徴量と前記特徴抽出部で抽出された前記特徴量とを比較する比較部と、前記比較部の比較結果を用いて前記対象人物の心身状態を判定する判定部と、前記対象人物の属性を取得する属性取得部とを備え、前記特徴抽出部は、前記属性取得部で取得された前記属性に応じて前記特徴量の抽出手法を変更することを特徴とする。
また、本発明の他の心身状態管理装置は、対象人物の顔画像を取得する顔画像取得部と、前記対象人物を個人認証する認証部と、前記顔画像取得部で取得された前記顔画像から前記対象人物の心身状態を特徴付ける特徴量を抽出する特徴抽出部と、前記特徴量と比較するための基準特徴量を個人別に記憶する基準特徴量記憶部と、前記対象人物に対応する前記基準特徴量を前記基準特徴量記憶部から取得し当該基準特徴量と前記特徴抽出部で抽出された前記特徴量とを比較する比較部と、前記比較部の比較結果を用いて前記対象人物の心身状態を判定する判定部とを備え、前記特徴抽出部は、前記認証部で個人認証された前記対象人物に応じて前記特徴量の抽出手法を変更することを特徴とする。
この心身状態管理装置において、前記特徴抽出部は、前記顔画像における特定部位から前記特徴量を抽出することが好ましい。
この心身状態管理装置において、前記特徴抽出部は、前記特徴量として、口角、目尻およびしわの少なくとも1つについて、大きさ、位置および形状の少なくとも1つを選択することが好ましい。
この心身状態管理装置において、前記顔画像は動画であり、前記特徴抽出部は、前記顔画像から前記特徴量として単位時間あたりの瞬き回数を抽出することが好ましい。
この心身状態管理装置において、表示機能を有する表示装置に前記判定部の判定結果を表示させる表示制御部を備えることが好ましい。
この心身状態管理装置において、前記対象人物の主観評価が入力される入力部を備え、前記表示制御部は、前記入力部に入力された前記主観評価に応じて前記判定結果を補正し、補正後の判定結果を前記表示装置に表示させることが好ましい。
この心身状態管理装置において、前記表示制御部は、前記判定結果に対する前記対象人物の対処方法を前記表示装置に表示させることが好ましい。
この心身状態管理装置において、前記判定部の判定結果に応じて予め設定された刺激を前記対象人物に与えるように、前記対象人物の周囲環境を制御する環境設備機器を制御する環境制御部を備えることが好ましい。
この心身状態管理装置において、前記特徴量を抽出する際に前記顔画像に照合させる顔モデルを属性ごとに記憶する顔モデル記憶部を備え、前記特徴抽出部は、前記属性取得部で取得された前記属性に対応する前記顔モデルを前記顔モデル記憶部から取得し、当該顔モデルを前記顔画像に照合することによって前記顔画像から特徴点を抽出し、当該特徴点から前記特徴量を抽出することが好ましい。
この心身状態管理装置において、前記特徴量を抽出する際に前記顔画像に照合させる顔モデルを個人ごとに記憶する顔モデル記憶部を備え、前記特徴抽出部は、前記認証部で個人認証された前記対象人物に対応する前記顔モデルを前記顔モデル記憶部から取得し、当該顔モデルを前記顔画像に照合することによって前記顔画像から特徴点を抽出し、当該特徴点から前記特徴量を抽出することが好ましい。
本発明によれば、対象人物の心身状態を特徴付ける特徴量の抽出手法を対象人物に応じて変更することによって、特徴量の抽出精度を高めることができるので、対象人物の心身状態をさらに精度よく判定することができる。
実施形態1に係る心身状態管理装置の構成を示すブロック図である。 同上に係る心身状態管理装置の顔モデルのテーブルを示す図である。 同上に係る心身状態管理装置において、(a)は顔画像を示す図、(b)は顔画像に顔モデルをあてはめた図、(c)は特徴点を抽出するときの図である。 同上に係る心身状態管理装置において、(a)は目元の画像を示す図、(b)は口元の画像を示す図である。 同上に係る心身状態管理装置において属性取得および特徴抽出の動作を示すフローチャートである。 同上に係る心身状態管理装置の使用例を説明する図である。 実施形態2に係る心身状態管理装置において、(a)は開眼時の画像を示す図、(b)は閉眼時の画像を示す図、(c)は瞬きの状況を示す図である。 同上に係る心身状態管理装置の使用例を説明する図である。
以下の実施形態1,2では、対象人物の心身状態を管理する心身状態管理装置について説明する。対象人物の心身状態とは、例えば疲労、眠気もしくは気分またはこれらの組み合わせなどをいう。
(実施形態1)
実施形態1の心身状態管理装置1は、図1に示すように、対象人物の顔画像から対象人物の心身状態を判定するための処理を行う処理装置2と、記憶機能を有して各種情報を記憶する記憶装置3と、対象人物(使用者)が入力操作するときに用いられる入力部4とを備えている。この心身状態管理装置1は、中央処理装置(CPU:Central Processing Unit)およびメモリが搭載されたコンピュータを主構成要素とする。また、心身状態管理装置1には、撮像機能を有する撮像装置5と、表示機能を有する表示装置6と、環境状態を変化させる複数(図示例では3台)の環境設備機器7とが接続されている。心身状態管理装置1と撮像装置5と表示装置6と各環境設備機器7とで心身状態管理システムを構成する。
撮像装置5は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(ComplementaryMetal Oxide Semiconductor)イメージセンサなどを用いたエリアセンサカメラであり、対象人物の顔を撮像する。本実施形態の撮像装置5は、例えば洗面台または化粧台のミラーなどに埋め込んで設けられている(図6参照)。洗面台または化粧台のミラーは、撮像装置5の前方を覆う部位がマジックミラーで構成されている。これにより、撮像装置5は、ミラーの前方に位置する対象人物の顔を撮像することができる。対象人物の顔が撮像された撮像画像の画像データは、撮像装置5から心身状態管理装置1に出力される。
表示装置6は、例えば液晶ディスプレイまたは有機EL(Electro-Luminescence)ディスプレイなどであり、後述の表示制御部27の指示に従って、各種情報を表示する。本実施形態の表示装置6は、例えば洗面台または化粧台のミラーの一部を切り欠くなどして内装されている(図6参照)。
環境設備機器7は、対象人物の周囲環境を制御する機器である。これにより、環境設備機器7は、対象人物の五感のうち少なくとも1つに対して刺激を与えることができる。環境設備機器7の具体例としては、照明光の照度および色温度を変えることが可能な照明機器、さまざまなジャンルの音楽を選択して再生する音楽再生装置、芳香剤を噴霧する芳香剤噴霧器などがある。
入力部4は、例えばキーボード、複数の操作ボタン、マウスまたはタッチパネルなどであり、対象人物が心身状態管理装置1に情報を入力する際に用いられる。具体的には、入力部4は、対象人物の主観評価が入力される。入力部4に入力された情報は、入力部4から処理装置2に出力される。本実施形態の入力部4は、例えば洗面台または化粧台などに設置されている。
処理装置2は、コンピュータに搭載された中央処理装置を主構成要素とし、記憶装置3に格納されているプログラムに従って動作することによって、後述の顔画像取得部21と認証部22と属性取得部23と特徴抽出部24と比較部25と判定部26と表示制御部27と環境制御部28との各機能を実行する。なお、処理装置2は、全ての機能または一部の機能を中央処理装置とは別のマイクロプロセッサ(MPU:Micro Processing Unit)で実行してもよい。
顔画像取得部21は、撮像装置5で得られた撮像画像を撮像装置5から取り込む。顔画像取得部21は、取り込んだ撮像画像を用いて、対象人物の顔部分に相当する顔画像を抽出する。つまり、顔画像取得部21は、撮像装置5で得られた撮像画像から対象人物の顔画像を取得する。対象人物の顔画像は記憶装置3に記憶される。なお、本実施形態の顔画像は静止画像である。
認証部22は、顔画像取得部21で取得された顔画像と各個人の顔画像とを照合することによって、対象人物を個人認証する。各個人の顔画像は、記憶装置3に予め記憶されている。なお、認証部22は、指紋認証によって対象人物を個人認証してもよい。入力部4に、対象人物の指紋を入力するための指紋入力機能があればよい。具体的には、認証部22は、対象人物の指紋と各個人の指紋とを照合することによって、対象人物を個人認証する。この場合、記憶装置3には、各個人の指紋の情報が予め記憶されている。また、認証部22は、顔認証または指紋認証ではなく、対象人物の体重または体型などの情報から個人認証してもよい。具体的には、認証部22は、対象人物の体重(または体型)と各個人の体重(または体型)とを照合することによって、対象人物を認証する。この場合、記憶装置3には、各個人の体重(または体型)の情報が予め記憶されている。例えば家族などのような、限られた特定集団の場合に容易に実現することができる。
属性取得部23は、対象人物の属性を取得する。属性取得部23で取得される属性としては、例えば人種・性別・年齢(年代)などがある。属性取得部23が対象人物の属性を取得する手法としては、顔画像取得部21で取得された顔画像を用いてサポートベクターマシン(SVM:Support Vector Machine)によって対象人物の属性を推定する第1の手法と、対象人物が入力部4を用いて対象人物の属性を申告する第2の手法とがある。第1の手法と第2の手法とは、対象人物による入力部4からの操作によって切換選択可能である。なお、属性取得部23が対象人物の属性を取得する手法としては、第1の手法と第2の手法の少なくとも何れか一方の手法があればよい。
特徴抽出部24は、顔画像取得部21で取得された顔画像から対象人物の心身状態を特徴付ける特徴量を抽出する。具体的には、特徴抽出部24は、例えば目、口、鼻または輪郭など、顔画像における顔器官(特定部位)から特徴量を抽出する。対象人物の心身状態を特徴付ける特徴量としては、例えば口角の下がり(口角の位置)、眼の開き具合(眼の大きさ)、目尻の下がりまたはしわの程度(大きさ、位置または形状)などがある。なお、特徴量は、上記に限定されず、口角の大きさまたは形状であってもよいし、眼の位置または形状であってもよい。
本実施形態の特徴抽出部24は、図3(b)に示すように顔画像(図3(a)参照)に顔モデルをあてはめて、図3(c)に示すように顔器官の特徴点を抽出する。その後、特徴抽出部24は、抽出した特徴点を用いて特徴量を抽出する。具体的には、特徴抽出部24は、図4(a)に示す目元の画像から特徴量(距離L、角度θ)を抽出したり、図4(b)に示す口元の画像から特徴量(例えば上唇領域P1の画素数と下唇領域P2の画素数との比など)を抽出したりする。距離Lは目の開き具合を表わし、角度θは目尻の下がり具合を表わしている。
ところで、特徴抽出部24は、属性取得部23で取得された属性に応じて特徴量の抽出手法を変更する。具体的に説明すると、特徴抽出部24は、属性取得部23で取得された属性に対応する顔モデルを記憶装置3から取得し、上記顔モデルを顔画像に照合することによって顔画像から特徴点を抽出し、上記特徴点から特徴量を抽出する。なお、特徴抽出部24は、対象人物の属性ごとに、特徴抽出に用いる顔器官を変更することもできる。
比較部25は、特徴抽出部24で抽出された特徴量と基準特徴量とを比較する。比較部25は、上記特徴量と基準特徴量とを比較する前に、対象人物に対応する基準特徴量を記憶装置3から予め取得する。
判定部26は、比較部25の比較結果を用いて対象人物の心身状態を判定する。具体的には、判定部26は、比較部25の比較結果を用いて、例えば自己組織化マップ(SOM:Self Organization Map)などで数段階(例えば「調子良好」・「ふつう」・「調子悪い」の3段階)に仕分けることによって対象人物の心身状態を判定する。判定部26の判定結果は、表示制御部27および環境制御部28に出力されるとともに、記憶装置3に記憶される。
表示制御部27は、表示装置6の表示を制御する。具体的には、表示制御部27は、判定部26の判定結果を表示装置6に表示させる。つまり、表示制御部27は、「調子良好」・「ふつう」・「調子悪い」の何れかを表示装置6に表示させる。また、表示制御部27は、入力部4に入力された主観評価に応じて判定結果を補正し、補正後の判定結果を表示装置6に表示させる。さらに、表示制御部27は、判定結果に対する対象人物の対処方法を表示装置6に表示させる。対象人物の対処方法としては、例えば美顔器を用いた顔のマッサージ方法などがある。上述のように対処方法を表示装置6に表示させる場合、表示制御部27は、対象人物の対処部位の画像を表示装置6に表示させることもできる。他にも、表示制御部27は、例えば口角、目尻またはしわの程度などを時系列に表示装置6に表示させることもできる。また、表示制御部27は、調子が良好であるときの顔画像を表示装置6に表示させることもできる。これにより、対象人物のやる気を喚起させることができる。
環境制御部28は、例えばLAN(Local Area Network)などの宅内ネットワークによって各環境設備機器7に接続され、各環境設備機器7の動作を制御する。具体的には、環境制御部28は、判定部26の判定結果に応じて予め設定された刺激を対象人物に与えるように各環境設備機器7を制御する。例えば、判定部26で「調子悪い」と判定された場合、環境制御部28が芳香剤噴霧器であれば、対象人物のやる気を喚起させるような香りの芳香剤を噴霧し、環境制御部28が音楽再生機器であれば、明るい音楽を再生したり、音量を上げたりする。
記憶装置3は、特徴量と比較するための基準特徴量を個人別(対象人物別)に記憶する基準特徴量記憶部31と、特徴量を抽出する際に顔画像に照合させる顔モデルを属性ごとに記憶する顔モデル記憶部32とを備えている。基準特徴量としては、例えば調子が良好であるときの特徴量などが用いられる。調子が良好であるときの特徴量は、過去に抽出された特徴量である。顔モデル記憶部32には、図2に示すように、例えば人種・性別・年代ごとに顔モデルが対応して記憶されている。顔モデルの候補としては、例えばASM(Active Shape Model)、ACM(Active Contour Model)またはAAM(Active Appearance Model)などがある。各属性の顔モデルは、属性が同じである複数の顔写真を用いて事前に学習された顔モデルである。学習時に用いる顔写真は、例えば世界中の大学、研究機関または企業などで管理されている顔認識用データベースなどから取得される。また、記憶装置3は、各個人の顔画像を記憶する顔画像記憶部33をさらに備えている。さらに、記憶装置3は、処理装置2が画像処理を行うためのプログラムを格納している。つまり、記憶装置3は、顔画像取得部21と認証部22と属性取得部23と特徴抽出部24と比較部25と判定部26と表示制御部27と環境制御部28との各機能を処理装置2(コンピュータ)に実現させるためのプログラムを格納している。
次に、本実施形態に係る心身状態管理装置1の属性取得および特徴抽出に関する動作について図5を用いて説明する。まず、処理装置2は、撮像装置5で得られた撮像画像から対象人物の顔画像を取得する。その後、処理装置2は、対象人物の属性を取得する(図5のS1)。その後、処理装置2は、対象人物の属性に対応する顔モデルを記憶装置3から読み込んで顔画像にあてはめる(S2)。その後、処理装置2は、顔画像から顔器官の特徴点を抽出し(S3)、特徴量を抽出する(S4)。
次に、本実施形態に係る心身状態管理装置1の使用例として、心身状態管理装置1と撮像装置5と表示装置6とが洗面台91に設置された場合について図6を用いて説明する。この場合、心身状態管理装置1は洗面台91に内蔵され、撮像装置5および表示装置6は洗面台91のミラー92に設置されている。まず、洗面台91の前方に立っている対象人物の顔を撮像装置5が撮像し、心身状態管理装置1が対象人物の心身状態を判定する。その後、表示装置6は、心身状態管理装置1の表示制御部27の指示に従って、図6(a)に示すように、撮像装置5で撮像された顔画像とともに現状の疲労部位(図6(a)の○印)を表示する。その後、図6(b)に示すように、表示装置6は、美顔器を用いたマッサージに関する指南ビデオを表示する。対象人物は、表示装置6に表示された指南ビデオを見ながら、美顔器を用いて疲労部位を中心に顔をマッサージする。その後、撮像装置5がマッサージ後の対象人物の顔を撮像し、図6(c)に示すように表示装置6がマッサージ前の顔画像とマッサージ後の顔画像とを並べて表示する。対象人物は、表示装置6に表示された2つの顔画像を見比べることによって、マッサージの効果を確認することができる。このように心身状態管理装置1を撮像装置5および表示装置6とともに使用することによって、対象人物の顔の疲労部位を明確にし、美顔器による効果的なマッサージを対象人物に指導することができる。なお、心身状態管理装置1と撮像装置5と表示装置6とが化粧台に設置された場合についても同様である。
以上、本実施形態の心身状態管理装置1によれば、特徴抽出部24が対象人物の属性に応じて特徴量の抽出手法を変更することによって、特徴量の抽出精度を高めることができるので、対象人物の心身状態をさらに精度よく判定することができる。
また、本実施形態の心身状態管理装置1によれば、表示制御部27が対象人物の心身状態を表示装置6に表示させることによって、対象人物は自己の心身状態を視認することができる。
さらに、本実施形態の心身状態管理装置1によれば、入力部4を用いて対象人物が入力した主観評価に応じて補正した判定結果を表示制御部27が表示装置6に表示させることによって、対象人物は主観評価を反映した判定結果を視認することができる。
また、本実施形態の心身状態管理装置1によれば、判定結果に対する対処方法を表示制御部27が表示装置6に表示させることによって、対象人物に対処方法を提示することができる。これにより、対象人物は、自己の心身状態を積極的かつ効果的に改善することができる。
さらに、本実施形態の心身状態管理装置1によれば、環境制御部28が環境設備機器7を制御して対象人物の周囲環境を変更することによって、対象人物が意識しなくても対象人物に刺激を与えることができるので、対象人物の心身状態を改善することができる。
(実施形態2)
実施形態2の心身状態管理装置1は、対象人物の瞬き回数を特徴量とする点で、実施形態1の心身状態管理装置1と相違する。瞬き回数は、対象人物の眠気および集中度を特徴付ける特徴量である。本実施形態では、顔画像として動画が用いられる。以下、本実施形態の心身状態管理装置1について図1および図7,8を用いて説明する。なお、実施形態1の心身状態管理装置1と同様の構成要素については、同一の符号を付して説明を省略する。
本実施形態の特徴抽出部24(図1参照)は、顔画像取得部21(図1参照)で取得された顔画像に対象人物の属性に対応する顔モデルを合わせることによって、対象人物の眼の領域を抽出する。その後、特徴抽出部24は、対象人物の眼の領域から特徴量として単位時間あたりの瞬き回数を抽出する。つまり、特徴抽出部24は、顔画像から特徴量として単位時間あたりの瞬き回数を抽出する。瞬き回数の抽出の際には、図7に示すように、顔画像としての動画を構成する各フレームに対して、垂直方向(顔の縦方向)に設けられた眼球上領域8の濃淡値の平均値が用いられる。開眼時(図7(c)のA)では、図7(a)に示すように黒目(瞳孔、虹彩)の割合が高いので、眼球上領域8の濃淡値の平均値は小さくなる。一方、閉眼時(図7(c)のB)では、図7(b)に示すように黒目より濃淡値が高いまぶたによって黒目が覆われて、黒目の割合が低くなるので、眼球上領域8の濃淡値の平均値は大きくなる。これにより、特徴抽出部24は、瞬きの周期T1、瞬きにおいてまぶたが閉じている期間T2とともに、単位時間あたりの瞬き回数を特徴量として抽出することができる。図7(c)は、眼球上領域8の濃淡値の平均値を時系列に示している。なお、図7(c)は、(一定値−実際の濃淡値の平均値)で求められた値を濃淡値として示している。つまり、図7(c)の濃淡値は、色が黒いほど大きな値になる。
本実施形態においても、特徴抽出部24は、対象人物の属性に応じて抽出手法を変更し、上述のように、対象人物の属性に対応する顔モデルを用いている。
本実施形態の比較部25(図1参照)は、特徴抽出部24で抽出された特徴量と基準特徴量とを比較する。本実施形態の判定部26(図1参照)は、比較部25の比較結果を用いて、対象人物に眠気が生じているか否かを判定する。
本実施形態の環境制御部28(図1参照)は、対象人物に眠気が生じていると判定部26で判定された場合、対象人物の眠気をなくして対象人物の集中度を高めるように、例えば照明光の照度を上げたり、照明光の色温度を高めたりするように照明機器(環境設備機器7)を制御する。
本実施形態に係る心身状態管理装置1の使用例として、図8に示すように、心身状態管理装置1と撮像装置5と環境設備機器7とがオフィスに設置された場合について説明する。この場合、対象人物は、パーソナルコンピュータ93を用いてデスクワークを行っている。心身状態管理装置1は、パーソナルコンピュータ93に内蔵されている。環境設備機器7は、図示しないが、デスクワークが行われている部屋の照明機器とする。撮像装置5は、例えばwebカメラなどであり、パーソナルコンピュータ93のモニタ94に取り付けられる。まず、撮像装置5が対象人物の顔をリアルタイムで連続撮像し、心身状態管理装置1が顔画像(動画像)を用いて対象人物の眠気の有無を判定する。対象人物に眠気がある場合、心身状態管理装置1は、照明光の照度を上げたり、色温度を高くしたりするように、環境設備機器7である照明機器を制御する。なお、心身状態管理装置1と撮像装置5と環境設備機器7とが書斎に設置された場合についても同様である。
以上、本実施形態の心身状態管理装置1によれば、対象人物に眠気が生じていることを察知し、例えば環境設備機器7である照明機器から放射される照明光の照度を上げたり、照明光の色温度を高めたりすることができるので、対象人物の周囲環境を、対象人物の眠気をなくして対象人物の集中度が維持するような環境にすることができる。
(実施形態3)
実施形態3の心身状態管理装置1は、特徴量の抽出手法を個人ごとに変更する点で、実施形態1の心身状態管理装置1と相違する。以下、本実施形態の心身状態管理装置1について図1を用いて説明する。ただし、本実施形態の心身状態管理装置1は、属性取得部23を省略してもよい。なお、実施形態1の心身状態管理装置1と同様の構成要素については、同一の符号を付して説明を省略する。
本実施形態の記憶装置3において、顔モデル記憶部32は、特徴量を抽出する際に顔画像に照合させる顔モデルを個人ごとに記憶する。
本実施形態の特徴抽出部24は、認証部22で個人認証された対象人物に応じて特徴量の抽出手法を変更する。つまり、本実施形態の特徴抽出部24は、特徴量の抽出手法を対象人物の属性ごとに変更するのではなく、対象人物ごとに変更する。具体的には、特徴抽出部24は、認証部22で個人認証された対象人物に対応する顔モデルを顔モデル記憶部32から取得し、取得した顔モデルを顔画像に照合することによって顔画像から特徴点を抽出し、上記特徴点から特徴量を抽出する。
以上、本実施形態の心身状態管理装置1によれば、特徴抽出部24が特徴量の抽出手法を対象人物ごとに変更することによって、特徴量の抽出精度を高めることができるので、対象人物の心身状態をさらに精度よく判定することができる。
なお、実施形態3の変形例として、心身状態管理装置1は、実施形態2のように対象人物の瞬き回数を特徴量として抽出してもよい。
また、実施形態1〜3の変形例として、対象人物の顔画像は熱画像などであってもよい。
1 心身状態管理装置
21 顔画像取得部
22 認証部
23 属性取得部
24 特徴抽出部
25 比較部
26 判定部
27 表示制御部
28 環境制御部
31 基準特徴量記憶部
32 顔モデル記憶部
4 入力部
6 表示装置
7 環境設備機器

Claims (11)

  1. 対象人物の顔画像を取得する顔画像取得部と、
    前記対象人物を個人認証する認証部と、
    前記顔画像取得部で取得された前記顔画像から前記対象人物の心身状態を特徴付ける特徴量を抽出する特徴抽出部と、
    前記特徴量と比較するための基準特徴量を個人別に記憶する基準特徴量記憶部と、
    前記対象人物に対応する前記基準特徴量を前記基準特徴量記憶部から取得し当該基準特徴量と前記特徴抽出部で抽出された前記特徴量とを比較する比較部と、
    前記比較部の比較結果を用いて前記対象人物の心身状態を判定する判定部と、
    前記対象人物の属性を取得する属性取得部とを備え、
    前記特徴抽出部は、前記属性取得部で取得された前記属性に応じて前記特徴量の抽出手法を変更する
    ことを特徴とする心身状態管理装置。
  2. 対象人物の顔画像を取得する顔画像取得部と、
    前記対象人物を個人認証する認証部と、
    前記顔画像取得部で取得された前記顔画像から前記対象人物の心身状態を特徴付ける特徴量を抽出する特徴抽出部と、
    前記特徴量と比較するための基準特徴量を個人別に記憶する基準特徴量記憶部と、
    前記対象人物に対応する前記基準特徴量を前記基準特徴量記憶部から取得し当該基準特徴量と前記特徴抽出部で抽出された前記特徴量とを比較する比較部と、
    前記比較部の比較結果を用いて前記対象人物の心身状態を判定する判定部とを備え、
    前記特徴抽出部は、前記認証部で個人認証された前記対象人物に応じて前記特徴量の抽出手法を変更する
    ことを特徴とする心身状態管理装置。
  3. 前記特徴抽出部は、前記顔画像における特定部位から前記特徴量を抽出することを特徴とする請求項1または2記載の心身状態管理装置。
  4. 前記特徴抽出部は、前記特徴量として、口角、目尻およびしわの少なくとも1つについて、大きさ、位置および形状の少なくとも1つを選択することを特徴とする請求項3記載の心身状態管理装置。
  5. 前記顔画像は動画であり、
    前記特徴抽出部は、前記顔画像から前記特徴量として単位時間あたりの瞬き回数を抽出する
    ことを特徴とする請求項3記載の心身状態管理装置。
  6. 表示機能を有する表示装置に前記判定部の判定結果を表示させる表示制御部を備えることを特徴とする請求項1〜5の何れか1項に記載の心身状態管理装置。
  7. 前記対象人物の主観評価が入力される入力部を備え、
    前記表示制御部は、前記入力部に入力された前記主観評価に応じて前記判定結果を補正し、補正後の判定結果を前記表示装置に表示させる
    ことを特徴とする請求項6記載の心身状態管理装置。
  8. 前記表示制御部は、前記判定結果に対する前記対象人物の対処方法を前記表示装置に表示させることを特徴とする請求項6または7記載の心身状態管理装置。
  9. 前記判定部の判定結果に応じて予め設定された刺激を前記対象人物に与えるように、前記対象人物の周囲環境を制御する環境設備機器を制御する環境制御部を備えることを特徴とする請求項1〜8の何れか1項に記載の心身状態管理装置。
  10. 前記特徴量を抽出する際に前記顔画像に照合させる顔モデルを属性ごとに記憶する顔モデル記憶部を備え、
    前記特徴抽出部は、前記属性取得部で取得された前記属性に対応する前記顔モデルを前記顔モデル記憶部から取得し、当該顔モデルを前記顔画像に照合することによって前記顔画像から特徴点を抽出し、当該特徴点から前記特徴量を抽出する
    ことを特徴とする請求項1記載の心身状態管理装置。
  11. 前記特徴量を抽出する際に前記顔画像に照合させる顔モデルを個人ごとに記憶する顔モデル記憶部を備え、
    前記特徴抽出部は、前記認証部で個人認証された前記対象人物に対応する前記顔モデルを前記顔モデル記憶部から取得し、当該顔モデルを前記顔画像に照合することによって前記顔画像から特徴点を抽出し、当該特徴点から前記特徴量を抽出する
    ことを特徴とする請求項2記載の心身状態管理装置。
JP2010153362A 2010-07-05 2010-07-05 心身状態管理装置 Withdrawn JP2012014650A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010153362A JP2012014650A (ja) 2010-07-05 2010-07-05 心身状態管理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010153362A JP2012014650A (ja) 2010-07-05 2010-07-05 心身状態管理装置

Publications (1)

Publication Number Publication Date
JP2012014650A true JP2012014650A (ja) 2012-01-19

Family

ID=45600959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010153362A Withdrawn JP2012014650A (ja) 2010-07-05 2010-07-05 心身状態管理装置

Country Status (1)

Country Link
JP (1) JP2012014650A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117594A1 (ja) * 2015-01-20 2016-07-28 バルミューダ株式会社 照明装置
JP2019062436A (ja) * 2017-09-27 2019-04-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JPWO2021153281A1 (ja) * 2020-01-31 2021-08-05

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117594A1 (ja) * 2015-01-20 2016-07-28 バルミューダ株式会社 照明装置
JP2019062436A (ja) * 2017-09-27 2019-04-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7057086B2 (ja) 2017-09-27 2022-04-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JPWO2021153281A1 (ja) * 2020-01-31 2021-08-05
WO2021153281A1 (ja) * 2020-01-31 2021-08-05 パナソニックIpマネジメント株式会社 状態可視化システム、空間制御システム、状態可視化方法及びプログラム
JP7426595B2 (ja) 2020-01-31 2024-02-02 パナソニックIpマネジメント株式会社 状態可視化システム、空間制御システム、状態可視化方法及びプログラム

Similar Documents

Publication Publication Date Title
JP7083809B2 (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
US9298883B2 (en) Capturing data for individual physiological monitoring
US8062220B2 (en) Monitoring physiological conditions
US7972266B2 (en) Image data normalization for a monitoring system
US8038615B2 (en) Inferring wellness from physiological conditions data
JP6371366B2 (ja) 精神疾患判定装置
US8038614B2 (en) Establishing baseline data for physiological monitoring system
JP2008522652A (ja) 多変量ダイナミック生体測定システム
US20080294018A1 (en) Privacy management for well-being monitoring
JP2012152389A (ja) ミラー付什器
WO2007125794A1 (ja) データ測定装置及びデータ測定方法
JP2012014650A (ja) 心身状態管理装置
JP5942138B2 (ja) 心身状態回復促進装置およびこれを用いた心身状態回復システム
Madhusanka et al. Biofeedback method for human–computer interaction to improve elder caring: Eye-gaze tracking
CN110297720A (zh) 通知装置、通知方法及存储通知程序的介质
Lanitis Age estimation based on head movements: A feasibility study
WO2023032617A1 (ja) 判定システム、判定方法、及び、プログラム
Gavas et al. Cost Effective Real-time System for cognitive computing using Personalized Eye Blink Detection from Camera
Lai et al. Biometrics for biomedical applications
CN114502061A (zh) 使用深度学习的基于图像的自动皮肤诊断
JP2022047253A (ja) 印象推定装置、印象推定方法および印象推定プログラム
JP2024024307A (ja) 画像処理装置、画像処理方法およびプログラム
McCullagh Devices and Infrastructure to Facilitate AAL
CN117355875A (zh) 基于计算机的身体部位分析方法和系统
HEAD Computer vision for Ambient Assisted Living

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120118

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131001