JP3836488B2 - 状態監視装置 - Google Patents

状態監視装置 Download PDF

Info

Publication number
JP3836488B2
JP3836488B2 JP2005031105A JP2005031105A JP3836488B2 JP 3836488 B2 JP3836488 B2 JP 3836488B2 JP 2005031105 A JP2005031105 A JP 2005031105A JP 2005031105 A JP2005031105 A JP 2005031105A JP 3836488 B2 JP3836488 B2 JP 3836488B2
Authority
JP
Japan
Prior art keywords
state
image
mouth
time
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005031105A
Other languages
English (en)
Other versions
JP2005199078A (ja
Inventor
修 山口
和広 福井
睦 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005031105A priority Critical patent/JP3836488B2/ja
Publication of JP2005199078A publication Critical patent/JP2005199078A/ja
Application granted granted Critical
Publication of JP3836488B2 publication Critical patent/JP3836488B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、住空間、行動空間における人間や動物の被検体の行動を監視する状態監視装置に関する。
従来のユーザインターフェースでは、人間が意識的に起こす行動を認知し、その意図を反映した制御を行うことを目的とした設計されてきた。
例えば、目標とする物体を指さし、その指の方向を画像認識により検知するという、ポインティングに利用するといったもの(例えば、非特許文献1参照)等が挙げられる。
この場合、常に注意を装置に向けておく必要がある。例えば就寝時のように、意識して行動をしていない時、従来の方法では、人間の意図を伝えられない。このとき照明等をつけたままにして寝てしまった場合、照明を消してほしい、といった意図を伝えることはできない。
人間が意識しなくても、その人間の状態を認識して、機器の制御をする方法について考える必要がある。例えば就寝時の寝返り、あくび、まぶたの開閉などの人間の意識しない行動を検出し、その情報に基づいた機器の制御を行うためには、その人間の状態を的確に把握する必要性がある。
人間の状態判断を行うために、人間に特別な測定機器(例えば、脳波測定、血圧測定機器、データグローブ、データスーツ等)をつけて様々な測定を行い、その結果に基づいて、電気機器などを操作するといったものもある。しかし、このような機器を身体に装着することは人間にとっては煩雑、面倒であり、就寝時などの状態を容易に把握できないという問題がある。そのためには、画像情報を利用した状態の認識が適当と考えられる。
また、同様の働きをするものとしては各種の監視装置が知られており、画像情報を用いた情報の取得を行い、警報装置等と連動させてセキュリティに用いられている。しかしこれらは、人間の細かな動きを管理するのではなく、ドア付近での人の入退出管理などが行われているのが現状である。
福本雅朗、間瀬健二、末永康仁:「画像処理を用いた指示動作検出の実験システム」1991電子情報通信学会春季全国大会予稿集A−251(1991))
上記したように、人間が意識しなくても、その人間の状態を認識して、機器の制御をする方法については、従来実現されていなかった。
そこで、本発明では、人間や動物の無意識な行動を検知し、その状態を認識する状態監視装置を提供する。
本発明は、人間を観測する画像入力手段と、前記画像入力手段によって観測した画像から人間の口の状態を検出する口検出手段とを有し、前記口検出手段は、前記画像入力手段によって観測した人間の口の画像から、その口の状態が閉じた状態、あくび状態または会話状態であるかを判断するものであって、前記観測した画像から唇部分を抽出し、上唇と下唇のモデルを前記抽出した唇部分の画像の大きさに合わせマッチングし、前記マッチングした画像における口全体の縦横の開口時の大きさを計測し、前記開閉の大きさの時間的変化を求め、前記時間的変化の微分を行って変曲点で時間を区切り、前記区切った時間系列中の分節の数と各分節の時間の長さを計測し、前記分節の数と前記各分節の時間の長さに基づいてあくび状態または会話状態であるかを判断することを特徴とする状態監視装置である。
本発明の状態監視装置は、人間の無意識に起こすあくびの行動を判定できる。
本発明の一実施例を図面に基づき説明する。本実施例では、被検体を人間とし、システムで監視する環境に一人の人間が存在するという設定で行っている。なお、「被検体」とは、人間及びライオン、象、犬等の動物をいう。
図1にシステム全体の構成を示す。
システムの装置は、検出部1、判断部2、制御部3の3つからなる。
検出部1は、室内または人間の状態を検出するためのものであり、その情報を判断部2に送る。
判断部2は、検出部1から受け取った情報に基づき人間の状態を判断する。
制御部3は、機器の制御を行うためのインターフェースを持ち、機器のコントロールを行う。
[検出部1]
まず、検出部1について図2を用いて説明する。
検出部1は、複数台のカメラ、マイク、温度、湿度センサを入力機器として持ち、これらの入力を処理する入力制御部11とそれぞれの検出機能部14,1516,17、そして、各種のモデルデータベース12で結果を統合し、判断部2への出力をまとめる結果収集部13からなる。
検出部1の機能としては、姿勢検出機能、顔検出機能、目部分観測機能、口部分観測機能がある。
[姿勢検出機能部14]
姿勢検出機能部14は、複数台のカメラによって撮影された画像中に存在する人間の姿勢を検出するものである。図3を用いて説明する。
動画像(時系列画像)の差分画像を求めることによって、動いた物体の絞り込みを行う。
まず、画像メモリ21に蓄えられた画像から差分画像生成部22によって差分画像を生成する。
その動物体の領域に対してラベリング部23で、ラベリングを行う。
それぞれのラベリングされた領域に対して、原画像から新たにエッジ抽出部24で、エッジ抽出を行う。
得られたエッジ画像から、輪郭情報生成部25により、輪郭情報を求め、モデルデータベース26に蓄えられた図4(a) ,(b) のような、3次元モデルを用いて、モデル照合部27によりマッチングを行い、姿勢を判定する。
人間がどのような動作をしたかを定量化することができれば、その評価関数の値を用いて、動作の判定が可能となる。
本実施例では、次のような評価関数を定義し、評価関数計算部28で計算する。そして、この結果が姿勢の動きの定量化した動作値となる。
手、足、首などの動作、体軸方向の回転、腰の曲げ等のそれぞれの関節等の曲げ角は、3次元空間中での角度を表すのではなく、2次元平面(画像)上に投影された時の角度とし、図4(b) と(c) の差を取り、(d) のようにθx(xは注視する関節数1〜n)とする。また、それぞれの重み係数をwxとするとき、その評価関数fは
Figure 0003836488
と定義できる。
なお、この重み定数は実験等によって、予め求められているとする。上に挙げた評価関数は体全体の動きの評価関数である。
例えば、右腕のみの動作を評価する関数として、
Figure 0003836488
のように定義でき、個別の関節の動きをそれぞれ監視するのではなく、その評価関数の定量化した動作値を持って肢体の動作判定を行う。
[顔検出機能部15]
顔検出機能部15について述べる。顔検出機能は人間の顔を検出し、人間が向いている方向を推定する機能で、図5に示す。
先に述べた姿勢検出によって、取得した画像のどの辺りに顔が存在するかを仮定することができる。
画像メモリ31に蓄えられた画像から、姿勢検出機能部14で検出された姿勢から頭部を推定し顔部分推定切出部32で部分画像を生成する。
その部分画像に対して、色相彩度画像生成部33では、色相、彩度画像を作成し、肌色領域を検出する。
検出した領域が顔であるかどうかを判定するためにモデルデータベース34に蓄えられた顔モデルに基いて顔部分抽出部35でマッチングを行う。
次に、その結果から顔部品抽出部36で顔の部品の検索を行う。
目や口といった特徴のある部品の抽出を行った後、それぞれの部品が存在する顔領域に対する相対的な存在位置から、顔の向き判定部37で、人間の対軸方向に対して何度向いているか、また室内のどの方向を向いているかなど、顔の向いている方向の推定を行う。
例えば、顔の縦方向の回転をθx、顔の横方向の回転をθyとし、重み係数をそれぞれwx,wyとすると、評価関数fは、

f=wx・θx+wy・θy

となる。
そして、この評価関数の定量化した動作値を持って顔の動作判定を行う。
ここで、暗い室内の場合について述べる。
本実施例では、赤外線カメラを使う方法を取る。すなわち、色情報は利用できない。よって形状情報、輝度情報を利用した検出を行う。これらの処理をすべての観測カメラ、すなわち、それぞれのカメラ板から投影した画像から推定を行い、それらの推定結果をまとめて一つの結果を算出する。
[目部分観測機能部16]
目部分観測機能部16は、人間が目を開けている、閉じているといった情報や、睡眠状態における眼球運動を観測する機能で、図6に示す。
顔検出機能部15によって、目の位置はわかっており、画像メモリ41の画像から、目部分検出部42で、目の部分を含むようにトリミングした矩形の部分画像を作成する。
部分画像中では、必ず目の部分が矩形に対して平行になっているとは限らないので、後処理のために回転画像生成部43によって、画像を回転させる。
その画像に対し、瞳検出部44では、瞳(虹彩と瞳孔)と白眼のモデルによって検出を行う。
これに失敗する場合として、(1)部分画像の生成時に失敗していること、すなわち目の部分が画像内に存在しない場合、(2)目を閉じている場合である。
(1) 何か別のものに隠されており検出できない場合がある。再抽出を試みて、取得が不可能な場合、さらに別の視点から抽出を行い、どこからも取得が不可能な場合は処理を中止する。この時、検出モジュールでは別の物体によって「隠されている」と判定する。
(2) 目を閉じている場合については、目をつぶった状態では目を閉じた時にできるまぶたの線を抽出することによって目を閉じているかどうかを判定する。まぶたの線の検出は、まぶた検出部45で検出する。目を閉じている場合まぶたの線は、顔の表面色に比べると輝度が低く観測され、比較的安定して画像上のエッジとして検出される。
図7に基づいて説明する。
ステップa1において、画像からエッジ検出を行う。
ステップa2において、2値化を行う。
ステップa3において、そのエッジ画像から、ハフ変換(H.K.Yuen, J.Illingworth, J.Kittler,“Ellipse detection using the Hough Transform ”, Alvey Vision Conference, Manchester, (1988))などを用いた円弧の抽出を行う。
ステップa4において、円弧の位置、組合せ検出から複数の候補として抽出された円弧の組合せ、相対的な位置関係を考慮し、まぶたを検出する。
次に、睡眠状態について次のことを考える。
睡眠中に眼球が急速に動く現象であるREM(Rapid Eye Movement)を起こす睡眠状態をレム睡眠と呼ぶ。この状態は浅い眠りの状態であるということが知られている。これらの睡眠の状態検出を行うために、まぶた痙攣検出を画像情報を用いて取得する方法について図8(a)(b)(c) に基づいて述べる。
眼球運動検出部46では、人間を撮影した時系列画像から図8(a) のような処理を行う。
図8(a) のステップb1において、目の回りの部分画像(図8(b) )に対しての差分画像を生成する。
目の部分の差分画像が細かく変化している場合は眼球運動と判断する。
図8(a) のステップb2において、その差分画像の各画素値から評価関数mを図8(c) のようにまぶたの部分(肌色領域H)とまぶたの線(低輝度領域L)の部分があるため、
Figure 0003836488
(Iiは部分画像中のある画素値)のように設定する。
図8(a) のステップb3,4において、閾値以上の変化が数十秒間認められた場合、眼球運動があると判断する。各重み定数(w2,w2)また閾値については、多くのサンプルから実験によって求めるものとする。各検出結果は結果を結果統合部47に送り、その結果をまとめる。
[口部分観測機能部17]
口部分観測機能部17は、人間が会話している状態か、そうでないか、また、
あくびをしたかどうかを観測する機能である。
ここでは、口を開けているかどうかの判定が必要となるので、図9(a)(b)(c) に基づいて説明する。
図9(a) のステップc1において、まず口を探すために、位置情報、色情報を用いることによって、口の部分を探索し、目部分観測機能部16と同様に、矩形に切り取り部分画像を生成する。本実施例では図9(b) のような、唇の形状モデルとの照合を行う。
図9(a) のステップc2において、明度情報などから唇部分の抽出、2値化を行う。
図9(a) のステップc3において、上唇、下唇のモデルを2値化した画像の大きさに合わせ、モデルをマッチングする。
図9(a) のステップc4において、図9(c) のように、口全体の縦横、開口時の大きさを計測する。
次に、会話、あくびの検出について図10(a)(b)(c) に基づいて説明する。
会話の場合、時間的な軸での変化を考えた場合、口の開閉の変化が大きい。
また、あくびは、初めに緩やかな長い呼吸を行うために、大きく口を開け、次にしばらく開けた状態が続き、そして閉める。
このような図10(a) で示されるような「会話モデル」「あくびモデル」を用意し、時間的な変化系列をパターンとして認識する方法を図10(b) に示す。
図10(b) のステップd1において、図10(a) に示すような口形状の変化を表すグラフを生成する。
図10(b) のステップd2において、それを図10(c) に示すように、曲線の微分を行い、変曲点で時間を区切り、一次元のパターンに投影する。
図10(b) のステップd3において、一定区間内での変化の系列を次のように識別する。区切った時間系列(tsep )中に、いくつ分節が存在するか(上の例16、下の例3)各分節の時間の長さ等のパターンマッチングを行い、判定する。
[判断部2]
次に、図1の判断部2について、図11で説明する。
判断部2は、検出部1から受けとった情報に基づいて、機器をどのように制御すればよいか、また、どのような指示を人間に与えるかを決定し、状態統合判断機能、制御指示機能、会話機能を有する。
[状態統合判断機能部50]
状態統合判断機能部50は、検出位置から得られる各種情報の識別、履歴、統合を行い、各種の指示を出すための中枢機能を司る。
まず、人間に対する状態について次のような幾つかの状態を設定する。
・活動状態(起きている状態)
静止状態(テレビ等を見ている、本を読んでいる等)
会話状態(話しをしている)
運動状態(歩行等も含む)
・就眠状態(寝ている状態)
入眠状態(いまにも眠たそうな状態)
睡眠状態(普通に目をつむって寝ている状態)
熟睡状態(少々のことでは起きない状態)
REM睡眠状態(眼球運動が観測される睡眠状態)
目覚状態(起きてから数分までの状態)
観測情報受取部51では、各検出機能から得られた情報を受け、それぞれの情報を数段階の度合に変換する。姿勢については細かい動きを行う場合が多いため、動きがないとするものは設けていない。よって、それぞれの状態において、注視する動作を変える必要がある。
判断決定部52では、表1のようなテーブルを状態情報データベース管理部53より参照し、状態を決定する。
Figure 0003836488
ここで、テーブルを用いた方法では、検出装置の失敗などによっていずれの状態にも識別できない場合について述べる。例えば、顔の検出ができない場合、眠
っているかどうかを判定することが困難となる。これを補助するものとして、姿
勢の変化の度合いから、動きが少ない場合には「寝ている」と判断する。
あくびの場合、通常人間は手で口を覆い隠す。この場合は図12に示すように、口形状の認識のみでは失敗する。よって、前述した腕の動きの評価関数等と組み合わせた統合的な判断が必要となる。
判断決定部52は、制御装置へどのような指示を出すかを決め、制御情報データベース管理部54に登録されているデータに基づき、制御装置への指示を送る。このとき、制御する機器の状態も管理し、無駄な制御(例えば、照明が消えているのに消そうとしない等)をしない等や、エアコンの温度調整の必要性の有無等を行う。
制御情報データベース管理部54には次のようなデータを登録されている。
活動状態時に対する処理をまとめる。
状態が判定された場合、次のような環境に設定する。入退室時、すなわち室内での人間の存在の有無を確かめた後、室内照明の入切、その他のテレビ等の器具の電源の入切を行う。移動の方向によっては、移動した場所(ホテルの室内等ではユニットバス等)の照明の入切を行う。また判断装置はあくびの回数をカウントし、履歴を保存する。時間的な頻度を観測し、多くなってきた場合には、就寝を促すメッセージを流す。
睡眠状態時に対する処理をまとめる。
入眠時には、テレビの電源切、オーディオの音量調節や電源の切、照明の入切を行う。就眠時には主にエアコンの温度風向調節を行う。起床時はテレビの電源入、オーディオの音量調節や電源の入、照明の入切を行う。また、起床時間をユーザによって設定するが、本装置では必ずしも、その時間通りには起こさない。設定時間よりも早い時点で、REM睡眠のように睡眠が浅いと判断できる場合、そちらの方が「目覚めがよい」と判断して起床を促す。
[会話機能部55]
会話機能部55は、会話認識モジュール56と音声合成警報モジュール57を有し、ユーザとのインターフェースとして働き、ユーザからの機能選択の受付、
また、ユーザへの指示を行うための機能である。例えば、目覚しの時刻設定、人
間からの機器制御の指示を受ける。システムからは人間に対する指示(あくびが多い時に「寝た方がよい」等)、起床時、挨拶等を行う。
[制御部3]
図1の制御部3は、機器制御を行う機能を持ち、図13に示す。
指示選択部61では、判断部2からの制御機器情報を選別し、指示変換部62に送る。指示変換部62は、制御指示を具体的な操作(スイッチを入れる電気信号等)へ変換する。各種の電気製品の赤外線リモートコントロールを行うための送信機能63や照明器具のように直接電源のON/OFFを行うための附属装置64を取付けることによるスイッチング機能を持つ。これらは現在の室内設備に対して容易に対応可能であることを特徴とする。
なお、本発明は上述した実施例に限定されるものではない。
(1) 姿勢検出機能部14の変形例
姿勢検出機能部14により複雑な動作を扱うために次のことが考えられる。
最近のCGの研究では、人物のモデルを動かすために人間の動作を記述するための言語処理系を構築し、その言語を用いて動作系列の生成を行っている。この記述系を表現形式として、画像から得られた特徴量からこのような言語へと変換する方法を考え、その言語を用いた構文的なマッチング方法をとる。
(2) 口部分観測機能部17の変形例
口部分観測機能部17において、エネルギー最小化原理に基づいた、動的な輪郭抽出法であるスネーク(M. Kass, A. Witkin, D. Terzopouls,“Snakes: Active Contour Models ”, In Proc. 1st Int. Conf. on Computer Vision, pp.259-268(1987))を利用することが考えられる。スネークによって唇の輪郭形状を抽出し、追跡することによって形状情報を得る。
(3) 顔検出機能部15等の変形例
顔検出機能部15等の色情報を利用するモジュールについては、暗くなった場合、赤外線カメラを利用する方法を述べたが、人間が寝ている場合、数秒間だけ
照明をつけ、撮影することによって、より確実な情報を得るという変形例も挙げ
られる。
(4) 判断部2の変形例
判断部2の変形例を図14(a) に挙げる。
人間だけでなく物体認識部71を採り入れ、布団、服装等の認識を行い、温度調節等に対する有益な情報を得るように拡張することが挙げられる。
音声認識部72を付け加えることにより、会話状態や就寝時のいびき等の状態を監視するために用いられ、画像情報によって得られた情報を補助するために使う。例えば、画像情報として会話をしているかどうか、不確かな場合、音声情報を組み合わせることによって判断が可能になる。
各認識モジュールが情報の取得に失敗した場合、失敗することによって新たな情報が得られる場合がある。
例えば、姿勢検出が失敗する例としては、図14(b) のように、睡眠中に布団を掛けている場合では、体全体が見えなくなってしまうため、うまく画像から姿勢が取得できない。しかし、時間が経ち、暑さのために布団を外した場合は、これまで失敗していた姿勢の取得が可能になる。ここで、判断装置は「暑い、寝づらい」等と判断することができ、時間的な観測結果の変化を考慮することで、状態の判定が可能となる。
このような、失敗に基づく推論を採り入れたモジュール73を採り入れる。このモジュール73の構成は、図14(c) に図示する。すなわち、失敗例データベース82,マッチング部83,履歴蓄積部71とよりなる。
また、制御情報についても、ある方向をずっと見ているという情報が取得可能であるため、テレビの方向をずっと見るだけで、電源を入れる等の操作拡張を、データベースの拡張によって可能である。
(5) 本実施例では、人間の就寝時の場面を想定したものであるが、「あくび」「まばたき」といった無意識な行動の検出とそれに伴う機器の制御については、他の場面においても有効である。
例えば、次のような通常の行動時におこる無意識な行動の検出を行うような変形例も考えられる。
劇場や会場の観客個々について、あくび、まばたき等の回数、会話の頻度を調べることにより、観客全体の状態判断を行い、照明、空調等を制御するといったもの。
会議の出席者の状態として、あくび、まばたきの回数等を記録することによって、出席者の集中度を把握するといったもの。
VDT作業者のまばたき等の回数を記録し、疲労度を判断し注意を促すといったもの。
この際、姿勢検出機能の変形例として、顔の向き、首の動き、手足の動き等を検出することにより、「腰に手をやる」「肩を叩く」「伸びをする」「首のコリをほぐす」といった無意識的な身体の動きを検出することが考えられる。これらの動作は、同じ動作を繰り返し行うことを特徴としており、それぞれの動作の大きさ、回数等記録しておくことにより、人間の状態を把握できるようになる。
(6) 上記実施例では、被検体を人間としたが、これに代えてライオンや象などの動物を被検体としてシステムを用いてもよい。この場合には、例えば、動物園の檻の中にいる動物の監視に使用することができ、この動物が就寝中か、起床状態にあるかを判断できて、飼育係の仕事の負担を軽減できる。また、サファリパークにおいても。本システムを使用して動物の監視を行うことができる。
以上、本発明はその趣旨を逸脱しない範囲で種々変形して実施することが可能である。
システムのブロック図である。 検出部のブロック図である。 姿勢検出機能部のブロック図である。 姿勢モデルの説明図である。 顔検出機能部のブロック図である。 目部分観測機能部のブロック図である。 まぶた検出のフローチャートである。 REM睡眠検出のフローチャートと説明図である。 口検出のフローチャートと説明図である。 口形状の時間的推移モデルと検出のフローチャートと説明図である。 判断部のブロック図である。 あくびの統合判断の例を示す図である。 制御部のブロック図である。 判断部の変形例のブロック図である。
符号の説明
1 検出部
2 判断部
3 制御部

Claims (2)

  1. 人間を観測する画像入力手段と、前記画像入力手段によって観測した画像から人間の口の状態を検出する口検出手段とを有し、
    前記口検出手段は、
    前記画像入力手段によって観測した人間の口の画像から、その口の状態が閉じた状態、あくび状態または会話状態であるかを判断するものであって、
    前記観測した画像から唇部分を抽出し、
    上唇と下唇のモデルを前記抽出した唇部分の画像の大きさに合わせマッチングし、
    前記マッチングした画像における口全体の縦横の開口時の大きさを計測し、
    前記開閉の大きさの時間的変化を求め、
    前記時間的変化の微分を行って変曲点で時間を区切り、
    前記区切った時間系列中の分節の数と各分節の時間の長さを計測し、
    前記分節の数と前記各分節の時間の長さに基づいてあくび状態または会話状態であるかを判断する
    ことを特徴とする状態監視装置。
  2. 人間を観測する画像入力装置を有し、前記画像入力装置によって観測した画像から人間の口の状態をコンピュータによって検出する口検出ステップを有し、
    前記口検出ステップは、
    前記観測した人間の口の画像から、その口の状態が閉じた状態、あくび状態または会話状態であるかを判断するものであって、
    前記観測した画像から唇部分を抽出し、
    上唇と下唇のモデルを前記抽出した唇部分の画像の大きさに合わせマッチングし、
    前記マッチングした画像における口全体の縦横の開口時の大きさを計測し、
    前記開閉の大きさの時間的変化を求め、
    前記時間的変化の微分を行って変曲点で時間を区切り、
    前記区切った時間系列中の分節の数と各分節の時間の長さを計測し、
    前記分節の数と前記各分節の時間の長さに基づいてあくび状態または会話状態であるかを判断する
    ことを特徴とする状態監視方法。
JP2005031105A 2005-02-07 2005-02-07 状態監視装置 Expired - Fee Related JP3836488B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005031105A JP3836488B2 (ja) 2005-02-07 2005-02-07 状態監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005031105A JP3836488B2 (ja) 2005-02-07 2005-02-07 状態監視装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP06599595A Division JP3697286B2 (ja) 1995-03-24 1995-03-24 状態監視装置

Publications (2)

Publication Number Publication Date
JP2005199078A JP2005199078A (ja) 2005-07-28
JP3836488B2 true JP3836488B2 (ja) 2006-10-25

Family

ID=34824727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005031105A Expired - Fee Related JP3836488B2 (ja) 2005-02-07 2005-02-07 状態監視装置

Country Status (1)

Country Link
JP (1) JP3836488B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4901309B2 (ja) 2006-05-31 2012-03-21 株式会社デンソー 生体状態検出装置、制御装置、及び脈波センサ装着装置
JP2010273276A (ja) * 2009-05-25 2010-12-02 Car Mate Mfg Co Ltd テレビ制御装置
JP5820366B2 (ja) 2010-10-08 2015-11-24 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JPWO2015083411A1 (ja) * 2013-12-03 2017-03-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018013929A (ja) * 2016-07-20 2018-01-25 株式会社ガイア・システム・ソリューション 起床監視装置
JP6888542B2 (ja) * 2017-12-22 2021-06-16 トヨタ自動車株式会社 眠気推定装置及び眠気推定方法
JP2020070573A (ja) * 2018-10-30 2020-05-07 立川ブラインド工業株式会社 電動遮蔽装置
JP7312037B2 (ja) * 2019-06-25 2023-07-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 咳検出装置、咳検出装置の作動方法及びプログラム
WO2021053806A1 (ja) * 2019-09-20 2021-03-25 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法

Also Published As

Publication number Publication date
JP2005199078A (ja) 2005-07-28

Similar Documents

Publication Publication Date Title
JP3836488B2 (ja) 状態監視装置
JP3697286B2 (ja) 状態監視装置
Jalal et al. Depth video-based human activity recognition system using translation and scaling invariant features for life logging at smart home
Kapoor et al. A real-time head nod and shake detector
US11252378B1 (en) Batteryless doorbell with rectified power delivery
Pantic et al. Automatic analysis of facial expressions: The state of the art
US10593174B1 (en) Automatic setup mode after disconnect from a network
US11341825B1 (en) Implementing deterrent protocols in response to detected security events
US10803719B1 (en) Batteryless doorbell with energy harvesters
US12073698B1 (en) Security device with user-configurable motion detection settings
CN108279573A (zh) 基于人体属性检测的控制方法、装置、智能家电和介质
JP6819633B2 (ja) 個人識別装置および特徴収集装置
TW201730808A (zh) 一種人臉檢測方法
TW202303444A (zh) 影像式情緒辨識系統和方法
WO2018173948A1 (ja) サービス提供システム
US11687049B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
CN219715857U (zh) 一种智能眼镜及智能控制系统
US10834366B1 (en) Audio/video recording and communication doorbell devices with power control circuitry
Ferrara et al. On the use of the Kinect sensor for human identification in smart environments
US11032762B1 (en) Saving power by spoofing a device
Rashidan et al. Mean-Shift Algorithm-based Human Frontal Face Tracking System Using Thermal Imaging
JP2005199373A (ja) コミュニケーション装置及びコミュニケーション方法
ATASOY et al. Real-Time motorized electrical hospital bed control with eye-gaze tracking
CN108958488A (zh) 一种人脸指令识别方法
Kang et al. Beyond superficial emotion recognition: Modality-adaptive emotion recognition system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060726

LAPS Cancellation because of no payment of annual fees