JP4704174B2 - 状態識別装置、プログラムおよび方法 - Google Patents

状態識別装置、プログラムおよび方法 Download PDF

Info

Publication number
JP4704174B2
JP4704174B2 JP2005288523A JP2005288523A JP4704174B2 JP 4704174 B2 JP4704174 B2 JP 4704174B2 JP 2005288523 A JP2005288523 A JP 2005288523A JP 2005288523 A JP2005288523 A JP 2005288523A JP 4704174 B2 JP4704174 B2 JP 4704174B2
Authority
JP
Japan
Prior art keywords
state
subjects
subject
depression
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005288523A
Other languages
English (en)
Other versions
JP2007097668A (ja
Inventor
健志 片山
章 依田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005288523A priority Critical patent/JP4704174B2/ja
Publication of JP2007097668A publication Critical patent/JP2007097668A/ja
Application granted granted Critical
Publication of JP4704174B2 publication Critical patent/JP4704174B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像から抽出された顔情報に基づいて被写体の状態を識別する状態識別装置、プログラムおよび方法に関する。
講演会、学校の授業などでは、通常、講師は受講者の反応を確認しながら授業を進める。しかし、個々の受講者の顔が見えない環境では、講師が受講者の反応を確認することは難しい。
このような問題への解決策として、例えば特許文献1は、講師端末と受講者端末とをネットワークで接続して授業を行なうシステムで、受講者をビデオカメラで撮影することにより、受講者の状態に関する情報を講師に提供することを提案している。また、特許文献2では、さらに正確に受講者の状態を把握するべく、受講者の身体や受講者が座る椅子にセンサーを取り付けて脳波、血圧、脈拍などを測定し、その情報を講師に提供することを提案している。
ここで、講師が把握したい受講者の状態には例えば笑顔のように所定時刻の画像のみから把握できる状態もあるが、頷きのように連続撮影された複数の画像からしか把握できない状態もある。例えば特許文献1では、連続する2フレーム間の差分の情報から、人物の頭部の動きを表す光軸周りの回転角度、対象に固定された座標軸のx軸と画像面に並行な回転軸との間の角度、その画像面に並行な回転軸周りの角度を、連続するN個のフレームに対して求め、さらに、頭部の動きの中心の座標、頭部の動きの方向、x軸方向およびy軸方向の頭部の動きのエネルギーを連続するN個のフレームから抽出し、上記Nフレーム分の角度情報と合わせてそれらを並べたものを特徴ベクトルとすることにより、頷く、首をふる、右をみる、左を見る、下を見る、上を見る、の6通りの動きを識別している。
特開2001−067482号公報 特開2004−199506号公報
特許文献1が提案するように多くの特徴ベクトルを画像から抽出すれば多くの動きを正確に識別することができる。しかしながら、多数の動きを識別して多くの情報を講師に提供しても、講師の側がその情報を十分に活用しきれない場合も少なくない。また、照合に用いられる特徴ベクトル数が多ければ、その分システムの負荷は高くなる。
そこで本発明は、頭が周期的な動きをする状態にのみ着目し、それらの動きに特に適した状態識別処理を行なうことにより処理を簡素化する。
本発明は、画像から抽出された顔情報に基づいて被写体の状態を識別する装置であって、次の手段を備える状態識別装置を提供する。この装置は、被写体を含む場景を繰り返し撮影することにより得られた複数の画像について、その画像に含まれる被写体の顔情報を抽出し、その顔情報に基づいて前記被写体のうつむき加減を示す値を算出する算出手段を備える。うつむき加減を示す値は、例えば、顔上の上下方向に並んだ所定の2点の距離とする。また、この装置は、算出手段により画像ごとに算出されたうつむき加減の値を前記画像が撮影された順番に時系列に並べることにより、うつむき加減の経時変化を表す波形パターンを生成する波形パターン生成手段を備える。さらに、この装置は、波形パターン生成手段により生成された波形パターンを、居眠り状態のときのうつむき加減の経時変化を表すパターンおよび頷き状態のときのうつむき加減の経時変化を表すパターンとそれぞれ照合することにより、前記被写体の居眠り状態および頷き状態を識別する識別手段を備える。
上記装置の算出手段は、複数の被写体を含む画像から各被写体の顔情報を抽出して被写体ごとにうつむき加減を示す値を算出する手段であり、波形パターン生成手段は、前記波形パターンを被写体ごとに生成する手段であり、識別手段は、被写体ごとに状態を識別する手段であることが好ましい。
また、本発明の状態識別プログラムは、画像から抽出された顔情報に基づいて被写体の状態を識別する状態識別プログラムであって、コンピュータに、以下に説明する算出処理、波形パターン生成処理および識別処理を実行させる。
算出処理は、被写体を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる被写体の顔情報を抽出し、該顔情報に基づいて前記被写体のうつむき加減を示す値を算出する処理である。波形パターン生成処理は、算出処理により画像ごとに算出されたうつむき加減の値を前記画像が撮影された順番に時系列に並べることにより、うつむき加減の経時変化を表す波形パターンを生成する処理である。また、識別処理は、波形パターン生成処理により生成された波形パターンを、居眠り状態のときのうつむき加減の経時変化を表すパターンおよび頷き状態のときのうつむき加減の経時変化を表すパターンとそれぞれ照合することにより、被写体の居眠り状態および頷き状態を識別する処理である。
また、本発明の方法は、画像から抽出された顔情報に基づいて被写体の状態を識別する状態識別方法であり、以下に説明する手順で被写体の状態を識別する。まず、被写体を含む場景を繰り返し撮影することにより得られた複数の画像について、その画像に含まれる被写体の顔情報を抽出し、該顔情報に基づいて前記被写体のうつむき加減を示す値を算出する。次に、画像ごとに算出されたうつむき加減の値を前記画像が撮影された順番に時系列に並べることにより、うつむき加減の経時変化を表す波形パターンを生成する。そして、生成された波形パターンを、居眠り状態のときのうつむき加減の経時変化を表すパターンおよび頷き状態のときのうつむき加減の経時変化を表すパターンとそれぞれ照合することにより、前記被写体の居眠り状態および頷き状態を識別する。
本発明の装置、プログラムおよび方法は、「居眠り」および「頷き」という頭が周期的な動きをする2つの状態に着目し、上記のように、それらの動きに特に適した状態識別処理を行なうので、効率よく高速に受講生の状態を識別することができる。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。以下に例示するシステムは、ある教室で講義を行なう講師をビデオカメラで撮影し、その映像を他の教室でも放映し、さらには自宅にいる受講者に向けてもネットワーク配信するシステムである。
図1に、上記システムの概略構成を示す。図に示すように、このシステムは、ビデオを放映する教室に設置された2台の教室カメラ1a、1b、在宅受講者の自宅にそれぞれ設置された受講者宅カメラ2a、2b、サーバコンピュータ5および教壇付近に設置された講師用端末6を備える。この他、講師を撮影するビデオカメラ、そのビデオカメラにより撮影された映像を放映するための教室用、自宅用設備なども備えているが、図1は、本発明に関連する構成のみ示している。
教室カメラ1a、1bは教室の教壇側の天井に据えつけられた回転可能な構造のビデオカメラである。回転可能な構造とは、例えばドーム型監視カメラのような構造、あるいは回転台にカメラを取り付けた構造などである。ビデオカメラの回転角度、撮影倍率は、受講者席に座った受講者全員の顔を撮影できる角度、倍率に設定されている。なお、教室が広く1台のカメラで受講者全員の顔を撮影できない場合、もしくは撮影できても顔が非常に小さくなってしまう場合には、複数台のカメラにより分担して撮影を行なう。教室カメラ1a、1bは、同じ建屋のコンピュータルームなどに設置されたサーバコンピュータ5と、ローカルエリアネットワーク3により接続されている。
受講者宅カメラ2a、2bは、CCDカメラなど任意の場所に設置し得る小型カメラである、在宅受講者は受講の際、自分の顔がうつる位置に受講者宅カメラを配置することが義務付けられている。受講者宅カメラ2a、2bにより撮影された画像は、インターネット4を介してサーバコンピュータ5にリアルタイムに転送される。
教室カメラ1a、1bおよび受講者宅カメラ2a、2bは、いずれも動画撮影または静止画の連続撮影を行なうように設定されている。本実施形態のシステムは、教室カメラ1a、1b、受講者宅カメラ2a、2bともに、受講者の状態変化を0.5秒以下の間隔で捉えられるように設定されている。
次に、図2を参照して、サーバコンピュータ5の構成について説明する。サーバコンピュータ5は、通信制御部51、記録部52、状態識別部53、同期検出部54および評価部55を備える。サーバコンピュータ5は、汎用のコンピュータに、本発明の機能を実現するためのプログラムを組み込んだものである。
通信制御部51は、汎用コンピュータに備えられた通信機能を使って、サーバコンピュータ5と教室カメラ1a、1b間のローカルエリアネットワーク3を介した通信、およびサーバコンピュータ5と受講者宅カメラ2a、2b間のインターネット4を介した通信を制御する。記録部52、状態識別部53、同期検出部54および評価部55は、後述する各処理を規定した要素プログラムをサーバコンピュータ5にインストールし、動作させることにより実現される処理部である。本実施形態では、サーバコンピュータ5は複数のプロセッサを備えており、各要素プログラムの処理は複数のプロセッサにより並列に処理される。
記録部52は、通信制御部51を介して、教室カメラ1a、1bから転送された映像・画像を受信し、符号化した後、撮影時刻を示す管理情報を付与してサーバコンピュータ5のメモリに書き込む。動画は0.5秒間隔の複数のフレーム画像として記録し、静止画はそのまま符号化して記録する。また記録部は、各部によりメモリに記録されたデータを所定のタイミングでサーバコンピュータ5に接続されているストレージ(図示せず)に出力する。
状態識別部53は、メモリに記憶されている画像を用いて、各受講者の各時刻における状態を表す第1状態データを生成する。また、状態識別部53は、生成した状態データを用いて各受講者の単位時間内の動きを分析し、各受講者の各時間帯における第2状態を表す状態データを生成する。
以下、第1状態データの生成処理について説明する。状態識別部53は、記録部52がメモリに書き込んだ0.5秒間隔の画像を順次読み出して、その画像から人物の顔を検出する。画像から顔を検出する技術としては公知のいずれの技術を用いてもよいが、本実施形態では一画像から多数の顔を検出する必要があるため、例えば所定の大きさの肌色領域であれば顔と判断する方法など、比較的シンプルな検出方法を採用することが好ましい。
状態識別部53は、次に、検出した顔に、受講者を区別するための受講者識別子を割り当てる。受講者識別子は、その受講者の顔が検出された位置を示す番号などとする。顔が検出された位置を示す番号は、各顔の位置を大まかに特定できる番号でよく、例えば画像を格子状に区切って各格子の位置を行番号と列番号で表し、顔が検出された位置に最も近い格子の行列番号を用いる方法などが考えられる。教室カメラ1a、1bの向きは固定されており、受講者は着席しているので、これにより同じ受講者の顔に対し、常に同じ受講者識別子を割り当てることができる。
続いて状態識別部53は、検出した人物ごとに顔の特徴を表す所定の特徴量を算出する。本実施形態では、眉または目の検出により眉間の位置座標を取得し、検出された顔の輪郭から、画像に写っている顔の最下端部の位置座標を取得する。そして、取得した2つの位置座標の差分値を算出する。
この処理では、画像に写っている顔が正面顔のときには、図3(a)に示すように、顎の位置座標が、顔の画像に写っている最下端部の位置座標として取得される。一方、画像に写っている顔がうつむき顔のときには、図3(b)に示すように、鼻など、より目に近い位置の座標が、顔の画像に写っている最下端部の位置座標として取得される。図3(a)および図3(b)の対比から明らかであるように、眉間から画像に写っている顔の最下端部までの距離dは、正面顔で最も長く、うつむき加減が大きいほど短くなるので、2箇所の位置座標の差分値により、顔のうつむき加減を判定することができる。なお、特徴量抽出に基づく顔の識別については種々の技術が知られており、本実施形態では、そのいずれの技術をも採用することができる。
状態識別部53は、算出した特徴量dに、画像の管理情報に含まれている撮影時刻の情報と、顔を検出した際に割り当てた受講者識別子とを付すことにより、図4に示す第1状態データを生成し、メモリに記憶する。状態識別部53が上記処理を繰り返すことにより、メモリには、各時刻における各受講者のうつむき加減を表す複数の第1状態データ7が蓄積されることとなる。
続いて、第1状態データを用いた第2状態データの生成処理について説明する。状態識別部53は10秒分の撮影画像について第1状態データの生成処理を実行すると、一旦第1状態データの生成処理を中断し、第2状態データの生成処理を実行する。第2状態データの生成処理が終了すると、第1状態データの生成処理を再開し、以降、第1状態データの生成処理とを、交互に実行する。
第2状態データの生成処理では、直前に生成した撮影時間10秒分の第1状態データをメモリから読み込み、受講者識別子に基づいて受講者別に分類する。続いて、各受講者の第1状態データを時刻情報に基づいて時系列に並べる。状態識別部53は、この時系列に並べられたデータ群から、特徴量(距離d)の経時変化を表す波形パターンを生成する。図5は生成される波形パターンを、横軸を時間t、縦軸を距離dとして表した図である。
状態識別部53は、生成した波形パターンを、予め登録されているパターンと照合する。本実施の形態では、図6に示す3種類のパターンが登録されている。図6(a)は、軽くうつむく動作が行なわれたことを表す波形であり、1秒程度の短いパターンである。以下、この波形パターンを「頷きパターン」と称する。図6(b)は、うつむく動作が2〜3秒周期で繰り返されている状態、すなわち完全に眠ってはいないが、うつらうつらしている初期の居眠り状態を表す10秒の波形パターンである。以下、この波形パターンを「居眠りパターン」と称する。図6(c)は、正面を向いていたが一時的に5秒ほど深くうつむき、再び正面をむくという動作を表している。このパターンは6秒程度のパターンである。以下、この波形パターンを、「ノート取りパターン」と称する。
状態識別部53は、各受講者について図6(a)〜(c)に示す波形とのパターンマッチング処理を実行する。図6(a)の「頷きパターン」のように、登録パターンが生成されるパターンよりも短い場合には、登録パターンを生成した波形パターンの時間軸に沿って移動しながら何回かマッチングをとる。これにより、図5に示す例のように5秒を過ぎたあたりに頷きパターンがある場合でも、頷き状態を識別することができる。
状態識別部53は、上記パターンマッチング処理により、各受講者が、「頷き」、「居眠り」、「ノート取り」、「その他」のいずれの状態にあるかを識別する。そして、識別した状態を示す識別コードに、受講者識別子と時間帯を示す情報を付与したデータを、図7に示す第2状態データ8としてメモリに記憶する。本実施形態では、時間帯を示す情報は、10秒間の開始時刻と10秒という時間幅を示す情報とする。
なお、本実施形態では10秒間で20の画像が取得されるため、第2状態データ8は通常は20個の第1状態データ7に基づいて生成されることになるが、受講者が講義の途中で離籍した場合には画像から顔が検出されないため第1状態データ7が生成されない。このため、本実施形態では、状態識別部53は第1状態データ7を受講者別に分類した後、ソーティングを行なう前に、その受講者の第1状態データ7の数が20個か否かを判定する。20個に満たない場合には、「離席」を示すコードに、受講者識別子と時間帯を示す情報を付与して第2状態データ8を生成する。
以上に説明した状態識別部53の処理により、メモリには「頷き」、「居眠り」、「ノート取り」、「離席」、「その他」のいずれかの状態を示す第2状態データが、10秒ごとに受講者の数だけ書き込まれる。
次に、再び図2に戻り、同期検出部54の処理について説明する。同期検出部54は、4個のカウンタを制御することにより、「頷き」、「居眠り」、「ノート取り」、「離席」の4つの状態の受講者数を単位時間ごとカウントする。同期検出部54は、状態識別部53がメモリに書き込んだ第2状態データを10秒おきに読み込み、各データに含まれる状態コードを参照する。状態コードが「頷き」、「居眠り」、「ノート取り」、「離席」のいずれかを示している場合には、その状態コードが示す状態に対応するカウンタの値をカウントアップする。状態コードが「その他」を示している場合には何もしない。10秒分の第2状態データについてのカウント処理が終了すると、続いて同期検出部54は、各カウンタの値を所定値と比較することにより、カウント値が所定値を越えたカウンタの有無を判定する。本実施形態では、所定値は、欠席者を含む全受講者数の1/2の数に設定されている。カウント値が所定値を越えたカウンタが検出された場合には、同期検出部54は、そのカウンタによりカウントしていた状態を示す状態コードと、そのカウンタの値とを出力する。以上の処理が終了すると、同期検出部54は、各カウンタの値を、状態およびカウントを行なった時間帯の情報とともに、サーバコンピュータに接続されているストレージに保存する。その後、同期検出部54は、各カウンタの値を0にリセットする。そして、メモリから次の10秒分の第2状態データを読み込み、上記処理を繰り返す。
評価部55は、上記同期検出部54の出力を受け、状態コードとカウンタの値に基づいて講義の評価値を算出する。状態コードが「頷き」または「ノート取り」を示している場合には、「評価値=カウンタ値」とする。状態コードが「居眠り」または「離席」を示している場合には、「評価値=−カウンタ値」とする。
続いて、評価部55は、算出した評価値に基づく評価を、講師用端末6のモニタ画面に出力する。例えば、「居眠り増加中です。講義の進行を工夫して下さい。」などのメッセージを講師用端末6のモニタ画面に出力する。同時に、端末に附属するスピーカからアラーム音を出力してもよい。これにより、講義を行なっている講師は、自らの講義を客観的に評価し、必要に応じて講義の内容や進行を変更し、受講者にとってより有益な講義を行なうことができる。
なお、以上に説明した処理は、講義が行なわれている最中に実行される処理であるが、評価部55は、講義の終了後に評価レポートを生成して出力する機能も備えている。図8に、評価部55が出力する評価レポートの一例を示す。評価部55は、講師または他のオペレータから評価レポートの生成を要求されると、状態別、時間帯別にストレージに保存されているカウンタ値を読み込む。そして、10秒単位で保存されているカウンタ値を5分間分合計し、さらに、その合計値を全受講者の数で除算することにより、全体に対する割合(%)を求める。さらに、公知のグラフ自動生成技術を利用して、各状態の時間帯ごとの人数を表す棒グラフを生成する。これにより図8に例示したような評価レポートを出力する。
以上に説明したように、本実施形態のシステムによれば、過半数の受講者が同じ状態となったことが講師に通知されるため、講師は受講者の状態が、受講者の側に起因するものではなく、講義の内容や進行に起因するものであることを自覚することができる。上記システムでは、講師が受講者の状態を個別に確認しなくても、講義の客観的評価に必要な情報が自動的に収集され、分析され、講師に通知されるので、受講者数が多すぎて個別の状態確認が困難な場合には、特に有用である。講師は、講義の進行を調整すべきか否かの判断に迷うことがなくなるので、受講者反応が悪かった場合には直ちに講義のしかたを工夫するなど、講義を行ないながらリアルタイムに講義を改善することができる。もしくは、異なる受講者を対象に同じ講義を行なう場合に、前の講義で通知された点を意識しながら、よりよい講義を行なうことができる。
また、本実施形態のシステムでは、頷き、居眠り、ノート取りの3つの状態を、1種類の特徴量と、その特徴量の時間的な変化に基づいて区別するので、抽出・保存する特徴量の種類が少ない。このため、大勢の人物から特徴量を抽出してリアルタイムに分析を行なう場合に、効率よく高速に処理を行なうことができる。
本発明の一実施形態におけるシステムの概略構成を示す図 サーバコンピュータの構成を示す図 うつむき加減を示す特徴量について説明するための図 第1状態データを示す図 生成された波形パターンの一例を示す図 登録波形パターンの例を示す図 第2状態データを示す図 評価レポートの一例を示す図
符号の説明
3 ローカルエリアネットワーク、 4 インターネット、 5 サーバコンピュータ
d うつむき加減を示す特徴量、 7 第1状態データ、 8 第2状態データ

Claims (9)

  1. 画像から抽出された顔情報に基づいて被写体の状態を識別する状態識別装置であって、
    複数の被写体を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる前記複数の被写体の顔情報を抽出し、該顔情報に基づいて前記被写体のうつむき加減を示す値を算出し、算出された各値を前記被写体を区別するための識別子とともに記憶媒体に記憶せしめる算出手段と、
    前記算出手段により画像ごとに算出され前記記憶媒体に記憶された、前記被写体ごとのうつむき加減の値を、前記識別子に基づいて被写体別に分類し、続いて前記画像が撮影された順番に時系列に並べることにより、うつむき加減の経時変化を表す波形パターンを被写体ごとに生成する波形パターン生成手段と、
    前記波形パターン生成手段により生成された波形パターンを、居眠り状態のときのうつむき加減の経時変化を表すパターンおよび頷き状態のときのうつむき加減の経時変化を表すパターンとそれぞれ照合することにより、前記複数の被写体のそれぞれについて、居眠り状態および頷き状態を識別する識別手段と
    前記識別手段により識別された居眠り状態の被写体の数および頷き状態の被写体の数を、単位時間ごとにそれぞれカウントするカウント手段とを備えたことを特徴とする状態識別装置。
  2. 前記カウント手段によりカウントされた居眠り状態の被写体の数および頷き状態の被写体の数を、それぞれ所定数と比較することにより、居眠り状態の被写体の数または頷き状態の被写体の数が前記所定数を超えた時間帯を検出する同期検出手段を、さらに備えたことを特徴とする請求項1記載の状態識別装置。
  3. 前記うつむき加減を示す値は、顔上の上下方向に並んだ所定の2点の距離であることを特徴とする請求項1または2記載の状態識別装置。
  4. 画像から抽出された顔情報に基づいて被写体の状態を識別する状態識別プログラムであって、コンピュータに、
    複数の被写体を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる前記複数の被写体の顔情報を抽出し、該顔情報に基づいて前記被写体のうつむき加減を示す値を算出し、算出された各値を前記被写体を区別するための識別子とともに記憶媒体に記憶せしめる算出処理と、
    前記算出処理により画像ごとに算出され前記記憶媒体に記憶された、前記被写体ごとのうつむき加減の値を、前記識別子に基づいて被写体別に分類し、続いて前記画像が撮影された順番に時系列に並べることにより、うつむき加減の経時変化を表す波形パターンを被写体ごとに生成する波形パターン生成処理と、
    前記波形パターン生成処理により生成された波形パターンを、居眠り状態のときのうつむき加減の経時変化を表すパターンおよび頷き状態のときのうつむき加減の経時変化を表すパターンとそれぞれ照合することにより、前記複数の被写体のそれぞれについて、居眠り状態および頷き状態を識別する識別処理と
    前記識別処理により識別された居眠り状態の被写体の数および頷き状態の被写体の数を、単位時間ごとにそれぞれカウントするカウント処理とを実行させる状態識別プログラム。
  5. 前記カウント処理によりカウントされた居眠り状態の被写体の数および頷き状態の被写体の数を、それぞれ所定数と比較することにより、居眠り状態の被写体の数または頷き状態の被写体の数が前記所定数を超えた時間帯を検出する同期検出処理を、さらに実行させることを特徴とする請求項4記載の状態識別プログラム。
  6. 前記うつむき加減を示す値は、顔上の上下方向に並んだ所定の2点の距離であることを特徴とする請求項4または5記載の状態識別プログラム。
  7. 画像から抽出された顔情報に基づいて被写体の状態を識別する状態識別方法であって、
    複数の被写体を含む場景を繰り返し撮影することにより得られた複数の画像について、該画像に含まれる前記複数の被写体の顔情報を抽出し、
    該顔情報に基づいて前記被写体のうつむき加減を示す値を算出し、
    算出された各値を前記被写体を区別するための識別子とともに記憶媒体に記憶せしめ、
    前記画像ごとに算出され前記記憶媒体に記憶された、前記被写体ごとのうつむき加減の値を、前記識別子に基づいて被写体別に分類し、続いて前記画像が撮影された順番に時系列に並べることにより、うつむき加減の経時変化を表す波形パターンを被写体ごとに生成し、
    前記生成された波形パターンを、居眠り状態のときのうつむき加減の経時変化を表すパターンおよび頷き状態のときのうつむき加減の経時変化を表すパターンとそれぞれ照合することにより、前記複数の被写体のそれぞれについて、居眠り状態および頷き状態を識別し、
    前記識別された居眠り状態の被写体の数および頷き状態の被写体の数を、単位時間ごとにそれぞれカウントする状態識別方法。
  8. 前記カウント処理によりカウントされた居眠り状態の被写体の数および頷き状態の被写体の数を、それぞれ所定数と比較することにより、居眠り状態の被写体の数または頷き状態の被写体の数が前記所定数を超えた時間帯を検出することを特徴とする請求項7記載の状態識別方法。
  9. 前記うつむき加減を示す値を、顔上の上下方向に並んだ所定の2点の距離とすることを特徴とする請求項7または8記載の状態識別方法。
JP2005288523A 2005-09-30 2005-09-30 状態識別装置、プログラムおよび方法 Expired - Fee Related JP4704174B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005288523A JP4704174B2 (ja) 2005-09-30 2005-09-30 状態識別装置、プログラムおよび方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005288523A JP4704174B2 (ja) 2005-09-30 2005-09-30 状態識別装置、プログラムおよび方法

Publications (2)

Publication Number Publication Date
JP2007097668A JP2007097668A (ja) 2007-04-19
JP4704174B2 true JP4704174B2 (ja) 2011-06-15

Family

ID=38025206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005288523A Expired - Fee Related JP4704174B2 (ja) 2005-09-30 2005-09-30 状態識別装置、プログラムおよび方法

Country Status (1)

Country Link
JP (1) JP4704174B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6094131B2 (ja) 2012-10-05 2017-03-15 日本電気株式会社 教育現場改善支援システム、教育現場改善支援方法、情報処理装置、通信端末およびその制御方法と制御プログラム
US20150327802A1 (en) 2012-12-15 2015-11-19 Tokyo Institute Of Technology Evaluation apparatus for mental state of human being
KR101993010B1 (ko) * 2013-02-28 2019-06-25 고려대학교 산학협력단 시공간 패턴에 기반한 비디오 분석 장치 및 방법
CN107851324B (zh) 2015-07-28 2022-12-20 索尼公司 信息处理系统、信息处理方法和记录介质
US10535375B2 (en) * 2015-08-03 2020-01-14 Sony Corporation Information processing system, information processing method, and recording medium
JP6413068B1 (ja) * 2017-11-29 2018-10-31 株式会社 プロネット 情報処理システム、情報処理方法、情報処理プログラム、および情報処理装置
JP7020264B2 (ja) 2018-04-18 2022-02-16 富士通株式会社 動作判定プログラム、動作判定装置及び動作判定方法
CN111079476B (zh) 2018-10-19 2024-03-26 上海商汤智能科技有限公司 驾驶状态分析方法和装置、驾驶员监控系统、车辆
JP7130290B2 (ja) * 2020-10-27 2022-09-05 株式会社I’mbesideyou 情報抽出装置
JPWO2022091230A1 (ja) * 2020-10-27 2022-05-05

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249197A (ja) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp 人物状態検出装置
JPH1186005A (ja) * 1997-09-08 1999-03-30 Nissan Motor Co Ltd 動作検出装置
JP2000194252A (ja) * 1998-12-25 2000-07-14 Canon Inc 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249197A (ja) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp 人物状態検出装置
JPH1186005A (ja) * 1997-09-08 1999-03-30 Nissan Motor Co Ltd 動作検出装置
JP2000194252A (ja) * 1998-12-25 2000-07-14 Canon Inc 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体

Also Published As

Publication number Publication date
JP2007097668A (ja) 2007-04-19

Similar Documents

Publication Publication Date Title
JP4704174B2 (ja) 状態識別装置、プログラムおよび方法
JP2007102344A (ja) 自動評価装置、プログラムおよび方法
Yun et al. Automatic recognition of children engagement from facial video using convolutional neural networks
Kapoor et al. Multimodal affect recognition in learning environments
Lim et al. Automated classroom monitoring with connected visioning system
CN102292689B (zh) 利用脸部检测和热点运动控制媒体的方法
JP4304337B2 (ja) インタフェース装置
JP5441071B2 (ja) 顔分析装置、顔分析方法、及びプログラム
Bidwell et al. Classroom analytics: Measuring student engagement with automated gaze tracking
CN1422494A (zh) 在电视会议和其他应用中预测事件的方法和装置
Das et al. Supporting human–robot interaction based on the level of visual focus of attention
Yao et al. A big bang–big crunch type-2 fuzzy logic system for machine-vision-based event detection and summarization in real-world ambient-assisted living
CN111898881B (zh) 一种课堂教学质量评估方法、装置、设备及存储介质
Zaletelj Estimation of students' attention in the classroom from kinect features
Malmir et al. Home alone: Social robots for digital ethnography of toddler behavior
Khan et al. Classification of human's activities from gesture recognition in live videos using deep learning
JP2009267621A (ja) 通信装置
Hung et al. Fall detection with two cameras based on occupied area
JP2018049481A (ja) 情報処理装置、評価システムおよびプログラム
JP7139680B2 (ja) 活性度評価プログラム、装置、及び方法
Gogia et al. Multi-modal affect detection for learning applications
JP2018060375A (ja) 情報処理システム、情報処理装置およびプログラム
Farrell et al. Real time detection and analysis of facial features to measure student engagement with learning objects
Chin et al. Automated attendance capture and tracking system
Rothoft et al. Monitor pupils' attention by image super-resolution and anomaly detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110309

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees