JP4701365B2 - 感情情報通知装置 - Google Patents

感情情報通知装置 Download PDF

Info

Publication number
JP4701365B2
JP4701365B2 JP2006019407A JP2006019407A JP4701365B2 JP 4701365 B2 JP4701365 B2 JP 4701365B2 JP 2006019407 A JP2006019407 A JP 2006019407A JP 2006019407 A JP2006019407 A JP 2006019407A JP 4701365 B2 JP4701365 B2 JP 4701365B2
Authority
JP
Japan
Prior art keywords
face
subject
information
emotional state
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006019407A
Other languages
English (en)
Other versions
JP2007200126A (ja
Inventor
ライオンズ マイケル
トマス バリングトン ルース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006019407A priority Critical patent/JP4701365B2/ja
Publication of JP2007200126A publication Critical patent/JP2007200126A/ja
Application granted granted Critical
Publication of JP4701365B2 publication Critical patent/JP4701365B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Image Analysis (AREA)

Description

この発明は、対象者の表情画像を長期にわたって記録し、かつ事後に検索するための感情情報通知装置の構成に関する。
現代生活は、我々が、職業上や、家庭内や、地域コミュニティの中で様々な役割を果たすことを要求している。
一方で、多くの国において、老齢人口の割合が増加しており、もはや自分のことを自分だけでできるという生活様式が困難になる人の割合も増加している。
日本においては、そのような老人はしばしば家族とともに生活しており、毎日かなりの時間にわたって家族が注意を払うことを要している。このことは、上述のような他の様々な役割を果たすことが要求される介護者にとって、被介護者から目を離せない状態が継続することになり、介護者の大きな精神的・肉体的な負担となる。
最終的には、このような介護者の負担を軽減し、被介護者に向ける注意の一部を肩代わりしてくれるようなシステムが開発されることが望ましい。
一方で、近年、撮像装置で撮影された画像から、撮像装置の周囲の物体の動き等を把握する方法が提案されている。その方法は、動画像のフレーム間でオプティカルフローを測定することにより、写っている物体の動きを把握するものである。
このような「オプティカルフロー」は、画像の各フレームに特徴照合法(パターンマッチング)や、時空間勾配法等を用いることにより求められる(たとえば、特許文献1、非特許文献1を参照)。
また、撮影された画像内での動き検出だけでなく、オプティカルフローを用いて、人間の表情と関連づける試みも報告されている(たとえば、非特許文献2を参照)。
特開2004−355082号公報 Barrron, J. L., Fleet, D. J., Beauchemin, S.S.: Performance of optical flow techniques. The International Journal of Computer Vision, 12(1994)pp.43-77 Lyons, M.J., Funk, M., Kuwabara, K. : Segment and Browse: A Strategy for Supporting Human Monitoring of Facial Expression Behaviour, INTERACT 2005 (LNCS 3585), pp. 1120-1123 (2005).
しかしながら、顔画像の変化等を検知した場合に、他の作業をしている介護者に被介護者の心理状態を効果的に通知する方法は、必ずしも明らかではなかった。
本発明は、このような問題点を解決するためになされたものであって、その目的は、他の作業をしている介護者の作業を妨げることなく、被介護者の感情情報を通知することが可能な感情情報通知装置を提供することである。
この発明のある局面に従うと、感情情報通知装置であって、被験者に対する観測情報を得るための検知手段と、観測情報に応じて、被験者の感情状態を判断する感情状態算出手段と、感情状態の判断結果に応じて、外部から入力される音声信号に対して所定の音響効果を付加して出力する音響効果処理手段とを備える。
好ましくは、検知手段は、被験者の顔画像を含む対象画像領域についての動画像データを獲得する撮影手段を含み、感情状態算出手段は、動画像データを格納するための記憶装置と、記憶装置に格納された対象画像領域内において、顔を検出する顔検出手段と、検出された顔に対応する検出領域において、単位領域ごとに動きベクトルを検出する動き検出手段と、検出された動きベクトルの時間変化に基づいて、被験者の感情状態が少なくとも興奮状態であるかを判断する判断処理手段とを含む。
好ましくは、動き検出手段は、検出領域に対応する顔画像データにおいて格子点上の各点についてのオプティカルフローを、異なる複数の速度レベルで算出するオプティカルフロー算出手段を含み、異なる複数の速度レベルに対応したオプティカルフローに基づいて、動きベクトルに関連する情報として、被験者の頭の運動の大きさに相当する第1の情報と、被験者の表情の動きの大きさに相当する第2の情報とを抽出する演算手段をさらに備え、判断処理手段は、第1および第2の情報の累積に応じて、判断処理を行う。
(本発明の概要)
表情は人間の心的な状態の重要な情報を提供するものである。以下に説明するように、本発明は、被験者(被介護者)の感情状態を画像情報から判断し、判断された感情情報を音声情報に重畳された音響効果により介護者に通知するようなシステムである。ただし、被験者(被介護者)の感情状態を判断する手がかりとなるものであれば、検知される対象は表情に限られるものではなく、たとえば、被験者(被介護者)の音声の情報や皮膚抵抗などの生体情報などでもよい。また、被験者は、上述したような年長の被介護者でもよいし、たとえば、新生児のように世話の必要な者でもよい。
つまり、本発明の感情情報通知装置は、画像入力インタフェースを有するパーソナルコンピュータ等のコンピュータと、このコンピュータ上で実行されるソフトウェアと、カメラなどの撮像装置または音声などの情報を入力するためのマイクなどのセンサと、外部の再生装置から入力される音声信号に対して、判断された感情情報に応じた音響効果をこの入力された音声信号に付加して出力するための音響効果処理装置により実現されるものである。より典型的には、人物の顔の映像から、顔部分を抽出するとともに、この顔の内部の動きを検出して、この動き情報から被験者(被介護者)の感情状態を判断する。
なお、コンピュータについては、上述のような汎用コンピュータのみならず、専用機器に組み込まれた組込型のコンピュータであってもかまわない。
[ハードウェア構成]
以下、本発明の実施の形態にかかる感情情報通知装置について説明する。
図1は、本発明の感情情報通知装置100の構成を示す概略ブロック図である。
図1を参照して、この感情情報通知装置100は、パーソナルコンピュータなどのコンピュータ110と、コンピュータ110に接続され、ユーザ(介護者)2への情報を表示するための表示装置としてのディスプレイ108と、オーディオ再生装置200から入力される音声信号に対してコンピュータ110が音響効果を付加した後の音声信号を再生するためのスピーカ120と、同じくコンピュータ110に接続され、ユーザ2からの指示や情報を入力するための入力装置としてのキーボード106と、被験者4の顔を含む画像を取込むためのカメラ102とを含む。なお、入力装置として、マウスや、タブレットとペンなどをさらに備える構成としてもよい。また、被験者4の感情状態を判断する手がかりとなる情報を取得するためのセンサーとして、マイクや、被験者4の皮膚抵抗の変化を検出し皮膚電気反射(Galvanic Skin Response(GSR))を検知するために被験者4の皮膚表面に接触された電極等が設けられていてもよい。
また、この実施の形態のシステムでは、カメラ102としては、たとえば、CCD(固体撮像素子)を含むビデオカメラを用いて、画像データをデジタルデータとしてキャプチャする。
なお、図示しないが、コンピュータ110には、CD−ROM(Compact Disc Read-Only Memory )ドライブなど、外部の記録媒体からのデータを取り込むための装置が設けられているものとする。
さらに、図1を参照して、コンピュータ110は、バスBSそれぞれに接続された、CPU(Central Processing Unit )1104と、ROM(Read Only Memory) 1106と、RAM(Random Access Memory)1108と、ハードディスク1110と、カメラ102からの画像を取り込み、オーディオ再生装置200からの音声信号を受け取り、音響効果の付加された音声信号を出力し、あるいは入力装置106からの信号を受け取るなどデータを授受するためのインタフェース部1102とを含んでいる。インタフェース部1102は、上述したようなセンサが設けられている場合は、これらのセンサからの入力信号を受け取る。
既に述べたように、感情情報通知装置100として機能する部分の主要部は、コンピュータハードウェアと、CPU1104により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアはCD−ROM等の記憶媒体に格納されて流通し、CD−ROMドライブ等により記憶媒体から読取られてハードディスク1110に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク1110にコピーされる。そうしてさらにハードディスク1110からRAM1108に読出されてCPU1104により実行される。なお、ネットワーク接続されている場合には、たとえば、ハードディスク1110に格納することなくRAM1108に直接ロードして実行するようにしてもよい。
図1に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROMや、ハードディスク1110等の記憶媒体に記憶されたソフトウェアである。
なお、最近の一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該感情情報通知装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて感情情報通知装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールまで含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。
[ソフトウェア構成]
図2は、図1に示した感情情報通知装置100上で動作するソフトウェアの構成を説明するための機能ブロック図である。
以下では、被験者(被介護者)の感情状態を判断する手がかりとなる情報としては、撮影された画像から検知される表情等の情報であるものとする。
図2においては、コンピュータ110上で動作するプログラムは、映像モジュールプログラム1200と、キャプチャされてハードディスク1110に格納された動画像から被験者の感情状態を判断し、オーディオ再生装置200から入力された音声信号に音響効果を付加するための音響効果付加モジュールプログラム1400とを含む。なお、この音響効果付加モジュールプログラム1400の機能は、ハードウェアにより実現されてもよい。
本発明では、このような構成とすることで、ユーザ2が作業をしながら聞いているユーザの好みのオーディオ再生装置200からの音楽等に、被験者の感情に関する情報を重畳して、ユーザ2に対して通知することが可能となる。このため、被験者の感情に所定の変化が検知されない場合は、ユーザ2は所望の音楽等を聞きながら作業を継続することができる。
以下に説明するとおり、感情情報通知装置100では、動画像が実時間で処理されて、顔の領域が分離され、表情が記録される。顔の動きを解釈するために、オプティカルフロー法が使用される。
映像モジュールプログラム1200は、対象となる人物とその周りの環境も含めた動画像をカメラ102から獲得する画像キャプチャ部1202と、キャプチャされた動画像をハードディスク1110に格納するための画像データ記録処理部1204とを含む。画像キャプチャ部1202は、必要に応じて、カメラ102から入力されるデジタル動画像データを保存に適した画像フォーマットへとフォーマット変換を行なう。
映像モジュールプログラム1200は、さらに、ハードディスク1110に格納された動画像から顔領域を抽出する顔検出部1208と、オプティカルフローに基づいて、抽出された顔自体または顔の内部の画像上の動きを特定するための情報(たとえば、画像内の動きベクトルの分布)の計算を行なうオプティカルフロー算出部1206とを含み、オプティカルフロー算出部1206は、顔画像の動画像データを算出された動きの属性データとともにハードディスク1110に格納する。
すなわち、顔画像の動画像データは、後により詳しく説明するようにして得られる、以下の2つの属性データと時間的に関連づけられながら、ハードディスク1110に格納される。
1)頭の剛体的な動きの指標(動きの大きさ:指標1)
2)表情や発話に起因する顔内部の動きの指標(動きの大きさ:指標2)
一方、音響効果付加モジュールプログラム1400は、ハードディスク1110に格納された顔画像から得られた指標情報から指標の変化の特徴を抽出する特徴抽出部1402と、特徴抽出部1402で抽出された特徴に基づいて、感情の変化を算出する感情モデル算出部1404と、オーディオ再生装置200からの音声信号をインターフェース部1102中の音声バッファ130を介して受け取り、後に説明するように、算出された感情の変化に対応する情報に応じて受け取った音声信号に対応する音響効果を付加して、スピーカ120に対して出力する音響効果処理部1406とを含む。
(映像モジュールプログラム1200)
カメラ102からの動画像データの入力は、オプティカルフロー処理の演算量の削減や、ハードディスク1110へ格納するためのデータ容量の削減のために、たとえば、640×480画素から320×240画素に間引かれる。
周知の顔の検出アルゴリズムにより顔検出部1208が、カメラ102の視野の中に顔が存在するかどうかを決定し、それがどこに存在しているかも決定する。特に限定されないが、この顔検出のアルゴリズムは、頭の画像の中心の位置にくるように、顔に固定されたアスペクト比の矩形領域を登録する。たとえば、約30°まで平面から回転している顔も正確に検出することができ、同様に、画像平面内において約30°傾いた状態の顔も正確に検出することができる。顔画像はスケールされ、30フレーム/秒までのレートで、各フレームに対応する顔画像が、たとえば、タイムスタンプとともに保存される。
オプティカルフロー算出部1206において、画像のオプティカルフロー領域が、さまざまなビデオフレーム間での動きを検出する。検出された動きベクトルは、顔の内部領域全体にわたる動きベクトルの平均とともに、顔画像の動画像データと関連づけてハードディスク1110に保存される。
オプティカルフローは、視覚的なシーンにおいて、動きにより、画像領域がずれることを測定する。固定されたカメラと近似的に一定な照明に対しては、オプティカルフローのフィールドは、局所的な速度を計っていることになる。オプティカルフローを計算するために用いる方法としては、特に限定されないが、非特許文献1に記載されている、ブロックマッチングあるいはブロック相関として知られているものを使用することが可能である。
ブロック相関技術を用いることで、ある画像フレームの領域が、それに続くフレーム中の全く同じサイズの領域にマッチングされる。このようなマッチングは、画像間の距離(たとえば、各画素の輝度の差の絶対和または自乗和など)の大きさを最小化することによって決定される。たとえば、15fpsのフレームレートのオプティカルフローフィールドにおいては、顔の内部の動作による特徴量の変位は、各時間ステップに対して数ピクセル程度になる。
速度として動きを計測するために、たとえば、1、3、5、7および10ビデオフレームだけ離れたフレーム間でのオプティカルフローフィールドを計算する。オプティカルフローの値は、さらに、顔検知モジュールによって検出された顔の内部部分に対応している各領域について、対応するフレーム間について平均処理がされる。
図3は、顔画像について検出されたオプティカルフローのフィールドの例を示す図である。
顔の片側をこわばらせる動きをした場合に、顔画像上の格子点(これをフィールドと呼ぶ)の各々において、動きベクトルが白い矢印で示されている。
顔のこわばりの途中や、表情を緩める途中のように動きのある場合には、顔の各部の動きに応じて、動きベクトルが現れているのがわかる。
オプティカルフロー算出部1206において算出されるオプティカルフロー値の平均において、上述した1、3、5、7および10ビデオフレームの間隔において平均処理により求められた動きベクトルの大きさである5つの速度レベルについて、動作速度の分布が求められる。このため、そのような動きが大きく顔全体(頭)が剛体的に動いたことによる動作に対応しているものなのか、あるいは表情や会話に対応するもっと微妙な動作に対応しているものであるかが検知できる。つまり、顔全体が動いているときは、5つの動きベクトルのいずれにもピークが現れるのに対し、顔の内部の動きであれば、ビデオフレーム間隔に依存して、ピークの存在する速度レベルと存在しない速度レベルとが混在するというように、顔の動きの解釈を特徴抽出部1402が行なうことができる。
特に限定されないが、特徴抽出部1402は、以下の式に従って、上記指標1および指標2に相当する特徴量を算出する。
ここで、添字Xは、X={R,NR}であって、Rのときは、指標1の剛体的な動きに対応する特徴量を意味し、NRのときは、指標2の顔内部の動きに対応する特徴量であることを示す。
また、この特徴量の更新は、時間間隔T(たとえば、0.5秒)で行われる。nは、期間[t−T、t]の間に指標1または指標2がそれぞれ所定のしきい値を超えた回数であり、δは、積算係数(たとえば、0.05)である。
そして、もう一つの指標(指標3)として、画像内に顔が検出されるかを示す情報を用いる。特徴抽出部1402は、この指標3を、画面内から所定の期間(たとえば、15秒)顔画像が検出されないと、所定レベル以下に減衰するように変化させる。
感情モデル算出部1404は、指標3が所定レベル以上である場合には、たとえば、以下の式に従って、感情状態を算出する。
したがって、これも特に限定されないが、たとえば、感情モデル算出部1404の算出結果により、「興奮状態」と判断された場合には、音響効果処理部1406は、オーディオ再生装置200から受け取った音声信号に所定の音響効果を付加して、スピーカ120に対して出力する。
なお、皮膚電気反射を単独で測定する場合は、たとえば、「皮膚伝導度」が所定の値よりも大きいときを、「興奮状態」と判断することができる。
さらに、たとえば、顔画像と皮膚電気反射を併せて観測する場合は、たとえば、上記のような感情状態の算出結果が「興奮状態」を示すか、または「皮膚伝導度」が所定の値よりも大きいときには、「興奮状態」と判断することができる。
(音響効果付加モジュールプログラム1400)
図4は、音響効果付加モジュールプログラム1400において、付加される音響効果の例を示す図である。
以下では、音響効果を以下のようなコード名で呼ぶこととする。
すなわち、「N」は「音響効果なし」を、「LP」は「低域透過フィルター処理」を、「SB」は「2ビート分後方スキップ」を、「SF」は「2ビート分前方スキップ」を、「HP」は「高域透過フィルター処理」を、「dub」は「ダブ効果(エコー処理をしつつ、8ビート分の部分を8ビート遅らせて再生)」を、「FS」は「12ビート区間を100〜10,000Hzまでフィルタースイープ処理」を、「RW」は「1ビート分後方に再生してから、前方に再生」を、「dub HP」は「ダブ処理+高域透過フィルター処理」を、「dub LP」は「ダブ処理+低域透過フィルター処理」を、「T」は「1ビート期間、テンポを±10%変更」を、「FG」は「間欠的なフランジ効果」を、「vol」は「12ビート期間、振幅を±10%変更」を、「FG HP」は「間欠的なフランジ効果+高域透過フィルター処理」を、それぞれ示す。
ここで、音響効果付加モジュールプログラム1400が付加する音響効果は、その音響効果がユーザ2に与える印象が、被験者4の「感情状態」を連想させるものであることが望ましい。このような連想が働く場合は、ユーザ2は、直感的に被験者4の「感情状態」を感知することができる。
図5は、図4に示した音響効果に対する官能実験の結果を示す図である。
この官能実験では、10人の被験者が、45個の音楽のサンプル(音楽クリップ)を、それぞれの20秒間聞いた。音楽サンプルは、異なったジャンルの3つの歌、ボサノバ、クラシック(ソロのピアノ)と電子音楽である。
被験者は、ランダムな順番で、オリジナルの音楽クリップと、それに続いて14の音響効果が施されたバージョンを聞いて、そして3つの基準に従ってこれらを評価した。まず、音楽から受ける活動レベルの印象を、リラックスしていると感じたときは「1」、通常状態と感じたときは「2」、興奮していると感じたときは「3」と評価した。さらに、そのような音響効果が施されているかどうかを認知できるかについて、「効果が認識できない」ときは「1」、単に感じられるのみのときは「2」、感知できると認識したときは「3」、明らかに感じられるときは「4」、非常に顕著なときは「5」と評価した。また、音楽の不快度を、非常に楽しいときは「1」、楽しいときは「2」、ニュートラルでは「3」、不快なときは「4」、非常に不快なときは「5」と評価した。評価は、各項目について平均された。
図5の結果からは、たとえば、「LP」「FS」などは、「リラックス状態」を表現するのに適しており、「dub HP」「RW」などは、「興奮状態」を表現するのに適していることがわかる。
以上のとおり、本発明によれば、他の作業をしている介護者の作業を妨げることなく、被介護者の感情情報を通知することが可能となる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明の感情情報通知装置100の構成を示す概略ブロック図である。 感情情報通知装置100上で動作するソフトウェアの構成を説明するための機能ブロック図である。 顔画像について検出されたオプティカルフローのフィールドの例を示す図である。 音響効果付加モジュールプログラム1400において、付加される音響効果の例を示す図である。 図4に示した音響効果に対する官能実験の結果を示す図である。
符号の説明
2 ユーザ、4 被験者、100 感情情報通知装置、102 カメラ、106 キーボード、108 ディスプレイ、110 コンピュータ、200 オーディオ再生装置、1102 インタフェース部、1104 CPU、1106 ROM、1108 RAM、1110 ハードディスク、1200 映像モジュールプログラム、1202 キャプチャ部、1204 画像データ記録処理部、1206 オプティカルフロー算出部、1208 顔検出部、1400 音響効果付加モジュールプログラム、1402 特徴抽出部、1404 感情モデル算出部、1406 音響効果処理部。

Claims (1)

  1. 被験者に対する観測情報を得るための検知手段を備え、
    前記検知手段は、前記被験者の顔画像を含む対象画像領域についての動画像データを獲得する撮影手段を含み、
    前記観測情報に応じて、前記被験者の感情状態を判断する感情状態算出手段をさらに備え、
    前記感情状態算出手段は、
    前記動画像データを格納するための記憶装置と、
    前記記憶装置に格納された前記対象画像領域内において、顔を検出する顔検出手段と、
    前記検出された顔に対応する検出領域において、単位領域ごとに動きベクトルを検出する動き検出手段とを含み、
    前記動き検出手段は、前記検出領域に対応する顔画像データにおいて格子点上の各点についてのオプティカルフローを、それぞれ異なる複数のフレームだけ離れたフレーム間で前記動きベクトルを算出することによって異なる複数の速度レベルで算出するオプティカルフロー算出手段を有し、
    前記感情状態算出手段は、
    前記異なる複数の速度レベルに対応した前記オプティカルフローに基づいて、前記動きベクトルに関連する情報として、前記被験者の頭の運動の大きさに相当する第1の情報と、前記被験者の表情の動きの大きさに相当する第2の情報とを抽出する演算手段と、
    検出された前記動きベクトルの時間変化に基づき、前記第1および第2の情報の累積に応じて、前記被験者の前記感情状態が少なくとも興奮状態であるかを判断する判断処理手段とをさらに含み、
    前記感情状態の判断結果に応じて、外部から入力される音声信号に対して所定の音響効果を付加して出力する音響効果処理手段をさらに備える、感情情報通知装置。
JP2006019407A 2006-01-27 2006-01-27 感情情報通知装置 Expired - Fee Related JP4701365B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006019407A JP4701365B2 (ja) 2006-01-27 2006-01-27 感情情報通知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006019407A JP4701365B2 (ja) 2006-01-27 2006-01-27 感情情報通知装置

Publications (2)

Publication Number Publication Date
JP2007200126A JP2007200126A (ja) 2007-08-09
JP4701365B2 true JP4701365B2 (ja) 2011-06-15

Family

ID=38454667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006019407A Expired - Fee Related JP4701365B2 (ja) 2006-01-27 2006-01-27 感情情報通知装置

Country Status (1)

Country Link
JP (1) JP4701365B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10503376B2 (en) 2007-12-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for adjusting an image and control guides displayed on a display
US8922518B2 (en) 2007-12-20 2014-12-30 Samsung Electronics Co., Ltd. Mobile terminal having touch screen and function controlling method of the same
KR20090066368A (ko) 2007-12-20 2009-06-24 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법
CN105726045A (zh) * 2016-01-28 2016-07-06 惠州Tcl移动通信有限公司 一种情绪监控方法及其移动终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04342078A (ja) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JP2001050779A (ja) * 1999-08-17 2001-02-23 Dainippon Printing Co Ltd 信号監視用音楽演奏装置
JP2005347856A (ja) * 2004-05-31 2005-12-15 Kyushu Institute Of Technology 動作位置検出装置およびこれを用いた監視装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04342078A (ja) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JP2001050779A (ja) * 1999-08-17 2001-02-23 Dainippon Printing Co Ltd 信号監視用音楽演奏装置
JP2005347856A (ja) * 2004-05-31 2005-12-15 Kyushu Institute Of Technology 動作位置検出装置およびこれを用いた監視装置

Also Published As

Publication number Publication date
JP2007200126A (ja) 2007-08-09

Similar Documents

Publication Publication Date Title
US8157729B2 (en) System, method and medium editing moving pictures using biometric signals
JP5069687B2 (ja) コンテンツ情報の提供を受けたユーザの感情状態を分析するための方法及び装置
Tancharoen et al. Practical experience recording and indexing of life log video
JP6489130B2 (ja) 食事推定プログラム、食事推定方法及び食事推定装置
JP2006293979A (ja) コンテンツ提供システム
US20080253695A1 (en) Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
WO2007138930A1 (ja) 疲労推定装置及びそれを搭載した電子機器
JP4701365B2 (ja) 感情情報通知装置
JP2013544548A (ja) 信号処理装置、信号処理システム及び信号処理方法
KR20070102404A (ko) 화상 표시 제어 장치, 그 제어 방법 및 그 제어 프로그램
WO2016193030A1 (en) Sleep monitoring method and system
JP2017041673A (ja) 視聴状態検出装置、視聴状態検出システムおよび視聴状態検出方法
JP4407198B2 (ja) 記録再生装置、再生装置、記録再生方法および再生方法
Wang et al. Study on Tripping Risks in Fast Walking through Cadence‐Controlled Gait Analysis
JP2005058449A (ja) 感情の可視化装置および感情の可視化方法、感情の可視化出力物
JP4395908B2 (ja) 信号処理装置および信号処理方法
JP4774532B2 (ja) 表情画像記録検索装置
JP2010200079A (ja) 撮影制御装置
JP5262801B2 (ja) 撮像装置および画像再生プログラム
JP4362092B2 (ja) 画像表示装置
JP2010226484A (ja) 画像表示装置およびデジタルカメラ
JP5662549B1 (ja) 記憶再生装置
JP4539783B2 (ja) 信号処理装置および信号処理方法
JP2007148922A (ja) 顔運動療法支援装置
Tancharoen et al. Practical life log video indexing based on content and context

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

LAPS Cancellation because of no payment of annual fees