JP2014120793A - ユーザモニタリング装置およびその動作方法 - Google Patents

ユーザモニタリング装置およびその動作方法 Download PDF

Info

Publication number
JP2014120793A
JP2014120793A JP2012272297A JP2012272297A JP2014120793A JP 2014120793 A JP2014120793 A JP 2014120793A JP 2012272297 A JP2012272297 A JP 2012272297A JP 2012272297 A JP2012272297 A JP 2012272297A JP 2014120793 A JP2014120793 A JP 2014120793A
Authority
JP
Japan
Prior art keywords
user
timing
time
information indicating
series information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012272297A
Other languages
English (en)
Other versions
JP5919182B2 (ja
Inventor
Mutsuhiro Nakashige
睦裕 中茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012272297A priority Critical patent/JP5919182B2/ja
Publication of JP2014120793A publication Critical patent/JP2014120793A/ja
Application granted granted Critical
Publication of JP5919182B2 publication Critical patent/JP5919182B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザの状態を自動的にモニターできるユーザモニタリング装置を提供する。
【解決手段】ユーザモニタリング装置1は、カメラ3から取得する画像を基にユーザUが頷いたことを検出する頷き検出部11と、画像を基にユーザUが笑ったことを検出する笑い検出部12と、マイク4から取得する音声を基にユーザUによる肯定的な発声(「合いの手」という)を検出する合いの手検出部13と、ユーザUが頷いた、笑った、合いの手を入れたなどのタイミングを示す時系列情報を生成する情報処理部14と、ユーザUが頷くべき、笑うべき、合いの手を入れるべきなどのタイミングを示す時系列情報を生成する情報生成部15と、各種情報が記憶される情報記憶部16と、情報記憶部16の情報に基づきテレビ2へ表示を行う表示制御部17と、情報記憶部16の情報を通信ネットワークNを介してテレビ5や携帯型通信機器6に送信する情報送信部18とを備える。
【選択図】図2

Description

本発明は、ユーザモニタリング装置およびその動作方法に関するものである。
生活スタイルの多様化や高齢化により、1人世帯が増加している。そのため、人と関わる機会が減少し、コミュニケーション不足や人間関係の希薄化が問題視されている。これらを放置することで、慢性的な精神疾患へと繋がることも懸念される。そこで、日常的な心の健康状態のチェックとモニタリングが重要である。そうすることで、危険を察知した際に早めの対応が打てるようになる。
特開平7−74844号公報 特開2006−85390号公報
このようなサービスでは、ユーザとカウンセラーが双方にカメラやマイクを備えたテレビ電話などのシステムを用意し、お互いに顔を見て会話をしながら、メンタルケアの遠隔カウンセリングを受ける。カウンセラーの問いかけなどの刺激に対する表情や言動などの応答、あるいは自発的な言動などが総合的に評価される。
しかし、このサービスを展開するには以下の課題がある。
1.サービス提供のためのコストが高い
多数のカウンセラーを配置しなければならず、また、堅牢かつセキュアな通信システム構築が必要である。
2.サービスレベルがばらつく
カウンセラーごとのコミュニケーション診断スキルに差異があり、また、サービス利用の複雑な手順が利用障壁となり、ユーザのデータを十分得られないことがある。
そこで、低コストでしかもユーザ自身が日常生活を送る中で自然に心の健康状態をチェックとモニターできる装置が望まれる。
本発明は、上記の課題に鑑みてなされたものであり、その目的とするところは、ユーザの状態を自動的にモニターできるユーザモニタリング装置およびその動作方法を提供することにある。
上記の課題を解決するために、第1の本発明は、動く映像と音声を含むコンテンツを視聴するユーザを撮影した映像を基に前記ユーザが所定の動作を行ったタイミングを示す時系列情報を生成する情報処理部を備えることを特徴とするユーザモニタリング装置をもって解決手段とする。
例えば、前記ユーザモニタリング装置は、前記コンテンツを基に当該コンテンツを視聴するユーザが前記所定の動作を行うべきタイミングを示す時系列情報を作成する情報生成部を備え、前記情報処理部は、前記動作を行ったタイミングを示す時系列情報におけるタイミングと前記動作を行うべきタイミングを示す時系列情報におけるタイミングとの同期率を計算し、当該同期率が所定の率以上なら、前記ユーザが前記動作を行ったと判定する。
例えば、前記情報処理部は、前記ユーザの周囲で録音した音声を基に前記ユーザの発声のタイミングを示す時系列情報を生成し、前記情報生成部は、前記コンテンツを基に前記ユーザが発声すべきタイミングを示す時系列情報を作成し、前記情報処理部は、前記発声のタイミングを示す時系列情報におけるタイミングと前記発声すべきタイミングを示す時系列情報におけるタイミングとの同期率を計算し、当該同期率が所定の率以上なら、前記ユーザが発声した判定する。
第2の本発明は、動く映像と音声を含むコンテンツを視聴するユーザの映像を基に前記ユーザが頷いたタイミングを示す時系列情報を生成し、当該映像を基に前記ユーザが笑ったタイミングを示す時系列情報を生成し、前記ユーザの周囲で録音した音声を基に前記ユーザの発声のタイミングを示す時系列情報を生成する情報処理部と、前記コンテンツを基に当該コンテンツを視聴するユーザが頷くべきタイミングを示す時系列情報を作成し、前記コンテンツを基に当該コンテンツを視聴するユーザが笑うべきタイミングを示す時系列情報を作成し、前記コンテンツを基に前記ユーザが発声すべきタイミングを示す時系列情報を作成する情報生成部とを備え、前記情報処理部は、前記頷いたタイミングを示す時系列情報におけるタイミングと前記頷くべきタイミングを示す時系列情報におけるタイミングとの同期率である第1の同期率を計算し、前記笑ったタイミングを示す時系列情報におけるタイミングと前記笑うべきタイミングを示す時系列情報におけるタイミングとの同期率である第2の同期率を計算し、前記発声のタイミングを示す時系列情報におけるタイミングと前記発声すべきタイミングを示す時系列情報におけるタイミングとの同期率である第3の同期率を計算し、前記第1の同期率およびユーザの健康度の関係の高さを示す第1の係数と当該第1の同期率の積を計算し、前記第2の同期率およびユーザの健康度の関係の高さを示す第2の係数と当該第2の同期率の積を計算し、前記第3の同期率およびユーザの健康度の関係の高さを示す第3の係数と当該第3の同期率の積を計算し、当該積の総和を前記コンテンツを視聴するユーザの健康度の指標値として計算することを特徴とするユーザモニタリング装置をもって解決手段とする。
本発明によれば、ユーザの状態を自動的にモニターすることができる。しかも、テレビ視聴というありふれた行動からモニターできるので、ユーザの負担がない。
本実施の形態に係るユーザモニタリング装置の利用形態を示す図である。 ユーザモニタリング装置1の概略構成を示す機能ブロック図である。 情報記憶部に記憶される時系列情報U1〜U3の構成を示す図である。 情報記憶部に記憶される頷き回数、笑い回数、合いの手回数を示す図である。 情報記憶部に記憶される画像(アイコンという)を示す図である。 情報生成部により生成される時系列情報V1〜V3の構成を示す図である。 ユーザが頷いたことを検知する動作をフローチャートで示す図である。 頷き回数およびアイコンの表示例を示す図である。 図7(b)に示すフローチャートの変形例を図である。 ユーザが笑ったことを検知する動作をフローチャートで示す図である。 笑い回数およびアイコンの表示例を示す図である。 ユーザが合いの手を入れたことを検知する動作をフローチャートで示す図である。 合いの手回数およびアイコンの表示例を示す図である。 ユーザの健康度の指標値を計算する動作を示すフローチャートである。 ユーザの健康度の指標値に対応するアイコンと文章の表示例を示す図である。
以下、本発明の実施の形態について図面を参照して説明する。
図1は、本実施の形態に係るユーザモニタリング装置の利用形態を示す図である。
ユーザモニタリング装置1は、動く映像と音声を含むコンテンツを再生するテレビジョン受像機(以下、テレビという)2、テレビ2で再生されるコンテンツを視聴するユーザUを撮影するカメラ3、ユーザUの周囲の音声を録音するマイクロホン(以下、マイクという)4、通信ネットワークNに接続される。通信ネットワークNには、ユーザUの遠方の家族やモニタリング対象のユーザUを担当するカウンセラーなどに使用されるテレビ5や携帯型通信機器6が接続される。
コンテンツとは、例えば、アンテナにより捕捉されるものや、同軸ケーブルや通信ネットワークにより伝達されるものである。テレビ2は、モニター(表示部)を有するパーソナルコンピュータでもよい。
図2は、ユーザモニタリング装置1の概略構成を示す機能ブロック図である。
ユーザモニタリング装置1は、カメラ3から取得する画像を基にユーザUが頷いたことを検出する頷き検出部11と、カメラ3から取得する画像を基にユーザUが笑ったことを検出する笑い検出部12と、マイク4から取得する音声を基にユーザUによる肯定的な発声(「合いの手」という)を検出する合いの手検出部13と、ユーザUが頷いた、笑った、合いの手を入れたなどのタイミングを示す時系列情報を生成する情報処理部14と、ユーザUが頷くべき、笑うべき、合いの手を入れるべきなどのタイミングを示す時系列情報を生成する情報生成部15と、生成される情報や予め必要な情報が記憶される情報記憶部16と、情報記憶部16の情報に基づきテレビ2へ表示を行う表示制御部17と、情報記憶部16の情報を通信ネットワークNを介してテレビ5や携帯型通信機器6に送信する情報送信部18とを備える。
図3は、情報記憶部16に記憶される時系列情報U1〜U3の構成を示す図である。
ユーザモニタリング装置1では、ここでは、50m秒間隔で同期信号が発生する。50m秒は一例である。
時系列情報U1は、時系列の2値情報で構成される情報であり、同期信号の発生ごとに、新たに2値情報「0」が加わる。同期信号の発生時刻にユーザUが頷いていた場合には、0.5秒前まで遡って、各2値情報「0」が2値情報「1」に置き換わる。
時系列情報U2は、時系列の2値情報で構成される情報であり、同期信号の発生ごとに、新たに2値情報「0」が加わる。同期信号の発生時刻にユーザUが笑っていた場合には、0.2秒前まで遡って、各2値情報「0」が2値情報「1」に置き換わり、その後新たに加わる0.5秒分の2値情報が「1」となるように予約される。
時系列情報U3は、時系列の2値情報で構成される情報であり、同期信号の発生ごとに、新たに2値情報「0」が加わる。同期信号の発生時刻にユーザUが肯定的な発声をしていた(例えば、「フム」と発声していた。以下、「合いの手を入れていた」という)場合には、最も新しい2値情報「0」が2値情報「1」に置き換わり、その後新たに加わる0.5秒分の2値情報が「1」となるように予約される。なお、否定的な発声がされた(例えば、「まさか」と発声された)場合にそのようにしてもよい。
図4は、情報記憶部16に記憶される頷き回数、笑い回数、合いの手回数を示す図である。
頷き回数は、ユーザがここでは過去1時間の間に頷いた回数である。笑い回数は、ユーザがここでは過去1時間の間に笑った回数である。合いの手回数は、ユーザがここでは過去1時間の間に合いの手を入れた回数である。
なお、回数の計算期間である1時間は例示であり、過去1分や当日などを計算期間としてもよい。
図5は、情報記憶部16に記憶される画像(アイコンという)と文章を示す図である。
頷き回数「20」未満を示す情報、笑い回数「10」未満を示す情報、合いの手回数「50」未満を示す情報、およびユーザの健康度を示す指標値「0.1」未満を示す情報に、心配そうな表情のアイコンF1と文章「アラート:気がないですね」が対応づけられている。
頷き回数「20」以上、「100」未満を示す情報、笑い回数「10」以上、「50」未満を示す情報、および、合いの手回数「50」以上、「200」未満を示す情報、およびユーザの健康度を示す指標値「0.1」以上、「0.3」未満を示す情報に、笑顔のアイコンF2と文章「元気ですね」が対応づけられている。
頷き回数「100」以上を示す情報、笑い回数「50」以上を示す情報、および、合いの手回数「200」以上を示す情報、およびユーザの健康度を示す指標値「0.3」以上を示す情報に、ウィンクしているアイコンF3と文章「大変元気ですね」が対応づけられている。
図6は、情報生成部15により生成される時系列情報V1〜V3の構成を示す図である。
情報生成部15は、コンテンツの、ここでは音声を基に(音声を解析して、以下同じ)、ユーザが頷くべきタイミングを示す時系列情報V1を、MA(移動平均)モデルなどの推定モデルにより推定し、作成する。
時系列情報V1は、同期信号の発生時刻ごとの2値情報から構成される。ユーザが頷くべき時刻の2値情報は「1」、そうでない時刻の2値情報は「0」となる。
なお、過去の頷き回数を記録しておき、例えば平均の頷き回数が所定のしきい値より少ない場合は、つまり、ユーザが頷かない傾向がある場合は、時系列情報V1における「1」の多さを調整するためのしきい値を高くし、時系列情報V1における「1」を少なめにしてもよい。逆にユーザが頷く傾向がある場合は、時系列情報V1における「1」を多めにしてもよい。
また、時系列情報V1における「1」の数を、コンテンツのジャンルによって調整してもよい。
情報生成部15は、コンテンツの、ここでは音声を基に、ユーザが笑うべきタイミングを示す時系列情報V2を、MA(移動平均)モデルなどの推定モデルにより推定し、作成する。
時系列情報V2は、同期信号の発生時刻ごとの2値情報から構成される。ユーザが笑うべき時刻の2値情報は「1」、そうでない時刻の2値情報は「0」となる。
なお、過去の笑い回数を記録しておき、例えば平均の笑い回数が所定のしきい値より少ない場合は、つまり、ユーザが笑わない傾向がある場合は、時系列情報V2における「1」の多さを調整するためのしきい値を高くし、時系列情報V2における「1」を少なめにしてもよい。逆にユーザが笑う傾向がある場合は、時系列情報V2における「1」を多めにしてもよい。
また、時系列情報V2における「1」の数を、コンテンツのジャンルによって調整してもよい。例えば、コメディのコンテンツを視聴する際は、「1」の数を多くすればよい。
情報生成部15は、コンテンツの、ここでは音声を基に、ユーザが合いの手を入れるべきタイミングを示す時系列情報V3を、MA(移動平均)モデルなどの推定モデルにより推定し、作成する。
時系列情報V3は、同期信号の発生時刻ごとの2値情報から構成される。ユーザが合いの手を入れるべき時刻の2値情報は「1」、そうでない時刻の2値情報は「0」となる。 なお、過去の合いの手回数を記録しておき、例えば平均の合いの手回数が所定のしきい値より少ない場合は、つまり、ユーザが合いの手を行わない傾向がある場合は、時系列情報V3における「1」の多さを調整するためのしきい値を高くし、時系列情報V3における「1」を少なめにしてもよい。逆にユーザが合いの手を行う傾向がある場合は、時系列情報V3における「1」を多めにしてもよい。
また、時系列情報V3における「1」の数を、コンテンツのジャンルによって調整してもよい。
図7は、ユーザが頷いたことを検知する動作をフローチャートで示す図である。
頷き検出部11は、同期信号が発生したら、カメラから画像を取得し(S1)、画像に顔が映っているか否かを判定し(S3)、映っていなかったら、S1へもどる。
頷き検出部11は、顔が映っていたら、顔の重心座標を求め(S5)、顔の重心座標が縦方向に所定のしきい値を超えて下がり、さらに、続いて縦方向に所定のしきい値を超えて上がったか否か、つまりユーザが頷いたか否かを判定する(S7)。
頷き検出部11は、頷いたと判定したなら、情報処理部14へ通知し(S9)、S1へもどり、頷いていないなら、通知をせず、S1へもどる
情報処理部14は、頷き検出部11から通知があるか否かを繰り返し判定し(S11)、通知があったなら、時系列情報U1において、0.5秒前まで遡って、2値情報「0」を2値情報「1」に置き換える(S13)。0.5秒は、ユーザが頷く時間の長さとして予め定められたものである。
次に、情報処理部14は、時系列情報U1における頷きのタイミングと時系列情報V1における頷きのタイミングとの同期率を計算する(S15)。例えば、情報処理部14は、時系列情報U1における2秒前までの40個の2値情報と、時系列情報V1における2秒前までの40個の2値情報の組み合わせで、同じ時刻で共に「1」となっている組み合わせの数を計算し、これを40で割る。この計算は、例えば、相互相関関数などによって行われる。
次に、情報処理部14は、上記計算などで得た同期率が所定の率以上か否かを判定し(S17)、当該所定の率未満なら、S11に戻り、当該所定の率以上なら、頷き回数に1を加算する(S19)。つまり、S19では、情報処理部14は、ユーザUが頷いたと判定する。
次に、表示制御部17は、頷き回数の値を含む範囲を示す情報に対応づけられたアイコンを読み出し、図8に示すように、頷き回数およびアイコンをテレビ2に表示させ(S21)、S11に戻る。
なお、図9に示すように、同期率の計算(S15)および判定(S17)を省略してもよい。
図10は、ユーザが笑ったことを検知する動作をフローチャートで示す図である。
笑い検出部12は、同期信号が発生したら、カメラから画像を取得し(S31)、画像に顔が映っているか否かを判定し(S33)、映っていなかったら、S31へもどる。
笑い検出部12は、顔が映っていたら、顔の重心座標と口角の座標を求め(S35)、顔の重心位置と比較して口角の位置が所定のしきい値より大きく変化したか否か、つまりユーザが笑ったか否かを判定する(S37)。
笑い検出部12は、笑ったと判定したなら、情報処理部14へ通知し(S39)、S31へもどり、笑っていないなら、通知をせず、S31へもどる
情報処理部14は、笑い検出部12から通知があるか否かを繰り返し判定し(S41)、通知があったなら、時系列情報U2において、0.2秒前まで遡って、2値情報「0」を2値情報「1」に置き換え、その後新たに加わる0.5秒分の2値情報が「1」となるように予約する(S43)。0.2秒は、表情に表れる笑いの時間の長さとして予め定められたものである。0.5秒は、表情に表れる笑いの後に訪れる表情に表れない笑いの期間の長さとして予め定められたものである。
次に、情報処理部14は、時系列情報U2における笑いのタイミングと時系列情報V2における笑いのタイミングとの同期率を計算する(S45)。例えば、情報処理部14は、時系列情報U2における2秒前までの40個の2値情報と、時系列情報V2における2秒前までの40個の2値情報の組み合わせで、同じ時刻で共に「1」となっている組み合わせの数を計算し、これを40で割る。この計算は、例えば、相互相関関数などによって行われる。
次に、情報処理部14は、上記計算などで得た同期率が所定の率以上か否かを判定し(S47)、当該所定の率未満なら、S41に戻り、当該所定の率以上なら、笑い回数に1を加算する(S49)。つまり、S49では、情報処理部14は、ユーザUが笑ったと判定する。
次に、表示制御部17は、笑い回数の値を含む範囲を示す情報に対応づけられたアイコンを読み出し、図11に示すように、笑い回数およびアイコンをテレビ2に表示させ(S51)、S41に戻る。
なお、同期率の計算(S45)および判定(S47)は省略してもよい。
図12は、ユーザが合いの手を入れたことを検知する動作をフローチャートで示す図である。
合いの手検出部13は、同期信号が発生したら、マイクから音声を取得し(S61)、所定の大きさ以上の音量が検出される否かを判定し(S63)、検出されなかったら、S61へもどる。
合いの手検出部13は、所定以上の音量が検出されたら、例えば、過去50m秒までの音量の積分値を求め(S65)、積分値が所定のしきい値より大きい、つまりユーザが発声しか否かを判定する(S67)。
合いの手検出部は、ユーザが発声したと判定したなら、情報処理部14へ通知し(S69)、S61へもどり、発声していないなら、通知をせず、S61へもどる
情報処理部14は、合いの手検出部から通知があるか否かを繰り返し判定し(S71)、通知があったなら、時系列情報U3において、最も新しい2値情報「0」を2値情報「1」に置き換え、その後新たに加わる0.5秒分の2値情報が「1」となるように予約する(S73)。0.5秒は、発話(合いの手)には呼気段落区分ではない無音部分が含まれることから、この無音部分の長さとして予め定められたものである。
次に、情報処理部14は、時系列情報U3における合いの手のタイミングと時系列情報V3における合いの手タイミングとの同期率を計算する(S75)。例えば、情報処理部14は、時系列情報U3における2秒前までの40個の2値情報と、時系列情報V3における2秒前までの40個の2値情報の組み合わせで、同じ時刻で共に「1」となっている組み合わせの数を計算し、これを40で割る。この計算は、例えば、相互相関関数などによって行われる。
次に、情報処理部14は、上記計算などで得た同期率が所定の率以上か否かを判定し(S47)、当該所定の率未満なら、S41に戻り、当該所定の率以上なら、合いの手回数に1を加算する(S79)。つまり、S79では、情報処理部14は、ユーザUが合いの手を入れたと判定する。
表示制御部17は、合いの手回数の値を含む範囲を示す情報に対応づけられたアイコンを読み出し、図13に示すように、合いの手回数およびアイコンをテレビ2に表示させ(S81)、S71に戻る。
なお、同期率の計算(S75)および判定(S77)は省略してもよい。
次に、ユーザの健康度の指標値を計算する動作について説明する。
図14は、ユーザの健康度の指標値を計算する動作を示すフローチャートである。
情報処理部14は、同期信号が発生したら、図7のS15と同様に、同期率を計算し(S101)、図10のS45と同様に、同期率を計算し(S103)、図12のS45と同様に、同期率を計算する(S105)。
情報処理部14は、式(1)にしたがって、ユーザの健康度の指標値を計算する(S107)。
Figure 2014120793
Hは、ユーザの健康度の指標値である。
A1、A2、A3は、それぞれS101、S103、S105で計算した同期率である。
a1、a2、a3は、それぞれS101、S103、S105で計算した同期率とユーザの健康度の関係の高さを示す係数、ただし、a1+a2+a3=1である。
つまり、情報処理部14は、頷いたタイミングを示す時系列情報U1におけるタイミングと頷くべきタイミングを示す時系列情報V1におけるタイミングとの同期率である第1の同期率A1を計算し、笑ったタイミングを示す時系列情報U2におけるタイミングと笑うべきタイミングを示す時系列情報V2におけるタイミングとの同期率である第2の同期率A2を計算し、発声のタイミングを示す時系列情報U3におけるタイミングと発声すべきタイミングを示す時系列情報V3におけるタイミングとの同期率である第3の同期率A3を計算し、第1の同期率A1およびユーザの健康度の関係の高さを示す第1の係数a1と当該第1の同期率A1の積(a1×A1)を計算し、第2の同期率A2およびユーザの健康度の関係の高さを示す第2の係数a2と当該第2の同期率A2の積(a2×A2)を計算し、第3の同期率A3およびユーザの健康度の関係の高さを示す第3の係数a3と当該第3の同期率A3の積(a3×A3)を計算し、当該積の総和をコンテンツを視聴するユーザの健康度の指標値Hとして計算する。
次に、表示制御部17は、S107で計算した指標値を含む範囲を示す情報に対応づけられたアイコンと文章を読み出し、図15に示すように、アイコンと文章をテレビ2に表示させ(S109)、S101に戻る。
なお、情報送信部18は、情報記憶部16の情報を通信ネットワークNを介してテレビ5や携帯型通信機器6に送信する。これにより、遠方の家族や病気のユーザUを担当するカウンセラーは、ユーザの健康状態を知ることができる。
また、頷き回数、笑い回数、合いの手回数、健康度の指標値などを基に、外部アプリケーションを起動し、コミュニケーションを創発してもよい。
また、頷き回数、笑い回数、合いの手回数を、コンテンツの評価に用いてもよい。
また、ユーザモニタリング装置1としてコンピュータを機能させるためのコンピュータプログラムは、半導体メモリ、磁気ディスク、光ディスク、光磁気ディスク、磁気テープなどのコンピュータ読み取り可能な記録媒体に記録でき、また、インターネットなどの通信網を介して伝送させて、広く流通させることができる。
1…ユーザモニタリング装置
2、5…テレビ
3…カメラ
4…マイク
11…頷き検出部
12…笑い検出部
13…合いの手検出部
14…情報処理部
15…情報生成部
16…情報記憶部
17…表示制御部
18…情報送信部
U…ユーザ
U1〜U3、V1〜V3…時系列情報

Claims (5)

  1. 動く映像と音声を含むコンテンツを視聴するユーザを撮影した映像を基に前記ユーザが所定の動作を行ったタイミングを示す時系列情報を生成する情報処理部
    を備えることを特徴とするユーザモニタリング装置。
  2. 前記コンテンツを基に当該コンテンツを視聴するユーザが前記所定の動作を行うべきタイミングを示す時系列情報を作成する情報生成部を備え、
    前記情報処理部は、
    前記動作を行ったタイミングを示す時系列情報におけるタイミングと前記動作を行うべきタイミングを示す時系列情報におけるタイミングとの同期率を計算し、当該同期率が所定の率以上なら、前記ユーザが前記動作を行ったと判定する
    ことを特徴とする請求項1記載のユーザモニタリング装置。
  3. 前記情報処理部は、
    前記ユーザの周囲で録音した音声を基に前記ユーザの発声のタイミングを示す時系列情報を生成し、
    前記情報生成部は、
    前記コンテンツを基に前記ユーザが発声すべきタイミングを示す時系列情報を作成し、
    前記情報処理部は、
    前記発声のタイミングを示す時系列情報におけるタイミングと前記発声すべきタイミングを示す時系列情報におけるタイミングとの同期率を計算し、当該同期率が所定の率以上なら、前記ユーザが発声した判定する
    ことを特徴とする請求項2記載のユーザモニタリング装置。
  4. 動く映像と音声を含むコンテンツを視聴するユーザの映像を基に前記ユーザが頷いたタイミングを示す時系列情報を生成し、当該映像を基に前記ユーザが笑ったタイミングを示す時系列情報を生成し、前記ユーザの周囲で録音した音声を基に前記ユーザの発声のタイミングを示す時系列情報を生成する情報処理部と、
    前記コンテンツを基に当該コンテンツを視聴するユーザが頷くべきタイミングを示す時系列情報を作成し、前記コンテンツを基に当該コンテンツを視聴するユーザが笑うべきタイミングを示す時系列情報を作成し、前記コンテンツを基に前記ユーザが発声すべきタイミングを示す時系列情報を作成する情報生成部とを備え、
    前記情報処理部は、
    前記頷いたタイミングを示す時系列情報におけるタイミングと前記頷くべきタイミングを示す時系列情報におけるタイミングとの同期率である第1の同期率を計算し、前記笑ったタイミングを示す時系列情報におけるタイミングと前記笑うべきタイミングを示す時系列情報におけるタイミングとの同期率である第2の同期率を計算し、前記発声のタイミングを示す時系列情報におけるタイミングと前記発声すべきタイミングを示す時系列情報におけるタイミングとの同期率である第3の同期率を計算し、前記第1の同期率およびユーザの健康度の関係の高さを示す第1の係数と当該第1の同期率の積を計算し、前記第2の同期率およびユーザの健康度の関係の高さを示す第2の係数と当該第2の同期率の積を計算し、前記第3の同期率およびユーザの健康度の関係の高さを示す第3の係数と当該第3の同期率の積を計算し、当該積の総和を前記コンテンツを視聴するユーザの健康度の指標値として計算する
    ことを特徴とするユーザモニタリング装置。
  5. 請求項1ないし4のいずれかに記載のユーザモニタリング装置としてコンピュータを機能させるためのコンピュータプログラム。
JP2012272297A 2012-12-13 2012-12-13 ユーザモニタリング装置およびその動作方法 Expired - Fee Related JP5919182B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012272297A JP5919182B2 (ja) 2012-12-13 2012-12-13 ユーザモニタリング装置およびその動作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012272297A JP5919182B2 (ja) 2012-12-13 2012-12-13 ユーザモニタリング装置およびその動作方法

Publications (2)

Publication Number Publication Date
JP2014120793A true JP2014120793A (ja) 2014-06-30
JP5919182B2 JP5919182B2 (ja) 2016-05-18

Family

ID=51175321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012272297A Expired - Fee Related JP5919182B2 (ja) 2012-12-13 2012-12-13 ユーザモニタリング装置およびその動作方法

Country Status (1)

Country Link
JP (1) JP5919182B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077189A (ja) * 2018-11-07 2020-05-21 スカパーJsat株式会社 体験記録システム及び体験記録方法
JP2020077229A (ja) * 2018-11-08 2020-05-21 スカパーJsat株式会社 コンテンツ評価システム及びコンテンツ評価方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077189A (ja) * 2018-11-07 2020-05-21 スカパーJsat株式会社 体験記録システム及び体験記録方法
JP2020077229A (ja) * 2018-11-08 2020-05-21 スカパーJsat株式会社 コンテンツ評価システム及びコンテンツ評価方法

Also Published As

Publication number Publication date
JP5919182B2 (ja) 2016-05-18

Similar Documents

Publication Publication Date Title
US9691296B2 (en) Methods and apparatus for conversation coach
KR102112743B1 (ko) 디스플레이 장치, 서버 및 그들의 제어방법
JP5458027B2 (ja) 次発話者誘導装置、次発話者誘導方法および次発話者誘導プログラム
US11803579B2 (en) Apparatus, systems and methods for providing conversational assistance
WO2017068816A1 (ja) 情報処理システム、および情報処理方法
CN110945473A (zh) 信息处理装置和信息处理方法
Byun et al. Honest signals in video conferencing
JP5919182B2 (ja) ユーザモニタリング装置およびその動作方法
TWI823055B (zh) 電子資源推送方法及系統
US11100944B2 (en) Information processing apparatus, information processing method, and program
US10390096B2 (en) Collecting media consumer data
JP2018181276A (ja) 健康管理支援装置、健康管理支援システム、および健康管理支援方法
CN113591515A (zh) 专注度处理方法、装置及存储介质
CN110196900A (zh) 用于终端的交互方法和装置
JP7307576B2 (ja) プログラム及び情報処理装置
Afshari et al. QoE assessment of interactive applications in computer networks
JP5164911B2 (ja) アバタ生成装置、方法およびプログラム
WO2010125488A2 (en) Prompting communication between remote users
CN113301352A (zh) 在视频播放期间进行自动聊天
JP2019101872A (ja) 情報処理装置、及びプログラム
JP7269269B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20220408153A1 (en) Information processing device, information processing method, and information processing program
Kar et al. ExpresSense: Exploring a Standalone Smartphone to Sense Engagement of Users from Facial Expressions Using Acoustic Sensing
KR20190030549A (ko) 영상 채팅에 기반하여 광고 콘텐츠의 흐름을 제어하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
JP2019071515A (ja) 通信装置、通信システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R150 Certificate of patent or registration of utility model

Ref document number: 5919182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees