JP7139680B2 - 活性度評価プログラム、装置、及び方法 - Google Patents

活性度評価プログラム、装置、及び方法 Download PDF

Info

Publication number
JP7139680B2
JP7139680B2 JP2018093173A JP2018093173A JP7139680B2 JP 7139680 B2 JP7139680 B2 JP 7139680B2 JP 2018093173 A JP2018093173 A JP 2018093173A JP 2018093173 A JP2018093173 A JP 2018093173A JP 7139680 B2 JP7139680 B2 JP 7139680B2
Authority
JP
Japan
Prior art keywords
users
line
dialogue
sight direction
activity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018093173A
Other languages
English (en)
Other versions
JP2019200475A (ja
Inventor
雄志 豊田
厚一郎 新沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018093173A priority Critical patent/JP7139680B2/ja
Publication of JP2019200475A publication Critical patent/JP2019200475A/ja
Application granted granted Critical
Publication of JP7139680B2 publication Critical patent/JP7139680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

開示の技術は、活性度評価プログラム、活性度評価装置、及び活性度評価方法に関する。
ワークショップや会議など、複数の参加者同士の対話を含むインタラクションの活性状況を評価する技術が存在する。
例えば、複数の対話者間の共感性の状態又は各対話者の表情の状態を推定する対話状態推定装置が提案されている。この装置は、複数の対話者間の視線の状態を検出し、対話モデルに従って、複数の対話者間の共感性を示す状態、及び各対話者の表情を示す状態を決定する。
また、会議において参加者の注目を集めた内容に絞って再生する会議記録システムが提案されている。このシステムは、会議データに含まれる映像から会議参加者の視認領域を抽出し、視認領域が重なる時間が規定時間以上続いた場合に、視認領域が重なる時間分の視認領域に対応する映像に関する情報を注目情報として生成する。
また、話者の心情を効果的に相手話者に通知できるようにする情報伝達方法が提案されている。この方法では、第1の通信端末と第2の通信端末との間で、通信ネットワークを介して音声及び映像を用いた電話通信を行う際に、第1の通信端末において、当該話者の頭部の動き及び視線の位置を計測する。そして、頭部の動きの計測結果及び視線の位置の計測結果に基づいて当該話者の心情を推定し、推定された心情を表す情報を、第1の通信端末から第2の通信端末へ伝送する。
また、会議における雰囲気を定量的に評価し、議論を円滑に進めることができるように補助する会議支援システムが提案されている。このシステムは、会議参加者各人の表情及び姿勢データに基づいて、会議参加者全体の同意度を判定する。
また、会議などのコミュニケーション状況を支援するための情報の呈示やコミュニケーション環境を変化させるための指示の選択を、事前にルールを構築することなく的確に行えるコミュニケーション支援システムが提案されている。このシステムでは、会議室内の任意の場所(例えば、天井など)に参加者の表情や動作を撮像するためのカメラが設置されている。そして、このシステムは、カメラで撮像された画像から、座っているときの姿勢(例えば、前傾、後傾、肘をつく、足を組む等)や、うなずき動作を検出したり、顔の表情の解析したりすることによって喜怒哀楽の感情を推測する。
特開2012-185727号公報 特開2014-204411号公報 特開2005-269207号公報 特開2017-112545号公報 特開2017-201479号公報
対話者間の視線の状態の情報を用いる従来技術では、対話者同士が顔を見合わせている場合の対話状態を推定することはできる。しかし、ワークショップや会議などで、ホワイトボード、ディスプレイ、机上に配置された資料などを用いて議論をしている場合、対話者同士が顔を見合わせていない場合でも、ワークショップや会議が活性状況にある場合もある。従来技術では、このような、対話者同士が顔を見合わせていない場合の活性度を適切に評価することができない。
一つの側面として、開示の技術は、複数のユーザによる対話の場の活性度を適切に評価することを目的とする。
一つの態様として、開示の技術は、複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得する。取得した前記情報に基づいて、前記複数のユーザの各々の視線方向を推定する。推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数又は時間の少なくとも一方を算出する。算出した前記回数又は時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する。
一つの側面として、複数のユーザによる対話の場の活性度を適切に評価することができる、という効果を有する。
第1~第3実施形態に係る活性度評価システムの概略構成を示す図である。 全周囲画像の一例を示す図である。 第1実施形態に係る活性度評価装置の機能ブロック図である。 顔領域の検出及び視線方向の推定を説明するための図である。 顔向きの推定を説明するための図である。 注視点の集まりを説明するための図である。 注視点の集まりを説明するための図である。 第1実施形態におけるフレーム情報テーブルの一例を示す図である。 評価結果画面の一例を示す図である。 第1~第3実施形態に係る活性度評価装置として機能するコンピュータの概略構成を示すブロック図である。 第1実施形態における活性度評価処理の一例を示すフローチャートである。 第2及び第3実施形態に係る活性度評価装置の機能ブロック図である。 第2実施形態におけるフレーム情報テーブルの一例を示す図である。 うなずき動作の抽出を説明するための図である。 第2実施形態における活性度評価処理の一例を示すフローチャートである。 合意形成動作の同期度の算出を説明するための図である。 第3実施形態における活性度評価処理の一例を示すフローチャートである。
以下、図面を参照して、開示の技術に係る実施形態の一例を詳細に説明する。
<第1実施形態>
図1に示すように、第1実施形態に係る活性度評価システム100は、活性度評価装置10と、360度カメラ20とを含む。
360度カメラ20は、自装置の全周囲を動画撮影する。本実施形態では、360度カメラ20は、例えば、図1に示すように、ワークショップや会議など、複数のユーザ80による対話の場において、各ユーザ80が着席するテーブルの中央に設置され、各ユーザ80の顔を含む全周囲画像を動画撮影する。したがって、全周囲画像には、360度カメラ20のカメラ位置を基準とした複数のユーザ80の各々の配置を示す情報、及び複数のユーザ80の各々の顔を含む領域が撮影された顔画像が含まれることになる。
360度カメラ20は、動画を構成する各フレームについて、正距円筒図法により展開した画像データを出力する。出力された画像データは、活性度評価装置10へ入力される。図2に、360度カメラ20により撮影され、正距円筒図法により展開された全周囲画像32の一例を示す。
活性度評価装置10は、機能的には、図3に示すように、取得部11と、推定部12と、算出部13と、評価部14とを含む。
取得部11は、360度カメラ20から入力された全周囲画像32を取得し、取得した全周囲画像32をフレーム毎に、推定部12及び算出部13へ受け渡す。
推定部12は、取得部11から受け渡された全周囲画像32に含まれる顔画像が示す複数のユーザ80の各々の顔の向きに基づいて、複数のユーザ80の各々の視線方向を推定する。
具体的には、推定部12は、図4に示すように、全周囲画像32から、各ユーザ80の顔領域(図4中の破線の矩形で示す領域)を検出する。また、推定部12は、検出した顔領域から、顔の向きを示すベクトル(図4中の矢印)を算出し、算出したベクトルを視線方向として推定する。本実施形態では、推定部12は、図5に示すように、360度カメラ20に対して正面を向いた状態を基準としたヨー角及びピッチ角を用いて顔向きを推定する。
なお、顔領域の検出及び顔向きの推定には、例えば、参考文献1の技術など、従来既知の技術を適用することができる。
参考文献1:Xiangxin Zhu, Deva Ramanan, "Face Detection, Pose Estimation, and Landmark Localization in the Wild", Computer Vision and Pattern Recognition, 2012.
推定部12は、各ユーザ80の顔領域の検出結果及び顔向きの推定結果を、算出部13へ受け渡す。
算出部13は、推定部12から受け渡された各ユーザ80の視線方向、及び取得部11から受け渡された全周囲画像32に含まれる複数のユーザ80の各々の配置を示す情報に基づいて、各ユーザ80の視線方向の先の注視点を推定する。そして、算出部13は、複数のユーザ80のうち、少なくとも2以上のユーザ80の注視点が所定範囲内の領域に集まった回数及び時間の少なくとも一方を算出する。本実施形態では、回数及び時間の双方を算出する場合について説明する。以下では、少なくとも2以上のユーザ80の注視点が所定範囲内の領域に集まることを、「注視点の集まり」という。
具体的には、360度カメラ20が各ユーザ80のほぼ中心に配置されているとの前提の下、算出部13は、全周囲画像32において各ユーザ80の顔領域が検出された位置に基づいて、図6に示すように、カメラ位置を中心とした各ユーザ80の配置を特定する。算出部13は、各ユーザ80の位置とカメラ位置とを結ぶ線を基準として、推定された各ユーザ80の視線方向を対応付けることにより、各ユーザ80の配置に対応した視線方向を特定する。算出部13は、各視線方向を中心に、ピッチ角方向及びヨー角方向の各々に対して所定の幅(例えば、±10度)を持たせた視線領域を、ユーザ80毎に特定し、2以上のユーザ80の視線領域が交差する場合に、注視点が集まっていると判定する。
図6の例では、ユーザA、B、及びCの視線方向のピッチ角が同程度であるものとし、ユーザA、B、及びCの視線領域が交差している、すなわち、ユーザA、B、及びCの注視点が集まっていることを表している。
また、算出部13は、図7に示すように、各ユーザ80の視線方向から推定される注視点を含む視線領域(図7中の実線の矩形)を全周囲画像32上にマッピングし、2以上の視線領域に重複部分が存在する場合に、注視点が集まっていると判定することができる。
算出部13は、注視点が集まっているか否かのフレーム毎の判定結果を、例えば、図8に示すようなフレーム情報テーブル34に記録する。図8の例では、フレームの識別情報であるフレーム番号に、注視点が集まっているか否かを示す「注視点集まりフラグ」を対応付けて記録している。算出部13は、例えば、「注視点集まりフラグ」欄に、注視点が集まっている場合には「1」、注視点が集まっていない場合には「0」を記録する。
さらに、算出部13は、フレーム情報テーブル34を参照して、活性度を算出する単位時間(例えば、5分)における、注視点の集まり回数及び平均時間を算出する。具体的には、算出部13は、フレーム情報テーブル34の「注視点集まりフラグ」欄で、フラグ「1」が連続している部分を、注視点の集まり1回とし、単位時間における注視点の集まり回数を算出する。また、算出部13は、1回毎の注視点の集まりの時間を、その1回に含まれるフレーム数とフレームレートとから算出し、単位時間における、1回の注視点の集まり時間の平均時間を算出する。
算出部13は、算出した注視点の集まり回数及び平均時間を、評価部14へ受け渡す。
評価部14は、算出部13から受け渡された注視点の集まり回数及び平均時間に基づいて、活性度を算出することにより、対話の活性状況を評価する。
評価部14は、単位時間における、注視点の集まり回数が多いほど、又は注視点の集まりの平均時間が長いほど、活性度が高くなるように算出する。これは、複数のユーザ80が、ホワイトボード等の同一箇所に着目して議論している場合には、ユーザ80同士が顔を見合わせていなくても、ワークショップや会議などが活性していることが想定されるため、この活性状況を適切に評価するためである。
評価部14は、例えば、下記(1)式により活性度を算出することができる。
活性度=a×m + b/単位時間×n (1)
なお、(1)式において、aは注視点の集まり回数、bは注視点の集まりの平均時間、m及びnはパラメータである。パラメータは、ワークショップや会議の傾向(ホワイトボードを用いた議論の時間が長いなどの傾向)に応じて、適宜設定可能である。
評価部14は、算出した活性度を、対話の場の活性度の評価結果として出力する。例えば、評価部14は、図9に示すように、単位時間毎に算出した活性度をグラフにした評価結果画面36を表示装置に表示することができる。
活性度評価装置10は、例えば図10に示すコンピュータ40で実現することができる。コンピュータ40は、CPU(Central Processing Unit)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、入力装置、表示装置等の入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部45と、インターネット等のネットワークに接続される通信I/F(Interface)46とを備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。
記憶部43は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を、活性度評価装置10として機能させるための活性度評価プログラム50が記憶される。活性度評価プログラム50は、取得プロセス51と、推定プロセス52と、算出プロセス53と、評価プロセス54とを有する。
CPU41は、活性度評価プログラム50を記憶部43から読み出してメモリ42に展開し、活性度評価プログラム50が有するプロセスを順次実行する。CPU41は、取得プロセス51を実行することで、図3に示す取得部11として動作する。また、CPU41は、推定プロセス52を実行することで、図3に示す推定部12として動作する。また、CPU41は、算出プロセス53を実行することで、図3に示す算出部13として動作する。また、CPU41は、評価プロセス54を実行することで、図3に示す評価部14として動作する。これにより、活性度評価プログラム50を実行したコンピュータ40が、活性度評価装置10として機能することになる。なお、プログラムを実行するCPU41はハードウェアである。
なお、活性度評価プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に、第1実施形態に係る活性度評価システム100の作用について説明する。
活性度評価システム100が起動されると、360度カメラ20での全周囲画像32の撮影が開始され、撮影された全周囲画像32が活性度評価装置10に入力される。そして、活性度評価装置10において、図11に示す活性度評価処理が実行される。なお、活性度評価処理は、開示の技術の活性度評価方法の一例である。
図11に示す活性度評価処理のステップS12で、取得部11が、360度カメラ20から入力された全周囲画像32を1フレーム分取得し、取得した全周囲画像32を、推定部12及び算出部13へ受け渡す。
次に、ステップS14で、推定部12が、取得部11から受け渡された全周囲画像32に含まれる顔画像が示す複数のユーザ80の各々の顔の向きに基づいて、複数のユーザ80の各々の視線方向を推定する。推定部12は、各ユーザ80の顔向きの推定結果を、算出部13へ受け渡す。
次に、ステップS16で、算出部13が、推定部12から受け渡された各ユーザ80の視線方向、及び取得部11から受け渡された全周囲画像32に含まれる複数のユーザ80の各々の配置を示す情報に基づいて、注視点が集まっているか否かを判定する。そして、算出部13は、注視点が集まっているか否かの判定結果を、例えば、図8に示すようなフレーム情報テーブル34に記録する。
次に、ステップS18で、算出部13が、活性度の算出タイミングか否かを判定する。この判定は、例えば、前回の活性度算出から所定の単位時間が経過したか否かにより判定することができる。活性度の算出タイミングではない場合には、処理はステップS12に戻り、活性度の算出タイミングの場合には、処理はステップS20へ移行する。
ステップS20では、算出部13が、フレーム情報テーブル34を参照して、活性度を算出する単位時間(例えば、5分)における、注視点の集まり回数及び平均時間を算出する。算出部13は、算出した注視点の集まり回数及び平均時間を、評価部14へ受け渡す。
次に、ステップS22で、評価部14が、算出部13から受け渡された注視点の集まり回数及び平均時間を用いて、例えば(1)式により、活性度を算出する。
次に、ステップS24で、評価部14が、算出した活性度を表示装置に表示する。例えば、図9に示すようなグラフの評価結果画面36を表示装置に表示する場合、既に表示されているグラフに、上記ステップS24で新たに算出された活性度を追加して表示すればよい。
次に、ステップS26で、取得部11が、活性度評価装置10の処理を終了するか否かを判定する。例えば、活性度評価装置10の処理を終了するコマンドを受信した場合や、360度カメラ20からの全周囲画像の入力が終了した場合などに、活性度評価装置10の処理を終了すると判定することができる。活性度評価装置10の処理を終了しない場合には、処理はステップS12に戻り、終了する場合には、活性度評価処理は終了する。
以上説明したように、第1実施形態に係る活性度評価装置10によれば、ワークショップや会議に参加している各ユーザの視線方向を推定し、各ユーザの視線方向の先の注視点が集まっている回数及び時間に基づいて、対話の場の活性度を評価する。これにより、対話者同士が顔を見合わせていない場合でも、複数のユーザによる対話の場の活性度を適切に評価することができる。
なお、第1実施形態では、注視点の集まり回数及び平均時間の双方を用いる場合について説明したが、いずれか一方だけを用いてもよい。また、注視点の集まり時間の平均ではなく、単位時間内の注視点の集まり時間の合計、最長時間、最短時間等を用いてもよい。
また、第1実施形態では、何人のユーザの注視点が集まっているかによらず、注視点の集まりの有無のみが活性度に反映される場合について説明したが、注視点が集まっていると判定した際の、ユーザの数も活性度に反映させるようにしてもよい。例えば、2ユーザの注視点が集まっている場合よりも、4ユーザの注視点が集まっている場合の方が、活性度が高くなるようにすることができる。
<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る活性度評価システムにおいて、第1実施形態に係る活性度評価システム100と同様の部分については、同一符号を付して、詳細な説明を省略する。
図1に示すように、第2実施形態に係る活性度評価システム200は、活性度評価装置210と、360度カメラ20とを含む。
活性度評価装置210は、機能的には、図12に示すように、取得部11と、推定部212と、算出部213と、抽出部215と、評価部214とを含む。
推定部212は、各ユーザ80の顔領域の検出結果及び顔向きの推定結果を、算出部213へ受け渡すと共に、抽出部215へも受け渡す。
算出部213は、第1実施形態と同様に、注視点が集まっているか否かを判定する。算出部213は、注視点が集まっていると判定した場合、その判定結果をフレーム情報テーブルに記録する際、注視点が集まっているユーザ80の識別情報もあわせて記録する。
図13に、第2実施形態におけるフレーム情報テーブル234の一例を示す。図13の例では、第1実施形態におけるフレーム情報テーブル34と同様に、「フレーム番号」に「注視点集まりフラグ」が対応付けて記録されている。図13において、「注視点集まりフラグ」の「1」に併記された記号が、注視点が集まっているユーザ80の識別情報の一例である。
なお、フレーム情報テーブル234には、「フレーム番号」に、「ピッチ角」、「うなずきフラグ」、「口角フラグ」、及び「眉フラグ」も対応付けて記録されているが、これらについては後述する。
算出部213は、第1実施形態における算出部13と同様に、注視点の集まり回数及び平均時間を算出する。さらに、算出部213は、2以上のユーザの注視点が集まったタイミングにおける、その2以上のユーザの合意形成を示す表情及び動作の少なくとも一方が出現した回数を算出する(詳細は後述)。
抽出部215は、推定部212から受け渡された顔画像の検出結果が示す顔画像に基づいて、対話における合意形成を示す表情及び動作の少なくとも一方を抽出する。本実施形態では、合意形成を示す動作として、うなずく動作を抽出し、合意形成を示す表情として、口角を上げる表情、及び眉を上げる表情を抽出する場合について説明する。
具体的には、抽出部215は、推定部212から受け渡された各ユーザ80の顔向きの推定結果が示す視線方向のピッチ角を、例えば、図13に示すフレーム情報テーブル234の「ピッチ角」欄に、フレーム毎かつユーザ80毎に記録する。
抽出部215は、ユーザ毎に、過去の所定の判定時間(例えば、0.5秒)内のフレームに対応付けられたピッチ角に基づいて、うなずき動作の有無を判定する。例えば、図14の破線部に示すように、所定の判定時間内に、ピッチ勾配(ピッチ角の微分値)の符号が-、+、-、+の順に2回以上、繰り返している部分が存在する場合に、うなずき動作有りと判定することができる。抽出部215は、例えば、「うなずきフラグ」欄に、うなずき動作有りの場合には「1」、うなずき動作無しの場合には「0」を記録する。
また、抽出部215は、フレーム毎に、各ユーザ80の顔領域から特徴量を抽出し、抽出した特徴量を予め用意されたモデルと比較することにより、各ユーザ80の表情が、口角を大きく上げる表情、又は眉を大きく上げる表情であるか否かを判定する。例えば、抽出部215は、Facial Action Unit(参考文献2)の技術を用いる場合、口角を大きく上げる表情として、ユニット番号AU12又はAU13の特徴を有する表情を抽出する。同様に、抽出部215は、眉を大きく上げる表情として、ユニット番号AU12又はAU13の特徴を有する表情を抽出する。
参考文献2:Michel Valstar and Maja Pantic, "Fully Automatic Facial Action Unit Detection and Temporal Analysis", Computer Vision and Pattern Recognition Workshop, 2006.
抽出部215は、例えば、「口角フラグ」欄に、口角を大きく上げる表情が抽出された場合には「1」、口角を大きく上げる表情が抽出されていない場合には「0」を記録する。同様に、抽出部215は、例えば、「眉フラグ」欄に、眉を大きく上げる表情が抽出された場合には「1」、眉を大きく上げる表情が抽出されていない場合には「0」を記録する。
なお、抽出部215は、2以上のユーザの注視点が集まったタイミングにおける、その2以上のユーザの合意形成を示す表情及び動作の少なくとも一方を抽出する。そのため、抽出部215は、フレーム情報テーブル234の「注視点集まりフラグ」が「1」のフレームであって、注視点が集まったユーザについてのみ、合意形成動作及び表情を抽出すればよい。上記に該当しないフレーム及びユーザについては、「うなずきフラグ」、「口角フラグ」、及び「眉フラグ」は「0」とする。
算出部213は、上述したように、2以上のユーザ80の注視点が集まったタイミングにおける、その2以上のユーザ80の合意形成を示す表情及び動作の少なくとも一方が出現した回数を算出する。
具体的には、算出部213は、フレーム情報テーブル234において、活性度を算出する単位時間(例えば、5分)分のフレーム番号に対応付けて記録された「うなずきフラグ」、「口角フラグ」、及び「眉フラグ」が「1」の数を算出する。
算出部213は、算出した注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数とを、評価部214へ受け渡す。
評価部214は、算出部213から受け渡された注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数とに基づいて、活性度を算出することにより、対話の活性状況を評価する。
評価部214は、第1実施形態と同様に、単位時間における、注視点の集まり回数が多いほど、又は注視点の集まりの平均時間が長いほど、活性度が高くなるように算出する。さらに、評価部214は、単位時間における、合意形成を示す動作及び表情の出現回数が多いほど、活性度を高くなるように算出する。これは、複数のユーザ80が、ホワイトボード等の同一箇所に着目して、合意を形成しながら議論している場合には、ユーザ80同士が顔を見合わせていなくても、ワークショップや会議などが活性していることが想定されるためである。
評価部214は、例えば、下記(2)式により活性度を算出することができる。
活性度=a×m + b/単位時間×n
+c×o + d×p +e×q (2)
なお、(2)式において、aは注視点の集まり回数、bは注視点の集まりの平均時間、cはうなずきの出現回数、dは口角を大きく上げる表情の出現回数、eは眉を大きく上げる表情の出現回数、m、n、o、p、及びqはパラメータである。パラメータは、ワークショップや会議の傾向、注視点の集まりを重視するか、合意形成の表情及び動作を重視するか等に応じて、適宜設定可能である。
活性度評価装置210は、例えば図10に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を、活性度評価装置210として機能させるための活性度評価プログラム250が記憶される。活性度評価プログラム250は、取得プロセス51と、推定プロセス252と、算出プロセス253と、評価プロセス254と、抽出プロセス255とを有する。
CPU41は、活性度評価プログラム250を記憶部43から読み出してメモリ42に展開し、活性度評価プログラム250が有するプロセスを順次実行する。CPU41は、取得プロセス51を実行することで、図12に示す取得部11として動作する。また、CPU41は、推定プロセス252を実行することで、図12に示す推定部212として動作する。また、CPU41は、算出プロセス253を実行することで、図12に示す算出部213として動作する。また、CPU41は、抽出プロセス255を実行することで、図12に示す抽出部215として動作する。また、CPU41は、評価プロセス254を実行することで、図12に示す評価部214として動作する。これにより、活性度評価プログラム250を実行したコンピュータ40が、活性度評価装置210として機能することになる。
なお、活性度評価プログラム250により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第2実施形態に係る活性度評価システム200の作用について説明する。
第2実施形態では、活性度評価装置210において、図15に示す活性度評価処理が実行される。なお、活性度評価処理は、開示の技術の活性度評価方法の一例である。図15に示す活性度評価処理において、第1実施形態における活性度評価処理(図11)と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップS16を経て、次のステップS217で、抽出部215が、注視点が集まったユーザについて、推定部212から受け渡された顔画像の検出結果が示す顔画像に基づいて、対話における合意形成を示す表情及び動作を抽出する。抽出部215は、合意形成を示す表情及び動作の抽出結果をフレーム情報テーブル234に記録する。
ステップS18及びS20を経て、次のステップS221で、算出部213が、2以上のユーザ80の注視点が集まったタイミングにおける、その2以上のユーザ80の合意形成を示す表情及び動作の出現回数を算出する。算出部213は、算出した注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数とを、評価部214へ受け渡す。
次に、ステップS222で、評価部214が、算出部213から受け渡された注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数とを用いて、例えば(2)式により、活性度を算出する。
以上説明したように、第2実施形態に係る活性度評価装置210によれば、第1実施形態に係る活性度に、さらに、注視点が集まっているユーザの合意形成の動作及び表情の出現回数を反映する。これにより、対話者同士が顔を見合わせていない場合でも、複数のユーザによる対話の場の活性度を適切に評価することができる。
なお、第2実施形態では、注視点が集まっているユーザの合意形成の動作及び表情の出現回数のみを活性度に反映する場合について説明したが、これに限定されない。例えば、注視点の集まりの有無によらず、単位時間当たりの合意形成の動作及び表情の出現回数を活性度に反映させてもよい。また、注視点の集まりのタイミングに出現した合意形成の動作及び表情か否かに応じて、活性度に反映させる際の重みを変えるようにしてもよい。
また、第2実施形態では、合意形成の動作及び表情の双方を用いる場合について説明したが、いずれか一方を用いてもよい。また、合意形成の動作及び表情は、上記の、うなずき、口角を大きく上げる表情、及び眉を大きく上げる表情に限定されず、他の動作や表情を採用してもよい。
<第3実施形態>
次に、第3実施形態について説明する。なお、第3実施形態に係る活性度評価システムにおいて、第2実施形態に係る活性度評価システム200と同様の部分については、同一符号を付して、詳細な説明を省略する。
図1に示すように、第3実施形態に係る活性度評価システム300は、活性度評価装置310と、360度カメラ20とを含む。
活性度評価装置310は、機能的には、図12に示すように、取得部11と、推定部212と、算出部313と、抽出部215と、評価部314とを含む。
算出部313は、第2実施形態における算出部213と同様に、注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数とを算出する。さらに、算出部313は、各ユーザ80の合意形成の動作の同期度を算出する。
具体的には、算出部313は、ユーザ80間の視線方向のピッチ角及びヨー角の時系列変化の一致度合いを、同期度として算出する。例えば、算出部313は、図16に示すように、単位時間(例えば、5分)毎に、動的時間伸縮法(DTW、Dynamic Time Warping)により、ユーザ80間のピッチ角及びヨー角の差分(以下、「DTW値」という)を取得する。なお、図16では、2ユーザのピッチ角の時系列変化のみを表している。そして、算出部313は、取得したDTW値を用いて、下記(3)式により、同期度を算出する。
同期度=100-DTW値 (3)
ただし、DTW値≧100であれば、DTW値=100とする。
算出部313は、算出した注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数と、合意形成動作の同期度とを評価部314へ受け渡す。
評価部314は、算出部313から受け渡された注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数と、合意形成動作の同期度とに基づいて、活性度を算出することにより、対話の活性状況を評価する。
評価部314は、第2実施形態と同様に、単位時間における、注視点の集まり回数が多いほど、注視点の集まりの平均時間が長いほど、合意形成動作及び表情の出現回数が多いほど、活性度が高くなるように算出する。さらに、評価部314は、単位時間における、合意形成動作の同期度が高いほど、活性度を高くなるように算出する。これは、ユーザ80同士が顔を見合わせていなくても、同一の内容について合意を形成しようとしていることの表れであり、ワークショップや会議などが活性していることが想定されるためである。
評価部314は、例えば、下記(4)式により活性度を算出することができる。
活性度=a×m + b/単位時間×n
+c×o + d×p + e×q + f×r (4)
なお、(4)式において、aは注視点の集まり回数、bは注視点の集まりの平均時間、cはうなずきの出現回数、dは口角を大きく上げる表情の出現回数、eは眉を大きく上げる表情の出現回数、fは合意形成動作の同期度である。また、m、n、o、p、q、及びrはパラメータである。パラメータは、ワークショップや会議の傾向や、活性度算出のいずれの項目を重視するか等に応じて、適宜設定可能である。
活性度評価装置310は、例えば図10に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を、活性度評価装置310として機能させるための活性度評価プログラム350が記憶される。活性度評価プログラム350は、取得プロセス51と、推定プロセス252と、算出プロセス353と、評価プロセス354と、抽出プロセス255とを有する。
CPU41は、活性度評価プログラム350を記憶部43から読み出してメモリ42に展開し、活性度評価プログラム350が有するプロセスを順次実行する。CPU41は、算出プロセス353を実行することで、図12に示す算出部313として動作する。また、CPU41は、評価プロセス354を実行することで、図12に示す評価部314として動作する。他のプロセスについては、第2実施形態における活性度評価プログラム250と同様である。これにより、活性度評価プログラム350を実行したコンピュータ40が、活性度評価装置310として機能することになる。
なお、活性度評価プログラム350により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第3実施形態に係る活性度評価システム300の作用について説明する。
第3実施形態では、活性度評価装置310において、図17に示す活性度評価処理が実行される。なお、活性度評価処理は、開示の技術の活性度評価方法の一例である。図17に示す活性度評価処理において、第1及び2実施形態における活性度評価処理(図11、図15)と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップS221を経て、次のステップS321で、算出部313が、各ユーザ80間の合意形成の動作の同期度を、例えば(3)式により算出する。算出部313は、算出した注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数と、合意形成動作の同期度とを評価部314へ受け渡す。
次に、ステップS322で、評価部314が、算出部313から受け渡された注視点の集まり回数及び平均時間と、合意形成を示す動作及び表情の出現回数と、合意形成動作の同期度とを用いて、例えば(4)式により、活性度を算出する。
以上説明したように、第3実施形態に係る活性度評価装置310によれば、第2実施形態に係る活性度に、さらに、ユーザ間の合意形成動作の同期度を反映する。これにより、対話者同士が顔を見合わせていない場合でも、複数のユーザによる対話の場の活性度を適切に評価することができる。
なお、第3実施形態では、第2実施形態における活性度にユーザ間の合意形成動作の同期度を反映する場合について説明したが、第1実施形態における活性度にユーザ間の合意形成動作の同期度を反映してもよい。この場合、例えば、下記(5)式により活性度を算出することができる。
活性度=a×m +b/単位時間×n + f×r (5)
また、上記各実施形態では、360度カメラにより、各ユーザの配置及び顔画像を取得する場合について説明したが、これに限定されない。各ユーザの顔画像を撮影するカメラを個別に設け、対話の場全体を撮影するカメラも別途設けるようにしてもよい。また、各ユーザの視線方向は、カメラで撮影された画像から推定する場合に限定されず、例えば、ユーザの頭部にジャイロセンサ等を取り付けて、顔向きを検出し、検出した顔向きから視線方向を推定するようにしてもよい。また、対話の場における各ユーザの配置は、ビーコン等を用いて位置を検出する位置検出装置を各ユーザに取り付けて、この位置検出装置で検出した位置情報を用いるようにしてもよい。
開示の技術は、例えば、ワークショップのファシリテーターのファシリテーションの補助に活用することができる。具体的には、グループ毎に上記各実施形態のように活性度を評価し、活性度が低いグループを担当するファシリテーターに対して、その情報を提示する。これにより、ファシリテーターは、議論を活性化させるために積極的に働きかけを行うことができる。
また、ワークショップが成功するか(盛り上がるか)否かは、ファシリテーターのスキルに大きく依存している。上記各実施形態のように活性度を評価することで、ワークショップの成否、ファシリテーターのスキルの評価、ファシリテーターの教育用途等に活用することができる。さらに、単位時間毎の活性度を評価することで、ワークショップがどのタイミングで盛り上がったか等を把握することもできる。
また、上記実施形態では、活性度評価プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD-ROM、DVD-ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得し、
取得した前記情報に基づいて、前記複数のユーザの各々の視線方向を推定し、
推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数及び時間の少なくとも一方を算出し、
算出した前記回数及び時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する
ことを含む処理をコンピュータに実行させるための活性度評価プログラム。
(付記2)
所定の単位時間における、前記回数が多いほど、又は前記時間が長いほど、前記活性度を高く評価する付記1に記載の活性度評価プログラム。
(付記3)
前記視線方向の推定に関する情報として、前記複数のユーザの各々の配置を示す情報、及び前記複数のユーザの各々の顔を含む領域を撮影した画像を取得し、
前記顔を含む領域を撮影した画像が示す顔向きと、前記複数のユーザの各々の配置を示す情報とに基づいて、前記対話の場における、前記複数のユーザの各々の視線方向を推定する
付記1又は付記2に記載の活性度評価プログラム。
(付記4)
取得した前記顔を含む領域を撮影した画像に基づいて、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出し、
算出した前記回数及び時間の少なくとも一方と、抽出した前記表情及び動作の少なくとも一方とに基づいて、前記対話の場の活性度を評価する
ことを含む処理をコンピュータに実行させるための付記3に記載の活性度評価プログラム。
(付記5)
前記合意形成を示す表情は、口角を上げる表情、又は眉を上げる表情であり、前記合意形成を示す動作は、うなずく動作である付記4に記載の活性度評価プログラム。
(付記6)
少なくとも2以上のユーザの注視点が所定範囲内の領域に集まったタイミングにおける、前記少なくとも2以上のユーザの顔を含む領域を撮影した画像から、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出する付記4又は付記5に記載の活性度評価プログラム。
(付記7)
所定の単位時間における、前記合意形成を示す表情及び動作の少なくとも一方の出現回数が多いほど、前記活性度を高く評価する付記4~付記6のいずれか1項に記載の活性度評価プログラム。
(付記8)
所定の単位時間における、少なくとも2以上のユーザについて抽出された前記合意形成を示す表情及び動作の少なくとも一方が同期して出現している度合いが高いほど、前記活性度を高く評価する付記4~付記7のいずれか1項に記載の活性度評価プログラム。
(付記9)
前記複数のユーザの各々の配置を示す情報として、前記複数のユーザを含む前記対話の場を撮影した全周囲画像を取得する付記1~付記8のいずれか1項に記載の活性度評価プログラム。
(付記10)
複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得する取得部と、
前記取得部により取得された前記視線方向の推定に関する情報
に基づいて、前記複数のユーザの各々の視線方向を推定する推定部と、
前記推定部により推定された前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数及び時間の少なくとも一方を算出する算出部と、
前記算出部により算出された前記回数及び時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する評価部と、
を含む活性度評価装置。
(付記11)
前記評価部は、所定の単位時間における、前記回数が多いほど、又は前記時間が長いほど、前記活性度を高く評価する付記10に記載の活性度評価装置。
(付記12)
前記取得部は、前記視線方向の推定に関する情報として、前記複数のユーザの各々の配置を示す情報、及び前記複数のユーザの各々の顔を含む領域を撮影した画像を取得し、
前記推定部は、前記顔を含む領域を撮影した画像が示す顔向きと、前記複数のユーザの各々の配置を示す情報とに基づいて、前記対話の場における、前記複数のユーザの各々の視線方向を推定する
付記10又は付記11に記載の活性度評価装置。
(付記13)
前記取得部により取得された前記顔を含む領域を撮影した画像に基づいて、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出する抽出部を含み、
前記評価部は、前記算出部により算出された前記回数及び時間の少なくとも一方と、前記抽出部により抽出された前記表情及び動作の少なくとも一方とに基づいて、前記対話の場の活性度を評価する
付記12に記載の活性度評価装置。
(付記14)
前記合意形成を示す表情は、口角を上げる表情、又は眉を上げる表情であり、前記合意形成を示す動作は、うなずく動作である付記13に記載の活性度評価装置。
(付記15)
前記抽出部は、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まったタイミングにおける、前記少なくとも2以上のユーザの顔を含む領域を撮影した画像から、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出する付記13又は付記14に記載の活性度評価装置。
(付記16)
前記評価部は、所定の単位時間における、前記合意形成を示す表情及び動作の少なくとも一方の出現回数が多いほど、前記活性度を高く評価する付記13~付記15のいずれか1項に記載の活性度評価装置。
(付記17)
前記評価部は、所定の単位時間における、少なくとも2以上のユーザについて抽出された前記合意形成を示す表情及び動作の少なくとも一方が同期して出現している度合いが高いほど、前記活性度を高く評価する付記13~付記16のいずれか1項に記載の活性度評価装置。
(付記18)
前記取得部は、前記複数のユーザの各々の配置を示す情報として、前記複数のユーザを含む前記対話の場を撮影した全周囲画像を取得する付記10~付記17のいずれか1項に記載の活性度評価装置。
(付記19)
複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得し、
取得した前記情報に基づいて、前記複数のユーザの各々の視線方向を推定し、
推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数及び時間の少なくとも一方を算出し、
算出した前記回数及び時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する
ことを含む処理をコンピュータが実行する活性度評価方法。
(付記20)
複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得し、
取得した前記情報に基づいて、前記複数のユーザの各々の視線方向を推定し、
推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数及び時間の少なくとも一方を算出し、
算出した前記回数及び時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する
ことを含む処理をコンピュータに実行させるための活性度評価プログラムを記憶した記憶媒体。
10、210、310 活性度評価装置
11 取得部
12、212 推定部
13、213、313 算出部
14、214、314 評価部
215 抽出部
20 360度カメラ
32 全周囲画像
34、234 フレーム情報テーブル
36 評価結果画面
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50、250、350 活性度評価プログラム
80 ユーザ
100、200、300 活性度評価システム

Claims (11)

  1. 複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得し、
    取得した前記情報に基づいて、前記複数のユーザの各々の視線方向を推定し、
    推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの視線方向に所定の幅を持たせた視線領域が交差する場合、又は視線方向から推定される注視点を含む視線領域に重複部分が存在する場合を注視点が所定範囲内の領域に集まった場合と判定し、注視点が所定範囲内の領域に集まった回数または時間の少なくとも一方を算出し、
    算出した前記回数または時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する
    ことを含む処理をコンピュータに実行させるための活性度評価プログラム。
  2. 所定の単位時間における、前記回数が多いほど、又は前記時間が長いほど、前記活性度を高く評価する請求項1に記載の活性度評価プログラム。
  3. 前記視線方向の推定に関する情報として、前記複数のユーザの各々の配置を示す情報、及び前記複数のユーザの各々の顔を含む領域を撮影した画像を取得し、
    前記顔を含む領域を撮影した画像が示す顔向きと、前記複数のユーザの各々の配置を示す情報とに基づいて、前記対話の場における、前記複数のユーザの各々の視線方向を推定する
    請求項1又は請求項2に記載の活性度評価プログラム。
  4. 取得した前記顔を含む領域を撮影した画像に基づいて、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出し、
    算出した前記回数及び時間の少なくとも一方と、抽出した前記表情及び動作の少なくとも一方とに基づいて、前記対話の場の活性度を評価する
    ことを含む処理をコンピュータに実行させるための請求項3に記載の活性度評価プログラム。
  5. 前記合意形成を示す表情は、口角を上げる表情、又は眉を上げる表情であり、前記合意形成を示す動作は、うなずく動作である請求項4に記載の活性度評価プログラム。
  6. 少なくとも2以上のユーザの注視点が所定範囲内の領域に集まったタイミングにおける、前記少なくとも2以上のユーザの顔を含む領域を撮影した画像から、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出する請求項4又は請求項5に記載の活性度評価プログラム。
  7. 複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報として、前記複数のユーザの各々の配置を示す情報、及び前記複数のユーザの各々の顔を含む領域を撮影した画像を取得し、
    取得した前記顔を含む領域を撮影した画像顔向きと、前記複数のユーザの各々の配置を示す情報とに基づいて、前記対話の場における、前記複数のユーザの各々の視線方向を推定し、
    取得した前記顔を含む領域を撮影した画像のうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まったタイミングにおける、前記少なくとも2以上のユーザの顔を含む領域を撮影した画像から、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出し、
    推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数または時間の少なくとも一方を算出し、
    算出した前記回数または時間の少なくとも一方と、抽出した前記表情及び動作の少なくとも一方とに基づいて、前記対話の場の活性度を評価する
    ことを含む処理をコンピュータに実行させるための活性度評価プログラム。
  8. 複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得する取得部と、
    取得した前記情報に基づいて、前記複数のユーザの各々の視線方向を推定する推定部と、
    推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの視線方向に所定の幅を持たせた視線領域が交差する場合、又は視線方向から推定される注視点を含む視線領域に重複部分が存在する場合を注視点が所定範囲内の領域に集まった場合と判定し、注視点が所定範囲内の領域に集まった回数または時間の少なくとも一方を算出する算出部と、
    算出した前記回数または時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する評価部と、
    を含む活性度評価装置。
  9. 複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報として、前記複数のユーザの各々の配置を示す情報、及び前記複数のユーザの各々の顔を含む領域を撮影した画像を取得する取得部と、
    取得した前記顔を含む領域を撮影した画像顔向きと、前記複数のユーザの各々の配置を示す情報とに基づいて、前記対話の場における、前記複数のユーザの各々の視線方向を推定する推定部と、
    取得した前記顔を含む領域を撮影した画像のうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まったタイミングにおける、前記少なくとも2以上のユーザの顔を含む領域を撮影した画像から、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出する抽出部と、
    推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数または時間の少なくとも一方を算出する算出部と、
    算出した前記回数または時間の少なくとも一方と、抽出した前記表情及び動作の少なくとも一方とに基づいて、前記対話の場の活性度を評価する評価部と、
    を含む活性度評価装置。
  10. 複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報を取得し、
    取得した前記情報に基づいて、前記複数のユーザの各々の視線方向を推定し、
    推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの視線方向に所定の幅を持たせた視線領域が交差する場合、又は視線方向から推定される注視点を含む視線領域に重複部分が存在する場合を注視点が所定範囲内の領域に集まった場合と判定し、注視点が所定範囲内の領域に集まった回数または時間の少なくとも一方を算出し、
    算出した前記回数または時間の少なくとも一方に基づいて、前記対話の場の活性度を評価する
    ことを含む処理をコンピュータが実行する活性度評価方法。
  11. 複数のユーザによる対話の場における、前記複数のユーザの各々の視線方向の推定に関する情報として、前記複数のユーザの各々の配置を示す情報、及び前記複数のユーザの各々の顔を含む領域を撮影した画像を取得し、
    取得した前記顔を含む領域を撮影した画像顔向きと、前記複数のユーザの各々の配置を示す情報とに基づいて、前記対話の場における、前記複数のユーザの各々の視線方向を推定し、
    取得した前記顔を含む領域を撮影した画像のうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まったタイミングにおける、前記少なくとも2以上のユーザの顔を含む領域を撮影した画像から、前記対話における合意形成を示す表情及び動作の少なくとも一方を抽出し、
    推定した前記ユーザの各々の視線方向に基づいて、前記複数のユーザのうち、少なくとも2以上のユーザの注視点が所定範囲内の領域に集まった回数または時間の少なくとも一方を算出し、
    算出した前記回数または時間の少なくとも一方と、抽出した前記表情及び動作の少なくとも一方とに基づいて、前記対話の場の活性度を評価する
    ことを含む処理をコンピュータが実行する活性度評価方法。
JP2018093173A 2018-05-14 2018-05-14 活性度評価プログラム、装置、及び方法 Active JP7139680B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018093173A JP7139680B2 (ja) 2018-05-14 2018-05-14 活性度評価プログラム、装置、及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093173A JP7139680B2 (ja) 2018-05-14 2018-05-14 活性度評価プログラム、装置、及び方法

Publications (2)

Publication Number Publication Date
JP2019200475A JP2019200475A (ja) 2019-11-21
JP7139680B2 true JP7139680B2 (ja) 2022-09-21

Family

ID=68612115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093173A Active JP7139680B2 (ja) 2018-05-14 2018-05-14 活性度評価プログラム、装置、及び方法

Country Status (1)

Country Link
JP (1) JP7139680B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099686A (ja) * 2019-12-23 2021-07-01 富士通株式会社 情報処理装置、方法、及びプログラム
WO2023276701A1 (ja) * 2021-06-28 2023-01-05 パナソニックIpマネジメント株式会社 話者ダイアライゼーションシステム、コミュニケーション解析システム、及び、発話量推定方法
WO2023276700A1 (ja) * 2021-06-28 2023-01-05 パナソニックIpマネジメント株式会社 注力判定システム、コミュニケーション解析システム、及び、注力判定方法
CN117156259B (zh) * 2023-10-30 2024-03-22 海信集团控股股份有限公司 一种视频流获取方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185727A (ja) 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> 対話状態推定装置、方法、及びプログラム
WO2014091766A1 (ja) 2012-12-15 2014-06-19 国立大学法人東京工業大学 人間の心的状態の評価装置
JP2016103081A (ja) 2014-11-27 2016-06-02 Kddi株式会社 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
JP2016122272A (ja) 2014-12-24 2016-07-07 富士通株式会社 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185727A (ja) 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> 対話状態推定装置、方法、及びプログラム
WO2014091766A1 (ja) 2012-12-15 2014-06-19 国立大学法人東京工業大学 人間の心的状態の評価装置
JP2016103081A (ja) 2014-11-27 2016-06-02 Kddi株式会社 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
JP2016122272A (ja) 2014-12-24 2016-07-07 富士通株式会社 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム

Also Published As

Publication number Publication date
JP2019200475A (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
JP7139680B2 (ja) 活性度評価プログラム、装置、及び方法
US8044989B2 (en) Mute function for video applications
CN107251096B (zh) 图像捕获装置和方法
US11657557B2 (en) Method and system for generating data to provide an animated visual representation
Otsuka et al. A realtime multimodal system for analyzing group meetings by combining face pose tracking and speaker diarization
TWI255141B (en) Method and system for real-time interactive video
JPH1153083A (ja) アクティブな公共インターフェイスのための人間の視覚的感知方法及び装置
WO2014199786A1 (ja) 撮影システム
JP2004515982A (ja) テレビ会議及び他の適用においてイベントを予測する方法及び装置
WO2022110591A1 (zh) 基于连麦直播的直播画面处理方法、装置及电子设备
CN108875539B (zh) 表情匹配方法、装置和系统及存储介质
CN113973190A (zh) 视频虚拟背景图像处理方法、装置及计算机设备
JP6859640B2 (ja) 情報処理装置、評価システムおよびプログラム
JP2017076202A (ja) 反応出力システム、反応出力プログラム、反応出力方法
US10824223B2 (en) Determination apparatus and determination method
US20220327732A1 (en) Information processing apparatus, information processing method, and program
JP5650845B2 (ja) 画像の中の仮想視覚情報を識別するための方法および構成
JP6859641B2 (ja) 評価システム、情報処理装置およびプログラム
JP2003503910A (ja) ハイブリッドの光学的及び仮想的ズーミング機構を使用する関心のある対象物のリアルタイムな追跡
US11910132B2 (en) Head tracking for video communications in a virtual environment
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
JP7354813B2 (ja) 検出方法、通知方法、検出プログラムおよび通知プログラム
WO2024062971A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20230401808A1 (en) Group framing in a video system
Hosogoe et al. Toward automated analysis of communication mirroring

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7139680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150