JP7369942B2 - コミュニケーション解析システム、及び、コミュニケーション解析方法 - Google Patents
コミュニケーション解析システム、及び、コミュニケーション解析方法 Download PDFInfo
- Publication number
- JP7369942B2 JP7369942B2 JP2022533941A JP2022533941A JP7369942B2 JP 7369942 B2 JP7369942 B2 JP 7369942B2 JP 2022533941 A JP2022533941 A JP 2022533941A JP 2022533941 A JP2022533941 A JP 2022533941A JP 7369942 B2 JP7369942 B2 JP 7369942B2
- Authority
- JP
- Japan
- Prior art keywords
- people
- during
- length
- persons
- period
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 223
- 238000004458 analytical method Methods 0.000 title claims description 113
- 238000004364 calculation method Methods 0.000 claims description 42
- 238000012800 visualization Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 20
- 238000010586 diagram Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 18
- 230000007613 environmental effect Effects 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 206010048232 Yawning Diseases 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Operations Research (AREA)
- Economics (AREA)
- Marketing (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
[構成]
まず、実施の形態に係るコミュニケーション解析システムの構成について説明する。図1は、実施の形態に係るコミュニケーション解析システムの概略構成を示す図である。図2は、実施の形態に係るコミュニケーション解析システムの機能構成を示すブロック図である。
次に、コミュニケーション解析システム10によって実行される、コミュニケーションの品質に関連するパラメータの特定動作について説明する。図3は、コミュニケーションの品質に関連するパラメータの特定動作のフローチャートである。
ここで、ステップS11において取得された音声情報に基づいて特定可能なパラメータについて、上記図5A及び上記図5Bを参照しながら説明する。
次に、ステップS12において取得された映像情報に基づいて特定可能なパラメータについて、上記図6A及び上記図6Bを参照しながら説明する。
次に、コミュニケーション解析システム10によって実行される、コミュニケーションの品質の可視化動作について説明する。図7は、コミュニケーションの品質の可視化動作のフローチャートである。
次に、コミュニケーション解析システム10によって実行される、コミュニケーションの品質を示すスコアの算出動作について説明する。図10は、コミュニケーションの品質を示すスコアを算出方法の一例を示す図である。
また、算出部48によって算出されたスコアは、空間70の環境制御に使用されてもよい。図12は、環境制御の動作例1のフローチャートである。
また、算出部48は、特定部46によって特定されたパラメータに基づいて、空間70の環境制御を行ってもよい。図13は、環境制御の動作例2のフローチャートである。
また、制御部49は、発言の少ない参加者の周囲の環境制御を行ってもよい。図14は、環境制御の動作例3のフローチャートである。
また、制御部49は、居眠りをしている参加者の周囲の環境制御を行ってもよい。図15は、環境制御の動作例4のフローチャートである。
また、制御部49は、会話に参加せずに作業をしている参加者の周囲の環境制御を行ってもよい。図16は、環境制御の動作例5のフローチャートである。
コミュニケーション解析システム10の適用場面の具体例について説明する。上述のように、コミュニケーション解析システム10は、具体的には、会議室などの空間70で一般的な会議が行われる際に使用される。この場合、特定部46は、パラメータ(a):3つの期間の長さの比率、パラメータ(d):Q&A期間の総数、パラメータ(e):Q&A期間における参加者A~Dの発言時間の比率、パラメータ(g):参加者A~Dの発言中の期間の重複回数、パラメータ(h):報告者を報告者以外の他の参加者が見ている期間の長さ、パラメータ(i):参加者A~Dがうなずいた回数、パラメータ(m):参加者A~Dが笑顔になった回数、及び、パラメータ(n)参加者A~DがPCを操作している期間の長さを特定するとよい。
上記実施の形態では、映像情報に基づく参加者A~Dの位置、及び、音声情報に基づく音声の到来方向に基づいて話者の特定が行われたが、話者の特定方法はこのような方法に限定されない。
上記実施の形態では、参加者A~Dが1つの空間70に集まって会話を行うものとして説明が行われた。しかしながら、コミュニケーション解析システム10は、WEB会議など、参加者A~Dが互いに異なる空間70に位置しているような場合にも適用できる。図17は、このような変形例に係るコミュニケーション解析システムの機能構成を示すブロック図である。
以上説明したように、コミュニケーション解析システム10は、対象期間における複数の人の会話が記録された音声情報を取得する音声取得部44と、対象期間における複数の人の様子が記録された映像情報を取得する映像取得部45と、特定部46と、可視化部47とを備える。特定部46は、取得された音声情報に基づいて、(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、複数の人の全員が沈黙した期間の長さの比率、(b)質疑応答に参加した人の人数、(c)質疑応答のテンポ、(d)質疑応答が行われた期間の数、(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、(f)複数の人の全員が沈黙した期間の長さ、並びに、(g)前記複数の人の発言中の期間の重複回数、の少なくとも1つを特定する。特定部46は、取得された映像情報に基づいて、(h)複数の人のうちの報告者を他の人が見ている期間の長さ、(i)複数の人がうなずいた回数、(j)複数の人があくびをした回数、(k)複数の人が居眠りをした回数または複数の人が居眠りをした期間の長さ、(l)複数の人が作業をしている期間の長さ、(m)複数の人が笑顔になった回数、及び、(n)複数の人がパーソナルコンピュータを操作している期間の長さ、の少なくとも1つを特定する。可視化部47は、特定された上記(a)~上記(g)の少なくとも1つ、及び、上記(h)~上記(n)の少なくとも1つを可視化する。
以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。
20 収音装置
30 撮影装置
44 音声取得部
45 映像取得部
46 特定部
47 可視化部
48 算出部
49 制御部
70 空間
Claims (20)
- 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
特定部と、
可視化部とを備え、
前記特定部は、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
の少なくとも1つを特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
の少なくとも1つを特定し、
前記可視化部は、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つを可視化し、
前記特定部は、取得された前記音声情報に基づいて、前記(e)を特定し、
さらに、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する制御部を備える
コミュニケーション解析システム。 - さらに、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する算出部を備え、
前記可視化部は、さらに、算出された前記スコアを可視化する
請求項1に記載のコミュニケーション解析システム。 - 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
特定部と、
算出部とを備え、
前記特定部は、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
の少なくとも1つを特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
の少なくとも1つを特定し、
前記算出部は、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出し、
前記特定部は、取得された前記音声情報に基づいて、前記(e)を特定し、
さらに、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する制御部を備える
コミュニケーション解析システム。 - 前記制御部は、さらに、算出された前記スコアに基づいて、前記複数の人が位置する空間の環境を制御する
請求項2または3に記載のコミュニケーション解析システム。 - 前記特定部は、取得された前記映像情報に基づいて、前記(k)を特定し、
前記制御部は、さらに、特定した前記(k)に基づいて、前記複数の人のうち居眠りをしている人の周囲の環境を制御する
請求項1~4のいずれか1項に記載のコミュニケーション解析システム。 - 前記特定部は、取得された前記映像情報に基づいて、前記(l)を特定し、
前記制御部は、さらに、特定した前記(l)に基づいて、前記複数の人のうち作業をしている人の周囲の環境を制御する
請求項1~5のいずれか1項に記載のコミュニケーション解析システム。 - 前記音声取得部は、前記複数の人が位置する空間に設置された収音装置によって出力される前記音声情報を取得し、
前記映像取得部は、前記複数の人が位置する空間に設置された撮影装置によって出力される前記映像情報を取得する
請求項1~6のいずれか1項に記載のコミュニケーション解析システム。 - 前記複数の人は、互いに異なる複数の空間のそれぞれに少なくとも1人ずつ位置し、
前記複数の空間のそれぞれには、収音装置及び撮影装置が設置され、
前記音声取得部は、複数の前記収音装置のそれぞれによって出力される前記音声情報を取得し、
前記映像取得部は、複数の前記撮影装置のそれぞれによって出力される前記映像情報を取得する
請求項1~6のいずれか1項に記載のコミュニケーション解析システム。 - 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
特定部と、
可視化部とを備え、
前記特定部は、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(a)、前記(d)、前記(e)、及び、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
前記可視化部は、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)を可視化する
コミュニケーション解析システム。 - 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
特定部と、
可視化部とを備え、
前記特定部は、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
前記可視化部は、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)を可視化する
コミュニケーション解析システム。 - 前記特定部は、前記(e)または前記(m)を特定し、さらに、前記音声情報及び前記映像情報の少なくとも一方に基づいて、前記複数の人のそれぞれが誰であるかを特定する
請求項1~10のいずれか1項に記載のコミュニケーション解析システム。 - 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
特定部と、
算出部とを備え、
前記特定部は、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(a)、前記(d)、前記(e)、及び、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
前記算出部は、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
コミュニケーション解析システム。 - 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
特定部と、
算出部とを備え、
前記特定部は、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
前記算出部は、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
コミュニケーション解析システム。 - コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、可視化部と、制御部とを備え、
前記コミュニケーション解析方法は、
前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
前記特定部によって実行される特定ステップと、
前記可視化部によって実行される可視化ステップと、
前記制御部によって実行される制御ステップとを含み、
前記特定ステップにおいては、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
の少なくとも1つを特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
の少なくとも1つを特定し、
前記可視化ステップにおいては、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つを可視化し、
前記特定ステップにおいては、取得された前記音声情報に基づいて、前記(e)を特定し、
前記制御ステップにおいては、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する
コミュニケーション解析方法。 - コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、可視化部とを備え、
前記コミュニケーション解析方法は、
前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
前記特定部によって実行される特定ステップと、
前記可視化部によって実行される可視化ステップとを含み、
前記特定ステップにおいては、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(a)、前記(d)、前記(e)、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
前記可視化ステップにおいては、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)を可視化する
コミュニケーション解析方法。 - コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、可視化部とを備え、
前記コミュニケーション解析方法は、
前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
前記特定部によって実行される特定ステップと、
前記可視化部によって実行される可視化ステップとを含み、
前記特定ステップにおいては、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
前記可視化ステップにおいては、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)を可視化する
コミュニケーション解析方法。 - コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、算出部と、制御部とを備え、
前記コミュニケーション解析方法は、
前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
前記特定部によって実行される特定ステップと、
前記算出部によって実行される算出ステップと、
前記制御部によって実行される制御ステップとを含み、
前記特定ステップにおいては、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
の少なくとも1つを特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
の少なくとも1つを特定し、
前記算出ステップにおいては、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出し、
前記特定ステップにおいては、取得された前記音声情報に基づいて、前記(e)を特定し、
前記制御ステップにおいては、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する
コミュニケーション解析方法。 - コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、算出部とを備え、
前記コミュニケーション解析方法は、
前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
前記特定部によって実行される特定ステップと、
前記算出部によって実行される算出ステップとを含み、
前記特定ステップにおいては、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(a)、前記(d)、前記(e)、及び、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
前記算出ステップにおいては、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
コミュニケーション解析方法。 - コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、算出部とを備え、
前記コミュニケーション解析方法は、
前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
前記特定部によって実行される特定ステップと、
前記算出部によって実行される算出ステップとを含み、
前記特定ステップにおいては、
取得された前記音声情報に基づいて、
(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
(b)質疑応答に参加した人の人数、
(c)質疑応答のテンポ、
(d)質疑応答が行われた期間の数、
(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
(f)前記複数の人の全員が沈黙した期間の長さ、並びに、
(g)前記複数の人の発言中の期間の重複回数、
のうち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
取得された前記映像情報に基づいて、
(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
(i)前記複数の人がうなずいた回数、
(j)前記複数の人があくびをした回数、
(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
(l)前記複数の人が作業をしている期間の長さ、
(m)前記複数の人が笑顔になった回数、及び、
(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
のうち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
前記算出ステップにおいては、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
コミュニケーション解析方法。 - 請求項14~19のいずれか1項に記載のコミュニケーション解析方法を前記コミュニケーション解析システムに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114746 | 2020-07-02 | ||
JP2020114746 | 2020-07-02 | ||
PCT/JP2021/024045 WO2022004567A1 (ja) | 2020-07-02 | 2021-06-24 | コミュニケーション解析システム、及び、コミュニケーション解析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022004567A1 JPWO2022004567A1 (ja) | 2022-01-06 |
JP7369942B2 true JP7369942B2 (ja) | 2023-10-27 |
Family
ID=79316020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022533941A Active JP7369942B2 (ja) | 2020-07-02 | 2021-06-24 | コミュニケーション解析システム、及び、コミュニケーション解析方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7369942B2 (ja) |
WO (1) | WO2022004567A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020153221A1 (ja) * | 2019-01-21 | 2020-07-30 | 日本電気株式会社 | 無線通信品質可視化システム、無線通信品質可視化装置、および測定装置 |
WO2023033033A1 (ja) * | 2021-09-01 | 2023-03-09 | 株式会社リコー | コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194252A (ja) | 1998-12-25 | 2000-07-14 | Canon Inc | 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体 |
JP2008046801A (ja) | 2006-08-14 | 2008-02-28 | Advanced Telecommunication Research Institute International | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム |
JP2008272019A (ja) | 2007-04-25 | 2008-11-13 | Oki Electric Ind Co Ltd | 集団感情認識支援システム |
JP2014044346A (ja) | 2012-08-28 | 2014-03-13 | Casio Comput Co Ltd | 情報処理装置及びプログラム |
JP2017016566A (ja) | 2015-07-06 | 2017-01-19 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017112545A (ja) | 2015-12-17 | 2017-06-22 | 株式会社イトーキ | 会議支援システム |
WO2018174088A1 (ja) | 2017-03-21 | 2018-09-27 | 国立大学法人東京工業大学 | コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置 |
JP2019133451A (ja) | 2018-01-31 | 2019-08-08 | 甲斐 義章 | 評価方法、評価装置、評価プログラム、および、評価システム |
-
2021
- 2021-06-24 WO PCT/JP2021/024045 patent/WO2022004567A1/ja active Application Filing
- 2021-06-24 JP JP2022533941A patent/JP7369942B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194252A (ja) | 1998-12-25 | 2000-07-14 | Canon Inc | 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体 |
JP2008046801A (ja) | 2006-08-14 | 2008-02-28 | Advanced Telecommunication Research Institute International | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム |
JP2008272019A (ja) | 2007-04-25 | 2008-11-13 | Oki Electric Ind Co Ltd | 集団感情認識支援システム |
JP2014044346A (ja) | 2012-08-28 | 2014-03-13 | Casio Comput Co Ltd | 情報処理装置及びプログラム |
JP2017016566A (ja) | 2015-07-06 | 2017-01-19 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017112545A (ja) | 2015-12-17 | 2017-06-22 | 株式会社イトーキ | 会議支援システム |
WO2018174088A1 (ja) | 2017-03-21 | 2018-09-27 | 国立大学法人東京工業大学 | コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置 |
JP2019133451A (ja) | 2018-01-31 | 2019-08-08 | 甲斐 義章 | 評価方法、評価装置、評価プログラム、および、評価システム |
Also Published As
Publication number | Publication date |
---|---|
WO2022004567A1 (ja) | 2022-01-06 |
JPWO2022004567A1 (ja) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7369942B2 (ja) | コミュニケーション解析システム、及び、コミュニケーション解析方法 | |
US8963987B2 (en) | Non-linguistic signal detection and feedback | |
US6646673B2 (en) | Communication method and terminal | |
US9800834B2 (en) | Method and system of group interaction by user state detection | |
WO2022066229A1 (en) | Virtual conference view for video calling | |
CN107113545A (zh) | 可穿戴装置、管理服务器、其管理系统及其控制方法 | |
KR20190084278A (ko) | 이미지들을 공유하기 위한 자동 제안들 | |
KR20160082078A (ko) | 교육 서비스 시스템 | |
KR20140119628A (ko) | 토론 지원 프로그램, 토론 지원 방법 및 정보 처리 장치 | |
US20230093298A1 (en) | Voice conference apparatus, voice conference system and voice conference method | |
US11677575B1 (en) | Adaptive audio-visual backdrops and virtual coach for immersive video conference spaces | |
JP7152453B2 (ja) | 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム | |
US20040107251A1 (en) | System and method for communicating expressive images for meetings | |
JP2022015191A (ja) | 推定プログラム、推定装置、推定方法、生成プログラム、生成装置及び生成方法 | |
JP7471683B2 (ja) | 反応通知システム | |
JP7445331B2 (ja) | ビデオミーティング評価端末及びビデオミーティング評価方法 | |
US20220407827A1 (en) | Information processing system, control method thereof, and non-transitory computer-readable storage medium | |
JP7465040B1 (ja) | コミュニケーション可視化システム | |
US11961410B1 (en) | Systems and methods to measure and affect focus and engagement | |
WO2022145042A1 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム | |
WO2022145040A1 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム | |
US20240203075A1 (en) | Collaborative system | |
US11935329B2 (en) | Video analysis program | |
JP7138998B1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022145041A1 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231003 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7369942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |