JP7369942B2 - コミュニケーション解析システム、及び、コミュニケーション解析方法 - Google Patents

コミュニケーション解析システム、及び、コミュニケーション解析方法 Download PDF

Info

Publication number
JP7369942B2
JP7369942B2 JP2022533941A JP2022533941A JP7369942B2 JP 7369942 B2 JP7369942 B2 JP 7369942B2 JP 2022533941 A JP2022533941 A JP 2022533941A JP 2022533941 A JP2022533941 A JP 2022533941A JP 7369942 B2 JP7369942 B2 JP 7369942B2
Authority
JP
Japan
Prior art keywords
people
during
length
persons
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022533941A
Other languages
English (en)
Other versions
JPWO2022004567A1 (ja
Inventor
一樹 北村
聡 兵頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2022004567A1 publication Critical patent/JPWO2022004567A1/ja
Application granted granted Critical
Publication of JP7369942B2 publication Critical patent/JP7369942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、コミュニケーション解析システム、及び、コミュニケーション解析方法に関する。
会社などの組織においては、従業員同士がコミュニケーションを密にとって各自のタスクに取り組むことが重要である。例えば、特許文献1には、人物間のコミュニケーションを判定し、分析するコミュニケーション評価システムが開示されている。
国際公開第2019/155629号
本発明は、コミュニケーションの品質の向上を支援することができるコミュニケーション解析システム、及び、コミュニケーション解析方法を提供する。
本発明の一態様に係るコミュニケーション解析システムは、対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、特定部と、可視化部とを備え、前記特定部は、取得された前記音声情報に基づいて、(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、(b)質疑応答に参加した人の人数、(c)質疑応答のテンポ、(d)質疑応答が行われた期間の数、(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、(f)前記複数の人の全員が沈黙した期間の長さ、並びに、(g)前記複数の人の発言中の期間の重複回数、の少なくとも1つを特定し、取得された前記映像情報に基づいて、(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、(i)前記複数の人がうなずいた回数、(j)前記複数の人があくびをした回数、(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、(l)前記複数の人が作業をしている期間の長さ、(m)前記複数の人が笑顔になった回数、及び、(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、の少なくとも1つを特定し、前記可視化部は、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つを可視化する。
本発明の一態様に係るコミュニケーション解析システムは、対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、特定部と、算出部とを備え、前記特定部は、取得された前記音声情報に基づいて、(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、(b)質疑応答に参加した人の人数、(c)質疑応答のテンポ、(d)質疑応答が行われた期間の数、(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、(f)前記複数の人の全員が沈黙した期間の長さ、並びに、(g)前記複数の人の発言中の期間の重複回数、の少なくとも1つを特定し、取得された前記映像情報に基づいて、(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、(i)前記複数の人がうなずいた回数、(j)前記複数の人があくびをした回数、(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、(l)前記複数の人が作業をしている期間の長さ、(m)前記複数の人が笑顔になった回数、及び、(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、の少なくとも1つを特定し、前記算出部は、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する。
本発明の一態様に係るコミュニケーション解析方法は、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、特定ステップと、可視化ステップとを含み、前記特定ステップにおいては、取得された前記音声情報に基づいて、(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、(b)質疑応答に参加した人の人数、(c)質疑応答のテンポ、(d)質疑応答が行われた期間の数、(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、(f)前記複数の人の全員が沈黙した期間の長さ、並びに、(g)前記複数の人の発言中の期間の重複回数、の少なくとも1つを特定し、取得された前記映像情報に基づいて、(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、(i)前記複数の人がうなずいた回数、(j)前記複数の人があくびをした回数、(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、(l)前記複数の人が作業をしている期間の長さ、(m)前記複数の人が笑顔になった回数、及び、(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、の少なくとも1つを特定し、前記可視化ステップにおいては、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つを可視化する。
本発明の一態様に係るコミュニケーション解析方法は、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、特定ステップと、算出ステップとを含み、前記特定ステップにおいては、取得された前記音声情報に基づいて、(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、(b)質疑応答に参加した人の人数、(c)質疑応答のテンポ、(d)質疑応答が行われた期間の数、(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、(f)前記複数の人の全員が沈黙した期間の長さ、並びに、(g)前記複数の人の発言中の期間の重複回数、の少なくとも1つを特定し、取得された前記映像情報に基づいて、(h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、(i)前記複数の人がうなずいた回数、(j)前記複数の人があくびをした回数、(k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、(l)前記複数の人が作業をしている期間の長さ、(m)前記複数の人が笑顔になった回数、及び、(n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、の少なくとも1つを特定し、前記算出ステップにおいては、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する。
本発明の一態様に係るプログラムは、前記コミュニケーション解析方法をコンピュータに実行させるためのプログラムである。
本発明のコミュニケーション解析システム、及び、コミュニケーション解析方法は、コミュニケーションの品質の向上を支援することができる。
図1は、実施の形態に係るコミュニケーション解析システムの概略構成を示す図である。 図2は、実施の形態に係るコミュニケーション解析システムの機能構成を示すブロック図である。 図3は、コミュニケーションの品質に関連するパラメータの特定動作のフローチャートである。 図4は、対象期間の区分例を示す図である。 図5Aは、コミュニケーションの品質に関するパラメータのうち、音声情報に基づいて特定可能なパラメータを示す第一の図である。 図5Bは、コミュニケーションの品質に関するパラメータのうち、音声情報に基づいて特定可能なパラメータを示す第二の図である。 図6Aは、コミュニケーションの品質に関するパラメータのうち、映像情報に基づいて特定可能なパラメータを示す第一の図である。 図6Bは、コミュニケーションの品質に関するパラメータのうち、映像情報に基づいて特定可能なパラメータを示す第二の図である。 図7は、コミュニケーションの品質の可視化動作のフローチャートである。 図8は、コミュニケーションの品質に関するパラメータの表示画面の一例を示す図である。 図9は、コミュニケーションの品質に関するパラメータの表示画面の別の一例を示す図である。 図10は、コミュニケーションの品質を示すスコアを算出方法の一例を示す図である。 図11は、コミュニケーションの品質を示すスコアの表示画面の一例を示す図である。 図12は、コミュニケーションの品質に基づく環境制御の動作例1のフローチャートである。 図13は、コミュニケーションの品質に基づく環境制御の動作例2のフローチャートである。 図14は、コミュニケーションの品質に基づく環境制御の動作例3のフローチャートである。 図15は、コミュニケーションの品質に基づく環境制御の動作例4のフローチャートである。 図16は、コミュニケーションの品質に基づく環境制御の動作例5のフローチャートである。 図17は、変形例に係るコミュニケーション解析システムの機能構成を示すブロック図である。
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
(実施の形態)
[構成]
まず、実施の形態に係るコミュニケーション解析システムの構成について説明する。図1は、実施の形態に係るコミュニケーション解析システムの概略構成を示す図である。図2は、実施の形態に係るコミュニケーション解析システムの機能構成を示すブロック図である。
図1及び図2に示されるように、コミュニケーション解析システム10は、会議室などの空間70を有するオフィスなどで使用される、空間70内に位置する複数の人のコミュニケーションの品質を解析するためのシステムである。空間70は、例えば、閉空間であるが、開放空間であってもよい。空間70としては、会議室のほかに、オフィス空間内の開放的休憩所(オフィス空間の一部に椅子及びテーブルが置かれている場所)が例示される。また、空間70は、物理的に区切られている必要は無く、空間のうち照明光または気流などで区切られた場所であってもよい。例えば、色温度5000Kの昼光色で照明されたオフィス空間の一角に、色温度3000Kの暖色の領域が設けられ、この領域が空間70とされてもよい。
コミュニケーション解析システム10は、収音装置20と、複数の撮影装置30と、サーバ装置40と、情報端末50と、環境制御機器60とを備える。
収音装置20は、空間70内に設置される。収音装置20は、例えば、空間70に置かれた机の上に設置されるが、天井または壁などに設置されてもよい。収音装置20は、空間70内に位置する複数の人が会話しているときの音声を取得し、この音声が記録された音声情報を、インターネットなどの広域通信ネットワーク80を介してサーバ装置40に送信する。収音装置20は、例えば、マイクロフォンアレイによって実現される。なお、収音装置20のサーバ装置40との通信機能は、収音装置20とは別体の装置(パーソナルコンピュータ及びルータなど)によって実現されてもよい。
撮影装置30は、空間70内に設置される。撮影装置30は、例えば、空間70に置かれた机の上に設置されるが、天井または壁などに設置されてもよい。撮影装置30は、空間70内に位置する複数の人が会話しているときの様子を撮影し、この様子が記録された映像情報(言い換えれば、動画情報)を、広域通信ネットワーク80を介してサーバ装置40に送信する。撮影装置30は、例えば、WEBカメラである。撮影装置30のサーバ装置40との通信機能は、撮影装置30とは別体の装置(パーソナルコンピュータ及びルータなど)によって実現されてもよい。
なお、図1の例では、コミュニケーション解析システム10は、複数の人全員を撮影するために撮影装置30を3つ備えている。1つの撮影装置30が平面視で120度の範囲を撮影することで、3つの撮影装置30により平面視で360度(全方位)の範囲の撮影が可能である。しかしながら、コミュニケーション解析システム10は、複数の人の全員を撮影できるように、撮影装置30を少なくとも1つ備えていればよい。
サーバ装置40は、空間70外に設置されるクラウドサーバである。サーバ装置40は、具体的には、通信部41と、情報処理部42と、記憶部43とを備える。
通信部41は、サーバ装置40が広域通信ネットワーク80を介して収音装置20及び撮影装置30と通信を行うための通信回路(通信モジュール)である。通信部41は、具体的には、収音装置20から音声情報を受信し、撮影装置30から映像情報を受信する。通信部41は、例えば、有線通信を行う有線通信回路であるが、無線通信を行う無線通信回路であってもよい。通信部41が行う通信の通信規格については特に限定されない。通信部41は、具体的には、音声取得部44及び映像取得部45を有する。
音声取得部44は、収音装置20によって出力された音声情報を取得する。映像取得部45は、撮影装置30によって出力された映像情報を取得する。
情報処理部42は、複数の人のあいだのコミュニケーションの品質を解析するための情報処理を行う。情報処理部42は、例えば、マイクロコンピュータによって実現されるが、プロセッサまたは専用回路によって実現されてもよい。情報処理部42は、具体的には、特定部46、可視化部47、算出部48、及び、制御部49を有する。
特定部46は、音声取得部44によって取得された音声情報、及び、映像取得部45によって取得された映像情報に基づいて、コミュニケーションの品質に関連するパラメータを特定する。可視化部47は、特定部46によって特定されたパラメータを可視化し、算出部48は、特定部46によって特定されたパラメータに基づいてコミュニケーションの品質を示すスコアを算出する。制御部49は、算出されたスコアに基づいて、空間70の環境を制御する。特定部46、可視化部47、算出部48、及び、制御部49が実行する具体的な処理については後述する。
記憶部43は、情報処理部42が実行する制御プログラム、及び、情報端末50を通じて登録される各種情報などが記憶される記憶装置である。記憶部43は、例えば、HDD(Hard Disk Drive)によって実現されるが、半導体メモリによって実現されてもよい。
情報端末50は、ユーザ(上記複数の人の一人であってもよいし、上記複数の人以外の人であってもよい)がサーバ装置40にアクセスするために使用する情報端末である。情報端末50は、コミュニケーション解析システム10におけるユーザインタフェースとして機能し、サーバ装置40に対する各種情報の登録などに用いられる。情報端末50は、例えば、スマートフォンまたはタブレット端末などの携帯型の情報端末であるが、パーソナルコンピュータなどの据え置き型の情報端末であってもよい。
情報端末50は、コミュニケーションの品質に関連するパラメータ、または、コミュニケーションの品質を示すスコアが表示される表示部51を備える。表示部51は、液晶パネルまたは有機EL(Electro Luminescence)パネルなどの表示パネルによって実現される。
環境制御機器60は、空間70の環境を制御する機器であり、サーバ装置40によって制御される。空間70の環境には、温度環境、光環境(明るさ)、風向き、におい、及び、音などが含まれる。環境制御機器60としては、空間70の温度を制御する空気調和機(エアコン)、空間70の明るさを制御する照明機器、空間70の気流を制御するサーキュレータなどの送風機、空間70のにおいを制御するアロマディフューザなどの香り発生機、及び、空間70における音を制御する楽曲再生装置などが例示される。
[コミュニケーションの品質に関連するパラメータの特定動作]
次に、コミュニケーション解析システム10によって実行される、コミュニケーションの品質に関連するパラメータの特定動作について説明する。図3は、コミュニケーションの品質に関連するパラメータの特定動作のフローチャートである。
サーバ装置40の音声取得部44は、収音装置20によって生成された音声情報(収音装置20のID、及び、録音日時情報が付与されている)を収音装置20から取得し、特定部46は、受信した音声情報を記憶部43に記憶する(S11)。この音声情報は、対象期間(例えば、1つの会議の最初から最後までの全期間)における複数の人(つまり、当該1つの会議の参加者)の会話が記録された音声情報である。
同様に、映像取得部45は、3つの撮影装置30によって生成された映像情報(撮影装置30のID、及び、録画日時情報が付与されている)を3つの撮影装置30のそれぞれから取得し、特定部46は、受信した映像情報を記憶部43に記憶しておく(S12)。この映像情報は、上記対象期間における複数の人の様子が記録された音声情報である。
次に、特定部46は、取得された映像情報に基づいて、上記1つの会議の参加者を特定する(S13)。特定部46は、まず、記憶部43から映像情報を読み出し、映像情報に対して人物抽出処理(例えば、顔認識処理)を行うことにより、参加者を特定し、特定した参加者にIDを付与する。以下の説明では、参加者は合計4名特定され、A~DのIDが付与されるものとする。
次に、特定部46は、参加者の位置を特定する(S14)。例えば、3つの撮影装置30の配置、及び、収音装置20の配置があらかじめ記憶部43に登録され、特定部46は、登録された情報に基づいて、4名の参加者A~Dが収音装置20に対してどの方向に位置するかを特定する。
上述のように、収音装置20は、マイクロフォンアレイによって実現され、音声情報は、マイクロフォンアレイに含まれる複数のマイクロフォン素子に対応する複数チャネルの音声信号を含む。特定部46は、複数チャネルの音声信号に基づいて、音声情報に含まれる音声がどの方向から到来する音声かを把握することができる。そうすると、特定部46は、ステップS14で、参加者A~Dが収音装置20に対してどの方向に位置するかを特定しておけば、音声情報に含まれる音声が、参加者A~Dの誰が発した音声であるかを特定することができる。以下の説明では、音声情報に含まれる音声はこのような手法により、参加者A~Dの誰が発した音声であるかが区別されるものとする。
次に、特定部46は、対象期間全体を、プレゼンテーションが行われた期間(以下、プレゼン期間とも記載される)、質疑応答が行われた期間(以下、Q&A期間とも記載される)、及び、参加者全員が沈黙した期間(以下、サイレント期間とも記載される)の3つの期間に区分する(S15)。つまり、特定部46は、対象期間を会話の種類(傾向)が異なる複数の期間に区分する。図4は、対象期間の区分例を示す図である。
特定部46は、まず、第一所定時間以上誰も発言していない(例えば、音声レベルが所定値以下である)期間をサイレント期間として特定する。次に、特定部46は、1人の参加者が第二所定時間以上連続して話している期間をプレゼン期間として特定する。ここでの連続は、実質的に1人の参加者が発話を続けていることを意味しており、プレゼン期間には、1人の参加者の発話がわずかに途切れた期間(第一所定時間未満の期間)が含まれる。
そして、特定部46は、サイレント期間及びプレゼン期間以外の期間をQ&A期間として特定する。プレゼン期間と同様に、Q&A期間には、会話がわずかに途切れた(第一所定時間未満の期間)が含まれる。Q&A期間は、第一所定時間よりも短く第三所定時間よりも長い参加者全員が沈黙した期間(つまり、やや長めに会話が途切れた期間)が含まれると、この期間を境界として複数のQ&A期間に区別される。図4の例では、Q&A期間(1)は、参加者C、参加者B、参加者D、及び、参加者Aの順に発話した後、やや長めに会話が途切れた場合の1つのQ&A期間である。なお、図4では、斜線部は会話が途切れた期間を示している。
なお、上記3つの期間を区分するための閾値である、第一所定時間、第二所定時間、及び、第三所定時間は、経験的または実験的に適宜定められる。
次に、特定部46は、コミュニケーションの品質に関連するパラメータを特定する(S16)。図5A及び図5Bは、コミュニケーションの品質に関するパラメータのうち、ステップS11において取得された音声情報に基づいて特定可能なパラメータを示す図である。図6A及び図6Bは、コミュニケーションの品質に関するパラメータのうち、ステップS12において取得された映像情報に基づいて特定可能なパラメータを示す図である。なお、これらのパラメータの詳細な特定方法については後述する。なお、特定部46は、図5A、図5B、図6A、及び、図6Bに示される全てのパラメータを特定する必要はなく、図5A及び図5Bに示されるパラメータの少なくとも1つ、並びに、図6A及び図6Bに示されるパラメータの少なくとも1つを特定すればよい。
次に、特定部46は、特定したパラメータに会議IDを付与して記憶部43に記憶する(S17)。例えば、ユーザは、収音装置20のID及び3つの撮影装置30のIDと空間70(会議室などの部屋)との対応関係(つまり、収音装置20のID及び3つの撮影装置30のIDがどこに設置されているか)をあらかじめ登録しておく。そうすれば、特定部46は、音声情報に付与された収音装置20のID、及び、映像情報に付与された撮影装置30のIDに基づいて、特定したパラメータがどの空間70における会話を対象としたものかを特定し、会議IDとして使用することができる。また、特定部46は、音声情報に付与された録音日時情報、及び、映像情報に付与された録画日時情報に基づいて、年月日及び時間帯の情報を会議IDに含めることができる(図5A、図5B、図6A、及び、図6B参照)。
[音声情報に基づいて特定されるパラメータ]
ここで、ステップS11において取得された音声情報に基づいて特定可能なパラメータについて、上記図5A及び上記図5Bを参照しながら説明する。
パラメータ(a)は、プレゼンテーションが行われた期間(プレゼン期間)の長さ、質疑応答が行われた期間(Q&A期間)の長さ、及び、参加者A~Dの全員が実質的に沈黙した期間(サイレント期間)の長さの比率である。特定部46は、より具体的には、対象期間における、プレゼン期間の合計の長さ、Q&A期間の合計の長さ、及び、サイレント期間の合計の長さの比率をパラメータ(a)として特定する。
パラメータ(b)は、1回の質疑応答(つまり、1回のQ&A期間)に参加した参加者A~Dの人数の平均である。特定部46は、対象期間に含まれる全てのQ&A期間における参加人数を平均することで、パラメータ(b)を特定する。図4の例では、Q&A期間(1)の参加者は4人であり、Q&A期間(2)の参加者は2人であり、この2つのQ&A期間に参加した人の人数の平均は3である。
パラメータ(c)は、質疑応答(Q&A)のテンポである。特定部46は、対象期間に含まれる全てのQ&A期間における、話者が交代することに起因して会話が途切れた期間の長さの平均をパラメータ(c)として特定することができる。図4の例では、Q&A期間(1)は、4箇所の会話が途切れた期間を含み、Q&A期間(2)は、4箇所の会話が途切れた期間を含む。この場合、この8箇所の会話が途切れた期間の長さの平均がパラメータ(c)として特定される。なお、パラメータ(c)は、会話が途切れた期間の平均値が小さいほど質疑応答のテンポが良いことを意味する。
パラメータ(d)は、質疑応答が行われた期間(Q&A期間)の総数である。特定部46は、対象期間に含まれるQ&A期間の総数をパラメータ(d)として特定する。
パラメータ(e)は、質疑応答が行われた期間(Q&A期間)における参加者A~Dの発言時間の比率である。特定部46は、対象期間に含まれる全てのQ&A期間において参加者Aが発言している期間の長さの合計、参加者Bが発言している期間の長さの合計、参加者Cが発言している期間の長さの合計、及び、参加者Dが発言している期間の長さの合計をそれぞれ特定する。そして特定部46は、この4つの合計の比率をパラメータ(e)として特定する。
パラメータ(f)は、対象期間における参加者A~Dの全員が実質的に沈黙した時間の合計、つまり、対象期間におけるサイレント期間の長さの合計である。
パラメータ(g)は、対象期間において参加者A~Dの発言中の期間の重複回数である。例えば、参加者Aの発言中に参加者Bが発言し、参加者A及び参加者Bの音声が重なった場合にパラメータ(g)に相当する回数がカウントアップされる。重複回数が多い場合には、コミュニケーションが活発であるといえる。
[映像情報に基づいて特定されるパラメータ]
次に、ステップS12において取得された映像情報に基づいて特定可能なパラメータについて、上記図6A及び上記図6Bを参照しながら説明する。
パラメータ(h)は、報告者を報告者以外の他の参加者が見ている期間の長さである。ここでの報告者は、例えば、参加者A~Dのうちプレゼン期間においてプレゼンテーションをしている参加者を意味する。特定部46は、参加者Aがプレゼンテーションを行っているときには、参加者B~Dのそれぞれが参加者Aを見ている期間の長さをパラメータ(h)として集計する。特定部46は、具体的には、映像情報に基づいて他の参加者の視線検出処理を行うことで、他の参加者が報告者を見ているか否かを特定する。
なお、報告者のプレゼンテーションに関連する報告資料が空間70内に設置されたディスプレイに表示されるような場合、パラメータ(h)は、報告者を報告者以外の他の参加者が見ている期間の長さと、他の参加者が報告資料(ディスプレイ)を見ている期間の長さとの合計とされてもよい。
パラメータ(i)は、対象期間において参加者A~Dがうなずいた回数である。特定部46は、例えば、映像情報(より詳細には、映像情報から得られる参加者A~Dの映像特徴量)を入力情報とする機械学習モデルを用いて参加者A~Dがうなずいたか否かを特定する。特定部46は、参加者A~Dのそれぞれがうなずいた回数を集計し、パラメータ(i)として特定する。
パラメータ(j)は、対象期間において参加者A~Dがあくびをした回数である。特定部46は、例えば、映像情報(より詳細には、映像情報から得られる参加者A~Dの映像特徴量)を入力情報とする機械学習モデルを用いて参加者A~Dのそれぞれがあくびをしたか否かを特定する。特定部46は、参加者A~Dのそれぞれがあくびをした回数を集計し、パラメータ(j)として特定する。
パラメータ(k)は、対象期間において参加者A~Dが居眠りをした期間の長さである。特定部46は、例えば、映像情報(より詳細には、映像情報から得られる参加者A~Dの映像特徴量)を入力情報とする機械学習モデルを用いて参加者A~Dのそれぞれが居眠りをしているか否かを特定する。特定部46は、参加者A~Dのそれぞれが居眠りをした期間の長さを集計し、パラメータ(k)として特定する。なお、特定部46は、参加者A~Dのそれぞれが居眠りをした回数をパラメータ(k)として特定してもよい。
パラメータ(l)は、対象期間において参加者A~Dが会話に参加せずに作業をしている期間の長さである。ここでの作業は、具体的には、携帯端末を触ったり、ノートパソコンのキーボードをタイピングしたりすることを意味し、対象期間における会話に無関係であると推定される作業を意味する。特定部46は、例えば、映像情報(より詳細には、映像情報から得られる参加者A~Dの映像特徴量)を入力情報とする機械学習モデルを用いて参加者A~Dのそれぞれが作業をしているか否かを特定する。特定部46は、参加者A~Dのそれぞれが作業をした期間の長さを集計し、パラメータ(l)として特定する。
パラメータ(m)は、対象期間において参加者A~Dが笑顔になった回数である。特定部46は、例えば、映像情報(より詳細には、映像情報から得られる参加者A~Dの映像特徴量)を入力情報とする機械学習モデルを用いて参加者A~Dのそれぞれが笑顔になったか否かを特定する。特定部46は、参加者A~Dのそれぞれが笑顔になった回数を集計し、パラメータ(m)として特定する。笑顔の回数が多いほど、話やすい雰囲気でよい状態であると考えられる。
パラメータ(n)は、対象期間において参加者A~Dが自身が所持するパーソナルコンピュータ(PC)を操作している期間の長さである。特定部46は、例えば、映像情報(より詳細には、映像情報から得られる参加者A~Dの映像特徴量)を入力情報とする機械学習モデルを用いて参加者A~DのそれぞれがPCを操作しているか否かを特定する。特定部46は、参加者A~DのそれぞれがPCを操作していた期間の長さを集計し、パラメータ(n)として特定する。PCを操作していた期間の長さが長いほど、参加者A~Dの意欲が薄れ、コミュニケーションの品質が悪くなっていると考えられる。
[可視化動作]
次に、コミュニケーション解析システム10によって実行される、コミュニケーションの品質の可視化動作について説明する。図7は、コミュニケーションの品質の可視化動作のフローチャートである。
ユーザ(上記参加者A~Dの一人であってもよいし、上記参加者A~D以外の人であってもよい)により情報端末50に対してコミュニケーションの品質の可視化を指示する操作が行われると、情報端末50は、表示要求をサーバ装置40に送信する。サーバ装置40の通信部41は、表示要求を情報端末50から取得する(S21)。上記操作には、会議ID(会議室の場所と時間)の指定操作が含まれ、表示要求には、この指定操作によって指定された会議IDが含まれている。
可視化部47は、記憶部43に記憶されたコミュニケーションの品質に関するパラメータのうち、通信部41によって取得された表示要求に含まれる会議IDに紐づけられたパラメータを表示するための表示情報を通信部41に情報端末50へ送信させる(S22)。この結果、情報端末50の表示部51には、図8または図9のような表示画面が表示される。
図8は、コミュニケーションの品質に関するパラメータの表示画面の一例を示す図であり、この表示画面は、参加者A~Dの発言時間(上記パラメータ(e)を絶対値に換算したパラメータ)を棒グラフで示している。図9は、コミュニケーションの品質に関するパラメータの表示画面の別の一例を示す図であり、この表示画面は、上記3つの期間の比率(上記パラメータ(a))を円グラフで示している。
なお、図示されないが、他のパラメータが表示部51に表示されてもよい。ユーザは、例えば、どのパラメータを表示するかを、情報端末50への操作により選択することができる。
このように、可視化部47は、特定部46によって特定されたコミュニケーションの品質に関するパラメータの少なくとも1つを可視化することができる。このようにコミュニケーションの品質に関するパラメータが可視化されれば、ユーザは、コミュニケーションの品質(会議の状況)を容易に認識することができる。
[スコアの算出動作]
次に、コミュニケーション解析システム10によって実行される、コミュニケーションの品質を示すスコアの算出動作について説明する。図10は、コミュニケーションの品質を示すスコアを算出方法の一例を示す図である。
図10の例に示されるように、算出部48は、例えば、採点項目P1~P8のそれぞれに対して良い(+5ポイント)、標準(0ポイント)、悪い(-5ポイント)のいずれに該当するかを判断する。そして、算出部48は、採点項目Pnに対する個別スコア(ポイント)をS(Pn)として、Score=50+w1×S(P1)+w2×S(P2)+・・+w8×S(P8)(w1~w8は重み係数)の算出式に基づいて、コミュニケーションの品質を示すスコアを算出する。スコアが大きいほどコミュニケーションの品質が良好である(コミュニケーションが活発である)といえる。
以下、図10の採点項目について説明する。採点項目P1は、パラメータ(a)として特定されたQ&A期間の長さの比率に関するものである。算出部48は、Q&A期間の長さの比率が多いほど、採点項目P1に対する個別スコアを大きい値にする。
採点項目P2は、パラメータ(a)として特定されたサイレント期間の長さの比率に関するものである。算出部48は、サイレント期間の長さの対象期間に対する比率が少ないほど、採点項目P2に対する個別スコアを大きい値にする。
採点項目P3は、パラメータ(e)として特定された、Q&A期間における参加者A~Dの発言時間の比率に関し、具体的には、この比率の最小値/最大値に関するものである。算出部48は、最小値/最大値が1に近い(つまり、参加者A~Dがまんべんなく発言している)ほど、採点項目P3に対する個別スコアを大きい値にする。
採点項目P4は、パラメータ(b)として特定された、1回のQ&A期間に参加した参加者A~Dの人数の平均に関するものである。算出部48は、1回のQ&A期間に参加した参加者A~Dの平均人数が多いほど、採点項目P4に対する個別スコアを大きい値にする。
採点項目P5は、パラメータ(d)として特定された、Q&A期間の総数に関するものである。算出部48は、Q&A期間の総数が多いほど、採点項目P5に対する個別スコアを大きい値にする。
採点項目P6は、パラメータ(h)として特定された、報告者を報告者以外の他の参加者が見ている期間の長さに関し、具体的には、プレゼン期間中で報告者を報告者以外の他の参加者が見ている期間の割合の平均である。例えば、参加者Aがプレゼンテーションをしている期間中に、参加者Bがこの期間の80%の間、参加者Aを見ており、参加者Cがこの期間の60%の間、参加者Aを見ており、参加者Cがこの期間の70%の間、参加者Aを見ているとする。この場合、プレゼン期間中で報告者を報告者以外の他の参加者が見ている期間の割合の平均は、(80+60+70)/3=60%となる。算出部48は、この割合の平均が大きいほど、採点項目P6に対する個別スコアを大きい値にする。
採点項目P7は、パラメータ(j)として特定された、参加者A~Dのあくびの回数の平均に関するものである。算出部48は、参加者A~Dのあくびの平均回数が少ないほど、採点項目P7に対する個別スコアを大きい値にする。
採点項目P8は、パラメータ(k)として特定された、参加者A~Dが居眠りをした期間の長さに関し、具体的には、居眠りをした人数に関するものである。算出部48は、居眠りをした人数が少ないほど、採点項目P8に対する個別スコアを大きい値にする。
以上のように、算出部48は、コミュニケーションが活発であるほど、スコアを大きい値にする。このように算出されたスコアは、例えば、パラメータ(a)~(n)と同様に、可視化部47によって可視化される。図11は、コミュニケーションの品質を示すスコアの表示画面の一例を示す図である。このようにコミュニケーションの品質を示すスコアが可視化されれば、ユーザは、コミュニケーションの品質(活発さ)を認識することができる。
なお、図10に示されるスコアの算出方法は一例であり、算出部48は、パラメータ(a)~(n)の少なくとも1つに基づいて、対象期間における参加者A~Dのコミュニケーションの品質を示すスコアを算出すればよい。
[環境制御の動作例1]
また、算出部48によって算出されたスコアは、空間70の環境制御に使用されてもよい。図12は、環境制御の動作例1のフローチャートである。
ステップS31~ステップS36の処理は、ステップS11~ステップS16の処理と同様である。ただし、ステップS11~ステップS16の処理は、会議の終了後に行われたが、ステップS31~ステップS36の処理は、会議中に数分~数十分ごとに行なわれる。つまり、ステップS31~ステップS36の処理は、リアルタイム性を有している。
ステップS36に続いて、算出部48は、特定されたパラメータに基づいてコミュニケーションの品質を示すスコアを算出する(S37)。制御部49は、算出されたスコアが所定値以上であるか否かを判定する(S38)。制御部49は、算出されたスコアが所定値以上である(つまり、コミュニケーションが活発である)と判定すると(S38でYes)、空間70の環境の制御を行わない。一方、制御部49は、算出されたスコアが所定値未満である(つまり、コミュニケーションが活発でない)と判定すると(S38でNo)、空間70の環境を制御する(S39)。制御部49は、具体的には、通信部41に環境制御機器60へ制御信号を送信させることにより、空間70の環境を制御する。
制御部49は、例えば、空間70の温度を制御する空気調和機の設定温度を高くする、または、空間70に設置された照明機器を現在よりも明るくすることにより、空間70におけるコミュニケーションの活性化を図る。また、制御部49は、空間70に設置された香り発生機を作動させる、または、空間70に設置された楽曲再生装置に楽曲を再生させることにより、空間70におけるコミュニケーションの活性化を図ってもよい。
このように、制御部49は、算出されたスコアに基づいて、参加者A~Dが位置する空間70の環境を制御することで、空間70におけるコミュニケーションの活性化を図ることができる。
[環境制御の動作例2]
また、算出部48は、特定部46によって特定されたパラメータに基づいて、空間70の環境制御を行ってもよい。図13は、環境制御の動作例2のフローチャートである。
ステップS41~ステップS45の処理は、ステップS31~ステップS35の処理と同様である。
ステップS45に続いて、特定部46は、Q&A期間における参加者A~Dの発言時間の比率を特定する(S46)。言い換えれば、特定部46は、コミュニケーションの品質に関連するパラメータ(e)を特定する。また、特定部46は、特定された発言時間の比率に基づいて、発言時間が最も長い参加者を対象者として特定する(S47)。
次に、制御部49は、対象者の発言時間が所定値以上であるか否か(つまり、特定された参加者が他の参加者に比べて話過ぎていないか)を判定する(S48)。制御部49は、対象者の発言時間が所定値未満である(つまり、話過ぎではない)と判定すると(S48でNo)、対象者の周囲の環境の制御を行わない。一方、制御部49は、対象者の発言時間が所定値以上である(つまり、話過ぎである)と判定すると(S48でYes)、対象者の周囲の環境を制御する(S49)。
制御部49は、具体的には、通信部41に環境制御機器60へ制御信号を送信させることにより、対象者の周囲の環境を制御する。対象者の周囲の環境を制御するとは、言い換えれば、参加者A~Dのうち対象者にのみ選択的に刺激を与えることを意味する。
制御部49は、例えば、空間70に設置された送風機を作動させ、対象者へ向かう風を起こすことにより、制御部49は、対象者をクールダウンさせ、発言を控えるように促す。また、制御部49は、空間70に設置された照明機器のうち対象者の周囲を照らす照明機器を現在よりも暗くすることにより、対象者をクールダウンさせ、発言を控えるように促してもよい。
このように、制御部49は、参加者A~Dのうち発言時間が相対的に長いと判定される参加者の周囲の環境を制御する。制御部49は、参加者に話過ぎであることを気付かせることで、他の参加者が発言しやすい雰囲気の醸成を図ることができる。
[環境制御の動作例3]
また、制御部49は、発言の少ない参加者の周囲の環境制御を行ってもよい。図14は、環境制御の動作例3のフローチャートである。
ステップS51~ステップS56の処理は、ステップS41~ステップS46の処理と同様である。
ステップS56に続いて、特定部46は、ステップS56において特定された発言時間の比率に基づいて、発言時間が最も短い参加者を対象者として特定する(S57)。
次に、制御部49は、対象者の発言時間が所定値未満であるか否か(つまり、特定された参加者の発言時間が他の参加者に比べて少な過ぎるのではないか)を判定する(S58)。制御部49は、対象者の発言時間が所定値以上である(つまり、発言時間が少なすぎるということはない)と判定すると(S58でNo)、対象者の周囲の環境の制御を行わない。一方、制御部49は、対象者の発言時間が所定値未満である(つまり、発言時間が少な過ぎる)と判定すると(S58でYes)、対象者の周囲の環境を制御する(S59)。
制御部49は、例えば、空間70に設置された送風機を作動させ、対象者へ向かう風を起こすことにより、制御部49は、対象者に活発に発言をするように促す。また、制御部49は、空間70に設置された照明機器のうち対象者の周囲を照らす照明機器を現在よりも明るくすることにより、対象者に活発に発言をするように促してもよい。
このように、制御部49は、参加者A~Dのうち発言時間が相対的に短いと判定される参加者の周囲の環境を制御する。制御部49は、参加者に発言が少ないことを気付かせることで、参加者の意見をまんべんなく引き出すことができる。
[環境制御の動作例4]
また、制御部49は、居眠りをしている参加者の周囲の環境制御を行ってもよい。図15は、環境制御の動作例4のフローチャートである。
ステップS61~ステップS64の処理は、ステップS51~ステップS54の処理と同様である。
ステップS65に続いて、特定部46は、対象期間において参加者A~Dが居眠りをした期間の長さ(コミュニケーションの品質に関連するパラメータ(k))を特定する(S65)。また、特定部46は、参加者A~Dのうち居眠りをしている参加者を対象者として特定する(S66)。制御部49は、特定された対象者の周囲の環境を制御する(S67)。
制御部49は、例えば、空間70に設置された送風機を作動させ、対象者へ向かう風を起こすことにより、制御部49は、対象者に居眠りをしないように促す。また、制御部49は、空間70に設置された照明機器のうち対象者の周囲を照らす照明機器を現在よりも明るくすることにより、対象者に居眠りをしないように促してもよい。
このように、制御部49は、参加者A~Dのうち居眠りをしている参加者の周囲の環境を制御する。制御部49は、参加者の居眠りを抑制することで、空間70におけるコミュニケーションの活性化を図ることができる。
[環境制御の動作例5]
また、制御部49は、会話に参加せずに作業をしている参加者の周囲の環境制御を行ってもよい。図16は、環境制御の動作例5のフローチャートである。
ステップS71~ステップS74の処理は、ステップS61~ステップS64の処理と同様である。
ステップS75に続いて、特定部46は、コミュニケーションの品質に関連するパラメータ(l)を特定する(S75)。また、特定部46は、参加者A~Dのうち会話に参加せずに作業をしている参加者を対象者として特定する(S76)。制御部49は、対象者の周囲の環境を制御する(S77)。
制御部49は、例えば、空間70に設置された送風機を作動させ、対象者へ向かう風を起こすことにより、制御部49は、対象者に作業をしないように促す。また、制御部49は、空間70に設置された照明機器のうち対象者の周囲を照らす照明機器を現在よりも明るくすることにより、対象者に作業をしないように促してもよい。
このように、制御部49は、参加者A~Dのうち会話に参加せずに作業をしている参加者の周囲の環境を制御する。制御部49は、参加者が会話に参加せずに作業をすることを抑制することで、空間70におけるコミュニケーションの活性化を図ることができる。
[適用場面の具体例]
コミュニケーション解析システム10の適用場面の具体例について説明する。上述のように、コミュニケーション解析システム10は、具体的には、会議室などの空間70で一般的な会議が行われる際に使用される。この場合、特定部46は、パラメータ(a):3つの期間の長さの比率、パラメータ(d):Q&A期間の総数、パラメータ(e):Q&A期間における参加者A~Dの発言時間の比率、パラメータ(g):参加者A~Dの発言中の期間の重複回数、パラメータ(h):報告者を報告者以外の他の参加者が見ている期間の長さ、パラメータ(i):参加者A~Dがうなずいた回数、パラメータ(m):参加者A~Dが笑顔になった回数、及び、パラメータ(n)参加者A~DがPCを操作している期間の長さを特定するとよい。
また、上司と部下などの間で行われるいわゆる1on1ミーティング、及び、ブレーンストーミングなどが行われる際には、特定部46は、パラメータ(e):Q&A期間における参加者A~Dの発言時間の比率、パラメータ(f):サイレント期間の長さ、パラメータ(g):参加者A~Dの発言中の期間の重複回数、パラメータ(h):報告者を報告者以外の他の参加者が見ている期間の長さ、パラメータ(i):参加者A~Dがうなずいた回数、及び、パラメータ(m):参加者A~Dが笑顔になった回数を特定するとよい。
また、コミュニケーション解析システム10は、会議室ではなく、休憩室など気分転換を行うための空間70に適用されてもよい。この場合、特定部46は、パラメータ(e):Q&A期間における参加者A~Dの発言時間の比率、または、パラメータ(m):参加者A~Dが笑顔になった回数を特定し、さらに、音声情報及び映像情報の少なくとも一方に基づいて、空間70に位置する複数の人のそれぞれが誰であるかを特定(つまり、個人特定)する。これにより、コミュニケーション解析システム10は、誰と誰とのコミュニケーションが頻繁に行われているか、などを記憶部43に記憶することができる。なお、個人特定の具体的方法については後述する。
[話者の特定方法の変形例]
上記実施の形態では、映像情報に基づく参加者A~Dの位置、及び、音声情報に基づく音声の到来方向に基づいて話者の特定が行われたが、話者の特定方法はこのような方法に限定されない。
例えば、会議に参加する可能性のある人(会社の全従業員など)の顔画像、及び、音声特徴量が記憶部43にあらかじめ登録されていれば、特定部46は、映像情報に基づく顔認証、及び、音声情報に基づく音声認証により話者(個人)を特定できる。この場合、収音装置20は、マイクロフォンアレイである必要はなく、収音装置20の構成を簡素化できる。
[システム構成の変形例]
上記実施の形態では、参加者A~Dが1つの空間70に集まって会話を行うものとして説明が行われた。しかしながら、コミュニケーション解析システム10は、WEB会議など、参加者A~Dが互いに異なる空間70に位置しているような場合にも適用できる。図17は、このような変形例に係るコミュニケーション解析システムの機能構成を示すブロック図である。
図17に示されるように、変形例に係るコミュニケーション解析システム10aにおいては、互いに異なる複数の空間70のそれぞれに、少なくとも1人の参加者が位置している。また、互いに異なる複数の空間70のそれぞれに、情報端末50及び環境制御機器60が設置されている。この場合の情報端末50は、例えば、パーソナルコンピュータであり、収音装置20、及び、撮影装置30を有している。収音装置20、及び、撮影装置30は、情報端末50に外付けされていてもよいし、情報端末50に内蔵されていてもよい。
このようなコミュニケーション解析システム10aにおいて、サーバ装置40の音声取得部44は、複数の収音装置20のそれぞれによって出力される音声情報を取得する。映像取得部45は、複数の撮影装置30のそれぞれによって出力される映像情報を取得する。これにより、コミュニケーション解析システム10aは、コミュニケーション解析システム10と同様の動作を行うことができる。
[効果等]
以上説明したように、コミュニケーション解析システム10は、対象期間における複数の人の会話が記録された音声情報を取得する音声取得部44と、対象期間における複数の人の様子が記録された映像情報を取得する映像取得部45と、特定部46と、可視化部47とを備える。特定部46は、取得された音声情報に基づいて、(a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、複数の人の全員が沈黙した期間の長さの比率、(b)質疑応答に参加した人の人数、(c)質疑応答のテンポ、(d)質疑応答が行われた期間の数、(e)質疑応答が行われた期間における前記複数の人の発言時間の比率、(f)複数の人の全員が沈黙した期間の長さ、並びに、(g)前記複数の人の発言中の期間の重複回数、の少なくとも1つを特定する。特定部46は、取得された映像情報に基づいて、(h)複数の人のうちの報告者を他の人が見ている期間の長さ、(i)複数の人がうなずいた回数、(j)複数の人があくびをした回数、(k)複数の人が居眠りをした回数または複数の人が居眠りをした期間の長さ、(l)複数の人が作業をしている期間の長さ、(m)複数の人が笑顔になった回数、及び、(n)複数の人がパーソナルコンピュータを操作している期間の長さ、の少なくとも1つを特定する。可視化部47は、特定された上記(a)~上記(g)の少なくとも1つ、及び、上記(h)~上記(n)の少なくとも1つを可視化する。
このようなコミュニケーション解析システム10は、上記(a)~(n)のようなコミュニケーションの品質に関連するパラメータを可視化することで、コミュニケーションの品質の向上を支援することができる。
また、例えば、コミュニケーション解析システム10は、さらに、特定された上記(a)~上記(g)の少なくとも1つ、及び、上記(h)~上記(n)の少なくとも1つに基づいて、対象期間における複数の人のコミュニケーションの品質を示すスコアを算出する算出部48を備える。可視化部47は、算出されたスコアを可視化してもよい。
このようなコミュニケーション解析システム10は、コミュニケーションの品質を示すスコアを可視化することで、コミュニケーションの品質の向上を支援することができる。
また、例えば、コミュニケーション解析システム10は、さらに、算出されたスコアに基づいて、複数の人が位置する空間70の環境を制御する制御部49を備える。
このようなコミュニケーション解析システム10は、コミュニケーションの活性化を図ることができる。
また、例えば、コミュニケーション解析システム10は、さらに、取得された音声情報に基づいて、上記(e)を特定し、特定した上記(e)に基づいて、複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境を制御する制御部49を備える。
このようなコミュニケーション解析システム10は、発言時間が相対的に長いと判定される人に話過ぎであることを気付かせることができ、これによって他の人が発言しやすい雰囲気の醸成を図ることができる。
また、例えば、コミュニケーション解析システム10は、さらに、取得された音声情報に基づいて、上記(e)を特定し、特定した上記(e)に基づいて、複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する制御部49を備える。
このようなコミュニケーション解析システム10は、人のうち発言時間が相対的に短いと判定される人に発言が少ないことを気付かせることができ、これによって複数の人の意見をまんべんなく引き出すことができる。
また、例えば、コミュニケーション解析システム10は、さらに、取得された映像情報に基づいて、上記(k)を特定し、特定した上記(k)に基づいて、複数の人のうち居眠りをしている人の周囲の環境を制御する制御部49を備える。
このようなコミュニケーション解析システム10は、環境の制御により居眠りを抑制することで、コミュニケーションの活性化を図ることができる。
また、例えば、コミュニケーション解析システム10は、さらに、取得された映像情報に基づいて、上記(l)を特定し、特定した上記(l)に基づいて、複数の人のうち作業をしている人の周囲の環境を制御する制御部49を備える。
このようなコミュニケーション解析システム10は、環境の制御により作業をやめるように促すことで、コミュニケーションの活性化を図ることができる。
また、例えば、コミュニケーション解析システム10においては、音声取得部44は、複数の人が位置する空間70に設置された収音装置20によって出力される音声情報を取得する。映像取得部45は、複数の人が位置する空間70に設置された撮影装置30によって出力される映像情報を取得する。
このように、コミュニケーション解析システム10は、会議室などの複数の人が位置している空間70を対象として、コミュニケーションの品質に関連するパラメータの可視化等を行うことができる。
また、例えば、コミュニケーション解析システム10aにおいては、複数の人は、互いに異なる複数の空間70のそれぞれに少なくとも1人ずつ位置し、複数の空間70のそれぞれには、収音装置20及び撮影装置30が設置される。音声取得部44は、複数の収音装置20のそれぞれによって出力される音声情報を取得し、映像取得部45は、複数の撮影装置30のそれぞれによって出力される映像情報を取得する。
このように、コミュニケーション解析システム10aは、WEB会議など、複数の人が互いに異なる空間70に位置しているような場合にも適用できる。
また、例えば、特定部46は、上記(a)、上記(d)、上記(e)、上記(g)、上記(h)、上記(i)、上記(m)、及び、上記(n)を特定する。
このようなコミュニケーション解析システム10は、一般的な会議におけるコミュニケーションの品質の向上に適したパラメータを特定することができる。
また、例えば、特定部46は、上記(e)、上記(f)、上記(g)、上記(h)、上記(i)、及び、上記(m)を特定する。
このようなコミュニケーション解析システム10は、ブレーンストーミングまたは1on1ミーティングにおけるコミュニケーションの品質の向上に適したパラメータを特定することができる。
また、例えば、特定部46は、上記(e)または上記(g)を特定し、さらに、音声情報及び映像情報の少なくとも一方に基づいて、複数の人のそれぞれが誰であるかを特定する。
このようなコミュニケーション解析システム10は、休憩室などの気持ちの切り替え場所におけるコミュニケーションの品質の向上に適したパラメータを特定することができる。
(その他の実施の形態)
以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。
例えば、上記実施の形態では、コミュニケーション解析システムは、複数の装置によって実現されたが、単一の装置として実現されてもよい。例えば、コミュニケーション解析システムは、サーバ装置に相当する単一の装置として実現されてもよい。コミュニケーション解析システムが複数の装置によって実現される場合、コミュニケーション解析システムが備える構成要素は、複数の装置にどのように振り分けられてもよい。例えば、上記実施の形態でサーバ装置が備える構成要素は、空間に設置された情報端末に備えられてもよい。つまり、本発明は、クラウドコンピューティングによって実現されてもよいし、エッジコンピューティングによって実現されてもよい。
例えば、上記実施の形態における装置間の通信方法については特に限定されるものではない。また、装置間の通信においては、図示されない中継装置が介在してもよい。
また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。
また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
例えば、本発明は、コミュニケーション解析システムなどのコンピュータが実行するコミュニケーション解析方法として実現されてもよいし、このようなコミュニケーション解析方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
10、10a コミュニケーション解析システム
20 収音装置
30 撮影装置
44 音声取得部
45 映像取得部
46 特定部
47 可視化部
48 算出部
49 制御部
70 空間

Claims (20)

  1. 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
    前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
    特定部と、
    可視化部とを備え、
    前記特定部は、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    の少なくとも1つを特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    の少なくとも1つを特定し、
    前記可視化部は、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つを可視化し、
    前記特定部は、取得された前記音声情報に基づいて、前記(e)を特定し、
    さらに、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する制御部を備える
    コミュニケーション解析システム。
  2. さらに、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する算出部を備え、
    前記可視化部は、さらに、算出された前記スコアを可視化する
    請求項1に記載のコミュニケーション解析システム。
  3. 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
    前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
    特定部と、
    算出部とを備え、
    前記特定部は、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    の少なくとも1つを特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    の少なくとも1つを特定し、
    前記算出部は、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出し
    前記特定部は、取得された前記音声情報に基づいて、前記(e)を特定し、
    さらに、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する制御部を備える
    コミュニケーション解析システム。
  4. 前記制御部は、さらに、算出された前記スコアに基づいて、前記複数の人が位置する空間の環境を制御す
    求項2または3に記載のコミュニケーション解析システム。
  5. 前記特定部は、取得された前記映像情報に基づいて、前記(k)を特定し、
    前記制御部は、さらに、特定した前記(k)に基づいて、前記複数の人のうち居眠りをしている人の周囲の環境を制御する
    請求項1~のいずれか1項に記載のコミュニケーション解析システム。
  6. 前記特定部は、取得された前記映像情報に基づいて、前記(l)を特定し、
    前記制御部は、さらに、特定した前記(l)に基づいて、前記複数の人のうち作業をしている人の周囲の環境を制御する
    請求項1~のいずれか1項に記載のコミュニケーション解析システム。
  7. 前記音声取得部は、前記複数の人が位置する空間に設置された収音装置によって出力される前記音声情報を取得し、
    前記映像取得部は、前記複数の人が位置する空間に設置された撮影装置によって出力される前記映像情報を取得する
    請求項1~のいずれか1項に記載のコミュニケーション解析システム。
  8. 前記複数の人は、互いに異なる複数の空間のそれぞれに少なくとも1人ずつ位置し、
    前記複数の空間のそれぞれには、収音装置及び撮影装置が設置され、
    前記音声取得部は、複数の前記収音装置のそれぞれによって出力される前記音声情報を取得し、
    前記映像取得部は、複数の前記撮影装置のそれぞれによって出力される前記映像情報を取得する
    請求項1~のいずれか1項に記載のコミュニケーション解析システム。
  9. 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
    前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
    特定部と、
    可視化部とを備え、
    前記特定部は、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(a)、前記(d)、前記(e)、及び、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
    前記可視化部は、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)を可視化する
    コミュニケーション解析システム。
  10. 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
    前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
    特定部と、
    可視化部とを備え、
    前記特定部は、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
    前記可視化部は、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)を可視化する
    コミュニケーション解析システム。
  11. 前記特定部は、前記(e)または前記(m)を特定し、さらに、前記音声情報及び前記映像情報の少なくとも一方に基づいて、前記複数の人のそれぞれが誰であるかを特定する
    請求項1~10のいずれか1項に記載のコミュニケーション解析システム。
  12. 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
    前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
    特定部と、
    算出部とを備え、
    前記特定部は、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(a)、前記(d)、前記(e)、及び、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
    前記算出部は、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
    コミュニケーション解析システム。
  13. 対象期間における複数の人の会話が記録された音声情報を取得する音声取得部と、
    前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得部と、
    特定部と、
    算出部とを備え、
    前記特定部は、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
    前記算出部は、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
    コミュニケーション解析システム。
  14. コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
    前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、可視化部と、制御部とを備え、
    前記コミュニケーション解析方法は、
    前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
    前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
    前記特定部によって実行される特定ステップと、
    前記可視化部によって実行される可視化ステップと
    前記制御部によって実行される制御ステップとを含み、
    前記特定ステップにおいては、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    の少なくとも1つを特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    の少なくとも1つを特定し、
    前記可視化ステップにおいては、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つを可視化し、
    前記特定ステップにおいては、取得された前記音声情報に基づいて、前記(e)を特定し、
    前記制御ステップにおいては、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する
    コミュニケーション解析方法。
  15. コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
    前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、可視化部とを備え、
    前記コミュニケーション解析方法は、
    前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
    前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
    前記特定部によって実行される特定ステップと、
    前記可視化部によって実行される可視化ステップとを含み、
    前記特定ステップにおいては、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(a)、前記(d)、前記(e)、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
    前記可視化ステップにおいては、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)を可視化する
    コミュニケーション解析方法。
  16. コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
    前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、可視化部とを備え、
    前記コミュニケーション解析方法は、
    前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
    前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
    前記特定部によって実行される特定ステップと、
    前記可視化部によって実行される可視化ステップとを含み、
    前記特定ステップにおいては、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
    前記可視化ステップにおいては、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)を可視化する
    コミュニケーション解析方法。
  17. コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
    前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、算出部と、制御部とを備え、
    前記コミュニケーション解析方法は、
    前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
    前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
    前記特定部によって実行される特定ステップと、
    前記算出部によって実行される算出ステップと
    前記制御部によって実行される制御ステップとを含み、
    前記特定ステップにおいては、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    の少なくとも1つを特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    の少なくとも1つを特定し、
    前記算出ステップにおいては、特定された前記(a)~前記(g)の少なくとも1つ、及び、前記(h)~前記(n)の少なくとも1つに基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出し、
    前記特定ステップにおいては、取得された前記音声情報に基づいて、前記(e)を特定し、
    前記制御ステップにおいては、特定した前記(e)に基づいて、前記複数の人のうち発言時間が相対的に長いと判定される人の周囲の環境、または、前記複数の人のうち発言時間が相対的に短いと判定される人の周囲の環境を制御する
    コミュニケーション解析方法。
  18. コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
    前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、算出部とを備え、
    前記コミュニケーション解析方法は、
    前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
    前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
    前記特定部によって実行される特定ステップと、
    前記算出部によって実行される算出ステップとを含み、
    前記特定ステップにおいては、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(a)、前記(d)、前記(e)、及び、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、前記(m)、及び、前記(n)を特定し、
    前記算出ステップにおいては、特定された、前記(a)、前記(d)、前記(e)、前記(g)、前記(h)、前記(i)、前記(m)、及び、前記(n)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
    コミュニケーション解析方法。
  19. コミュニケーション解析システムが実行するコミュニケーション解析方法であって、
    前記コミュニケーション解析システムは、音声取得部と、映像取得部と、特定部と、算出部とを備え、
    前記コミュニケーション解析方法は、
    前記音声取得部が、対象期間における複数の人の会話が記録された音声情報を取得する音声取得ステップと、
    前記映像取得部が、前記対象期間における前記複数の人の様子が記録された映像情報を取得する映像取得ステップと、
    前記特定部によって実行される特定ステップと、
    前記算出部によって実行される算出ステップとを含み、
    前記特定ステップにおいては、
    取得された前記音声情報に基づいて、
    (a)プレゼンテーションが行われた期間の長さ、質疑応答が行われた期間の長さ、及び、前記複数の人の全員が沈黙した期間の長さの比率、
    (b)質疑応答に参加した人の人数、
    (c)質疑応答のテンポ、
    (d)質疑応答が行われた期間の数、
    (e)質疑応答が行われた期間における前記複数の人の発言時間の比率、
    (f)前記複数の人の全員が沈黙した期間の長さ、並びに、
    (g)前記複数の人の発言中の期間の重複回数、
    うち少なくとも前記(e)、前記(f)、及び、前記(g)を特定し、
    取得された前記映像情報に基づいて、
    (h)前記複数の人のうちの報告者を他の人が見ている期間の長さ、
    (i)前記複数の人がうなずいた回数、
    (j)前記複数の人があくびをした回数、
    (k)前記複数の人が居眠りをした回数または前記複数の人が居眠りをした期間の長さ、
    (l)前記複数の人が作業をしている期間の長さ、
    (m)前記複数の人が笑顔になった回数、及び、
    (n)前記複数の人がパーソナルコンピュータを操作している期間の長さ、
    うち少なくとも前記(h)、前記(i)、及び、前記(m)を特定し、
    前記算出ステップにおいては、特定された、前記(e)、前記(f)、前記(g)、前記(h)、前記(i)、及び、前記(m)に基づいて、前記対象期間における前記複数の人のコミュニケーションの品質を示すスコアを算出する
    コミュニケーション解析方法。
  20. 請求項14~19のいずれか1項に記載のコミュニケーション解析方法を前記コミュニケーション解析システムに実行させるためのプログラム。
JP2022533941A 2020-07-02 2021-06-24 コミュニケーション解析システム、及び、コミュニケーション解析方法 Active JP7369942B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020114746 2020-07-02
JP2020114746 2020-07-02
PCT/JP2021/024045 WO2022004567A1 (ja) 2020-07-02 2021-06-24 コミュニケーション解析システム、及び、コミュニケーション解析方法

Publications (2)

Publication Number Publication Date
JPWO2022004567A1 JPWO2022004567A1 (ja) 2022-01-06
JP7369942B2 true JP7369942B2 (ja) 2023-10-27

Family

ID=79316020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022533941A Active JP7369942B2 (ja) 2020-07-02 2021-06-24 コミュニケーション解析システム、及び、コミュニケーション解析方法

Country Status (2)

Country Link
JP (1) JP7369942B2 (ja)
WO (1) WO2022004567A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153221A1 (ja) * 2019-01-21 2020-07-30 日本電気株式会社 無線通信品質可視化システム、無線通信品質可視化装置、および測定装置
WO2023033033A1 (ja) * 2021-09-01 2023-03-09 株式会社リコー コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194252A (ja) 1998-12-25 2000-07-14 Canon Inc 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体
JP2008046801A (ja) 2006-08-14 2008-02-28 Advanced Telecommunication Research Institute International 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム
JP2008272019A (ja) 2007-04-25 2008-11-13 Oki Electric Ind Co Ltd 集団感情認識支援システム
JP2014044346A (ja) 2012-08-28 2014-03-13 Casio Comput Co Ltd 情報処理装置及びプログラム
JP2017016566A (ja) 2015-07-06 2017-01-19 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017112545A (ja) 2015-12-17 2017-06-22 株式会社イトーキ 会議支援システム
WO2018174088A1 (ja) 2017-03-21 2018-09-27 国立大学法人東京工業大学 コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
JP2019133451A (ja) 2018-01-31 2019-08-08 甲斐 義章 評価方法、評価装置、評価プログラム、および、評価システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194252A (ja) 1998-12-25 2000-07-14 Canon Inc 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体
JP2008046801A (ja) 2006-08-14 2008-02-28 Advanced Telecommunication Research Institute International 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム
JP2008272019A (ja) 2007-04-25 2008-11-13 Oki Electric Ind Co Ltd 集団感情認識支援システム
JP2014044346A (ja) 2012-08-28 2014-03-13 Casio Comput Co Ltd 情報処理装置及びプログラム
JP2017016566A (ja) 2015-07-06 2017-01-19 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017112545A (ja) 2015-12-17 2017-06-22 株式会社イトーキ 会議支援システム
WO2018174088A1 (ja) 2017-03-21 2018-09-27 国立大学法人東京工業大学 コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
JP2019133451A (ja) 2018-01-31 2019-08-08 甲斐 義章 評価方法、評価装置、評価プログラム、および、評価システム

Also Published As

Publication number Publication date
WO2022004567A1 (ja) 2022-01-06
JPWO2022004567A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
JP7369942B2 (ja) コミュニケーション解析システム、及び、コミュニケーション解析方法
US8963987B2 (en) Non-linguistic signal detection and feedback
US6646673B2 (en) Communication method and terminal
US9800834B2 (en) Method and system of group interaction by user state detection
WO2022066229A1 (en) Virtual conference view for video calling
CN107113545A (zh) 可穿戴装置、管理服务器、其管理系统及其控制方法
KR20190084278A (ko) 이미지들을 공유하기 위한 자동 제안들
KR20160082078A (ko) 교육 서비스 시스템
KR20140119628A (ko) 토론 지원 프로그램, 토론 지원 방법 및 정보 처리 장치
US20230093298A1 (en) Voice conference apparatus, voice conference system and voice conference method
US11677575B1 (en) Adaptive audio-visual backdrops and virtual coach for immersive video conference spaces
JP7152453B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
US20040107251A1 (en) System and method for communicating expressive images for meetings
JP2022015191A (ja) 推定プログラム、推定装置、推定方法、生成プログラム、生成装置及び生成方法
JP7471683B2 (ja) 反応通知システム
JP7445331B2 (ja) ビデオミーティング評価端末及びビデオミーティング評価方法
US20220407827A1 (en) Information processing system, control method thereof, and non-transitory computer-readable storage medium
JP7465040B1 (ja) コミュニケーション可視化システム
US11961410B1 (en) Systems and methods to measure and affect focus and engagement
WO2022145042A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145040A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
US20240203075A1 (en) Collaborative system
US11935329B2 (en) Video analysis program
JP7138998B1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022145041A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R151 Written notification of patent or utility model registration

Ref document number: 7369942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151