JP6814604B2 - 会議情報表示システム、会議情報表示方法および会議情報表示プログラム - Google Patents

会議情報表示システム、会議情報表示方法および会議情報表示プログラム Download PDF

Info

Publication number
JP6814604B2
JP6814604B2 JP2016214354A JP2016214354A JP6814604B2 JP 6814604 B2 JP6814604 B2 JP 6814604B2 JP 2016214354 A JP2016214354 A JP 2016214354A JP 2016214354 A JP2016214354 A JP 2016214354A JP 6814604 B2 JP6814604 B2 JP 6814604B2
Authority
JP
Japan
Prior art keywords
conference
time zone
conference information
display
excitement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016214354A
Other languages
English (en)
Other versions
JP2018073237A (ja
Inventor
謙士朗 密谷
謙士朗 密谷
上村 直子
直子 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016214354A priority Critical patent/JP6814604B2/ja
Publication of JP2018073237A publication Critical patent/JP2018073237A/ja
Application granted granted Critical
Publication of JP6814604B2 publication Critical patent/JP6814604B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明は、会議情報表示システム、会議情報表示方法および会議情報表示プログラムに関し、より詳細には会議の内容を記憶し後日会議の内容を表示可能な会議情報表示システム、会議情報表示方法および会議情報表示プログラムに関する。
会議システムとして電子的に会議の内容を記録するシステムが知られている。しかし、一般に会議中の画像や音声を保存するだけである。後から会議の内容を振り返る場合に、記録者が手動で作成した議事録を参照する方法がある。しかし、議事録作成には手間がかかる。また議事録に記録されていない内容について振り返ろうとした場合、会議中の全ての記録(例えば音声録音や会議参加者の動画)を見直す必要が有り、それには長時間を要する。
これに対して、会議参加者が、各自の携帯電話機を利用して会議システムにアクセスし、会議中に重要であると判断した発言があったとき、あるいは後で確認すべき有効な発言があったときなどに、電子的なしおり挿入を指示することで、重要な発言であったか、あるいは注目される発言であったかを会議進行中に抽出するシステムが提案されている(例えば、特許文献1参照)。
さらに、人物の生体情報をその人物の映像情報に同期させ、生体情報又は撮影時の音声情報に基づいて、所定の評価関数を用いて、人物の心的状態を示す状態推定値を求め、人物を表すオブジェクトを人物の心的状態を用いて表現された座標空間内に配置して表示することにより、会議参加者等の感情を含めて内容を振り返ることができる情報処理装置が提案されている(例えば、特許文献2参照)。
特開2005−109929号公報 特開2006−6268395号公報
しかしながら、特許文献1のものは、重要な発言等があったタイミングを特定できるものの、会議内容を理解するにはそのタイミング及びその前後の議事内容を見直す必要が有る。
特許文献2のものは、感情に関連する状態推定値に応じて、人物の心的状態を表す座標空間内に人物オブジェクトが配置された表示により、会議参加者の感情の変化を含めて会議の内容を振り返ることができる。しかし、会議の内容それ自体の表示を見易くするものではない。
この発明は、以上のような事情を考慮してなされたものであって、会議を記録して後日会議の内容を表示する際、記録に基づく会議の内容がユーザーに見易く表示される会議情報表示システム、会議情報表示方法および会議情報表示プログラムを提供する。
この発明は、
(I)資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶する記憶装置と、記憶された会議情報のうち文書および画像の少なくとも何れかを表示する表示装置を含み、会議の期間を複数の時間帯に分割した各時間帯と前記会議情報とを関連付けて前記記憶装置に記憶させる記憶処理部と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する算出処理部と、記憶された会議情報を会議情報オブジェクトとして、各時間帯における前記盛上り度合いに応じた集約の度合いでかつ時系列の配置で前記表示装置に表示する表示処理部とを備える会議情報表示システムを提供する。
また、異なる観点からこの発明は、
(II)会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する工程と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する工程と、記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせたて表示装置に表示する工程とを備える会議情報表示方法を提供する。
さらにまた、この発明は、
(III)ある期間に渡って逐次入力される情報を時系列に受け付けるステップと、受付けた情報を、前記期間を複数の時間帯に分割した各時間帯と関連付けて記憶装置に記憶するステップと、前記情報を情報オブジェクトとして時系列にかつ集約して表示装置に表示するステップと、ユーザーによる何れかの時間帯の選択に応答して、その時間帯に指標の設定をするステップと、前記指標が設定された時間帯について表示オブジェクトの表示の集約の度合いを低くして前記表示装置に表示するステップとを備える情報表示方法を提供する。
さらに異なる観点からこの発明は、
(IV)会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する処理と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する処理と、記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示する処理とをコンピュータに実行させるための会議情報表示プログラムを提供する。
この発明による会議情報表示システムは、表示処理部が記憶された会議情報のうち文章および画像の少なくとも何れかを会議情報オブジェクトとして時系列に並べ、各時間帯における盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示するので、後日会議の内容を表示する際、記録に基づく会議の内容がユーザーに見易く表示される。
この発明の実施形態における会議情報表示システムの構成例を示す説明図である。 図1に示す表示装置およびサーバーの構成例を示すブロック図である。 この発明の実施形態において、会議中の画面の一例を示す説明図である。 この発明の実施形態において、呼出された会議の集約表示モードでの表示例を示す説明図である。 この発明の実施形態において、詰め集約状態と緩集約状態の吹き出し配置例を示す説明図である。 図4に示す集約表示モードと異なる会議表示画面の態様を示す説明図である。 この発明の実施形態において、記憶部に格納される会議情報のデータ構造およびデータテーブルの例を示す説明図である。 この発明の実施形態において、制御部が通常表示モードで実行する処理の一例を示すフローチャートである。 この発明の実施形態において、制御部が集約表示モードで実行する処理の一例を示すフローチャートである。 図9において、集約表示モードへ切換える際の処理を示すフローチャートである。 この発明の実施形態において、制御部が盛上りデータテーブルを生成する処理の例を示すフローチャートである。 この発明の実施形態において、制御部がタイムライン区切りを実行する処理の例を示すフローチャートである。 この発明の実施形態において、制御部音声データを用いて各参加者のジェスチャーを取得する期間を決定する例を示すグラフである。 図1に示す会議情報表示システム10の変形例を示す説明図である。
以下、図面を用いてこの発明をさらに詳述する。なお、以下の説明は、すべての点で例示であって、この発明を限定するものと解されるべきではない。
≪会議情報表示意システムの構成例≫
(実施の形態1)
図1は、この実施形態の会議情報表示システムの構成例を示す説明図である。図1に示す会議情報表示システム10は、会議の拠点L1およびL2にそれぞれ配置された表示装置13aおよび13bおよびサーバー11が通信ネットワーク19に接続されてなる。サーバー11は、何れかの拠点にあってもよいし、拠点L1、L2と異なる場所にあってもよい。
拠点L1に設置された表示装置13aには、参加者P1および参加者P2を撮影するカメラ15aが接続されている。会議中、拠点L2の表示装置13bには、拠点L1のカメラ15aで撮影された画像(ライブ動画)が表示される。同様に、会議中、拠点L1の表示装置13aには、拠点L2のカメラ15bで撮影された画像(ライブ動画)が表示される。
さらに表示装置13aには、参加者P1および参加者P2の発言を収音し、拠点L2の参加者P3の発言を拡声する会議用スピーカーフォン17aが接続されている。会議中、拠点L2の会議用スピーカーフォン17bから、拠点L1のスピーカーフォン17aで収音された参加者P1およびP2の発言が拡声される。同様に、会議中、拠点L1の会議用スピーカーフォン17aから、拠点L2の会議用スピーカーフォン17bで収音された参加者P3の発言が拡声される。
サーバー11は、会議中にカメラ15aおよび15bで撮影された画像データおよび会議用スピーカーフォン17aおよび17bで収音された音声データを格納する。さらに、会議で使用された文書や画像等、資料のデータを格納する。
図2は、図1に示す表示装置13aおよびサーバー11の構成例を示すブロック図である。図2(a)は表示装置13aの構成例である。なお、表示装置13bも同様の構成である。図2(b)は、サーバー11の構成例である。
図2(a)に示すように、表示装置13aは、制御部21a、記憶部23a、表示部25a、操作部27aおよび通信部29aを含む。さらに、図1では別体のカメラ15aおよび会議用スピーカーフォン17aが接続されている。
制御部21aはCPUを中心として入出力回路や他の周辺回路で構成される。記憶部23aは、ROM、RAM等の半導体メモリやハードディスク装置などで構成される。表示部25aは、液晶表示装置や液晶プロジェクター等で構成される。操作部27aは、表示装置13aの電源オンオフや設定メニュー、表示部25aに表示されたオブジェクトに対する操作を受付けるもので、スイッチおよび表示部25aの前面に配置された透明のタッチパネルである。通信部29aは、通信ネットワーク19との通信インターフェイスを含む。通信は無線・有線を問わず、通信方式を問わない。また、通信ネットワーク19に限らず、他の周辺機器との通信インターフェイス(例えば、ブルートゥース(登録商標)やNIC等)を含んでもよい。
カメラ15aは、動画が撮影可能なものが好ましいが、これに限らず静止画を撮影するものでもよい。静止画を連写してコマ送りすることでライブ画像の代用にできる。会議用スピーカーフォン17aは、多人数で会議をする際に便利なようにマイクとスピーカーが一体になったものであるが、これに限らずマイクとスピーカーが別体でもよく、一人用のヘッドセットでもよい。
図2(b)に示すように、サーバー11は、制御部21s、記憶部23sおよび通信部29sを備える。さらに、表示部25s、操作部27sを備えていてもよい。制御部21sはCPUを中心として入出力回路や他の周辺回路で構成される。記憶部23sは、ROM、RAM等の半導体メモリやハードディスク装置などで構成される。表示部25sは、液晶表示装置で構成される。操作部27sは、サーバー11の電源オンオフや設定メニュー、表示部25sに表示されたオブジェクトに対する操作を受付けるもので、具体例としてはキーボードやマウスが挙げられる。通信部29sは、通信ネットワーク19との通信インターフェイスである。通信は無線・有線を問わず、通信方式を問わない。
図2に示すように、表示装置13aは、サーバー11の構成に類似する制御部21a、記憶部23a、通信部29aを備えるので、サーバー11の機能を兼ねることもできる。
(実施の形態2)
図14は、図1に示す会議情報表示システム10の変形例を示す説明図である。図1よりも多くの拠点数を有し、図1にない態様の表示装置を示している。即ち、拠点L3には、表示装置13cとして投影型のデータプロジェクターが用いられている。データプロジェクターの方式は問わず、液晶プロジェクターであってもよいしDLP(登録商標)プロジェクターであってもよい。データプロジェクターには、カメラ15cおよび会議用スピーカーフォン17cが接続されている。
拠点L4における表示装置13dは、タブレット端末である。タブレット端末は、カメラ、スピーカー、マイクを内蔵しているので外付けの必要がない。タブレット端末は無線アクセスポイント18dを介して通信ネットワーク19に接続されている。
(実施の形態3)
図1に示すような、表示装置13a、15bが通信ネットワーク19を介してサーバー11に接続された構成に限らず、表示装置13aあるいは15bの何れか一方がサーバー11の機能を兼ね備えていてもよい。
この態様によれば、特定のサーバー11を設置しなくとも会議情報表示システム10を実施できる。
即ち、この発明の会議情報表示システム10は、サーバー11と表示装置13aあるいは15bとが物理的に別体でなく一体の構成を含む。
≪会議中の会議表示画面≫
図3は、表示装置13aの表示部25aに表示される会議中の画面の一例を示す説明図である。
図3で、会議表示画面31は、表示部25aにウインドウ表示される。会議表示画面31は、大別すると参加者動画領域33、吹き出し表示領域35および操作メニュー37からなる。
参加者動画領域33は会議表示画面31の左側の約2/3の領域を占め、拠点L2のカメラ15bで撮影された参加者P3のライブ動画が表示されている。上方には、拠点L2の参加者P3の名前「Nakajima」が表示されている。参加者名は、例えば会議開催時にログイン操作で使用されるIDが表示される。あるいは、参加者のログインIDと顔写真が予め関連付けてデータベースに登録されており、カメラ15bの画像に顔認識技術を適用して会議参加者のうちカメラ画像に適合する者の名前を表示してもよい。
吹き出し表示領域35は、会議表示画面31の右側の約1/3の領域を占める。会議の参加者の発言が音声認識によりテキスト化されて、吹き出し状に順次表示される。発言吹き出し45および47が該当する。それぞれの吹き出しの左上には参加者の顔画像アイコン(参加者アイコン)が小さく表示され、どの参加者による発言か区別できる。即ち、スライド吹き出し43の左上に参加者アイコン44が表示されている。発言吹き出し45の左上には参加者アイコン46が、発言吹き出し47の左上には参加者アイコン48がそれぞれ表示されている。
参加者ごとに吹き出しの背景色を変えてもよい。発言がどの参加者によるものかは、以下のようにして判別できる。参加者のログインIDと音声の特徴が予め関連付けてデータベースに登録されている。会議用スピーカーフォン17aで収音された音声データに音声認識技術を適用して会議参加者のうちで音声データに適合する者を検索し、その者の顔画像アイコンを発言吹き出しに付加する。顔画像アイコンに用いる画像は、参加者のログインIDと関連付けてデータベースに予め登録されている顔写真を用いる。
図3に発言吹き出し45および47で示す他に、吹き出しとしては、参加者が資料として準備した文書や画像のデータを表示できる。図3にスライド吹き出し43を示している。参加者は、説明に用いるタイミングで予めサーバー11に登録された資料を指定して吹き出し表示領域35に表示させることができる。
スライド吹き出し43および発言吹き出し45および47吹き出しは、時系列で新しい順に上から追加され、古いものは下方向に移動し、画面外に移動する。操作部27aとしてのタッチパネルが操作されると、制御部21aはユーザーによる画面の上下スワイプ操作を検知する。その操作に応答して制御部21aは、吹き出し表示領域35の吹き出しをスクロールさせる。
操作メニュー37は、会議の設定や進行に関するユーザーの指示を受け付ける領域である。図3の操作メニュー37には、会議の設定に関連する「接続先指定」ボタン、「ファイル添付」ボタン(資料登録の操作を行う)、会議の開始を指示する「MTG開始」ボタン、会議の終了を指示する「MTG終了」ボタンが表示されているが、左右にスクロールさせることで隠れたボタンが表示される。隠れたボタンとして、既に終了した会議を指定して呼出し、会議表示画面31に表示させる「会議呼出し」ボタンがある。また、表示装置13aの起動後に表示される図示しないホームメニューにも「会議呼出し」ボタンがある。なお、図3では、ユーザーが操作メニュー37の各操作ボタンをタッチすることで指示を行うことを想定している。変形例として、ユーザーが音声で指示を与えて、スピーカーフォン17aを介して入力された音声による指示を制御部21aが音声認識を適用して認識する態様も考えられる。
≪会議終了後の会議表示画面≫
「会議呼出し」ボタンがタッチされて、呼出す会議が指定されたら、制御部21aは、会議表示画面31に指定された会議の内容を表示する。
制御部21aは、会議が呼び出された時点では会議中と同様、単に時系列に表示する(通常表示モード)。ただし、参加者動画領域33には、ライブ動画でなく会議中に撮影された参加者の動画を再生したものが表示される。
通常表示モードで予め定められた操作(例えば、所定の速さ以上で画面を上下にスワイプする操作)がされると、集約表示モードに移行する。例えば、通常表示モードで、あるいは会議中に、過去の話題に遡るために画面を勢いよく上方向にスワイプすることで、現在進行中の会議の過去の記録を呼び出して集約表示モードで表示する。
集約表示モードで会議表示画面31に表示される会議の内容は、図3に示す会議中の画面と異なる。時系列に吹き出しを表示する点においては、図3に示す会議中の画面と共通する側面があるものの、一覧性を向上させるために各吹き出しの配置を集約して表示し、しかも、各時間帯における会議の盛上り度合いに応じた集約の度合いで表示する。
図4は、この実施形態において、呼出された会議の集約表示モードでの表示例を示す説明図である。
図4に示すように、会議表示画面31の左端には、開催された会議について予め定められた刻みで時間の推移を示す時間軸が表示されている。時間軸は画面の縦方向に伸び、下方から上方へ行くにつれて過去から現在へ近づく。ただし、これは一例に過ぎず、時系列であれば縦横の向きや上下の方向は問わない。
図4の例で時間軸は10分刻みである。一つの時間刻みが一つの時間帯に相当する。図4は、4つの時間帯64a、64b、64cおよび64dが表示されている。時間軸には、各時間帯の代表時刻が表示されている。時間帯64aの代表時刻は「10;30」であり、時間帯64bの代表時刻は「10:40」である。時間帯64cの代表時刻は「10:50」であり、時間帯64dの代表時刻は「11:00」である。代表時刻は、各時間帯の開始時刻や中間の時刻あるいは終了時刻として一律に定められる。そのいずれにするかをユーザーが選択できてもよい。
時間帯64cは、スライド吹き出し51をユーザーがタッチ操作により選択して重要であることを示すマークを付加しているので、拡大して表示される。同じ時間帯に属するが、ユーザーに選択されないスライド吹き出し43やその下側のスライド吹き出し54よりも拡大されて表示されている。
また、時間帯64cは、会議の盛上り度合いが盛上り閾値を超えるので、緩集約状態、即ち集約度が緩い(低い)状態で表示される。なお、重要マークが付された会議情報オブジェクトを含む時間帯は、会議の盛上り度合いが前記盛上り閾値を超える場合と同様に緩集約状態の表示を行うようにしてもよい。時間軸についても、前記盛上り閾値以下の他の時間帯と時間軸の表示態様が異なる。
各時間帯における発言や参照された資料が吹き出しとして表示され、かつ、横方向に集約して並んだ状態で表示される。
時間帯64aに属する会議情報オブジェクトは、詰め集約表示領域62に集約して表示される。同様に、時間帯64b属する会議情報オブジェクトは、詰め集約表示領域57に集約して表示される。一方、重要ポイントを含む時間帯64cに属する会議情報オブジェクトは、緩集約表示領域55に分散して表示される。
時間帯毎に吹き出しを集約して表示することで、ユーザーは会議の経過を容易に振り返って理解できる。
会議表示画面31の右下隅には、「もどる」ボタン63が配置されている。「もどる」ボタン63がタッチされると、制御部21aは、一段階前の表示内容に画面を戻す。即ち、通常表示モードから集約表示モードに遷移した場合は通常表示モードに戻る。会議中の画面から集約表示モードに遷移した場合は会議中の画面に戻る。ホームメニューの「会議呼出し」ボタンから集約表示モードに遷移した場合はホームメニューに戻る。
集約表示モードで、制御部21aは、吹き出しを時間帯ごとにまとめて時間軸方向に集約し、かつ同一時間帯に属し、横方向に並ぶ吹き出しを重ね合わせて表示する。これによって、複数の吹き出しが縦の時間軸方向および同一時間帯の横方向に集約されて画面表示の一覧性が向上する。
さらに、この実施形態の会議情報表示システム10は、発言の重要度、言い換えれば会議の盛上り度合いを計算する機能を有する。集約表示モードでは時間帯ごとに吹き出しを集約するとともに、各時間帯における盛上り度合いを算出し、盛上り度グラフとして画面に重畳して表示する(例えば、図4の盛上り度グラフ56参照)。
盛上り度合いが予め定められた盛上り閾値を超える時間帯、即ち、盛上り閾値を超える重要度を有する発言を含む時間帯については、吹き出しの集約形態を前記盛上り閾値以下の時間帯と異ならせて表示する。画面の横方向に延びる配置で複数の情報を羅列するよう表示する。このことにより会議の重要な内容が議論されて盛上り閾値を超える重要度の発言が行われた時間帯は、そうでない時間帯に比べて会議の詳細が見易く表示される。
なお、参加者が表示された吹き出しをタッチするといったような所定の操作をすることで、吹き出しに特定の属性を付与してもよい。例えば、重要度の高いと参加者が考えた吹き出しに対して円を描くようなジェスチャー操作をすると、発言の重要度が前記盛上り閾値を超える場合と同様に、特定の重要度、即ち、重要性高の属性が付与できてもよい。ここで、発言吹き出しだけでなく、スライド吹き出しに対しても特定の重要度(重要度高の属性)が付与できる(実施の形態4)。
図4において、スライド吹き出し51に円を描く操作を行うことで重要性高の属性を付与し、その属性が視認できるよう円の枠を付与して表示している。
図5(a)は、盛上り度合いが盛上り閾値以下の場合に対応する、詰め集約状態の吹き出し配置例を示す。吹き出しの中心位置を黒字に白抜き文字の丸枠付きの数字1〜4で示す。数字は、吹き出し位置の順序を示し1は順序の先頭に対応する。数字の並びで示すように、同一時間帯の吹き出しは、左から右へ時系列に配置される。隣り合う吹き出しの中心位置の間隔(吹き出し間隔A)は、吹き出しの直径の70%程度であって、吹き出しが部分的に重なるよう配置される。
一方、図5(b)に示すように、盛上り度合いが盛上り閾値より高い範囲(緩集約状態)では吹き出し間隔BがAより長く設定され、吹き出しの重なりがより少なくて見易く配置される。さらに、吹き出し自体が通常よりも大きく表示される。
さらに、緩集約状態では参加者の動画を示すアイコンが追加されてもよい(実施の形態5)。ユーザーはこのアイコンをタッチすることで参加者の動画を再生できる。
また、同一時間帯に属する吹き出しを横方向に並べて表示してもよいが、一部を時間軸方向に拡げて表示してもよい(実施の形態6)。
会議の盛上り度合いに応じて表示の集約度合いを変えることで、重要な内容が討議されて会議が盛り上がった時間帯については議事の内容がより詳細に表示される。さらに、会議の内容を把握するための操作がし易いよう配置される。
通常表示から集約表示に移行する際に吹き出しがアニメーションで移動するよう構成してもよい(実施の形態7)。
以上のように、重要ポイントを含む時間帯については図5(a)に示す詰め集約状態で各吹き出しの座標位置が設定される。重要ポイントを含まない時間帯については、図5(b)に示す緩集約状態で各吹き出しの座標位置が設定される。
図6は、図4に示す集約表示モードと異なる会議表示画面の態様を示す説明図である。図6の表示態様が図4と異なる部分は、時間帯64bである。図6は、時間帯64bに詰め集約状態で表示された吹き出しをユーザーが右へスワイプした後の状態である。操作部27aとしてのタッチパネルが時間帯64bの吹き出しが右スワイプされたことを検出すると、表示部21aは、詰め集約状態で表示され発言吹き出し45の下に隠れた発言吹き出し47を右横へシフトさせて隠れていた吹き出しの内容を表示する。このように、ユーザーは詰め集約状態で隠れた吹き出しに対して所定の操作を行うことでの、隠れた吹き出しの内容を容易に参照できる。
図7は、サーバー11の記憶部23sに格納される会議情報オブジェクトのデータ構造およびそれらのデータを管理するデータテーブルの一例を示す。ただし、これに限らず一部のデータが例えば表示装置13aの記憶部23aに格納され、サーバー11や他の表示装置とデータをやり取りしてもよい。
記憶部23sに格納される会議情報オブジェクトのうち、資料のデータや音声データは吹き出しとして表示されるので、吹き出しデータテーブル71で管理される。吹き出しは、代表的な会議情報オブジェクトである。吹き出しデータテーブル71は、吹き出しの属性としてスライドID,タイムライン、ユーザーID,テキスト化音声データ、関連ファイル名および属性データの各項目を有する。
会議の進行中に、会議用スピーカーフォン17aおよび17bで収音された音声データは、会議の進行中に発言毎に分割され、各発言が吹き出しデータテーブル71に登録される。各発言吹き出しはタイムラインとして発言開始時刻が登録される。ユーザーIDとして発言者のIDが登録される。音声認識技術を用いて検索した参加者のIDである。テキスト化音声データは、音声認識技術を用いてテキスト化された発言のテキストデータが登録される。関連ファイル名は発言吹き出しデータの場合は該当する登録内容がない。属性データは、ユーザーがその吹き出しを重要な吹き出しとしてマークを付加したか否かを示す。
動画データ73は各拠点の参加者の動画が静止画の圧縮データ形式で格納されている。各静止画は前後静止画の差分として格納されているのでデータ容量が削減されている。静止画コマにはタイムライン(撮影時刻)が記録されている。なお、図7の例では音声データは単独のデータとして存在せず、動画データ73に包含されるとしている。ただし、テキスト化音声データの生成や発言の話者特定を容易にするために、動画データ73と別に音声データを格納してもよい。
ユーザー情報テーブル75は、参加者のID(ユーザーID)、参加者名(ユーザー名)、顔写真データ(ユーザー顔写真)が会議の開催前に登録されている。ユーザーの顔写真データは吹き出しに添付するアイコンの元となる。例えば、会議の参加者が自身のIDで会議情報表示システム10にログインした際に、ログインしたユーザーがユーザー情報テーブル75に登録される。
タイムライン区切りデータテーブル77は、集約表示する吹き出しの時間帯を設定するための区切り点と各区切り点に対応するタイムライン(時刻)を記録している。区切り点の時刻と次の区切り点の時刻の間に存在する吹き出しをグループ化して集約表示時に集約する。タイムライン区切りデータテーブル77は、会議の進行と並行して生成される。
区切り点とする時刻は、予め定められた時間刻みであってもよいが、例えば、記録された音声のデータから参加者全員の会話の途切れた時刻を抽出し、区切り点として設定してもよい。より詳細には、全参加者の音量を合計した音量が一定時間所定値以下となった時刻を区切り点として抽出する。
あるいはまた、特定のキーワードを検出して話題の区切りとしてもよい。例えば、「ただ今から説明致します〜」、「次の議題は〜」、「私の意見としては〜」といったようなキーワードを予め登録しておき、音声認識技術を用いてキーワードに該当する発言が行われた時刻を区切り点として抽出する。
集約表示モードで表示を行う場合、タイムライン区切りデータテーブル77を参照して、吹き出しデータテーブル71に登録された各吹き出しのタイムラインが、どの区切り点に属するかを調べることにより、吹き出しを表示する時間帯を決定できる。
このように、吹き出しデータテーブル71とタイムライン区切りデータテーブル77を参照することによって、会議情報オブジェクトとしての吹き出しと時間帯との関連付けを調べることができる。
動画データ73についても、動画データ73に付されたタイムラインについて、タイムライン区切りデータテーブル77を参照してどの区切り点に属するかを調べることができるので、一連の動画データ73のどの部分(コマ)がどの時間帯に属するかを決定できる。このようにして、会議情報オブジェクトとしての動画と時間帯との関連付けを調べることができる。
盛上りデータテーブル79は、重要度が算出された会議情報オブジェクトに関連付けられた時刻と、その会議情報オブジェクトの重要度を格納する。重要度は、予め定められた手法を用いて算出される。さらに、重要度が予め定められた盛上り閾値を超えたか否かのフラグ(重要ポイントフラグ)を格納する。即ち、盛上り閾値を超える重要度の会議情報オブジェクトは、重要ポイントとしてマークされる。盛上りデータテーブル79は、会議の進行と並行して生成される。
≪処理の手順≫
フローチャートを用いて上述の処理を説明する。以下の説明においては単純化のために、サーバー11の記憶部23sに吹き出しデータテーブル71、動画データ73、ユーザー情報テーブル75、タイムライン区切りデータテーブル77および盛上りデータテーブル79が集約されて記憶されるものとしている。
会議情報表示システム10は、サーバー11の制御部21sと各拠点の表示装置の制御部(例えば、拠点L1の表示装置13aの制御部21a)とが協働してデータや表示の処理を行う。よって、記憶処理部、算出処理部および表示処理部は、制御部21s、21aの何れが処理する構成もあり得るし、両社が協働して処理する構成もあり得る。単純化のために、以下の説明においてはサーバー11の制御部21sがシステムを制御し、表示装置の制御部(例えば、拠点L1の表示装置13aの制御部21a)は、単なる手足となって制御部21sの処理を補助するものとする。
図8は、制御部21sが通常表示モードで実行する処理の一例を示すフローチャートである。通常表示モードは、図3の表示形態に対応する。会議中あるいは「会議呼出し」ボタンが押された直後のモードである。
制御部21sは、図8に示す処理を逐次繰り返して実行する。図8では、その処理をフローチャートのループで示しているが、実際には図8に記載されていない他の処理と並行に制御部21sはマルチタスク処理を実行する。
図8で、制御部21sは、会議用スピーカーフォンが参加者の音声が検出したか否かを調べる(ステップS11)。音声が検出された場合(ステップS11のYes)、その音声について音声認識処理を適用して(ステップS13)テキスト化音声データを生成し、生成されたテキストデータを吹き出しデータテーブル71に格納する(ステップS15)。そして、テキスト化された音声データを発言吹き出しとして会議表示画面31に表示する(ステップS17)。
さらに、制御部21sは、ユーザーがスライド吹き出しを要求する操作を行ったか否かを調べる(ステップS19)。要求があった場合は(ステップS19のYes)、指定されたファイルを読み出して(ステップS21)、吹き出しデータテーブル71に格納する(ステップS23)。そして、読み出されたファイルをスライド吹き出しとして会議表示画面31に表示する(ステップS25)。
それらの吹き出し表示処理の後に、制御部21sは、操作部27aがユーザーによる会議表示画面31への操作を検出したか否かを調べる(ステップS29)。操作が行われた場合、その操作が吹き出しを拡大表示する要求か否かを調べる(ステップS31)。この例では、表示された吹き出しをタップする操作が拡大表示を要求する操作である。その操作がなされた場合は(ステップS31のYes)、タップされた吹き出しを拡大して表示する(ステップS33)。
また、縦方向にスワイプの操作が行われた場合(ステップS35)、スワイプの速さを判定する(ステップS37)。スワイプの速さが、予め定められたスワイプ速さ閾値以下の場合は(ステップS37のNo)スクロール処理を行う。一方、スワイプの速さがスワイプ速さ閾値を超える場合は、集約表示モードの表示に切り換える(ステップS39)。集約表示モードに切り換えるしょりについては、図9で説明する。
さらに、制御部21sは、吹き出に対する特定の操作(この例では丸く囲む操作)が行われたか否かを調べる(ステップS43)。丸く囲む操作が行われた場合は、それが重要な内容であるというユーザーの意思表示であるので、属性データとして協調フラグをセットする(図7の吹き出しデータテーブル71参照)。そして、操作の対象とされた吹き出しを強調して表示する(ステップS45.図4のスライド吹き出し51参照)。
以上が、通常表示モードでの処理である。
続いて、ステップS39の集約表示モードへの切替え処理について述べる。
図9は、制御部21sが集約表示処理で実行する処理の一例を示すフローチャートである。
制御部21sは、まず、会議表示画面31を集約表示モードへ切り換える処理を実行する(ステップS51)。この処理については、図10で詳述する。
その後、制御部21sは、操作部27aが集約表示モードの会議表示画面に表示されたオブジェクトへの操作を検出したか否かを調べる(ステップS53)。何らかの操作が検出された場合(ステップS53のYes)、操作が縦方向のスワイプ操作か否かを調べる(ステップS55)。
縦方向のスワイプ操作であれば(ステップS55のYes)、縦スクロール表示の処理を行う(ステップS57)。
吹き出しへのタッチ操作であれば(ステップS59)。タッチされた吹き出しを拡大して表示する。また、動画のオブジェクトへのタッチ操作であれば、動画を再生する(ステップS61)。
あるいは、吹き出しを横方向にスワイプする操作であれば(ステップS63、図6参照)、吹き出しを横方向に展開して表示する(ステップS65)。
また、「もどる」ボタン63へのタッチ操作であれば(ステップS67)、前の段階の表示に戻す(ステップS69)。
続いて、ステップS51の詳細を述べる。
図9において、集約表示モードへ切換える際の処理を示すフローチャートである。
図10に示すように、制御部21sは、後述する盛上り度合いの算出処理によって算出された各時間帯の盛上り度合いを会議表示画面31に表示する(ステップS71)。さらに、タイムライン区切りデータテーブル77を参照して(ステップS73)、動画データを各時間帯に分割し、吹き出しを各時間帯に割り当て、時間帯ごとに表示すべき会議情報オブジェクトを決定する(ステップS75)。即ち、会議表示画面31に表示すべき会議情報オブジェクトを時間帯別にグループ化する。
さらに、各時間帯について、盛上り閾値を超える重要度を有する会議情報オブジェクト(重要ポイント)が含まれるか否かを調べる(ステップS77)。
重要ポイントを含む時間帯については(ステップS77のYes)、緩集約状態で会議情報オブジェクトの配置を決定する(ステップS79)。緩集約状態の配置は、図5(a)に対応する。重要ポイントを含まない時間帯については(ステップS77のNo)、詰め集約状態で会議情報オブジェクトの配置を決定する(ステップS81)。詰め集約状態は、図5(b)に対応する。
そして、決定した配置に従って、各時間帯に属する会議オブジェクトを会議表示画面31に表示する(ステップS83)。なお、この際に通常表示モードの位置から各会議オブジェクトを徐々に移動させてアニメーション表示させてもよい。
以上が、集約表示モードへ切換える際の処理である。
図11は、この実施形態において制御部が盛上りデータテーブルを生成する処理の例を示すフローチャートである。制御部21sは、図11に示す処理と、図8に示す処理とを並行して実行する。
図11に示すように、制御部21sは、会議の進行中に、何れかの参加者が発言を開始するのを待って(ステップS101)タイマーをリセットし(ステップS103)、その時点から所定期間(この例では20秒)が経過するまで以下の監視を実行する(ステップS109)。即ち、参加者のライブ動画を解析して前記期間中に、指差し動作を行った参加者の数をカウントし(ステップS105)、また、うなずき動作を行った参加者の数をカウントする(ステップS107)。
そして、前記期間中に指差し動作およびうなずき動作を行った人数に基づいて、発言の重要度を算出する(ステップS111)。算出の手法は後述する。
算出された重要度が、盛上り閾値を超える場合は(ステップS113)、その発言に重要ポイントフラグを設定する(ステップS115)。重要ポイントフラグの設定については、図7の吹き出しデータテーブル71を参照されたい。
このようにして、発言が行われる度に、その発言の重要度を算出し、発言開始時刻と関連付けて盛上りデータテーブル79に記録する(ステップS117)。
なお、図11では、サーバー11の制御部21sが盛上り度合いを算出するものとしているが、これは一例に過ぎない。例えば、表示装置13aの制御部21aが拠点L1に係る盛上り度合いを算出し、同様に表示装置13bが拠点L2に係る盛上り度合いを算出し、サーバー11の制御部21sがそれらに基づいて総合的な盛上り度合いを算出してもよい。
図11の処理について、補足の説明を行う。
発言の重要度の算出に用いるために、制御部21sは、何れかの参加者の発言が開始してから20秒以内における各参加者の身体的反応(ジェスチャー)を取得する。具体的にはカメラ15aおよび15bが撮影した参加者の画像に公知の画像認識技術を適用して、各参加者の指差し動作とうなずき動作を抽出する。そして、動作の有無をパラメータとして会議の盛上り度合いを算出する。
発言の開始は、音声データの音量に基づいて判断する。図13は、この実施形態において、各参加者の音声データを用いて各参加者の発言開始を判定し、各参加者のジェスチャーを取得する期間を決定する例を示すグラフである。参加者P1、P2およびP3の会話音量は、それぞれの参加者に対応するマイクが置かれている場合は各マイクが収音した音量に対応する。図1の会議用スピーカーフォン17aのように複数の参加者が共有するマイクロフォンは、音声認識技術を用いて各参加者の発言を抽出し、抽出した発言の音量が図13のグラフに相当する。
指差し動作は参加者の手の動きの動作から取得する。うなずき動作は参加者の顔の動作(顔認識)から取得する。
会議参加者のうちで、指さし動作を行った人数と、うなずき動作を行って同意を示した人数とに基づいて発言の重要度を計算する。例えば、以下の式に基づいて重要度を算出する。

重要度 =(発言から20秒の期間に指さし動作を行った人数の全参加者に対する割合) ×(その期間にうなずき動作を行った人数の全参加者に対する割合)
上式によれば、全参加者が指差し動作を行った場合は前項の値が1、誰も指差し動作を行わなかった場合は前項の値が0になる。さらに、全参加者がうなずき動作を行った場合は後項の値が1、誰もうなずき動作を行わなかった場合は後項の値が0になる。従って、全員が指差し動作を行いかつうなずき動作を行った場合は重要度の値が1になり、誰も指差し動作を行わなかったか、誰もうなずき動作を行わなかった場合は重要度が0になる。
制御部21sは、重要度が算出された発言が吹き出しデータテーブル71に登録される際のタイムライン、即ち、発言開始時刻を重要度と関連付けて、盛上り度合いのグラフを生成する。グラフが見易くするために、各発言の重要度を曲線近似して表示してもよい。なお、制御部21sは、タイムライン区切りデータテーブル77を参照してどの時間帯に属するかを決定する。算出された重要度が盛上り閾値を超える発言を含む時間帯を、重要な発言があった時間帯と判定する。そして、図4の時間帯64cのように時間軸の表現と吹き出しの集約の度合いを重要度の低い時間帯とは異なる態様で表示する。
以上のように制御部21sは、会議の進行中に発言の冒頭に各参加者が示した動作を監視して発言の重要度を算出し、盛上りデータテーブルに重要度(盛上り度合い)を逐次追加していく。
続いて、タイムライン区切りデータテーブル77を生成する処理について説明する。タイムラインの区切りは、予め定められた一定の時間間隔(例えば10分)としてもよいが、図12に示すように会議の進行状況に応じて定めてもよい。
制御部21sは、図12に示す処理と、図8および図11に示す処理とを並行して実行する。
図12に示すように、制御部21sは、会議の進行中にタイムラインの区切りを見出すために、各参加者の音声を合計した総発言音量を求め(ステップS121)、その総発言音量が予め定められた期間を超えて予め定められた音量以下か否か、即ち無音期間があるか否かを監視する(ステップS123)。無音期間があったら(ステップS123のYes)、ルーチンはステップS127へ進み、タイムライン区切りデータテーブル77に区切り点を追加する。
さらに、制御部21sは、参加者の音声データを分析して、予め登録された特定のキーワードが発言に含まれるか否かを監視する(ステップS125)。発言にキーワードが含まれていたら(ステップS125のYes)、ルーチンはステップS127へ進む。
ステップS127で、制御部21sは、タイムライン区切りデータテーブル77に発言の開始時刻と共に新たな区切り点を追加する(ステップS127)。
区切り点の値は、以前の区切り点と識別可能とするために、この例では直前の区切り点の値に1を加えた値を新たな区切り点の値としてタイムライン区切りデータテーブル77に登録する(ステップS129)。
以上のように制御部21sは、会議の進行中にタイムライン区切りデータテーブル77に区切り点を逐次追加していく。
以上に述べたように、
(i)この発明による会議情報表示システムは、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶する記憶装置と、記憶された会議情報のうち文書および画像の少なくとも何れかを表示する表示装置を含み、会議の期間を複数の時間帯に分割した各時間帯と前記会議情報とを関連付けて前記記憶装置に記憶させる記憶処理部と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する算出処理部と、記憶された会議情報を会議情報オブジェクトとして、各時間帯における前記盛上り度合いに応じた集約の度合いでかつ時系列の配置で前記表示装置に表示する表示処理部とを備えることを特徴とする。
この発明において、記憶装置は、会議情報として記憶されたデータを格納するものである。その具体的な態様は、例えば、ハードディスク装置やフラッシュメモリ等の不揮発性記憶装置である。上述の実施形態において、記憶装置はサーバー11の構成に含まれる。
記憶装置と表示装置とは本質的に別の装置であるが、一つの筐体に収容されてもよい。
記憶処理部、算出処理部および表示処理部は、専用のハードウェアを用いてもよいが、コンピュータがプログラムを実行することによって、それらの機能が実現されてもよい。
記憶処理部、算出処理部および表示処理部は、前記記憶装置または前記表示装置と接続される別の装置、例えば情報処理装置に配置されてもよいが、それらの全部または一部が前記記憶装置または前記表示装置の何れかに配置されてもよい。
また、会議情報としての資料は、例えば、文書作成ソフトウェアや帳票計算ソフトウェアを用いて作成された文書や表のデータ、ドローイングソフトウェアを用いて作成された画像データなど、さまざまな種類の文書(画像を含んでもよい)である。会議参加者の音声は、マイクロフォンを用いて収録された音声データである。会議参加者の画像は、カメラを用いて撮影された画像データであって静止画像、動画の種別を問わない。
さらにまた、時間帯は、予め定められた期間(例えば、10分刻み)であってもよいが、記録時または記録後に適応的に決められてもよい。例えば、発言が所定期間途絶えたら新たな時間帯を開始するといったように決められてもよい。
盛上り度合いは、各時間帯における会議の内容の重要度に関連する指標である。後日、会議の記録を見る場合、重要な部分を優先的に見たいと考えるのは当然である。しかし、重要か否かは会議の内容および背景を理解した者でなければ妥当な判断が難しい。そこで、記憶された会議情報から抽出可能な指標であって、重要度と十分密接な相関があると考えられる指標を盛上り度合いと表現している。
例えば、会議中に参加者が資料を指差す動作やうなずきの動作が頻繁な時間帯は、重要な内容について議論されている可能性が高いと推測される。そして、指差し動作やうなずき動作は参加者の様子を撮影した動画データがあれば画像認識技術を用いて抽出可能である。また、重要な内容については活発な議論が行われて参加者は大きな声で発言する傾向にあると推測される。参加者の発言を記録した音声データがあれば、音声処理技術を用いて発言の音量を抽出可能である。
さらに、この発明の好ましい態様について説明する。
(ii)前記会議情報は、会議の参加者を撮影した動画を含み、前記表示処理部は、前記盛上り度合いが予め定められた閾値より高い時間帯において、その時間帯の動画を操作可能なアイコンを一つの会議情報オブジェクトとして表示してもよい。
このようにすれば、重要な内容が議論されて会議が盛り上がった時間帯については、その時間帯の動画を操作可能なアイコンが表示されるので、ユーザーはその時間帯の動画を操作して容易に視聴が可能である。
(iii)前記表示処理部は、盛上り度合いが低くて集約して表示されている会議情報オブジェクトの何れかがユーザーにより選択された場合、選択された会議情報オブジェクトおよび共に集約されている会議情報オブジェクトを分散して前記表示装置に表示してもよい。
このようにすれば、盛上り度合いが低くて集約して表示されている会議情報オブジェクトについても、ユーザーの選択により分散して表示させて選択された会議情報オブジェクトの内容をユーザーに見易く表示することができる。
(iv)前記会議情報は、会議の参加者を撮影した動画を含み、前記算出処理部は、各時間帯において前記動画から抽出された参加者の指差し動作およびうなずき動作の頻度に基づいて前記盛上り度合いを算出してもよい。
(v)前記表示処理部は、前記盛上り度合いが高い時間帯は前記盛上り度合いが低い時間帯に比べて前記会議情報オブジェクトを表示する集約の度合いをより低くして分散して表示してもよい。
このようにすれば、重要な内容が議論されて会議が盛り上がった時間帯は低い集約度で会議情報オブジェクトが表示され、記録に基づく会議の内容がユーザーに見易く表示される。
(vi)前記表示処理部は、前記盛上り度合いが高い時間帯は、前記盛上り度合いが低い時間帯に比べて会議情報オブジェクトの大きさをより大きく表示してもよい。
このようにすれば、重要な内容が議論されて会議が盛り上がった時間帯については、大きなサイズで会議情報オブジェクトが表示され、記録に基づく会議の内容がユーザーに見易く表示される。
(vii)前記表示処理部は、各時間帯における前記盛上り度合いをグラフとして表し、前記会議情報オブジェクトと共に前記表示装置に表示してもよい。
このようにすれば、ユーザーは、グラフ表示された盛上り度合いを参考に重要な内容が論議されて会議が盛り上がった時間帯を推察して優先的に記録を見ることができる。
この発明の好ましい態様には、上述した複数の態様のうちの何れかを組み合わせたものも含まれる。
前述した実施の形態の他にも、この発明について種々の変形例があり得る。それらの変形例は、この発明の範囲に属さないと解されるべきものではない。この発明には、請求の範囲と均等の意味および前記範囲内でのすべての変形とが含まれるべきである。
10:会議情報表示システム、 11:サーバー、 13a,13b,13c,13d:表示装置 15b,15c:カメラ、 17a,17b,17c:会議用スピーカーフォン、 18d:無線アクセスポイント、 19:通信ネットワーク 21a,21s:制御部、 23a,23s:記憶部、 25a,25s:表示部、 27a,27s:操作部、 29a,29s:通信部
31:会議表示画面、 33:参加者動画領域、 35:吹き出し表示領域、 37:操作メニュー、 43,51,54:スライド吹き出し、 44,46,48,50,52,59,61:参加者アイコン、 45,47,49,58,60:発言吹き出し、 55:緩集約表示領域、 56:盛上り度グラフ、 57,62:詰め集約表示領域、 63:「もどる」ボタン、 64a,64b,64c,64d:時間帯
71:吹き出しデータテーブル、 73:動画データ、 75:ユーザー情報テーブル、 77:タイムライン区切りデータテーブル、 79:盛上りデータテーブル
L1,L2,L3,L4:拠点
P1,P2,P3,P4,P5:参加者

Claims (10)

  1. 資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶する記憶装置と、
    記憶された会議情報のうち文書および画像の少なくとも何れかを表示する表示装置を含み、
    会議の期間を複数の時間帯に分割した各時間帯と前記会議情報とを関連付けて前記記憶装置に記憶させる記憶処理部と、
    記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する算出処理部と、
    記憶された会議情報を会議情報オブジェクトとして、各時間帯における前記盛上り度合いに応じた集約の度合いでかつ時系列の配置で前記表示装置に表示する表示処理部とを備える会議情報表示システム。
  2. 前記会議情報は、会議の参加者を撮影した動画を含み、
    前記表示処理部は、前記盛上り度合いが予め定められた盛上り閾値より高い時間帯において、その時間帯の動画を操作可能なアイコンを一つの会議情報オブジェクトとして表示する請求項1に記載の会議情報表示システム。
  3. 前記表示処理部は、盛上り度合いが低く集約して表示されている会議情報オブジェクトの何れかがユーザーにより選択された場合、選択された会議情報オブジェクトおよび共に集約されている会議情報オブジェクトを分散して前記表示装置に表示する請求項1または2に記載の会議情報表示システム。
  4. 前記会議情報は、会議の参加者を撮影した動画を含み、
    前記算出処理部は、各時間帯において前記動画から抽出された参加者の指差し動作およびうなずき動作の頻度に基づいて前記盛上り度合いを算出する請求項1〜3の何れか一つに記載の会議情報表示システム。
  5. 前記表示処理部は、前記盛上り度合いが高い時間帯は前記盛上り度合いが低い時間帯に比べて前記会議情報オブジェクトを表示する集約の度合いをより低くして分散して表示する請求項1〜4の何れか一つに記載の会議情報表示システム。
  6. 前記表示処理部は、前記盛上り度合いが高い時間帯は、前記盛上り度合いが低い時間帯に比べて会議情報オブジェクトの大きさをより大きく表示する請求項1〜5の何れか一つに記載の会議情報表示システム。
  7. 前記表示処理部は、各時間帯における前記盛上り度合いをグラフとして表し、前記会議情報オブジェクトと共に前記表示装置に表示する請求項1〜6の何れか一つに記載の会議情報表示システム。
  8. コンピュータが、
    記憶処理部として、会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する工程と、
    算出処理部として、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する工程と、
    表示処理部として、記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示する工程とを備える会議情報表示方法。
  9. 会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する処理と、
    記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する処理と、
    記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示する処理とをコンピュータに実行させるための会議情報表示プログラム。
  10. コンピュータが、
    記憶処理部として、会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する工程と、
    算出処理部として、記憶された会議情報に基づいて会議の各時間帯における会議内容の重要度に係る指標を算出する工程と、
    表示処理部として、記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記指標に応じて集約の度合いを異ならせて表示装置に表示する工程とを備える会議情報表示方法
JP2016214354A 2016-11-01 2016-11-01 会議情報表示システム、会議情報表示方法および会議情報表示プログラム Active JP6814604B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016214354A JP6814604B2 (ja) 2016-11-01 2016-11-01 会議情報表示システム、会議情報表示方法および会議情報表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016214354A JP6814604B2 (ja) 2016-11-01 2016-11-01 会議情報表示システム、会議情報表示方法および会議情報表示プログラム

Publications (2)

Publication Number Publication Date
JP2018073237A JP2018073237A (ja) 2018-05-10
JP6814604B2 true JP6814604B2 (ja) 2021-01-20

Family

ID=62114199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016214354A Active JP6814604B2 (ja) 2016-11-01 2016-11-01 会議情報表示システム、会議情報表示方法および会議情報表示プログラム

Country Status (1)

Country Link
JP (1) JP6814604B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6485935B1 (ja) 2018-10-18 2019-03-20 ベルフェイス株式会社 オンラインコミュニケーションのレビューシステム、方法、及びコンピュータプログラム
JP7170013B2 (ja) * 2020-09-29 2022-11-11 ソフトバンク株式会社 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
WO2024062779A1 (ja) * 2022-09-22 2024-03-28 ソニーグループ株式会社 情報処理装置、および情報処理システム、並びに情報処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3736597B2 (ja) * 1998-03-18 2006-01-18 富士ゼロックス株式会社 発言構造情報提示装置および発言構造情報提示方法
JP2005267279A (ja) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP4741808B2 (ja) * 2004-03-25 2011-08-10 Necパーソナルプロダクツ株式会社 情報処理装置、プログラム
JP2009163431A (ja) * 2007-12-28 2009-07-23 Nec Corp コミュニケーション算定装置、会合関数算定装置、会合関数算定方法および会合関数算定用プログラム
JP2011239075A (ja) * 2010-05-07 2011-11-24 Sony Corp 表示装置、表示方法及びプログラム

Also Published As

Publication number Publication date
JP2018073237A (ja) 2018-05-10

Similar Documents

Publication Publication Date Title
TWI683578B (zh) 視頻通信的方法、裝置、終端及電腦可讀儲存介質
KR102044242B1 (ko) 영상 통화 서비스를 제공하는 단말 및 서버
WO2020057327A1 (zh) 信息列表显示方法、装置及存储介质
CN103916536B (zh) 用于移动终端中的用户界面方法和系统
CN105955579B (zh) 音乐播放控制方法及装置
CN106445184B (zh) 虚拟计算机键盘
US11992730B2 (en) User interfaces for group workouts
CN109683714B (zh) 多媒体资源管理方法、装置及存储介质
CN108538291A (zh) 语音控制方法、终端设备、云端服务器及系统
CN106933561A (zh) 语音输入方法和终端设备
EP3842941A1 (en) A sidebar interaction method, device, and computer-readable storage medium
JP6304941B2 (ja) 会議情報記録システム、情報処理装置、制御方法およびコンピュータプログラム
CN104461348B (zh) 信息选取方法及装置
JP6814604B2 (ja) 会議情報表示システム、会議情報表示方法および会議情報表示プログラム
CN108038102A (zh) 表情图像的推荐方法、装置、终端及存储介质
CN104333688B (zh) 基于拍摄的图像生成表情符的设备和方法
US11861262B2 (en) Audio detection and subtitle presence
CN103353826B (zh) 一种显示设备及其信息处理方法
US20180173394A1 (en) Method and apparatus for inputting expression information
CN106791398A (zh) 一种图像处理方法及终端
CN108156506A (zh) 弹幕信息的进度调整方法及装置
CN108803892A (zh) 一种在输入法中调用第三方应用程序的方法和装置
CN108710521A (zh) 一种便签生成方法和终端设备
CN108073291A (zh) 一种输入方法和装置、一种用于输入的装置
WO2022267433A1 (zh) 视频资源处理方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150