JP6339529B2 - 会議支援システム、及び会議支援方法 - Google Patents

会議支援システム、及び会議支援方法 Download PDF

Info

Publication number
JP6339529B2
JP6339529B2 JP2015117783A JP2015117783A JP6339529B2 JP 6339529 B2 JP6339529 B2 JP 6339529B2 JP 2015117783 A JP2015117783 A JP 2015117783A JP 2015117783 A JP2015117783 A JP 2015117783A JP 6339529 B2 JP6339529 B2 JP 6339529B2
Authority
JP
Japan
Prior art keywords
illustration
text
display
unit
illustrations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015117783A
Other languages
English (en)
Other versions
JP2017004270A (ja
Inventor
卓弥 村山
卓弥 村山
加藤 泰久
泰久 加藤
篤信 木村
篤信 木村
晶郁 寺中
晶郁 寺中
孔希 草野
孔希 草野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015117783A priority Critical patent/JP6339529B2/ja
Publication of JP2017004270A publication Critical patent/JP2017004270A/ja
Application granted granted Critical
Publication of JP6339529B2 publication Critical patent/JP6339529B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、会議における議論内容を容易に把握することを可能とする技術に関連するものである。
従来から、会議中又は会議終了後に会議を振り返るための種々の手法が提案されている。例えば特許文献1には、会議参加者にセンサを身に着けさせ、センサでとらえたイベントが発生したタイミングや参加者の発話における音声ピッチの高低を色の濃淡、テキストメモにより録音トラックにインデキシングすることで、特定の出来事があった時点の会議の発話を振り返りやすくしている。
また、非特許文献1に記載の会議録作成支援システムでは、会議音声の音声認識を実施して自動で議事録を作成し、職員が修正することにより議事録を完成させ、テキストにより会議内容を可視化することを可能にしている。
特開2004−173058号公報
https://www.ntt-east.co.jp/business/solution/minutes/、2015年4月9日検索
上述したように、従来技術では、会議を振り返るための手法として、特定値の生体情報が得られた場合に音声で会議を振り返る手法(特許文献1)や、会議の内容をテキストで振り返る(非特許文献1)手法等があるが、これらの技術では、長時間の会議における振り返りに時間がかかり、効率的に会議を振り返ることは難しい。
本発明は上記の点に鑑みてなされたものであり、会議の振り返りを効率的に行うことを可能とする技術を提供することを目的とする。
本発明の実施の形態によれば、会議の支援を行う会議支援システムであって、
会議における発話を発話テキストに変換する変換手段と、
前記発話テキストをディスプレイに表示するテキスト表示手段と、
イラストと、イラストに対応する属性情報とを記憶するイラスト記憶手段と、
前記テキスト表示手段により表示された発話テキストからユーザによりあるテキストが選択された場合に、当該テキストを属性情報として有する1つ又は複数のイラストを前記イラスト記憶手段から取得するイラスト検索手段と、
前記1つ又は複数のイラストを前記ディスプレイに表示するイラスト表示手段と、
前記イラスト表示手段により表示された前記1つ又は複数のイラストからユーザにより選択されたイラストを、会議に関するテキストとともに前記ディスプレイにおける所定の表示領域に表示する編集手段と
を備えることを特徴とする会議支援システムが提供される。
また、本発明の実施の形態によれば、会議の支援を行う会議支援システムが実行する会議支援方法であって、
前記会議支援システムは、イラストと、イラストに対応する属性情報とを記憶するイラスト記憶手段を備えており、
会議における発話を発話テキストに変換する変換ステップと、
前記発話テキストをディスプレイに表示するテキスト表示ステップと、
前記テキスト表示ステップにより表示された発話テキストからユーザによりあるテキストが選択された場合に、当該テキストを属性情報として有する1つ又は複数のイラストを前記イラスト記憶手段から取得するイラスト検索ステップと、
前記1つ又は複数のイラストを前記ディスプレイに表示するイラスト表示ステップと、
前記イラスト表示ステップにより表示された前記1つ又は複数のイラストからユーザにより選択されたイラストを、会議に関するテキストとともに前記ディスプレイにおける所定の表示領域に表示する編集ステップと
を備えることを特徴とする会議支援方法が提供される。
本発明の実施の形態によれば、会議の振り返りを効率的に行うことを可能とする技術が提供される。
本発明の実施の形態に係るグラフィックレコーディングシステムの構成図である。 音声入力装置100のブロック図である。 サーバ200のブロック図である。 クライアント端末300のブロック図である。 クライアント端末300のディスプレイに表示される画面イメージを示す図である。 ユーザがテキストを選択してからイラストの検索結果が表示されるまでの処理手順を示すフローチャートである。 サーバ200のイラスト蓄積部204に蓄積される情報の例を示す図である。 ユーザ操作による検索表示結果イラストの選択からイラスト表示順序変更処理が実施されるまでの処理手順を示すフローチャートである。 イラスト表示順序変更処理の手順を示すフローチャートである。 意図するポーズのイラストを作成する手順のフローチャートである。 意図するポーズのイラストを作成する手順のイメージを示す図である。 3Dモデルを回転させる処理の手順を示すフローチャートである。 3Dモデルを回転させる処理のイメージを示す図である。 基本表情の選定、及び表情の程度選定のイメージを示す図である。 サーバ200のブロック図である。 クライアント端末300のブロック図である。 振り返りに必要な情報を議事録の背景色に反映した議事録の可視化イメージを示す図である。
以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
(システム構成、装置構成)
図1に、本発明の実施の形態に係るグラフィックレコーディングシステムの全体構成の一例を示す。本実施の形態に係るグラフィックレコーディングシステムは、イラストとテキストで会議を記録するためのシステムである。また、当該システムを会議支援システムと称してもよい。
図1に示すように、本実施の形態に係るグラフィックレコーディングシステムは、LANやインターネット等のネットワーク400と、ネットワーク400に接続したサーバ200と、ネットワーク400に接続したクライアント端末300と、ネットワーク400に接続した音声入力装置100とを備える。
クライアント端末300は、PC(パーソナルコンピュータ)、タブレット端末、電子黒板等の装置であり、議事録作成者がテキスト編集に利用するキーボードと、イラストの検索、編集操作に利用するマウスとを備えている。クライアント端末300はキーボード、マウスの代わりにタッチディスプレイを備えていてもよい。また、キーボード、マウス、タッチディスプレイの全てを備えていてもよい。音声入力装置100は、音声会議装置、マイクを接続したPC等である。
なお、図1ではサーバ200とクライアント端末300と音声入力装置100をそれぞれ別の構成要素として記載しているが、これらを一つのPC上に構成してもよい。また、サーバ200とクライアント端末300を1つのPC上に構成してもよい。
このグラフィックレコーディングシステムでは、音声入力装置100に入力された音声情報はネットワーク400を介してサーバ200に送信される。サーバ200では、受信した音声情報を蓄積し、音声情報をもとに作成したテキストをネットワーク400を介してクライアント端末300へ送信する。またサーバ200では、イラストを蓄積し、クライアント端末300がネットワーク400を介してサーバ200へ送信する検索要求に対し、該当イラストをクライアント端末300へ送信する。クライアント端末300では、テキスト、イラストをサーバ200から受信し、表示する。
続いて、音声入力装置100、サーバ200、及びクライアント端末300の装置構成について説明する。
<音声入力装置100の構成、動作>
図2は、音声入力装置100の構成をその内部での処理の流れに即して記したブロック図である。図2に示すとおり、音声入力装置100は、音声入力部101、時間管理部102、符号化部103、符号化データ送信部104を備える。
音声入力部101は、マイクからの音声信号を入力し、音声検出、ノイズ除去、増幅を行い、これらの処理がなされた音声信号を符号化部103へ入力する。ここで、音声検出、ノイズ除去、増幅処理は音声会議装置や携帯電話等に利用されている一般的な技術の利用を想定している。当該音声検出処理により音声が検出された場合に、ノイズ除去、増幅が行われ、符号化部103へ処理された音声信号が入力される。
時間管理部102は、時刻情報を管理し、符号化部103へ時刻情報を入力する。また、符号化部103は音声信号を符号化し、符号化データ送信部104が当該符号化された音声信号を入力として、ネットワークへ符号化された音声信号を出力として送信する。当該音声信号には時刻情報が含まれる。
<サーバ200の構成>
次に、サーバ200の構成について説明する。図3は、サーバ200の構成をその内部での処理の流れに即して記したブロック図である。
図3に示すとおり、サーバ200は、符号化データ受信部201、音声情報復号化部202、音声認識処理部203、イラスト蓄積部204、テキスト符号化部205、符号化データ送信部206、テキスト選択情報復号化部207、イラスト検索部208、イラスト符号化部209を備える。各機能部の動作については後述する。
<クライアント端末300の構成>
次に、クライアント端末300の構成について説明する。図4は、クライアント端末300の構成をその内部での処理の流れに即して記したブロック図である。
図4に示すとおり、クライアント端末300は、符号化データ受信部301、テキスト情報復号化部302、テキスト表示部303、テキスト選択・編集部304、選択テキスト情報符号化部305、符号化データ送信部306、ユーザ操作入力部307、イラスト情報復号化部308、イラスト表示部309、イラスト選択部310、議事録編集部311、イラスト表示順序変更処理部312を備える。各機能部の動作については後述する。
本実施の形態(後述する変形例を含む)における音声入力装置100、サーバ200、及びクライアント端末300のいずれの装置も、例えば、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。すなわち、当該装置が有する機能は、コンピュータに内蔵されるCPUやメモリ、ハードディスク等のハードウェア資源を用いて、当該装置で実施される処理に対応するプログラムを実行することによって実現することが可能である。上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
(システムの動作)
以下、本実施の形態に係るグラフィックレコーディングシステムの使用場面等に対応させて、上述したサーバ200及びクライアント端末300の処理動作について説明する。
<サーバ200における基本的な動作>
まず、サーバ200が音声信号を受信する際の動作を説明する。サーバ200(図3)における符号化データ受信部201が、音声入力装置100から送信されてくる音声信号を受信する。
符号化データ受信部201で受信した音声信号は音声情報復号化部202へ入力され、音声情報復号化部202で復号化される。復号化された音声信号は音声情報復号化部202からの出力となり、音声認識処理部203へ入力される。音声認識処理部203に入力された音声信号はテキスト化され、出力される。音声認識処理部203で実施する音声認識処理は携帯電話の音声認識アプリケーション等で利用されている一般的な技術の利用を想定している。
音声認識処理部203から出力されたテキストは、単語単位でイラスト蓄積部204に蓄積されているイラストのキーワードと照合され、イラスト蓄積部204に蓄積されているイラストのキーワードと合致するテキストか否かを示す情報が単語単位で付与される。
イラストのキーワードと合致するテキストか否かの情報が付与されたテキストはテキスト符号化部205へ入力され、符号化されて出力される。出力された符号化テキストは符号化データ送信部206の入力となり、符号化データ送信部206は当該符号化テキストをネットワーク400を介してクライアント端末300に送信する。
<テキスト表示、テキスト選択、イラスト検索結果表示に係る動作>
次に、クライアント端末300においてテキストが表示され、テキストの選択がなされ、サーバ200により実行されたイラスト検索の結果が表示されるまでの動作を説明する。
クライアント端末300(図4)の符号化データ受信部301は、サーバ200から送信されてくるテキスト情報を受信する。
符号化データ受信部301で受信したテキスト情報はテキスト情報復号化部302へ入力され、復号化されたテキストが出力として生成される。テキスト情報復号化部302から出力されたテキストはテキスト表示部303へ入力され、当該テキストは、テキスト表示部303の出力としてクライアント端末300のディスプレイに表示される。
クライアント端末300のディスプレイに表示される画面イメージを図5に示す。図5の音声認識結果テキストと記されている表示領域にテキスト表示部303の出力が表示される。表示領域中斜体の単語が、サーバ200におけるイラスト蓄積部204に蓄積されているイラストのキーワードと合致するテキストであり、イラストの検索が可能な単語であることを示す。図5に示す例では、「バス」、「運転手」、「タクシー」について、キーワードと合致したテキストであることが示されている。
ユーザは、ディスプレイに表示されたテキストを選択することで、テキストに対応するイラストを表示させることができる。より詳細には以下のとおりである。
ディスプレイに表示されたテキストに対しユーザはマウス等による選択操作を実施することで、選択操作が実施されたテキストをイラスト検索のキーワードとし、検索することが可能となる。クライアント端末300(図4)のテキスト選択・編集部304は、マウス等による選択操作がなされたテキストを取得し、当該テキストを選択テキスト情報符号化部305へ入力する。
図5における音声認識結果テキスト欄中のテキストの囲いはユーザがテキスト選択を行った状態のイメージである。この状態で検索ボタンを押下することで検索開始となる。
ユーザがテキストを選択した後、イラストが表示されるまでの処理について、図6に示すフローチャートの手順に沿って説明する。
図6のステップS101では、選択されたテキストをクライアント端末300からサーバ200へ送信する処理が行われる。すなわち、検索ボタンの押下に応じて、クライアント端末300(図4)の選択テキスト情報符号化部305は、テキスト選択・編集部304から入力されたテキストを符号化し、符号化データ送信部306への入力とし、符号化データ送信部306は符号化されたテキストをサーバ200へ送信する。
図6のステップS102では、サーバ200により、選択されたテキストをキーワードとして保有するイラストを検索する処理が行われる。より詳細には以下の処理が行われる。
クライアント端末300からサーバ200へ送信されたテキストは、サーバ200(図3)の符号化データ受信部201で受信され、テキスト選択情報復号化部207へ入力されて復号化される。
復号化されたテキストはイラスト検索部208の入力となり、イラスト検索部208にて、入力されたテキストと同じキーワードを属性として有するイラストの検索処理をイラスト蓄積部204に対して実施する。入力されたテキストが複数の場合、テキスト毎に検索を実施する。
イラスト蓄積部204にはイラストとその属性情報の組が蓄積されている。図7にイラスト蓄積部204に蓄積されるイラストとその属性情報の組の格納例を示す。
図7に示すとおり、本実施の形態におけるイラストの属性情報は、キーワード、分類、タッチ、カラー、作者/配布元、輪郭線の太さとするが、属性項目を減らしたり、別な属性項目を利用しても構わない。また本実施の形態では、属性情報は各イラストに対し手動で付与されているものとするが、イラスト蓄積部204に蓄積したイラストを自動解析して属性情報を自動で付与することとしてもよい。
サーバ200(図3)のイラスト検索部208では、上記イラストの検索処理で得た全イラストをイラスト蓄積部204での登録順(例:登録番号の順)に出力し、イラスト符号化部209への入力とする。ここで、イラスト検索部208は、イラストの画像だけでなくイラストの属性情報もイラストと組みで出力する。イラスト符号化部209では入力されたイラストと属性情報の組を符号化し、出力する。
図6のステップS103に示すとおり、イラスト符号化部209の出力は符号化データ送信部206に入力され、符号化されたイラストとその属性情報がサーバ200からクライアント端末300へ送信される。
図6のステップS104では、クライアント端末300にて、検索結果のイラストを検索順に表示する処理が行われる。より詳細には以下のとおりである。
サーバ200からクライアント端末300へ送信されたイラストとその属性情報は、クライアント端末300(図4)の符号化データ受信部301で受信され、イラスト情報復号化部308へ入力されて復号化される。復号化されたイラストとその属性情報はイラスト表示部309に入力される。イラスト表示部309は、クライアント端末300のディスプレイにイラスト検索結果表示領域を生成し、イラスト検索結果表示領域にイラストを表示する。
ユーザが選択したテキストを属性として有するイラストが複数あった場合、当該複数のイラストはイラスト蓄積部204での登録順に表示され、スクロールバー等で表示イラストを変更可能とする。また、ユーザは複数のテキスト(単語)を同時に選択可能であり、ユーザが複数のテキストに対しイラスト検索を行っている場合、検索の入力テキスト別にイラストの表示領域を分け、検索結果を表示することとする。
図5において、イラスト検索結果表示領域のイメージは点線で囲った部分となる。当該領域には、例えば、ユーザが選択したテキストである「バス」に対して検索された複数のイラストが表示されている。また、検索の入力テキスト(バス、運転手、タクシー)別にイラストの表示領域が分けられていることが示されている。
<イラスト選択〜イラスト表示順序変更処理>
ユーザがイラストを選択した場合に実施される処理について、図8に示すフローチャートの手順に沿って説明する。
図8のステップS201において、マウス操作等のユーザ操作入力により、検索結果から議事録作成に利用したいイラストが選択されると、ステップS202において、選択されたイラストとその属性情報は、クライアント端末300(図4)におけるイラスト表示部309からイラスト選択部310へ入力される。
また、ユーザによりイラストが選択されると、イラスト表示部309は検索結果を表示していたイラスト表示領域を閉じる。例えば、図5に示す例において、「バス」の複数のイラストのうちの1つのイラストが選択されると「バス」に関するイラスト表示領域は閉じられる。
ステップS203において、イラスト選択部310に入力されたイラストは議事録編集部311に対して出力される。
イラストが議事録編集部311に入力されると、議事録編集部311により、当該イラストは、テキスト及びイラストを編集可能な表示領域(議事録編集表示領域)に表示される。図5の点鎖線で囲まれた領域に当該表示領域のイメージが示されている。
ユーザは当該表示領域において、ユーザ操作入力部307からのマウス操作等のユーザ操作入力によりイラストの拡大・縮小・回転、テキストの入力、サイズ・フォント・色変更等のイラスト・テキストに対する編集操作を実施できるものとする。
図8のステップ204において、イラスト選択部310は、閉じられていないイラスト検索結果表示領域があるかどうかを判定する。閉じられていないイラスト検索結果表示領域がある場合はステップS205に進み、ない場合はここでの処理を終了する。ユーザが複数のテキストに対しイラスト検索を行っている場合、複数のイラスト検索結果表示領域が表示され、1つのイラストを選択した時点では、閉じられていないイラスト検索結果表示領域があるので、ステップS205に進む。
ステップS205において、イラスト選択部310は、イラスト表示順序変更処理部312に対し選択されたイラストの属性情報を出力する。
ステップS300において、イラスト表示順序変更処理部312は、選択されたイラストの属性情報の入力を受けるとイラスト表示順序変更処理を実行する。
<イラスト表示順序変更処理>
次に、イラスト表示順序変更処理部312により実行されるイラスト表示順序変更処理を図9に示すフローチャートの手順に沿って説明する。
ステップS301において、イラスト表示順序変更を行う対象領域をナンバリング(0、1、2、…、N)する。イラスト表示順序変更を行う対象領域は、ユーザが複数テキストによりイラスト検索を行い、あるイラストの選択を行った後、まだ選択がされていないイラスト検索結果表示領域である。例えば、図5において3つのイラスト検索結果表示領域が表示されている状態で、「バス」のイラストが選択され、残りのイラスト検索結果表示領域が2つとなった場合に、当該2つのイラスト検索結果表示領域がイラスト表示順序変更を行う対象領域となる。
図9のステップS302では、対象領域の番号を初期化する(i=0とする)。
ステップS303〜ステップS307において、ユーザが選択したイラストの属性とまだ選択がされていないイラスト検索結果表示領域Xに存在するイラストの属性とを比較し、まだ選択がされていないイラスト検索結果の表示順序を変更する処理を行う。イラストの属性比較は、特定の属性項目に対し、ユーザが選択したイラストが保有する属性値と同じ属性値を有するイラストをイラスト検索結果表示領域Xから検出する処理とする。表示順序変更処理にて検出されたイラストはイラスト検索結果表示領域Xの表示領域の先頭から登録番号順に並ぶよう並べかえられる。
すなわち、ステップS303において、イラスト検索結果表示領域Xに存在するイラストの中からユーザが選択したイラストと属性:分類が一致するイラストを検出し、検出されたイラストが先に表示されるようイラスト検索結果表示領域Xの検索結果表示順を変更する(これを処理aとする)。
ステップS304では、処理aで検索結果表示順を変更されたイラスト(すなわち、属性:分類が一致したイラスト)の中からユーザが選択したイラストと属性:作者が一致するイラストを検出し、検出されたイラストが先に表示されるよう、処理aの検索結果表示順を変更する(これを処理bとする)。
ステップS305では、処理bで検索結果表示順を変更されたイラストの中からユーザが選択したイラストと属性:タッチが一致するイラストを検出し、検出されたイラストが先に表示されるように処理bの検索結果表示順を変更する(これを処理cとする)。
ステップS306では、処理cで検索結果表示順を変更されたイラストの中からユーザが選択したイラストと属性:カラーが一致するイラストを検出し、検出されたイラストが先に表示されるように処理cの検索結果表示順を変更する(これを処理dとする)。
ステップS307では、処理dで検索結果表示順を変更されたイラストの中からユーザが選択したイラストと属性:輪郭線の太さが一致するイラストを検出し、検出されたイラストが先に表示されるように処理dの検索結果表示順を変更する。
上記の例では、イラストの属性比較、表示順序変更はイラストのテイストに与える影響の大きい属性項目から順に行うこととし、2項目以降の属性項目の比較と表示順序変更は前属性項目の比較と表示順序変更にてイラスト検索結果表示領域Xの表示領域の先頭から登録番号順に並ぶよう並びかえられたイラストのみに対して行うこととしている。
本実施の形態においては上記のように属性項目の比較、表示順序変更の処理を適用するが、このような処理でなく、属性項目の比較は全項目でイラスト検索結果表示領域X全てのイラストに対し実施し、マッチング項目の多いイラストから順にイラスト検索結果表示領域Xの表示領域の先頭から並びかえる、といった処理にしてもよい。また、属性項目の比較は完全なマッチングかどうかで判断するのでなく、距離の概念を取り入れて属性ベクトルの近いものをテイストが似ていると判断してもよい。
イラスト検索結果表示領域Xに対し全属性項目の比較、表示順序変更が実施されたら、ステップS308において、iをインクリメントする。ステップS309において、まだ選択がされていないイラスト検索結果表示領域数Nとiが等しいか否かを確認する。Nとiが等しくなければ(ステップS309のNo)イラスト検索結果表示領域Xに対し全属性項目の比較、表示順序変更する処理に戻り、Nとiが等しければ(ステップS309のYes)処理終了となる。
このイラスト表示順序変更処理により、選択したイラストとテイストが似ているイラストが先に表示されるので、ユーザは複数のイラストを用いて描く一つの場面の作画において、各イラストを選択する手間を減らすことができ、議論を聞く、議事録に記す内容を検討することに注力できるようになり、イラストを用いた議論の可視化を実現できる。
<意図するポーズのイラスト作成>
本実施の形態におけるクライアント端末300(図4)の議事録編集部311は、上記テキストを利用したイラスト検索にて取得したイラストの編集等の機能だけでなく、デフォルメした人の3Dモデルを利用し、意図するポーズのイラストを作成する機能も有する。この機能は、人の感情や動作を端的に描いて伝えることで議論で得たアイデアや議論の場の雰囲気を伝えるというグラフィックレコーディングの重要な機能を実現するために必要な機能である。
意図するポーズのイラスト作成のための処理を、図10のフローチャートの手順に沿って説明する。図11は、意図するポーズのイラスト作成の際に、図5における議事録編集表示領域(他の表示領域でもよい)に表示される内容のイメージを示している。また、図11には、図10のフローチャートにおけるステップ番号のうち、操作に関するステップ番号が記載されている。
意図するポーズのイラスト作成処理は、ユーザが、マウス操作等のユーザ操作によりディスプレイ表示画面に表示されている3Dモデル利用ボタンの押下(ステップS401)を議事録編集部311が検出するところから開始する。
ステップS402において、議事録編集部311は、3Dモデル利用ボタンの押下を検出すると、基本ポーズ表を画面上に表示する。
図11の点線枠内に記載されている表が基本ポーズ表のイメージである。基本ポーズ表には、喜怒哀楽や考え込む、驚く、落ち込む、考える等、アイデアの記述や議論の場で利用される頻度が高いと思われるポーズを組み込んでいる。基本ポーズは必ずしも本実施の形態における基本ポーズ表に記載のポーズとする必要はない。別のポーズを本実施の形態におけるポーズの代わりに加えてもよいし、表示するポーズの数を変更しても構わない。
ステップS403において、ユーザが基本ポーズ表から所望のポーズを選択し、議事録編集部311は当該選択されたポーズを検出する。
基本ポーズが選択されると、議事録編集部311は、続いて選択したポーズの程度のバリエーションを表示する(ステップS404)。ポーズの「程度」とは、例えば、ポーズが「驚く」を表すポーズである場合、驚きの程度を示すものである。図11の点鎖線枠内に選択したポーズの程度のバリエーション表示のイメージを示している。
ステップS405において、ユーザはマウス等の操作によりスライドバーを操作しポーズの程度を選び、選んだイラストを押下することでポーズの程度が決定される。
ポーズの程度が決まると、3Dモデルのパーツ操作が可能となる。ステップS406では、ユーザはパーツ操作によりポーズを決定する。
本実施の形態において操作可能なパーツは、線で表現している腕4パーツ、足4パーツとしている。各パーツはユーザのマウス等の操作により3Dモデルの胴体側のパーツ接点を中心に360度回転可能とする。本実施の形態においては腕4パーツ、足4パーツを操作可能なパーツとしたが、胴体を上下でパーツ分けして操作可能としてもよいし、腕、足のパーツをさらに細かくパーツ分けしてもよい。また、3Dモデルは回転することも可能とする。
3Dモデルを回転させる処理を図12のフローチャートの手順に沿って説明する。図13は、3Dモデルを回転させる処理を行う際にディスプレイに表示される内容のイメージを示している。また、図13には、図12のフローチャートにおけるステップ番号が記載されている。
3Dモデルを回転させる処理はまず回転対象のイラストを基本ポーズ表からユーザが選択し、続いて回転ボタンを押下することにより始まる(ステップS501)。なお、回転対象のイラストをイラスト検索結果表示領域から選択してもよい。
ステップS502にて回転ボタンが押下されると、ユーザが選択した回転対象の3Dモデルを囲む3D球が表示される。ステップS503では、ユーザがこの3D球のある一点に対してドラッグ&ドロップといったマウス操作等を行うことで3D球を回転させる。
ここでは、回転対象の3Dモデルに3D球と同一の座標系を組み込み、3D球の回転角度と同角度分回転対象の3Dモデルの座標系を回転させることで3Dモデルの回転を実現する(ステップS504)。
前述した3Dモデルの選択からパーツ操作までの処理、3Dモデルの回転処理により、ユーザは一からイラストを描くよりも早く、かつ、イラスト検索結果から最適なイラストを選定するよりも思い通りに人のイラストを作成することが可能となる。これによりイラスト作成の手間を減らすことができ、議論を聞く、議事録に記す内容を検討することに注力できるようになり、イラストを用いた議論の可視化を実現できる。
本実施の形態において、3Dモデルからのイラスト作成については基本ポーズの選定、ポーズの程度選定、パーツ操作、回転を実施可能としたが、3Dモデルの基本表情の選定、表情の程度選定等の処理を追加してもよい。また、ポーズの程度選定を省く等をしてもよい。
図14は、議事録編集部311により実行される、基本表情の選定、表情の程度選定のイメージを示している。図14に示すように、ユーザがイラストの顔部分をクリックする(ステップS601)ことで、基本表情表が表示される。ユーザは利用したい基本表情モデルを選択し(ステップS602)、ポーズの程度の指定と同様にして、スライドバー等により表情の程度を指定する(ステップS603)。
(変形例)
本実施の形態におけるグラフィックレコーディングシステムは、振り返るべき議論の箇所を限定して効率的な議論振り返りを実現するために、様々な観点から議論を定量評価し、評価結果を議事録に対し反映する機能を追加してもよい。以下、本実施の形態の変形例として、当該機能を含む装置構成、及び動作について説明する。
<装置構成>
図15は、変形例におけるサーバ200の構成図である。図15に示すように、変形例におけるサーバ200は、図3に示したサーバ200に対し、音声蓄積部210、時間情報・振り返り観点情報復号化部211、振り返り分析部212、及び振り返り結果符号化部213が追加された構成を有する。
図16は、変形例におけるクライアント端末300の構成図である。図16に示すように、変形例におけるクライアント端末300は、図4に示したクライアント端末300に対し、振り返り結果復号化部313が追加された構成を有する。
<システムの動作>
サーバ200(図15)における音声蓄積部210には、音声認識結果のテキスト、音声信号、及び、音声信号が取得された時点(発話が行われた時点と見なしてよい)の時刻情報が対応付けて保存される。
テキスト符号化部205は、サーバ200からクライアント端末300へ送付するテキストに上記の時刻情報を組み合わせて符号化し、符号化データ送信部206が当該符号化されたテキスト及び時刻情報をクライアント端末300へ送信する。
クライアント端末300に届いたテキストは、前述のように音声認識結果テキストの領域に表示され、テキストの選択によりイラスト検索を可能とする。テキストが時刻情報を保持していることにより、イラスト検索結果、及び、選択され議事録編集部311に渡されて、議事録編集表示領域に表示されるイラストに対しても当該時刻情報を引き継ぐことが可能となる。また、議事録編集部311によるテキスト編集に際しても、音声認識結果テキストをコピーし、議事録編集表示領域(議事録編集部311)に張り付けることで時刻情報を引き継ぐことが可能となる。
変形例では、議事録編集部311による表示領域を特定区間で区切り、時刻情報を用いて特定区間における音声信号を分析し、振り返りに必要な情報を盛り込んだ議事録の可視化が可能になる。
音声信号を分析し振り返りに必要な情報を議事録の背景色に反映した議事録の可視化イメージを図17に示す。
例えば、議事録の大項目は特定フォントサイズ及び/又は特定書体で記すことを議事録編集部311に対し予め設定しておくことで、議事録編集部311が、当該特定フォントサイズ及び/又は特定書体で記述されたテキストを議事録の大項目であると認識することを可能とする。
これにより、議事録編集部311は、大項目の間に記されたテキスト/イラストに付随する時刻情報のうち、最も早い時刻から最も遅い時刻までが当該大項目を議論した時間とみなすことができる。
図17の点線内に示すように、変形例における議事録編集表示領域には、振り返りの観点を複数の観点の中から選択するための機能(プルダウンメニュー等)がある。この機能を用いてユーザが振り返りの観点を選択し、振り返り実施ボタンを押下すると、それぞれの大項目を議論した時間情報(大項目に対応する時間区間の情報)と振り返り観点の情報が議事録編集部311から符号化データ送信部306に対し出力される。
振り返り観点については、例えば、発言数、議論参加者数、議論盛り上がり度から選択可能とするが、これらは例に過ぎず、他の振り返り観点を追加してもよいし、振り返り観点を削減してもかまわない。
符号化データ送信部306に入力された時間情報と振り返り観点の情報は符号化され、符号化データ送信部306により、クライアント端末300からサーバ200へ送信される。
サーバ200(図15)の符号化データ受信部201にて受信された時間情報と振り返り観点の情報は、時間情報・振り返り観点情報復号化部211へ入力され、復号化される。復号化された時間情報・振り返り観点情報は振り返り分析部212へ入力される。
振り返り分析部212では入力された振り返り観点情報を基に、入力された時間情報(大項目毎の時間区間)に該当する各時間区間の音声信号を音声蓄積部210から取得し、取得した音声信号を分析する。
ここでは、選ばれた振り返り観点が発言数であれば、音声信号に含まれる文章(発言)の数をカウントする処理を行い、各時間区間の文章数を各時間区間の分析結果として出力する。選ばれた振り返り観点が議論参加者数であれば、音声信号に対し話者認識を行い、各時間区間の話者数を各時間区間の分析結果として出力する。選ばれた振り返り観点が議論の盛り上がり度であれば、音声信号に対し発話がされている時間長を算出し、各時間区間について、「発話がされている時間長/時間区間の長さ」を各時間区間の分析結果として出力する。
振り返り分析部212の出力は振り返り結果符号化部213へ入力されて符号化される。振り返り結果符号化部213で符号化された振り返り分析結果は、符号化データ送信部206により、サーバ200からクライアント端末300へ送信される。
クライアント端末300(図16)へ送信された振り返り分析結果は符号化データ受信部301の入力となり、振り返り結果復号化部313へ出力される。振り返り結果復号化部313にて復号化された振り返り分析結果は議事録編集部311へ入力される。
議事録編集部311は、入力された振り返り分析結果を基にして、各大項目の記載領域を分析結果の該当色に変更する。例えば図17に示すように、振り返り観点が発言数であれば、発言数が多い大項目であれば濃い色、発言数が少ない大項目であれば薄い色、といったように変更する。ここで、振り返り分析結果の可視化は議事録編集部311の表示領域の背景色を利用したが、背景色の変更以外にも、テキストのサイズ・フォント・色を分析結果に応じて変更するといった処理で振り返る形態にしてもよい。
変形例において説明した機能により、振り返るべき議論の箇所を限定して効率的な議論振り返りを実現することが可能となる。
(実施の形態のまとめ、効果等)
以上、説明したように、本実施の形態により、会議の支援を行う会議支援システムであって、会議における発話を発話テキストに変換する変換手段と、前記発話テキストをディスプレイに表示するテキスト表示手段と、イラストと、イラストに対応する属性情報とを記憶するイラスト記憶手段と、前記テキスト表示手段により表示された発話テキストからユーザによりあるテキストが選択された場合に、当該テキストを属性情報として有する1つ又は複数のイラストを前記イラスト記憶手段から取得するイラスト検索手段と、前記1つ又は複数のイラストを前記ディスプレイに表示するイラスト表示手段と、前記イラスト表示手段により表示された前記1つ又は複数のイラストからユーザにより選択されたイラストを、会議に関するテキストとともに前記ディスプレイにおける所定の表示領域に表示する編集手段とを備える会議支援システムが提供される。
ユーザにより複数のテキストが前記発話テキストから選択された場合に、前記イラスト検索手段は、複数のテキストにおける各テキストに関して1つ又は複数のイラストを取得し、前記イラスト表示手段は、テキスト毎に、テキストに対応するイラスト表示領域に当該テキストに関する1つ又は複数のイラストを表示するようにしてもよい。
前記イラスト表示手段により、複数のイラスト表示領域の各々に1つ又は複数のイラストが表示されている場合に、当該複数のイラスト表示領域のうちの特定のイラスト表示領域において、あるイラストがユーザにより選択されたときに、前記複数のイラスト表示領域における前記特定のイラスト表示領域以外のイラスト表示領域におけるイラストを、前記特定のイラスト表示領域における選択結果に応じて並び替えるイラスト表示順序変更手段を備えることとしてもよい。
前記イラスト表示順序変更手段は、例えば、前記特定のイラスト表示領域において選択されたインラストの属性情報と、当該特定のイラスト表示領域以外のイラスト表示領域におけるイラストの属性情報とを比較することにより、イラストの並び替えを実行する。
前記編集手段は、ユーザによる人の3Dモデルのパーツ操作により、人のポーズのイラストを作成する手段を有することとしてもよい。
前記会議支援システムに、発話の音声信号と、前記変換手段により得られた発話テキストと、発話の行われた時刻情報とを格納する音声記憶手段と、ユーザにより選択された振り返り観点に基づき、所定の時間区間毎に前記音声記憶手段に記憶された情報を分析する分析手段と、を備え、前記編集手段は、前記分析手段により得られた分析結果を前記所定の表示領域に反映させることとしてもよい。
本実施の形態における会議支援システムにより、イラストを交えた議事録を眺めることで瞬間的な議論内容の把握が可能となり、議論全体を俯瞰しながら議論する、短時間で議論を把握し議論に途中参加することが可能となる。
本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。
100 音声入力装置
200 サーバ
300 クライアント端末
400 ネットワーク
101 音声入力部
102 時間管理部
103 符号化部
104 符号化データ送信部
201 符号化データ受信部
202 音声情報復号化部
203 音声認識処理部
204 イラスト蓄積部
205 テキスト符号化部
206 符号化データ送信部
207 テキスト選択情報復号化部
208 イラスト検索部
209 イラスト符号化部
210 音声蓄積部
211 時間情報・振り返り観点情報復号化部
212 振り返り分析部
213 振り返り結果符号化部
301 符号化データ受信部
302 テキスト情報復号化部
303 テキスト表示部
304 テキスト選択・編集部
305 選択テキスト情報符号化部
306 符号化データ送信部
307 ユーザ操作入力部
308 イラスト情報復号化部
309 イラスト表示部
310 イラスト選択部
311 議事録編集部
312 イラスト表示順序変更処理部
313 振り返り結果復号化部

Claims (7)

  1. 会議の支援を行う会議支援システムであって、
    会議における発話を発話テキストに変換する変換手段と、
    前記発話テキストをディスプレイに表示するテキスト表示手段と、
    イラストと、イラストに対応する属性情報とを記憶するイラスト記憶手段と、
    前記テキスト表示手段により表示された発話テキストからユーザによりあるテキストが選択された場合に、当該テキストを属性情報として有する1つ又は複数のイラストを前記イラスト記憶手段から取得するイラスト検索手段と、
    前記1つ又は複数のイラストを前記ディスプレイに表示するイラスト表示手段と、
    前記イラスト表示手段により表示された前記1つ又は複数のイラストからユーザにより選択されたイラストを、会議に関するテキストとともに前記ディスプレイにおける所定の表示領域に表示する編集手段と
    を備えることを特徴とする会議支援システム。
  2. ユーザにより複数のテキストが前記発話テキストから選択された場合に、前記イラスト検索手段は、複数のテキストにおける各テキストに関して1つ又は複数のイラストを取得し、
    前記イラスト表示手段は、テキスト毎に、テキストに対応するイラスト表示領域に当該テキストに関する1つ又は複数のイラストを表示する
    ことを特徴とする請求項1に記載の会議支援システム。
  3. 前記イラスト表示手段により、複数のイラスト表示領域の各々に1つ又は複数のイラストが表示されている場合に、当該複数のイラスト表示領域のうちの特定のイラスト表示領域において、あるイラストがユーザにより選択されたときに、前記複数のイラスト表示領域における前記特定のイラスト表示領域以外のイラスト表示領域におけるイラストを、前記特定のイラスト表示領域における選択結果に応じて並び替えるイラスト表示順序変更手段
    を備えることを特徴とする請求項2に記載の会議支援システム。
  4. 前記イラスト表示順序変更手段は、
    前記特定のイラスト表示領域において選択されたインラストの属性情報と、当該特定のイラスト表示領域以外のイラスト表示領域におけるイラストの属性情報とを比較することにより、イラストの並び替えを実行する
    ことを特徴とする請求項3に記載の会議支援システム。
  5. 前記編集手段は、ユーザによる人の3Dモデルのパーツ操作により、人のポーズのイラストを作成する手段を有する
    ことを特徴とする請求項1ないし4のうちいずれか1項に記載の会議支援システム。
  6. 発話の音声信号と、前記変換手段により得られた発話テキストと、発話の行われた時刻情報とを格納する音声記憶手段と、
    ユーザにより選択された振り返り観点に基づき、所定の時間区間毎に前記音声記憶手段に記憶された情報を分析する分析手段と、を備え、
    前記編集手段は、前記分析手段により得られた分析結果を前記所定の表示領域に反映させる
    ことを特徴とする請求項1ないし5のうちいずれか1項に記載の会議支援システム。
  7. 会議の支援を行う会議支援システムが実行する会議支援方法であって、
    前記会議支援システムは、イラストと、イラストに対応する属性情報とを記憶するイラスト記憶手段を備えており、
    会議における発話を発話テキストに変換する変換ステップと、
    前記発話テキストをディスプレイに表示するテキスト表示ステップと、
    前記テキスト表示ステップにより表示された発話テキストからユーザによりあるテキストが選択された場合に、当該テキストを属性情報として有する1つ又は複数のイラストを前記イラスト記憶手段から取得するイラスト検索ステップと、
    前記1つ又は複数のイラストを前記ディスプレイに表示するイラスト表示ステップと、
    前記イラスト表示ステップにより表示された前記1つ又は複数のイラストからユーザにより選択されたイラストを、会議に関するテキストとともに前記ディスプレイにおける所定の表示領域に表示する編集ステップと
    を備えることを特徴とする会議支援方法。
JP2015117783A 2015-06-10 2015-06-10 会議支援システム、及び会議支援方法 Active JP6339529B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015117783A JP6339529B2 (ja) 2015-06-10 2015-06-10 会議支援システム、及び会議支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015117783A JP6339529B2 (ja) 2015-06-10 2015-06-10 会議支援システム、及び会議支援方法

Publications (2)

Publication Number Publication Date
JP2017004270A JP2017004270A (ja) 2017-01-05
JP6339529B2 true JP6339529B2 (ja) 2018-06-06

Family

ID=57752072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015117783A Active JP6339529B2 (ja) 2015-06-10 2015-06-10 会議支援システム、及び会議支援方法

Country Status (1)

Country Link
JP (1) JP6339529B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7230137B2 (ja) 2015-06-05 2023-02-28 ダブリュ.エル.ゴア アンド アソシエイツ,インコーポレイティド カテーテルアセンブリ

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7095376B2 (ja) * 2018-04-17 2022-07-05 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
JP7095377B2 (ja) * 2018-04-17 2022-07-05 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
JP6634128B1 (ja) * 2018-08-28 2020-01-22 株式会社 日立産業制御ソリューションズ 会議評価装置、会議評価方法及び会議評価プログラム
JPWO2022137351A1 (ja) * 2020-12-22 2022-06-30
US20240127508A1 (en) * 2021-02-03 2024-04-18 Nippon Telegraph And Telephone Corporation Graphic display control apparatus, graphic display control method and program
CN115022668B (zh) * 2022-07-21 2023-08-11 中国平安人寿保险股份有限公司 基于直播的视频生成方法和装置、设备、介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148748A (ja) * 1998-11-13 2000-05-30 Nec Corp 仮名漢字変換及び画像検索表示システム
JP2001027977A (ja) * 1999-05-07 2001-01-30 Matsushita Electric Ind Co Ltd 電子メール作成装置およびプログラム記録媒体
JP2003050861A (ja) * 2001-08-07 2003-02-21 Netbreak Inc イラスト作成サービス提供装置及びイラスト作成サービス提供方法
US7734996B2 (en) * 2003-09-08 2010-06-08 Nec Corporation Documentation browsing method, documentation browsing apparatus, documentation browsing robot, and documentation browsing program
JP2006251898A (ja) * 2005-03-08 2006-09-21 Fuji Xerox Co Ltd 情報処理装置、情報処理方法およびプログラム
JP5383668B2 (ja) * 2008-04-30 2014-01-08 株式会社アクロディア キャラクタ表示用データの生成装置および方法
CN103140848B (zh) * 2010-10-08 2016-08-03 日本电气株式会社 字符变换系统以及字符变换方法
JP6095553B2 (ja) * 2013-11-07 2017-03-15 日本電信電話株式会社 情報表示装置、方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7230137B2 (ja) 2015-06-05 2023-02-28 ダブリュ.エル.ゴア アンド アソシエイツ,インコーポレイティド カテーテルアセンブリ

Also Published As

Publication number Publication date
JP2017004270A (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6339529B2 (ja) 会議支援システム、及び会議支援方法
US20220230374A1 (en) User interface for generating expressive content
US20220115019A1 (en) Method and system for conversation transcription with metadata
JP6939037B2 (ja) 会議コンテンツを表現する方法、プログラム、及び装置
US20240107127A1 (en) Video display method and apparatus, video processing method, apparatus, and system, device, and medium
US9665563B2 (en) Animation system and methods for generating animation based on text-based data and user information
US20180077095A1 (en) Augmentation of Communications with Emotional Data
WO2021109678A1 (zh) 视频生成方法、装置、电子设备及存储介质
WO2022068533A1 (zh) 互动信息处理方法、装置、设备及介质
CN115668371A (zh) 对听觉和视觉会议数据分类以推断用户话语的重要性
KR101628050B1 (ko) 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템
US20150066935A1 (en) Crowdsourcing and consolidating user notes taken in a virtual meeting
CN110602516A (zh) 基于视频直播的信息交互方法、装置及电子设备
JP6280312B2 (ja) 議事録記録装置、議事録記録方法及びプログラム
US10062384B1 (en) Analysis of content written on a board
US9286943B2 (en) Enhancing karaoke systems utilizing audience sentiment feedback and audio watermarking
JP2016046705A (ja) 会議録編集装置、その方法とプログラム、会議録再生装置、および会議システム
US20210065695A1 (en) Program storage medium, method, and apparatus for determining point at which trend of conversation changed
US20200403816A1 (en) Utilizing volume-based speaker attribution to associate meeting attendees with digital meeting content
WO2021255795A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2018005011A (ja) プレゼンテーション支援装置、プレゼンテーション支援システム、プレゼンテーション支援方法及びプレゼンテーション支援プログラム
CN110992958B (zh) 内容记录方法、装置、电子设备及存储介质
WO2023142590A1 (zh) 手语视频的生成方法、装置、计算机设备及存储介质
US11902690B2 (en) Machine learning driven teleprompter
JP2020052262A (ja) 修正候補提示方法、修正候補提示プログラムおよび情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180510

R150 Certificate of patent or registration of utility model

Ref document number: 6339529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150