JP2017215943A - Information sharing support system, information sharing support device, information sharing support method, and program - Google Patents
Information sharing support system, information sharing support device, information sharing support method, and program Download PDFInfo
- Publication number
- JP2017215943A JP2017215943A JP2017074344A JP2017074344A JP2017215943A JP 2017215943 A JP2017215943 A JP 2017215943A JP 2017074344 A JP2017074344 A JP 2017074344A JP 2017074344 A JP2017074344 A JP 2017074344A JP 2017215943 A JP2017215943 A JP 2017215943A
- Authority
- JP
- Japan
- Prior art keywords
- support system
- meeting
- information sharing
- input
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、情報共有支援システム、情報共有支援装置、情報共有支援方法及びプログラムに関する。 The present invention relates to an information sharing support system, an information sharing support device, an information sharing support method, and a program.
従来、会議において、会議支援システムが、時間調整等の煩雑な作業の負担を軽減し、議長が議事内容に集中して的確に議事進行できるように進捗を管理する方法が知られている。この方法では、会議支援システムが、会議の進行状況を表示し、この表示を会議の議事進行に応じて制御する。具体的には、会議支援システムは、まず、複数の会議議題に対して、それぞれの議事進行に要する予定議事時間をあらかじめ設定し、会議全体の時間割を作成する。次に、会議支援システムは、会議議題の経過時間を示す指標を随時表示する。さらに、会議支援システムは、会議議事の議事終了を検知して、次の会議議題に指標を移行させる。そして、会議支援システムは、会議議題が終了した時点で、残りの各会議議題に対して、残りの予定議事時間を再配分する。このようにして、会議支援システムが、予定議事時間内で会議が終了するように自動的に時間調整を行うため、時間調整の作業による負荷が軽減される。そのため、議長は、議事内容に集中して的確に議事進行を進捗管理できる(例えば、特許文献1等)。
2. Description of the Related Art Heretofore, a method has been known in which a meeting support system reduces the burden of complicated work such as time adjustment in a meeting, and manages progress so that the chair can concentrate on the contents of proceedings properly. In this method, the meeting support system displays the progress of the meeting and controls the display according to the proceedings of the meeting. Specifically, the meeting support system first sets, in advance, scheduled proceeding times required for the proceedings of a plurality of meeting agenda items, and creates a timetable for the entire meeting. Next, the meeting support system displays an index indicating the elapsed time of the meeting subject as needed. Furthermore, the meeting support system detects the end of the proceedings of the meeting proceedings and shifts the index to the next meeting agenda. Then, the meeting support system reallocates the remaining scheduled proceeding time to each remaining meeting agenda when the meeting agenda is finished. In this manner, since the meeting support system automatically adjusts the time so that the meeting is completed within the scheduled meeting time, the load of the time adjustment work is reduced. Therefore, the chairperson can concentrate on the content of the proceedings and appropriately manage the progress of proceedings (for example,
しかしながら、従来の方法では、会議における各議題の時間管理が行われるにすぎなかった。一方で、会議の内容を可視化する等によって、効率的に会議等の情報共有を行いたいという要望等があった。 However, in the conventional method, only time management of each topic in the meeting is performed. On the other hand, there has been a demand for efficiently sharing information such as a meeting by visualizing the contents of the meeting.
本発明の1つの側面は、会議等の情報共有を効率化することができる情報共有支援システムを提供することを目的とする。 One aspect of the present invention aims to provide an information sharing support system capable of efficiently sharing information such as a meeting.
一態様における、1つ以上の情報処理装置を有し、情報共有を支援するための情報共有支援システムは、
会議で発言された発言内容、電子メール、電子ファイル若しくはチャットデータに記載された記載内容又はこれらの組み合わせを示す1又は複数の文を入力する入力部と、
前記入力部により入力された前記文の種類を判断する判断部と、
前記判断部による判断結果に基づいて、前記種類のうち、設定される種類となる特定文をリストにして出力する出力部と
を備える。
An information sharing support system having one or more information processing devices and supporting information sharing according to one aspect is:
An input unit for inputting one or a plurality of sentences indicating the contents of an utterance said at a meeting, an electronic mail, an electronic file, or written contents described in chat data, or a combination thereof;
A determination unit that determines the type of the sentence input by the input unit;
And an output unit configured to output, as a list, specific sentences to be set among the types based on the determination result by the determination unit.
会議等の情報共有を効率化することができる。 It is possible to streamline information sharing such as meetings.
以下、本発明の実施の形態について説明する。なお、以下の説明では、情報共有を会議で行う例とし、会議に、情報共有支援システムの例である会議支援システムが用いられる例で説明する。したがって、以下の例では、会議支援システムに入力される1又は複数の文(以下単に「文」という。)が、会議における発言内容のみである例で説明する。なお、文は、思想又は感情を言葉で表現する際の完結した内容を示す最小の単位である。 Hereinafter, embodiments of the present invention will be described. In the following description, it is assumed that information sharing is performed in a meeting, and an example in which a meeting support system, which is an example of an information sharing support system, is used for the meeting. Therefore, in the following example, one or a plurality of sentences (hereinafter, simply referred to as "sentences") input to the meeting support system will be described as an example in which only the contents of the speech in the meeting. A sentence is a minimum unit indicating a complete content when expressing a thought or an emotion in words.
(第1実施形態)
(全体構成例)
図1は、本発明の第1実施形態の一実施形態に係る会議支援システムの全体構成の一例を説明する概念図である。例えば、会議支援システム1は、図示するように、情報共有支援装置の例であるサーバ10と、1つ又は複数の端末11とを有する構成である。また、サーバ10及びそれぞれの端末11は、ネットワーク12を介して接続される。なお、サーバ10及び端末11は、PC(Personal Computer)等の情報処理装置であり、例えば、以下のようなハードウェア構成である。
First Embodiment
(Example of overall configuration)
FIG. 1 is a conceptual diagram for explaining an example of the entire configuration of a conference support system according to an embodiment of the first embodiment of the present invention. For example, as illustrated, the
(ハードウェア構成例)
図2は、本発明の一実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。例えば、サーバ10及び端末11は、CPU(Central Processing Unit)10H1と、I/F(interface)10H2と、出力装置10H3とを有する。また、サーバ10及び端末11は、入力装置10H4と、HD(Hard Disk)10H5と、記憶装置10H6とを有する。さらに、各ハードウェアは、バス(bus)10H7を介して接続される。なお、サーバ10及び複数の端末11は、同一のハードウェア構成でも、異なるハードウェア構成でもよい。以下、サーバ10及び複数の端末11が同一のハードウェア構成である例とし、サーバ10を例に説明する。
(Hardware configuration example)
FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing apparatus according to the embodiment of the present invention. For example, the
CPU10H1は、各種処理及び各種データの加工を実現するための演算を行う演算装置並びに各ハードウェア等を制御する制御装置である。なお、サーバ10は、演算装置又は制御装置を複数有してもよい。
The CPU 10H1 is an arithmetic device that performs arithmetic processing to realize various processes and processing of various data, and a control device that controls each hardware and the like. The
I/F10H2は、例えば、コネクタ及び処理IC(Integrated Circuit)等である。例えば、I/F10H2は、ネットワーク等を介して外部装置とデータを送受信する。 The I / F 10H2 is, for example, a connector and a processing IC (Integrated Circuit). For example, the I / F 10H2 transmits and receives data to and from an external device via a network or the like.
出力装置10H3は、表示画面及びGUI(Graphical User Interface)等を表示するディスプレイ等である。 The output device 10H3 is a display or the like that displays a display screen, a graphical user interface (GUI), and the like.
入力装置10H4は、ユーザによる操作等を入力するタッチパネル、キーボード、マウス、マイク又はこれらの組み合わせ等である。なお、マイクは、音源の方向がわかる、いわゆる指向性のマイクであるのがより望ましい。 The input device 10H4 is a touch panel for inputting an operation or the like by the user, a keyboard, a mouse, a microphone, a combination thereof, or the like. It is more preferable that the microphone be a so-called directional microphone in which the direction of the sound source can be known.
HD10H5は、補助記憶装置の一例である。すなわち、HD10H5は、処理に用いるプログラム、ファイル又は各種設定等のデータを記憶する。
The HD 10H5 is an example of an auxiliary storage device. That is, the
記憶装置10H6は、いわゆるメモリ(memory)等である。すなわち、記憶装置10H6には、HD10H5が記憶するプログラム又はデータ等が読み出される。 The storage device 10H6 is a so-called memory or the like. That is, a program or data stored in the HD 10H5 is read out to the storage device 10H6.
(機能構成例)
図3は、本発明の第1実施形態の一実施形態に係る会議支援システムの機能構成の一例を説明する機能ブロック図である。例えば、会議支援システム1は、入力部1F1と、制御部1F2と、記憶部1F3と、出力部1F4とを備える。
(Example of functional configuration)
FIG. 3 is a functional block diagram for explaining an example of a functional configuration of a conference support system according to an embodiment of the first embodiment of the present invention. For example, the
例えば、会議支援システム1において、入力部1F1及び出力部1F4は、端末11(図1)がそれぞれ有する。そして、制御部1F2及び記憶部1F3は、サーバ10(図1)が有する。なお、図示する各部は、端末11又はサーバ10のどちらが有してもよい。
For example, in the
入力部1F1は、会議で発言された発言内容を入力する。例えば、入力部1F1は、入力装置10H4(図2)等によって実現される。 The input unit 1F1 inputs the content of the utterance made in the conference. For example, the input unit 1F1 is realized by the input device 10H4 (FIG. 2) or the like.
制御部1F2は、各処理を実現するように制御を行う。具体的には、制御部1F2は、判断部1F21を有する。また、図示するように、制御部1F2は、装飾部1F22と、時間管理部1F23と、発言者判断部1F24とを有してもよい。例えば、制御部1F2は、CPU10H1(図2)等によって実現される。 The control unit 1F2 performs control to realize each process. Specifically, control unit 1F2 includes determination unit 1F21. Further, as illustrated, the control unit 1F2 may include a decoration unit 1F22, a time management unit 1F23, and a speaker determination unit 1F24. For example, the control unit 1F2 is realized by the CPU 10H1 (FIG. 2) or the like.
記憶部1F3は、あらかじめ入力されるデータ等を記憶する。そして、記憶部1F3は、データベース等を実現する。また、記憶部1F3は、発言内容を記憶する。例えば、記憶部1F3は、HD10H5(図2)及び記憶装置10H6(図2)等によって実現される。 The storage unit 1F3 stores data and the like input in advance. The storage unit 1F3 implements a database and the like. In addition, the storage unit 1F3 stores the contents of the statement. For example, the storage unit 1F3 is realized by the HD 10H5 (FIG. 2), the storage device 10H6 (FIG. 2), and the like.
出力部1F4は、会議内容を表示又は印刷等して、会議の参加者等に、議事録、評価結果、要約、発言内容、判断結果又はこれらの組み合わせ等の会議内容を出力する。例えば、出力部1F4は、出力装置10H3(図2)等によって実現される。 The output unit 1F4 displays or prints the contents of the meeting, and outputs the contents of the meeting such as the minutes, the evaluation result, the summary, the contents of the utterance, the judgment result, or the combination thereof to the participants of the meeting. For example, the output unit 1F4 is realized by the output device 10H3 (FIG. 2) or the like.
まず、会議支援システム1は、会議中に、発言内容を発言した人物(以下「発言者」という。)又は議事録係等によって、会議に発言された発言内容が入力部1F1によって入力される。具体的には、発言内容は、例えば、キーボード等によって、テキスト形式で入力される。なお、発言内容は、参加者が口頭で述べた内容を後からキーボード等で入力した内容でもよい。他にも、チャット等を利用して遠隔地同士でのオンライン会議等において、参加者が発言したい内容をキーボードで入力する場合には、発言内容は、チャット等において入力された内容でもよい。すなわち、発言内容は、口頭で発言された内容に限られない。つまり、発言内容は、口頭で述べられず、キーボード等で入力される内容でもよい。
First, in the
他にも、発言内容は、マイク等によって、音声で入力されてもよい。つまり、音声で発言内容が入力される場合には、会議支援システム1は、入力される音声を音声認識して、テキストデータ等を生成してもよい。
Besides, the contents of the statement may be input by voice by a microphone or the like. That is, when the content of speech is input by voice, the
さらに、発言内容は、例えば、電子黒板又はタブレット端末によって、手書きで入力されてもよい。つまり、会議支援システム1は、手書きで電子黒板等に書き込まれた文字をOCR(Optical Character Recognition、光学的文字認識)等よってテキストデータ等に変換して入力してもよい。
Furthermore, the statement content may be input by handwriting, for example, by an electronic blackboard or a tablet terminal. That is, the
また、発言内容は、文の一例であり、他にも、入力部1F1には、例えば、電子メール等による情報共有の際に、電子メールに記載された記載内容が、会議支援システムに入力されてもよい。この場合には、記載内容は、例えば、電子メールの内容を記載したテキストデータ等によって入力される。なお、文は、テキストデータによる入力に限られず、他の文書データ等によって入力されてもよい。 The contents of the statement are an example of a sentence, and other contents described in the e-mail are input to the meeting support system in the information sharing by the e-mail etc. May be In this case, the description content is input, for example, by text data or the like in which the content of the electronic mail is described. The sentence is not limited to the input by text data, and may be input by other document data or the like.
他にも、入力部1F1には、例えば、日報又はレポート等を示すデータが入力されてもよい。例えば、入力部1F1に入力される日報等のデータは、日報の内容を示すテキストデータ、Webアプリケーション上で作成されたデータ又は手書き文書をOCR(等で読み取って生成されるデータ等である。 Besides, for example, data indicating a daily report or a report may be input to the input unit 1F1. For example, the data such as the daily report input to the input unit 1F1 is text data indicating the content of the daily report, data created on a Web application, data generated by reading a handwritten document by OCR (etc.), and the like.
なお、参加者から、発言者が誰であるかを発言者判断部1F24が特定する場合には、発言者判断部1F24は、複数の指向性のマイク等を用いて、音声の発生源があると判断できる方向と、発言者とを紐づけて、参加者の中から発言者を特定してもよい。又は、発言者判断部1F24は、入力される音声データを音声認証して、認証結果に基づいて、発言者を特定してもよい。他にも、発言者判断部1F24は、ネットワーク12(図1)に接続されるカメラ等によって発言者を撮影して、撮影される画像を用いて顔認証を行うことで、発言者を特定してもよい。 When the speaker determination section 1F24 identifies from the participant who the speaker is, the speaker determination section 1F24 has a voice generation source using a plurality of directional microphones or the like. The speaker may be identified from the participants by linking the direction in which it can be determined with the speaker. Alternatively, the speaker determination unit 1F24 may perform voice authentication on input voice data, and specify the speaker based on the authentication result. In addition, the speaker determination unit 1F24 identifies the speaker by photographing the speaker with a camera or the like connected to the network 12 (FIG. 1) and performing face authentication using the photographed image. May be
また、入力部1F1等によって、発言内容が誰の発言であるかを特定できる情報が入力されてもよい。具体的には、例えば、まず、キーボードが有する複数のファンクションキー(「F1」乃至「F12」)に、それぞれ発言者情報があらかじめ割り当てられる。そして、発言内容が入力される際には、入力の際に、ファンクションキーが押下されると、発言内容に、会議支援システム1によって発言者情報が付与されてもよい。このようにして、発言内容と、発言者とが紐づけられてもよい。
Moreover, the information which can specify who is the speech content may be input by the input unit 1F1 or the like. Specifically, for example, first, speaker information is assigned in advance to a plurality of function keys (“F1” to “F12”) of the keyboard. Then, when the content of the statement is input, when the function key is pressed at the time of the input, the speaker support information may be added to the content of the statement by the
なお、電子メールによる情報共有では、電子メールのヘッダ等に含まれる送信者及び受信者等のデータに基づいて、発言者情報が付与される。 In the information sharing by electronic mail, the speaker information is added based on the data of the sender and the receiver contained in the header of the electronic mail.
次に、会議支援システム1は、判断部1F21によって、入力された発言の種類を判断する。具体的には、発言の種類は、例えば、「提案」、「質問」、「回答」、「ポジティブな意見」、「ネガティブな意見」、「中立な意見」、「情報」、「要求」、「課題」、「アクションアイテム」(以下「A.I.」という場合もある。)及び「決定事項」等である。以下、このような発言の種類に、発言内容を分類する場合を例に説明する。
Next, the
まず、会議支援システム1には、発言の種類を判断するために、あらかじめ発言の種類ごとに定義される表現が、記憶部1F3に記憶される。また、表現とは、文、語句又は言い回し等であり、記憶部1F3には、発言の種類と、その発言の種類に特有の表現とが関連付けて記憶される。そして、入力部1F1によって、発言内容が入力されると、判断部1F21は、発言内容に、記憶部1F3に記憶される表現が含まれるか否か判断する。続いて、発言内容に、記憶部1F3に記憶される表現が含まれると、判断部1F21は、発言の種類のうちから該当する種類を特定する。このようにすると、会議支援システム1は、会議で発言された発言内容の発言の種類を判断することができる。
First, in the
また、出力部1F4は、会議内容等をリスト化して出力する。また、出力部1F4は、判断部1F21によって判断された発言の種類に基づいて、発言内容を装飾して表示する等を行ってもよい。リスト化等の詳細は、後述する。 Further, the output unit 1F4 outputs a list of meeting contents and the like in a list. In addition, the output unit 1F4 may decorate and display the content of the statement based on the type of the statement determined by the determination unit 1F21. Details such as the listing will be described later.
(入力及び出力例)
会議支援システムは、例えば、以下のような画面を各端末がそれぞれ表示して、各処理を行う。
(Example of input and output)
In the conference support system, for example, each terminal displays the following screen and performs each process.
図4は、本発明の第1実施形態の一実施形態に係る会議支援システムによって表示される画面の一例を示す図である。例えば、各端末のそれぞれの画面に表示される画面は、図示するような表示及びGUI(Graphical User Interface)等を有する。以下、図示する画面を例に説明する。 FIG. 4 is a view showing an example of a screen displayed by the conference support system according to the first embodiment of the present invention. For example, the screen displayed on the screen of each terminal has a display, a graphical user interface (GUI) as illustrated, and the like. Hereinafter, the illustrated screen will be described as an example.
この例では、画面には、議題301と、会議の目的、すなわち、ゴール302とが、出力部によって表示される。なお、議題301及びゴール302が会議中に表示されると、参加者の認識及び議論のベクトルを合わせること等ができる。そのため、会議支援システムは、会議の脱線等を少なくすることができる。また、議題301及びゴール302は、例えば、以下のようにして、会議が行われる前又は会議の冒頭等に、あらかじめ設定される。
In this example, the output unit displays an
図5は、本発明の第1実施形態の一実施形態に係る会議支援システムに議題及びゴール等を設定するための設定画面の一例を示す図である。例えば、図示するような設定画面が、会議の冒頭に、会議支援システムによって表示される。なお、設定画面によって、以下に示す各設定が行われた後、スタートボタン505が押下されると、設定が完了する。つまり、スタートボタン505が押下された後に、図4に示す画面等が会議支援システムによって表示される。
FIG. 5 is a view showing an example of a setting screen for setting an agenda, a goal, and the like in the conference support system according to the embodiment of the first embodiment of the present invention. For example, a setting screen as illustrated is displayed by the meeting support system at the beginning of the meeting. In addition, after each setting shown below is performed by the setting screen, if the
図示するように、参加者によって、議題設定テキストボックス501に議題が入力される。さらに、参加者によって、議題設定テキストボックス501に入力されるそれぞれの議題に対して、それぞれのゴールが設定される。なお、ゴールは、例えば、ゴール設定テキストボックス502に入力される。このように、議題設定テキストボックス501及びゴール設定テキストボックス502に入力される議題及びゴールが、会議支援システムによって、図4に示すように、議題301及びゴール302となって表示される。
As illustrated, the participant inputs an agenda in the agenda setting
また、会議の開催前に、事前に開催通知等が作成される場合がある。このような場合には、開催通知に記載された議題及びゴールが、会議支援システムによって、図4に示すように、議題301及びゴール302となって表示されてもよい。このように、開催通知等が会議の参加者にあらかじめ通知されると、参加者は、事前に準備を行うことができるため、会議がより効率化できる。また、開催通知等が会議の参加者にあらかじめ通知されると、参加者は、参加の要否が判断できるため、無駄な会議への参加を回避することができる。
In addition, prior to holding a meeting, a notice may be prepared in advance. In such a case, the agenda and the goals described in the holding notification may be displayed as an
図4に戻り、画面には、現在時刻306、時間配分307及び進捗状況308等が、会議支援システムによって表示される。なお、現在時刻306は、あらかじめ設定される時刻又はネットワーク等を介して取得される時刻を示すデータ等に基づいて、表示される。さらに、時間配分307は、あらかじめ設定される議題ごとの予定時間に基づいて表示される。例えば、議題ごとのそれぞれの予定時間は、図5に示す予定時間設定テキストボックス503に入力される。また、進捗状況308は、会議開始時刻から、現在時刻306までに経過した時間に基づいて、図示するように、経過した時間の割合等を示す表示、いわゆるプログレスバー等によって表示される。
Referring back to FIG. 4, on the screen, the
また、時間管理部1F23(図3)及び出力部1F4(図3)によって、以下のような表示が行われてもよい。例えば、会議支援システムは、会議全体又は議題ごとのそれぞれの終了予定時刻が近づくと、残り時間を表示したり、会議のまとめを促すアラートを表示したりしてもよい。例えば、図4に示す画面を用いる例では、以下のような表示が会議支援システムによって行われる。 Also, the following display may be performed by the time management unit 1F23 (FIG. 3) and the output unit 1F4 (FIG. 3). For example, the meeting support system may display the remaining time or display an alert prompting a meeting summary when the scheduled end time of the entire meeting or each subject approaches. For example, in the example using the screen shown in FIG. 4, the following display is performed by the conference support system.
図6は、本発明の第1実施形態の一実施形態に係る会議支援システムによって表示される画面にアラート及び残り時間が表示される例を示す図である。図示するように、残り時間401及びアラート402等が、会議支援システムによって表示されてもよい。図示する例では、残り時間401は、現在時刻から会議全体の終了予定時刻までの時間が「10分以下」となったことを示す表示の例である。また、アラート402は、会議の残り時間が少なくなってきたため、会議の結論を出す等のまとめを行うよう参加者に通知する表示の例である。このような表示がされると、参加者は、議論をまとめる時間が確保しやすくなる。そのため、会議支援システムは、議論に熱中するあまり、時間切れになってしまい、会議の結論又はアクションアイテム等が曖昧になるのを少なくできる。
FIG. 6 is a view showing an example in which an alert and remaining time are displayed on a screen displayed by the conference support system according to the embodiment of the first embodiment of the present invention. As shown, the remaining
なお、アラート及び残り時間は、図示する形式で出力されるに限られない。例えば、出力は、音声等を利用してもよい。 Note that the alert and the remaining time are not limited to being output in the illustrated form. For example, the output may use voice or the like.
図4に戻り、画面には、発言内容303が表示される。なお、発言内容303には、判断部1F21(図3)による判断結果に基づいて、装飾が行われる。例えば、図示するように、各発言内容には、「Q:」、「A:」、「提案:」、「意見(P):」、「意見(N):」、「情報:」、「議題:」及び「A.I.候補:」のように、それぞれの発言の種類を示す表示が、文頭又は文末等に付加されて、発言内容が表示される。なお、装飾は、各発言の種類が分別できればよい。例えば、装飾は、色分け、斜体及びボールド体等の文字飾り、フォントの種類、文末若しくは文頭に文字等の付加又はこれらの組み合わせ等である。なお、どのように装飾されるかは、会議支援システムにあらかじめ設定できる。具体的には、例えば、「ポジティブな意見」と判断される発言内容は、青字で表示され、かつ、「意見(P)」の表示が文頭に付加されるように設定される。他にも、「ネガティブな意見」及び「課題」と判断される発言内容は、赤字で表示され、かつ、「意見(N)」及び「課題」の表示がそれぞれの文頭に付加されるように設定される。このように、発言の種類が装飾によって示されると、参加者は、会議における重要箇所、議論の内容及び会議の傾向等を直観的に把握することができる。なお、装飾は、サーバ10(図1)で処理されてもよいし、端末11(図1)にインストールされるブラウザによって、処理されてもよい。
Referring back to FIG. 4, the
さらに、発言者が特定される場合には、図示するように、発言者が会議支援システムによって表示されてもよい。図示する例では、発言者の氏名が、かっこ書きで表示される例である。なお、発言者は、図示する以外の形式で表示されてもよい。また、発言者の候補となる人物、すなわち、参加者は、例えば、図5に示す設定画面で、参加者設定テキストボックス504にあらかじめ設定される。また、図4に示すように、参加者設定テキストボックス504に設定された参加者は、会議支援システムによって、参加者表示305のように表示される。
Further, when a speaker is identified, the speaker may be displayed by the conference support system as illustrated. In the illustrated example, the speaker's name is displayed in parentheses. The speaker may be displayed in a format other than that illustrated. Also, a person who is a candidate of a speaker, that is, a participant is set in advance in the participant
なお、図示する例は、参加者表示305に表示されるそれぞれの参加者に対して、ファンクションキーが紐付けられるように設定される例である。例えば、図示する例では、参加者の1人である「佐藤」が発言した場合には、「佐藤」が発言した発言内容を発言内容入力テキストボックス304に入力する際に、ファンクションキー「F2」が押下されると、入力された発言内容と、発言者情報である「佐藤」とが紐付けされる。すなわち、図示する例では、発言内容入力テキストボックス304に発言内容を入力する際にファンクションキー「F2」が押下されると、会議支援システムは、入力された発言内容に「(佐藤)」を付加して表示する。
The illustrated example is an example in which function keys are set to be associated with each participant displayed in the
また、発言の種類は、例えば、以下に示すような処理によって判断される。以下、発言の種類が「質問」、「回答」、「提案」、「課題」及び「意見」である例で説明する。 Also, the type of message is determined, for example, by the following process. Hereinafter, an example in which the type of the utterance is “Question”, “Answer”, “Proposal”, “Issue” and “Opinion” will be described.
図7は、本発明の第1実施形態の一実施形態に係る会議支援システムによる発言内容の種類を判断する処理の一例を示すフローチャートである。なお、発言内容の他に、記載内容が入力される場合には、記載内容も同様に処理される。 FIG. 7 is a flowchart showing an example of a process of determining the type of speech contents by the conference support system according to the first embodiment of the present invention. In addition to the statement content, when the description content is input, the description content is processed in the same manner.
ステップS01では、会議支援システムは、質問フラグを初期化する。具体的には、会議支援システムは、質問フラグに「FALSE」を設定する。なお、質問フラグは、直前に入力された発言内容の発言の種類が「質問」であるか否かを示すデータの例である。以下、質問フラグが「FALSE」であると、直前に入力された発言内容の発言の種類は、「質問」以外の発言の種類であることを示すとする。一方で、質問フラグが「TRUE」であると、直前に入力された発言内容の発言の種類は、「質問」の発言の種類であることを示すとする。 In step S01, the meeting support system initializes a question flag. Specifically, the meeting support system sets the question flag to “FALSE”. The question flag is an example of data indicating whether or not the type of the statement of the statement content inputted immediately before is “a question”. Hereinafter, when the question flag is “FALSE”, it is assumed that the type of the statement of the statement content inputted immediately before is the type of the statement other than “a question”. On the other hand, when the question flag is "TRUE", it is assumed that the type of the statement of the statement content inputted immediately before is the type of the statement of "a question".
ステップS02では、会議支援システムは、発言内容を入力する。具体的には、会議支援システムは、入力部1F1(図3)によって、発言内容を入力する。すなわち、図4に示す例では、発言内容入力テキストボックス304に発言内容がテキスト等で入力される。
In step S02, the meeting support system inputs the contents of the statement. Specifically, the meeting support system inputs the contents of the statement by the input unit 1F1 (FIG. 3). That is, in the example shown in FIG. 4, the content of the statement is input as text or the like in the statement content
ステップS03では、会議支援システムは、質問フラグが「TRUE」であるか否か判断する。次に、質問フラグが「TRUE」であると(ステップS03でYES)、会議支援システムは、ステップS04に進む。一方で、質問フラグが「TRUE」でない、すなわち、「FALSE」であると(ステップS03でNO)、会議支援システムは、ステップS05に進む。 In step S03, the meeting support system determines whether the question flag is "TRUE". Next, if the question flag is "TRUE" (YES in step S03), the conference support system proceeds to step S04. On the other hand, when the question flag is not "TRUE", that is, "FALSE" (NO in step S03), the conference support system proceeds to step S05.
ステップS04では、会議支援システムは、発言内容の発言の種類が「回答」であると判断する。なお、「回答」は、「質問」の発言の種類に該当する発言内容に対して返す発言内容等である。そのため、「回答」は、自由な表現が許される。すなわち、「回答」に対して、あらかじめ「回答」と判断できる表現が設定できない場合がある。そこで、図示するステップS03のように、会議支援システムは、直前の発言内容が「質問」であるか否か、すなわち、質問フラグによって、発言内容の発言の種類が「回答」であるか否かを判断する。つまり、直前の発言内容が「質問」であった場合には、会議支援システムは、次の発言内容の発言の種類を「回答」と判断する。一方で、直前の発言内容が「質問」以外であった場合には、会議支援システムは、次の発言内容の発言の種類を「回答」以外と判断する。このようにして、会議支援システムは、「回答」の発言内容を分類する。また、ステップS04では、会議支援システムは、質問フラグを「FALSE」と設定する。 In step S04, the meeting support system determines that the type of the statement of the statement content is "answer". The “answer” is the content of the statement returned to the content of the statement corresponding to the type of the statement of the “question”. Therefore, "answer" is allowed free expression. That is, in some cases, an expression that can be determined as an "answer" can not be set in advance for the "answer". Therefore, as in step S03 shown in the figure, the meeting support system determines whether or not the content of the immediately preceding message is a "question", that is, whether or not the type of the message of the content is "answer" by the question flag. To judge. That is, when the content of the immediately preceding message is a "question", the conference support system determines that the type of the message of the next content of the message is "answer". On the other hand, when the content of the immediately preceding utterance is other than the “question”, the conference support system determines that the type of the next utterance content is other than “answer”. In this manner, the meeting support system classifies the contents of the "answer". In step S04, the meeting support system sets the question flag to "FALSE".
ステップS05では、会議支援システムは、発言内容が「質問」の表現を含むか否かを判断する。例えば、会議支援システムは、発言内容の助動詞部分等によって、発言内容の発言の種類を判断する。具体的には、まず、例えば、「?」、「〜なのか?」又は「〜ないか?」等の表現があらかじめ記憶部1F3(図3)に記憶される。次に、判断部1F21(図3)によって、会議支援システムは、入力部1F1(図3)により入力される発言内容の全部又は一部と、記憶される表現とが一致するか否か判断する。すなわち、判断は、いわゆるパターンマッチング等によって実現される。 In step S05, the meeting support system determines whether the content of the statement includes the expression of "question". For example, the conference support system determines the type of the utterance content by the auxiliary verb part of the utterance content and the like. Specifically, first, expressions such as, for example, "?", "? ~?" Or "? ~?" Are stored in advance in the storage unit 1F3 (Fig. 3). Next, the conference support system determines whether all or a part of the contents of the utterance input by the input unit 1F1 (FIG. 3) matches the stored expression by the determination unit 1F21 (FIG. 3) . That is, the determination is realized by so-called pattern matching or the like.
次に、ステップS05で発言内容が「質問」の表現を含むと判断されると(ステップS05でYES)、会議支援システムは、ステップS06に進む。一方で、ステップS05で発言内容が「質問」の表現を含まないと判断されると(ステップS05でNO)、会議支援システムは、ステップS08に進む。 Next, when it is determined in step S05 that the message content includes the expression of “a question” (YES in step S05), the conference support system proceeds to step S06. On the other hand, if it is determined in step S05 that the message content does not include the expression of "question" (NO in step S05), the conference support system proceeds to step S08.
ステップS06では、会議支援システムは、発言内容の発言の種類を「質問」と判断する。 In step S06, the meeting support system determines that the type of the statement of the statement content is "a question".
ステップS07では、会議支援システムは、質問フラグに「TRUE」を設定する。 In step S07, the meeting support system sets “TRUE” in the question flag.
ステップS08では、発言内容が「提案」の表現を含むか否かを判断する。例えば、会議支援システムは、「質問」と同様に、発言内容の助動詞部分等によって、発言内容の発言の種類を判断する。具体的には、まず、例えば、「〜すべき」又は「〜した方がよい」等の表現があらかじめ記憶部1F3(図3)に記憶される。次に、判断部1F21(図3)によって、会議支援システムは、入力部1F1(図3)により入力される発言内容の全部又は一部と、記憶される表現とが一致するか否か判断する。 In step S08, it is determined whether the content of the statement includes an expression of "proposal". For example, the conference support system determines the type of the utterance content according to the auxiliary verb part of the utterance content and the like, as in the case of the “question”. Specifically, first, for example, expressions such as “To be done” or “It is better to do” are stored in advance in the storage unit 1F3 (FIG. 3). Next, the conference support system determines whether all or a part of the contents of the utterance input by the input unit 1F1 (FIG. 3) matches the stored expression by the determination unit 1F21 (FIG. 3) .
次に、ステップS08で発言内容が「提案」の表現を含むと判断されると(ステップS08でYES)、会議支援システムは、ステップS09に進む。一方で、ステップS08で発言内容が「提案」の表現を含まないと判断されると(ステップS08でNO)、会議支援システムは、ステップS10に進む。 Next, when it is determined in step S08 that the message content includes the expression of “proposal” (YES in step S08), the conference support system proceeds to step S09. On the other hand, if it is determined in step S08 that the content of the statement does not include the expression of "proposal" (NO in step S08), the conference support system proceeds to step S10.
ステップS09では、会議支援システムは、発言内容の発言の種類を「提案」と判断する。 In step S09, the meeting support system determines that the type of the statement of the statement content is "suggestion".
ステップS10では、発言内容が「課題」の表現を含むか否かを判断する。例えば、会議支援システムは、「質問」と同様に、発言内容の助動詞部分等によって、発言内容の発言の種類を判断する。具体的には、まず、例えば、「〜する必要がある」又は「〜しないといけない」等の表現があらかじめ記憶部1F3(図3)に記憶される。次に、判断部1F21(図3)によって、会議支援システムは、入力部1F1(図3)により入力される発言内容の全部又は一部と、記憶される表現とが一致するか否か判断する。 In step S10, it is determined whether the content of the statement includes the expression of "task". For example, the conference support system determines the type of the utterance content according to the auxiliary verb part of the utterance content and the like, as in the case of the “question”. Specifically, first, for example, expressions such as “must do” or “must do” are stored in advance in the storage unit 1F3 (FIG. 3). Next, the conference support system determines whether all or a part of the contents of the utterance input by the input unit 1F1 (FIG. 3) matches the stored expression by the determination unit 1F21 (FIG. 3) .
次に、ステップS10で発言内容が「課題」の表現を含むと判断されると(ステップS10でYES)、会議支援システムは、ステップS11に進む。一方で、ステップS10で発言内容が「課題」の表現を含まないと判断されると(ステップS10でNO)、会議支援システムは、ステップS12に進む。 Next, when it is determined in step S10 that the message content includes the expression of “task” (YES in step S10), the conference support system proceeds to step S11. On the other hand, when it is determined in step S10 that the message content does not include the expression of "task" (NO in step S10), the conference support system proceeds to step S12.
ステップS11では、会議支援システムは、発言内容の発言の種類を「課題」と判断する。 In step S11, the meeting support system determines that the type of the utterance content is “task”.
ステップS12では、会議支援システムは、発言内容の発言の種類を「意見」と判断する。 In step S12, the meeting support system determines that the type of the statement of the statement content is "opinion".
以上のように、ステップS02乃至ステップS12が、発言内容ごとに繰り返し行われる。このような処理を行うことで、会議支援システムは、発言内容の発言の種類を判断することができる。 As described above, steps S02 to S12 are repeated for each message content. By performing such processing, the meeting support system can determine the type of the statement of the statement content.
また、会議支援システムは、要約を表示してもよい。例えば、以下のように操作が行われると、会議支援システムは、要約及び全文を切り替える。 The meeting support system may also display the summary. For example, when the operation is performed as follows, the conference support system switches the summary and the full text.
図8は、本発明の第1実施形態の一実施形態に係る会議支援システムによる要約及び全文を切り替えるための画面の一例を示す図である。図示する画面は、会議中に表示される画面の例である。図示する「重要文抽出表示」と表示されている要約指示ボタンBN1が押下されると、会議支援システムは、要約を表示するように画面を切り替える。 FIG. 8 is a view showing an example of a screen for switching abstracts and full texts by the conference support system according to the embodiment of the first embodiment of the present invention. The illustrated screen is an example of a screen displayed during a meeting. When the summary instruction button BN1 displayed as “important sentence extraction display” illustrated is pressed, the conference support system switches the screen to display the summary.
図9は、本発明の第1実施形態の一実施形態に係る会議支援システムによる要約及び全文を切り替える処理の一例を示すフローチャートである。会議支援システムは、図示するような処理を行って、要約を生成する。以下、発言の種類が、「提案」、「質問」、「回答」、「ポジティブな意見」、「ネガティブな意見」、「中立な意見」、「情報」、「要求」、「課題」、「アクションアイテム」及び「決定事項」等である。 FIG. 9 is a flowchart showing an example of a process of switching abstracts and full texts by the conference support system according to the first embodiment of the present invention. The conference support system performs processing as illustrated to generate a summary. The following types of remarks are: "Suggestion", "Question", "Answer", "Positive Opinion", "Negative Opinion", "Neutral Opinion", "Information", "Request", "Issue", " The action items are "decision items" and the like.
ステップS21では、会議支援システムは、要約フラグを初期化する。具体的には、会議支援システムは、要約フラグに「FALSE」を設定する。なお、要約フラグは、入力された発言内容のうち、重要部分を抽出して要約を表示するか、すべての発言内容を示す全文を表示するかを切り替えるフラグである。以下、要約フラグが「FALSE」であると、会議支援システムは、全文を表示する設定がされているとする。一方で、要約フラグが「TRUE」であると、会議支援システムは、要約を表示する設定がされているとする。 In step S21, the meeting support system initializes a summary flag. Specifically, the meeting support system sets the summary flag to “FALSE”. The summary flag is a flag that switches whether to extract an important part of the input statement content and display a summary or to display a full text indicating all statement content. Hereinafter, when the summary flag is “FALSE”, it is assumed that the conference support system is set to display the full text. On the other hand, when the summary flag is "TRUE", the conference support system is set to display a summary.
ステップS22では、会議支援システムは、要約指示ボタンBN1(図8)が押下されるのを受け付ける。この要約指示ボタンBN1が押下されるたびに、全文及び要約が切り替わる。 In step S22, the conference support system accepts that the summary instruction button BN1 (FIG. 8) is pressed. Every time the summary instruction button BN1 is pressed, the full text and the summary are switched.
ステップS23では、会議支援システムは、要約フラグが「TRUE」であるか否か判断する。次に、要約フラグが「TRUE」であると判断されると(ステップS23でYES)、会議支援システムは、ステップS24に進む。一方で、要約フラグが「TRUE」でない、すなわち、「FALSE」であると判断されると(ステップS23でNO)、会議支援システムは、ステップS26に進む。 In step S23, the meeting support system determines whether the summary flag is "TRUE". Next, when it is determined that the summary flag is “TRUE” (YES in step S23), the conference support system proceeds to step S24. On the other hand, when it is determined that the summary flag is not "TRUE", that is, "FALSE" (NO in step S23), the conference assistance system proceeds to step S26.
ステップS24では、会議支援システムは、全文を表示する。具体的には、例えば、図8に示す画面が、会議支援システムによって、表示される。すなわち、全文では、会議支援システムは、入力される発言内容のうち、全種類の発言内容を表示する。 In step S24, the meeting support system displays the full text. Specifically, for example, the screen shown in FIG. 8 is displayed by the meeting support system. That is, in the full text, the conference support system displays all types of the statement content among the statement content input.
ステップS25では、会議支援システムは、要約フラグを「FALSE」と設定する。 In step S25, the conference assistance system sets the summary flag to "FALSE".
ステップS26では、会議支援システムは、要約を表示する。具体的には、例えば、以下に示すような画面が、会議支援システムによって、表示される。 In step S26, the meeting support system displays a summary. Specifically, for example, a screen as shown below is displayed by the conference support system.
図10は、本発明の第1実施形態の一実施形態に係る会議支援システムによって表示される要約を示す画面の一例を示す図である。図8に示す画面と比較すると、図10に示す画面では、要約表示ABSが表示される点が異なる。 FIG. 10 is a view showing an example of a screen showing a summary displayed by the conference support system according to the embodiment of the first embodiment of the present invention. Compared with the screen shown in FIG. 8, the screen shown in FIG. 10 is different in that the summary display ABS is displayed.
要約は、入力される発言内容のうち、重要な発言内容を抽出した結果である。発言内容が重要な発言内容であるか否かは、あらかじめ設定される重要とする発言内容の種類であるか否かで判断される。例えば、要約は、入力される発言内容の全種類のうち、「提案」、「課題」及び「アクションアイテム」と判断される発言の種類の発言内容が抽出された結果である。すなわち、要約は、入力される発言内容のうち、所定の発言の種類の発言内容を会議支援システムが抽出して生成される議事録である。なお、図示する例は、図8に示す全文から、「課題」及び「アクションアイテム」と判断される発言の種類の発言内容が、会議支援システムによって抽出され、要約が生成された例である。図示するように、会議支援システムは、対象となる発言の種類の発言内容を表示し、それ以外の発言の種類の発言内容を非表示にする。すなわち、図10に示す要約が表示されると、参加者は、アクションアイテムを作りやすい。このように、要約が表示されると、会議のポイントを参加者がおさらいできる。そのため、会議支援システムは、取りこぼしがなく、課題、アクションアイテム又は決定事項等を参加者に整理させることができる。このようにして、会議支援システムは、会議を効率化できる。 The summary is the result of extracting important comment content out of the input statement contents. Whether or not an utterance content is an important utterance content is determined based on whether or not it is a type of important utterance content set in advance. For example, the summary is a result of extraction of the utterance content of the type of utterance judged as “proposal”, “task”, and “action item” among all types of input utterance content. That is, the summary is a minutes which is generated by the conference support system extracting an utterance content of a predetermined utterance type among the input utterance contents. Note that the illustrated example is an example in which the contents of the type of the speech judged as the “task” and the “action item” are extracted from the full text shown in FIG. 8 by the conference support system, and the summary is generated. As shown in the figure, the conference support system displays the utterance content of the target utterance type, and hides the utterance content of other utterance types. That is, when the abstract shown in FIG. 10 is displayed, the participant can easily make an action item. Thus, when the summary is displayed, participants can review the points of the conference. Therefore, the meeting support system can cause participants to arrange tasks, action items, decisions, and the like without omission. Thus, the meeting support system can streamline the meeting.
図9に戻り、ステップS27では、会議支援システムは、要約フラグを「TRUE」と設定する。 Returning to FIG. 9, in step S27, the conference support system sets the summary flag to "TRUE".
以上のように、ステップS22乃至ステップS27が、会議支援システムによって繰り返し行われる。このような処理を行うことで、会議支援システムは、全文及び要約を切り替えて表示することができる。 As described above, steps S22 to S27 are repeatedly performed by the meeting support system. By performing such processing, the meeting support system can switch and display the full text and the summary.
また、会議支援システムは、発言内容等のトピックを生成してもよい。トピックは、複数の文の題目、話題又は論題等を示す言葉である。例えば、会議支援システムは、以下のように生成したトピックを表示する。 In addition, the meeting support system may generate topics such as the contents of an utterance. The topic is a word indicating the subject, topic or topic of a plurality of sentences. For example, the meeting support system displays the topic generated as follows.
図11は、本発明の第1実施形態の一実施形態に係る会議支援システムによって生成されたトピックの表示の一例を示す図である。図示する例では、会議支援システムは、トピック1101を生成し、各トピック1101に対して、それぞれ該当する発言内容1102を配置して表示する。
FIG. 11 is a view showing an example of display of a topic generated by the conference support system according to the embodiment of the first embodiment of the present invention. In the illustrated example, the meeting support system generates
会議における発言内容等は、複数のトピック1101で構成される場合が多い。なお、会議における発言内容は、複数のトピック1101で構成される場合又はトピック1101と同一である場合がある。
The contents of a statement etc. in a meeting are often composed of a plurality of
図示するように、発言内容1102は、トピック1101ごとにグルーピングされる。そして、トピックごとにグルーピングされた発言内容1102は、個々の発言内容1102の種類によって装飾される。また、図示する例は、発言内容1102のうち、「ポジティブな意見」の発言内容1102が左側に配置され、一方で、「ネガティブな意見」及び「課題」の発言内容1102が右側に配置される例である。このように、文の種類によって、文が配置されると、会議支援システムは、ユーザが直観的に議論の内容を把握しやすく表示することができる。
As shown in the figure, the
また、発言内容1102が長い発言内容である場合には、会議支援システムは、発言内容1102の文が短くなるようにしてもよい。例えば、会議支援システムは、いわゆる文圧縮(Sentence compression)等を行う。すなわち、会議支援システムは、文圧縮等によって、個々の発言内容をシンプルな形式に変換してもよい。
In addition, when the
具体的には、会議支援システムは、まず、構文解析ツール等によって発言内容を構文解析する。そして、構文解析によって、発言内容は、複数の要素に分けられる。次に、会議支援システムは、各要素にそれぞれの重要度を付与する。続いて、会議支援システムは、重要度に基づいて、重要度が低い要素を削除する。このようにすると、会議支援システムは、文の構造を破壊せずに、文の要素を少なくし、発言内容を短くすることができる。 Specifically, the conference support system first parses the speech content by a syntactic analysis tool or the like. And, the syntactic analysis divides the speech contents into a plurality of elements. Next, the meeting support system assigns each element a degree of importance. Subsequently, the meeting support system deletes elements of low importance based on the importance. In this way, the conference support system can reduce the elements of the sentence and shorten the contents of the statement without destroying the structure of the sentence.
また、重要度は、例えば、以下のように定められる。 Also, the importance is determined, for example, as follows.
・名詞、固有名詞、主格又は目的格は、重要度が高い。 ・ Nouns, proper nouns, nominative cases or purpose cases have high importance.
・例示を示す「等」若しくは助詞の「や」を含む要素、副詞又は連体修飾節は、重要度が低い。 -An element, an adverb or an adjective modification clause that includes an "etc." or a particle of "Y", which shows an example, has a low degree of importance.
したがって、会議支援システムは、連体修飾節、埋め込み文及び従属節等を削除して文圧縮を行い、発言内容を短くする。また、文圧縮は、例えば、"自然言語処理の基礎",奥村 学著,コロナ社出版に開示される方法等である。 Therefore, the conference support system compresses the sentence by deleting the adjunctive modification clause, the embedded sentence, the dependent clause, and the like, and shortens the utterance content. In addition, sentence compression is, for example, the method disclosed in "Basics of Natural Language Processing", by Okumura Manabu, Corona Press.
このようにして、会議支援システムによってトピックが表示されると、ユーザは、会議を容易におさらいすることができる。すなわち、会議支援システムが各トピックに紐づいた「課題」、「アクションアイテム」及び「決定事項」を表示することによって、ユーザは、会議等の情報共有のまとめを効率良く行うことができる。 In this way, when the topic is displayed by the meeting support system, the user can easily review the meeting. That is, the user can efficiently perform information sharing such as a meeting by displaying the “task”, the “action item” and the “decision item” associated with each topic by the meeting support system.
なお、会議システムは、会議終了時に使用されるに限られない。例えば、会議が終了した後、議事録等が入力されて使用されてもよい。また、トピック間の距離は、例えば、"http://ryotakatoh.hatenablog.com/entry/2015/10/29/015502"及び"http://tech−sketch.jp/2015/09/topic−model.html"に開示される方法等によって漏れ及び重複が少なくなるように生成されるのが望ましい。 Note that the conference system is not limited to being used at the end of the conference. For example, after the meeting is over, minutes may be input and used. Also, the distance between topics may be, for example, "http://ryotakatoh.hatenablog.com/entry/2015/10/29/015502" and "http://tech-sketch.jp/2015/09/topic-model It is desirable to be generated to reduce leakage and duplication, such as by the methods disclosed in ".html".
なお、トピック1101は、例えば、以下のようにして生成される。
The
図12は、本発明の第1実施形態の一実施形態に係る会議支援システムによるトピックの生成例を示すフローチャートである。例えば、図示するような処理が行われると、図11に示すような画面が会議支援システムによって表示できる。 FIG. 12 is a flowchart showing an example of topic generation by the conference support system according to the embodiment of the first embodiment of the present invention. For example, when a process as illustrated is performed, a screen as illustrated in FIG. 11 can be displayed by the meeting support system.
ステップS31では、会議支援システムは、文を入力する。例えば、会議支援システムが利用された会議が行われた後であれば、会議支援システムは、会議で発言された発言内容が入力された状態である。 In step S31, the meeting support system inputs a sentence. For example, after the meeting in which the meeting support system is used is performed, the meeting support system is in a state in which the content of the speech spoken in the meeting is input.
ステップS32では、会議支援システムは、トピック境界を推定する。具体的には、トピックは、各発言内容のグループに対して生成されるため、まず、会議支援システムは、発言内容をグループに分ける。そのため、会議支援システムは、グループに分ける区切りとなるトピック境界を推定する。例えば、会議支援システムは、共通する内容の発言内容又は関連性の高い発言内容と推定できる発言内容が同一のグループとなるように、トピック境界を推定する。 In step S32, the meeting support system estimates topic boundaries. Specifically, since the topic is generated for each group of the contents of the speech, the meeting support system first divides the contents of the speech into groups. Therefore, the meeting support system estimates topic boundaries which are divisions into groups. For example, the meeting support system estimates the topic boundaries such that the utterance content that is common content or the utterance content that can be estimated to be highly relevant utterance content is in the same group.
トピック境界は、例えば、以下の4つの方法等によって推定される。 The topic boundaries are estimated, for example, by the following four methods.
まず、第1の推定方法は、「トピックが遷移すると推定できるキーワードが検出される」と、トピック境界と推定する推定方法である。なお、トピックが遷移すると推定できるキーワードは、具体的には、「そういえば」及び「ところで」等である。また、このようなキーワードは、例えば、会議前等にあらかじめ会議支援システムにユーザ等によって設定される文である。 First, a first estimation method is an estimation method of estimating a topic boundary as "a keyword that can be estimated that a topic is transitioning is detected". Specifically, the keywords that can be estimated that the topic is transitioning are “if you say so” and “by the way”. Further, such a keyword is, for example, a sentence set by the user or the like in the conference support system in advance before the conference or the like.
また、第2の推定方法は、「対話主導権の交代を示す語が検出される」と、トピック境界と推定する推定方法である。具体的には、第2の推定方法は、「さっき」、「この前」又は「むかし」等の語が登場すると、トピック境界と推定する推定方法である。また、このような語は、例えば、会議前等にあらかじめ会議支援システムにユーザ等によって設定される文である。 Further, a second estimation method is an estimation method of estimating a topic boundary as "a word indicating a change in dialogue initiative is detected". Specifically, the second estimation method is an estimation method of estimating a topic boundary when a word such as "preceding", "preceding", or "preceding" appears. Further, such a word is, for example, a sentence set by the user or the like in the conference support system in advance before the conference or the like.
なお、第1及び第2の推定方法は、例えば、"情報探索雑談におけるトピック遷移検出","http://www.cl.cs.titech.ac.jp/_media/publication/632.pdf"に開示される方法等である。 The first and second estimation methods may be, for example, “topic transition detection in information search chat”, “http://www.cl.cs.titech.ac.jp/_media/publication/632.pdf” It is the method etc. which are disclosed.
さらに、第3の推定方法は、「質問」の種類の文が登場すると、トピック境界と推定する推定方法である。つまり、「質問」と判断される文があると、会議支援システムは、トピック境界と推定する。 Furthermore, the third estimation method is an estimation method of estimating a topic boundary when a sentence of type "question" appears. That is, if there is a sentence judged to be a "question", the meeting support system estimates it as a topic boundary.
さらにまた、第4の推定方法は、「語彙的結束性」を用いてトピック境界を推定する推定方法である。第4の推定方法では、例えば、「語彙的結束性」がシソーラス(Thesaurus)等を用いて計算される。具体的には、「語彙的結束性」関係にある文の集合で構成される連鎖、いわゆる「語彙的連鎖(Lexical chain)」がまず検出される。そして、第4の推定方法では、「語彙的結束性」が文の意味のあるまとまりを示すと見なし、「語彙的連鎖」の始点及び終点となる箇所がトピック境界であると推定する推定方法である。例えば、第4の推定方法は、"語彙的結束性に基づいたテキストセグメンテーション","https://ipsj.ixsq.nii.ac.jp/ej/index.php?action=pages_view_main&active_action=repository_action_common_download&item_id=49265&item_no=1&attribute_id=1&file_no=1&page_id=13&block_id=8"及び"自然言語処理の基礎",奥村 学著,コロナ社出版に開示される方法等である。 Furthermore, the fourth estimation method is an estimation method of estimating topic boundaries using “lexical cohesion”. In the fourth estimation method, for example, “lexical cohesion” is calculated using a thesaurus or the like. Specifically, a chain consisting of a set of sentences in a "lexical cohesion" relationship, a so-called "lexical chain" is first detected. Then, in the fourth estimation method, it is assumed that “lexical cohesion” indicates that the sentence has a meaningful grouping, and it is estimated that the start and end points of the “lexical chain” are the topic boundaries. is there. For example, the fourth estimation method is “text segmentation based on lexical cohesion”, “https://ipsj.ixsq.nii.ac.jp/ej/index.php?action=pages_view_main&active_action=repository_action_common_download&item_id=49265&item_no= 1 & attribute_id = 1 & file_no = 1 & page_id = 13 & block_id = 8 "and" Basics of Natural Language Processing ", by Okumura Manabu, and the method disclosed in Corona, Inc., etc.
ステップS33では、会議支援システムは、トピックを生成する。すなわち、ステップS33では、会議支援システムは、ステップS32で推定されるトピック境界ごとに、それぞれのトピックを生成する。したがって、ステップS33は、トピック境界で区切られたグループ数分繰り返し行われる。 In step S33, the meeting support system generates a topic. That is, in step S33, the meeting support system generates each topic for each topic boundary estimated in step S32. Therefore, step S33 is repeated for the number of groups divided by topic boundaries.
トピックは、例えば、以下の3つの方法等によって推定される。 The topic is estimated, for example, by the following three methods.
第1の生成方法は、トピック境界によってグルーピングされた文のうち、固有名詞又は辞書に登録されていない文、いわゆる未知語を抽出し、トピックとする生成方法である。 The first generation method is a generation method of extracting a so-called unknown word, a sentence not registered in a proper noun or a dictionary, out of sentences grouped by topic boundaries, and setting it as a topic.
また、第2の生成方法では、まず、トピック境界によってグルーピングされた文のうち、名詞、動詞又は形容詞が抜き出される。次に、第2の生成方法では、抜き出された文の活用が原型に戻される。そして、登場する回数が多い文が、トピックとされる。このように、会議支援システムは、トピック等を表示することができる。 In the second generation method, first, nouns, verbs or adjectives are extracted from the sentences grouped by the topic boundaries. Next, in the second generation method, utilization of the extracted sentence is returned to the original form. Then, sentences that appear many times are considered as topics. Thus, the meeting support system can display topics and the like.
他にも、第3の生成方法では、トピックは、例えば、トピック境界で区切られるグループに含まれる重要単語等でもよい。例えば、重要単語は、TF−IDF(Term Frequency−Inverse Document Frequency)法等によって特定できる。 Besides, in the third generation method, the topic may be, for example, an important word included in a group separated by topic boundaries. For example, the important words can be identified by the TF-IDF (Term Frequency-Inverse Document Frequency) method or the like.
そして、会議支援システムは、発言内容のうち、あらかじめ設定される種類の文(以下「特定文」という。)をリスト化して出力する。まず、会議支援システムを利用し、会議が行われた場合であるとする。次に、会議システムには、あらかじめ「課題」、「アクションアイテム」又は「決定事項」に分類される特定文がある場合には、以下のような処理を行うように設定される例とする。 Then, the conference support system lists and outputs types of sentences (hereinafter referred to as “specific sentences”), which are set in advance, out of the contents of the speech. First, it is assumed that the meeting support system is used to hold a meeting. Next, in the conference system, when there is a specific sentence classified in advance as “problem”, “action item” or “decision item”, the following processing is set as an example.
図13は、本発明の第1実施形態の一実施形態に係る会議支援システムによるアラート等の表示の一例を示す図である。まず、会議支援システムを利用して、会議が行われ、かつ、「課題」の種類となる発言内容等が会議で発言されるとする。すなわち、「課題」に分類される特定文が入力される例で以下説明する。そして、例えば、会議が終了すると、会議システムは、図示するような画面を出力する。なお、会議支援システムに電子メールの記載内容が入力される場合には、会議システムは、電子メールを受信した場合等に、図示するような画面を出力する。 FIG. 13 is a view showing an example of display of an alert or the like by the conference support system according to the embodiment of the first embodiment of the present invention. First, it is assumed that a meeting is held using the meeting support system, and the contents of a statement or the like which is the type of the “task” is made at the meeting. That is, an example in which a specific sentence classified as "problem" is input will be described below. Then, for example, when the conference ends, the conference system outputs a screen as illustrated. When the described content of the e-mail is input to the conference support system, the conference system outputs a screen as illustrated when e-mail is received.
具体的には、図示するように、会議支援システムは、アラート1201を表示する。図示する例では、アラート1201は、会議で発言された発言内容のうち、「課題」となる発言内容を表示するメッセージを示す。つまり、アラート1201によって、発言内容のうちから、「課題」にタグづけされた発言内容、すなわち、特定文が特定できる。
Specifically, as illustrated, the meeting support system displays an
なお、アラート1201は、押されると、表示している発言内容に対応する議事録等を表示するリンクであってもよい。ユーザがリンクとなるアラート1201を押すと、議事録等が表示されるため、アラート1201で表示される発言内容の背景又は決定に至る経緯等を知ることができる。このようにすると、例えば、マネージャがユーザである場合には、マネージャは、定期報告等が送られてくる前に、新たに発生した「課題」等を速やかに把握することができる。そのため、マネージャは、問題を早期に察知したり、問題に対して速やかにフォローしたりすることができる。 The alert 1201 may be a link that, when pressed, displays the minutes and the like corresponding to the content of the displayed utterance. When the user presses the alert 1201 serving as the link, the minutes and the like are displayed, so that it is possible to know the background of the contents of the message displayed in the alert 1201 or the process leading to the determination. In this way, for example, when the manager is a user, the manager can quickly grasp a newly generated “problem” or the like before the periodic report or the like is sent. Therefore, the manager can detect the problem early and follow the problem promptly.
次に、図示する例において、リストボタン1202が押されると、会議支援システムは、例えば、「課題」、「アクションアイテム」又は「決定事項」の種類の文を以下のようにリスト化して出力する。
Next, in the illustrated example, when the
図14は、本発明の第1実施形態の一実施形態に係る会議支援システムによるリスト化された特定文が出力された一例を示す図である。図示する例では、会議支援システムは、発言内容等から「課題」及び「アクションアイテム」となる種類の発言内容、すなわち、特定文を抽出して、リスト1301にして表示する例である。例えば、図14に示す画面は、図13における画面でリストボタン1202が押されると、会議支援システムによって表示される画面である。
FIG. 14 is a diagram showing an example in which the listed specific sentences are output by the conference support system according to the embodiment of the first embodiment of the present invention. In the illustrated example, the meeting support system is an example of extracting the speech contents of the types to be the “task” and the “action item” from the speech contents etc., that is, the specific sentences and displaying them as a
図示するように、リスト1301では、会議内で発言された発言内容のうち、「課題」、「アクションアイテム」及び「決定事項」となる種類の発言内容が順にリスト化され、表示される。また、この例の「課題」、「アクションアイテム」及び「決定事項」のように、リスト化される文の種類は、あらかじめ会議支援システムに設定される。
As shown in the figure, in the
このように、それぞれの特定文がリスト化されて表示されると、例えば、ユーザがマネージャである場合には、マネージャは、リスト1301を見て自部署に関わる課題等を一元管理することができる。
As described above, when each specific sentence is listed and displayed, for example, when the user is a manager, the manager can centrally manage tasks etc. related to his / her department by looking at the
また、図示するように、リスト1301に対して、リンク1302が設けられてもよい。具体的には、リンク1302は、押されると、例えば、リスト1301が示す「課題」、「アクションアイテム」及び「決定事項」が発生した場面、すなわち、特定文に関する議事録等の詳細が表示される。これによって、ユーザは、「課題」、「アクションアイテム」及び「決定事項」が決まる経緯及び背景等の詳細を把握することができる。
Also, as shown, a
なお、リスト1301として表示される文は、例えば、自部署に関係する文に限定された結果でもよい。例えば、入力される議事録等のうち、参加者に自部署に所属する者が含まれる場合には、会議支援システムは、会議で発言された文を自部署に関係すると判断する。また、電子メールでは、電子メールの送信者又は受信者に自部署に所属する者が含まれる場合には、会議支援システムは、電子メールに記載された文を自部署に関係すると判断する。さらに、電子メールの送信の際には、宛先の1つに会議支援システムが設定できるとし、電子メールの宛先となると、会議支援システムは、送信された電子メールに記載された文を自部署に関係すると判断する。
The sentence displayed as the
他にも、会議支援システムは、以下のように会議及び電子メールの経緯等を表示してもよい。 In addition, the meeting support system may display the history of the meeting and the e-mail as follows.
図15は、本発明の第1実施形態の一実施形態に係る会議支援システムによる経緯の表示例を示す図である。図示する画面は、例えば、図14に示す画面において、ボタン1303が押されると表示される画面の一例である。ユーザは、リスト化された発言内容のうち、経緯を参照したい発言内容があると、対応するボタン1303を押す操作を行う。
FIG. 15 is a view showing a display example of the process of the conference support system according to the first embodiment of the present invention. The screen illustrated is an example of a screen displayed when the
ボタン1303が押されると、会議支援システムは、リスト化された発言内容に関連する発言内容を抽出して時系列に並べて表示する。なお、抽出は、例えば、トピックごとでもよい。また、図示するように、抽出された発言内容等に関連する「アクションアイテム」及び「決定事項」等が表示されてもよい。なお、図示する「アクションアイテム」及び「決定事項」のように表示する項目は、あらかじめ会議支援システムに設定されるとする。
When the
発言内容1501は、議事録等に記載される日時等によって、時系列順のどの位置に表示されるかが特定される。また、電子メール等に記載される記載内容1502等は、SMTPのヘッダ等に入力される送信日時等によって、時系列順のどの位置に表示されるかが特定される。
It is specified at which position in time-series order the
このように、発言内容1501及び記載内容1502等の文が時系列順に表示されると、ユーザは、過去の意思決定の経緯等を把握することができる。例えば、配置転換等によって新しいマネージャが赴任した際の引き継ぎが容易にできたり、問題発生の際等に、振り返り又は原因分析等を容易にできたりすることができる。
As described above, when the
さらに、会議支援システムは、以下のように、コミュニケーションを可視化した画面を表示してもよい。以下、コミュニケーションを可視化した図を「コミュニケーション図」という。 Furthermore, the meeting support system may display a screen visualizing communication as follows. Hereinafter, a diagram that visualizes communication is called a "communication diagram."
図16は、本発明の第1実施形態の一実施形態に係る会議支援システムによって表示されるコミュニケーション図の一例を示す図である。図示するコミュニケーション図では、各ユーザ間のコミュニケーション量が、各ユーザ間を結ぶ線の太さで表現される例である。なお、コミュニケーション図は、例えば、図13に示す画面において、可視化ボタン1203が押されると、会議支援システムによって表示される図である。
FIG. 16 is a view showing an example of a communication diagram displayed by the conference support system according to the embodiment of the first embodiment of the present invention. The illustrated communication diagram is an example in which the amount of communication between each user is represented by the thickness of a line connecting each user. The communication diagram is a diagram displayed by the conference support system, for example, when the
まず、会議支援システムは、入力される議事録等から、参加者及び会議時間を抽出する。そして、会議支援システムは、参加者及び会議時間等に基づいて、各ユーザ間におけるコミュニケーションの強さ(以下「コミュニケーション強度」という。)を計算する。 First, the meeting support system extracts participants and the meeting time from the input minutes and the like. Then, the meeting support system calculates the strength of communication between the respective users (hereinafter referred to as “communication strength”) based on the participants and the meeting time and the like.
例えば、コミュニケーション強度は、各ユーザが共に参加した会議の会議時間を総和して計算される値等である。他にも、会議支援システムは、例えば、参加者の人数に基づいて、会議時間に重み付けをしてコミュニケーション強度を計算してもよい。具体的には、参加者の人数が少ない会議、例えば、参加者が2人であるマンツーマンの会議では、密なコミュニケーションが取られる可能性が高い。そのため、参加者の人数が少ない会議の会議時間には、大きい値となる重み付け係数を乗じて、会議支援システムは、コミュニケーション強度を計算する。このようにすると、参加者の人数が少ない会議の会議時間が多いユーザ間は、コミュニケーション強度が強いと計算される。 For example, the communication strength is a value calculated by summing up the meeting times of the meetings in which the respective users participated together. Alternatively, the meeting support system may calculate the communication strength by weighting the meeting time based on, for example, the number of participants. Specifically, in a meeting with a small number of participants, for example, in a one-to-one meeting in which two participants are involved, close communication is likely to be taken. Therefore, the meeting support system calculates the communication strength by multiplying the meeting time of the meeting with a small number of participants by the weighting factor which becomes a large value. In this way, it is calculated that the communication strength is strong among users who have a long meeting time of the meeting with a small number of participants.
なお、電子メールの場合には、電子メールが送受信される回数や、「宛先」であるか「CC(Carbon Copy、同報)」であるかの重み付け等に基づいて、コミュニケーション強度が計算される。 In the case of e-mail, the communication strength is calculated based on the number of times e-mails are transmitted and received, and the weighting of "destination" or "CC (Carbon Copy, broadcast)". .
そして、会議支援システムは、計算したコミュニケーション強度に基づいて、各ユーザ間を結ぶ線の太さを変更する。例えば、図示する例では、「ユーザB」と、「ユーザA」との間のコミュニケーション強度が強い場合には、図示するように、「ユーザB」UBと、「ユーザA」UAとの間は、太い線LN1で結ばれる。 Then, the meeting support system changes the thickness of the line connecting each user based on the calculated communication strength. For example, in the illustrated example, when the communication strength between “user B” and “user A” is strong, as illustrated, “user B” UB and “user A” UA are , It is tied by thick line LN1.
一方で、「ユーザB」UBと、「ユーザA」UAと比較すると、「ユーザD」UDと、「ユーザE」UEとの間のコミュニケーション強度の方が弱い場合には、図示するように、「ユーザD」UDと、「ユーザE」UEとの間は、太い線LN1より細い線LN2で結ばれる。すなわち、太い線LN1及び細い線LN2のように、会議支援システムは、コミュニケーション強度に基づいて、各ユーザ間を結ぶ線の太さを変更する。 On the other hand, when the communication strength between the “user D” UD and the “user E” UE is weaker as compared with the “user B” UB and the “user A” UA, as illustrated, The “user D” UD and the “user E” UE are connected by a line LN2 thinner than the thick line LN1. That is, like the thick line LN1 and the thin line LN2, the conference support system changes the thickness of the line connecting the users based on the communication strength.
このようにすると、会議支援システムは、ユーザ間のコミュニケーションの粗密を可視化することができる。また、このようなコミュニケーション図によって、ユーザは、仕事上におけるユーザ間のつながりの強度を把握することができる。これによって、ユーザは、組織の要となるユーザが誰であるかを把握したり、部署間をつなぐ重要なユーザを把握することができる。 In this way, the meeting support system can visualize the density of communication between users. Also, with such a communication diagram, the user can grasp the strength of the connection between users at work. This allows the user to understand who is the key user of the organization and to understand important users connecting departments.
なお、コミュニケーション図では、図示するように、「チームA」TA及び「チームB」TB等のように、会議支援システムは、複数のユーザを「チーム」としてもよい。図示する例のように、会議支援システムは、ユーザとチームとの間及びチームとチームとの間を各ユーザ間のように、コミュニケーション強度に基づく線で結んで表示してもよい。 In the communication diagram, as illustrated, the conference support system may use a plurality of users as a “team”, such as “team A” TA and “team B” TB. As in the illustrated example, the meeting support system may connect and display lines between users and teams and between teams and teams based on communication strength, such as between each user.
また、コミュニケーション図において、線が押されると、会議支援システムは、以下のような画面等を表示してもよい。 In addition, in the communication diagram, when a line is pressed, the conference support system may display the following screen or the like.
図17は、本発明の第1実施形態の一実施形態に係る会議支援システムによって表示されるコミュニケーション図におけるログの表示例を示す図である。例えば、図16における太い線LN1又は細い線LN2等が押されると、会議支援システムは、図17に示すように、各ユーザ間で行われた議事録等のコミュニケーションの記録、いわゆるログ(以下単に「ログ1601」という。)を表示する。ログ1601は、例えば、図示するように、線によって結ばれる各ユーザが同席した会議の議事録を一覧にして示す。また、ログ1601が示すリンクを押すと、会議支援システムは、図14に示すリンク1302が押された場合と同様に、議事録の詳細等を表示する。
FIG. 17 is a diagram showing a display example of a log in a communication diagram displayed by the conference support system according to the embodiment of the first embodiment of the present invention. For example, when the thick line LN1 or the thin line LN2 in FIG. 16 is pressed, the conference support system records a communication, such as minutes, performed between users, as shown in FIG. The "
このように、各コミュニケーションの詳細がログ1601等によって表示されると、ユーザは、各コミュニケーションの内容等を把握することができる。具体的には、ログ1601等によって、ユーザは、どのような報告がされているか又は他の部署と窓口となっているユーザがどのような意思決定をしているか等を把握することができる。
Thus, when the details of each communication are displayed by the
(第2実施形態)
第2実施形態は、例えば、第1実施形態と同様の全体構成及びハードウェア構成によって実現される実施形態である。したがって、全体構成及びハードウェア構成の説明は、省略し、異なる点を中心に以下説明する。第2実施形態は、第1実施形態と機能構成が異なる。
Second Embodiment
The second embodiment is, for example, an embodiment realized by the same overall configuration and hardware configuration as the first embodiment. Therefore, the description of the overall configuration and the hardware configuration is omitted, and different points will be mainly described below. The second embodiment is different in functional configuration from the first embodiment.
図18は、本発明の第2実施形態の一実施形態に係る会議支援システムの機能構成の一例を説明する機能ブロック図である。図3と比較すると、図18に示す機能構成は、制御部1F2が、コスト計算部1F31と、評価部1F32とを備える点が異なる。 FIG. 18 is a functional block diagram for explaining an example of a functional configuration of a conference support system according to an embodiment of the second embodiment of the present invention. Compared with FIG. 3, the functional configuration shown in FIG. 18 is different in that the control unit 1F2 includes a cost calculation unit 1F31 and an evaluation unit 1F32.
コスト計算部1F31は、参加者の人件費に基づいて、会議が行われたことによって発生するコストを計算する。 The cost calculator 1F31 calculates the cost generated by the conference held on the basis of the labor cost of the participant.
評価部1F32は、会議が行われた時間、発言内容の数、発言の種類及び発言の種類の割合等に基づいて、会議を評価する。 The evaluation unit 1F32 evaluates the conference based on the time when the conference was held, the number of utterance contents, the type of utterance, the ratio of the type of utterance, and the like.
コスト計算部1F31によるコストの計算及び評価部1F32による評価は、例えば、図4に示す「まとめ/保存用画面へ」のボタンであるまとめボタン309が押下された場合又は図6に示すようにアラート402が表示された場合等に行われる。例えば、会議システムは、以下のようなまとめ画面を表示する。
The cost calculation by the cost calculation unit 1F31 and the evaluation by the evaluation unit 1F32 may be performed, for example, when the
図19は、本発明の第2実施形態の一実施形態に係る会議支援システムによって表示されるまとめ画面の一例を示す図である。図示する画面の例では、議題表示801には、開催通知又は会議の冒頭で議題設定テキストボックス501(図5)等によって設定される議題が、会議支援システムによって表示される。さらに、図示する画面の例では、ゴール表示802には、開催通知又は会議の冒頭でゴール設定テキストボックス502(図5)等によって設定されるゴールが、会議支援システムによって表示される。
FIG. 19 is a diagram showing an example of a summary screen displayed by the conference support system according to the second embodiment of the present invention. In the illustrated example of the screen, the
議題表示801及びゴール表示802に表示される内容に基づいて、結論入力テキストボックス803に議論に対する結論が入力される。また、議題表示801及びゴール表示802に表示される内容に基づいて、アクションアイテム入力テキストボックス804に会議において決定されたアクションアイテムが入力される。なお、アクションアイテムに対しては、日付、すなわち、期限等が設定されてもよい。他にも、アクションアイテムに対しては、担当者が設定されてもよい。また、アクションアイテム入力テキストボックス804には、会議支援システムが、「アクションアイテム」と判断された発言内容をアクションアイテムの候補として表示してもよい。
Based on the contents displayed in the
また、会議支援システムは、コスト計算部1F31(図18)によるコストの計算及び評価部1F32(図18)による評価を例えば以下のような評価画面で表示する。 In addition, the conference support system displays the calculation of the cost by the cost calculation unit 1F31 (FIG. 18) and the evaluation by the evaluation unit 1F32 (FIG. 18), for example, in the following evaluation screen.
図20は、本発明の第2実施形態の一実施形態に係る会議支援システムによって表示される評価画面の一例を示す図である。例えば、会議支援システムは、会議におけるコスト及び評価結果を図示するように点数及び金額等で表示する。 FIG. 20 is a diagram showing an example of an evaluation screen displayed by the conference support system according to the second embodiment of the present invention. For example, the meeting support system displays the cost and the evaluation result in the meeting as a score and an amount as illustrated.
会議点数901は、達成度評価点902、会議時間評価点903、活性度評価点904及び前向き度評価点905のそれぞれの点数を合計した総合的な点数である。
The
達成度評価点902は、議題設定テキストボックス501(図5)等によって設定されるそれぞれの議題について、あらかじめ設定されるゴールに対して結論がそれぞれ入力されたか否かの評価結果である。例えば、議題設定テキストボックス501(図5)等によって議題が4つ設定された場合であって、4つの議題に対して入力された結論が2つであると、会議支援システムは、達成度評価点902を満点の半分とする。
The achievement
会議時間評価点903は、開催通知又は予定時間設定テキストボックス503(図5)等によって設定される予定時間と、会議が行われた時間とを比較した評価結果である。例えば、会議が行われた時間が予定時間よりも短いと、会議時間評価点903は、高くなる。一方で、会議が行われた時間が予定時間よりも長いと、会議時間評価点903は、低くなる。
The meeting
活性度評価点904は、発言内容の数又は単位時間あたりの発言内容の数等に基づいて評価された評価結果である。例えば、発言内容の数又は単位時間あたりの発言内容の数等が多いと、活性度評価点904は、高くなる。一方で、発言内容の数又は単位時間あたりの発言内容の数等が少ないと、活性度評価点904は、低くなる。このため、活性度評価点904が低い場合には、会議が不要である情報共有の場となっている可能性又は議題に関係の無い人が集められていることによっていわゆる内職が行われている可能性がある。そこで、会議支援システムは、これらの可能性をフィードバックすることで、会議の運営の改善を促すことができる。
The
前向き度評価点905は、判断部1F21(図18)によって判断される発言の種類及び発言の種類の割合に基づいて評価された評価結果である。例えば、「提案」と評価される発言内容の種類の割合が高いと、前向き度評価点905は、高くなる。一方で、「提案」と評価される発言内容の種類の割合が低いと、前向き度評価点905は、低くなる。このため、前向き度評価点905が低い場合には、会議が、評論及びコメント等が多く、結論に近づかない会議である可能性がある。そこで、会議支援システムは、この可能性を示唆し、ゴールに向けて建設的な意見を出すよう促すことができる。
The degree-of-
会議支援システムは、評価部1F32(図18)によって、上記の評価を行う。次に、会議支援システムは、出力部1F4(図18)によって、評価結果を画面等に出力することで、参加者に客観的な会議に対する評価結果をフィードバックすることができる。このように、フィードバックがされると、会議支援システムは、会議のどのあたりに問題がありそうか等を参加者に示唆したり、会議が行われた時間等を参加者に意識させたりすることができる。これによって、会議支援システムは、参加者に、会議に参加させるメンバ又は進め方等を再考させることができる。 The conference support system performs the above evaluation by the evaluation unit 1F 32 (FIG. 18). Next, the meeting support system can feed back the evaluation result of the objective meeting to the participants by outputting the evaluation result on a screen or the like by the output unit 1F4 (FIG. 18). In this way, when feedback is given, the meeting support system suggests to the participants where in the meeting the problem is likely to occur, and the participants are made aware of the time at which the meeting was held. Can. Thus, the meeting support system can cause the participants to reconsider the members or the manner of proceeding to the meeting.
なお、各評価結果、発言内容の数及び発言の種類等は、会議中に会議支援システムによって表示されてもよい。例えば、図4に示す例では、評価結果等は、評価表示310のように表示されてもよい。すなわち、評価結果等は、会議中にリアルタイムに表示されてもよい。このようにすると、会議支援システムは、例えば、発言が少ない人に発言を促すこと等ができる。
Note that each evaluation result, the number of utterance contents, the type of utterance, and the like may be displayed by the meeting support system during the meeting. For example, in the example illustrated in FIG. 4, the evaluation result or the like may be displayed as the
また、会議支援システムは、評価において、「課題」及び「提案」等であると判断される発言内容に対して、重み付けを行ってもよい。このようにして、会議支援システムは、「課題」及び「提案」等の発言の種類となる発言内容を多く参加者に発言させるよう促すことができる。ゆえに、会議支援システムは、より有益な議論を促すことができる。 In addition, the meeting support system may perform weighting on the statement contents that are determined to be “problem”, “suggestion”, and the like in the evaluation. In this manner, the conference support system can urge the participants to make a large number of speech contents that are the types of speech such as “task” and “proposal”. Thus, the conference support system can facilitate more useful discussions.
他にも、評価画面では、会議支援システムは、コストの計算結果等を表示してもよい。例えば、コストは、コスト計算部1F31(図18)によって、会議時間906及び参加者のそれぞれの人件費等に基づいて計算される。計算されたコストは、例えば、コスト表示907等のように表示される。
Besides, in the evaluation screen, the meeting support system may display the calculation result of the cost and the like. For example, the cost is calculated by the cost calculator 1F31 (FIG. 18) based on the
コストを計算するには、まず、会議支援システムには、参加者の単位時間あたりの人件費が入力される。なお、人件費は、参加者全員で一律固定でもよいし、役職ごとに設定されてもよい。他にも、人件費は、実際の給与等に基づいて設定されてもよい。 In order to calculate the cost, first, the meeting support system is input with the labor cost per unit time of the participant. The personnel expenses may be fixed uniformly for all the participants or may be set for each post. In addition, the labor cost may be set based on the actual salary and the like.
次に、会議支援システムは、会議開始時刻から会議が終了するまでに経過した時間を計測し、計測結果を会議時間906に表示する。そして、会議支援システムは、それぞれの参加者の単位時間あたりの人件費に、会議時間906を乗算し、各参加者のコストをそれぞれ計算する。次に、会議支援システムは、各参加者のそれぞれのコストを総和し、計算結果をコスト表示907に表示する。
Next, the meeting support system measures the time elapsed from the meeting start time until the end of the meeting, and displays the measurement result in the
また、評価画面では、参加者ごとに評価結果が、会議支援システムによって表示されてもよい。例えば、参加者ごとの評価結果は、貢献度表示908等のように表示される。
Further, on the evaluation screen, the evaluation result may be displayed by the conference support system for each participant. For example, the evaluation result for each participant is displayed as a
貢献度表示908は、例えば、判断部1F21(図18)によって判断される発言の種類及び発言内容の数等に基づいて、参加者ごとのそれぞれの評価結果を示す。なお、発言内容は、図3に示す発言者判断部1F24等によってそれぞれの発言内容を発言した参加者に紐づけられている。
The
貢献度表示908は、例えば、以下のようにして会議支援システムによって計算される。まず、参加者は、「中立的な意見」を「1ポイント」とし、「課題」及び「提案」を「5ポイント」とする等のように、会議の目的に合わせて重要と考えられる発言の種類に重みを設定する。なお、会議支援システムには、「課題」及び「提案」等の建設的な意見等の重みが大きくなるような設定がされるのが望ましい。このように設定されると、会議支援システムは、問題解決に向けて有益な議論を促すことができる。
The
次に、会議支援システムは、判断部1F21(図18)による判断結果と、発言内容の数との積によって参加者ごとに評価を行う。この評価によって計算される値が、貢献度表示908に図示する「貢献度」及び「獲得ポイント」である。このように、「貢献度」等が、会議支援システムによって、参加者にフィードバックされると、参加者は、会議に参加させるメンバを見直すのに「貢献度」等を用いることができる。ゆえに、会議支援システムは、より有益な議論を促すことができる。また、不要なメンバが参加者となるのを少なくできるため、会議支援システムは、会議にかかるコストを削減することができる。
Next, the conference support system evaluates each participant based on the product of the determination result by the determination unit 1F 21 (FIG. 18) and the number of utterance contents. The values calculated by this evaluation are the "contribution" and "acquisition point" illustrated in the
なお、上記に示す各画面は、図1に示すネットワーク12に接続される各端末11でリアルタイムに共有化されてもよい。このようにすると、ディスプレイのない場所で会議が行われても、ノートPC等の端末11を参加者が持ち寄れば、各参加者は、上記の各画面を見て会議を行うことができる。
In addition, each screen shown above may be shared in real time by each terminal 11 connected to the
また、発言内容等は、各端末11から共同で編集できてもよい。例えば、サーバ10は、画面に表示する内容等を例えばHTML(Hyper Text Markup Language)ファイル等にして、それぞれの端末11に送信する。次に、発言内容等が入力され、サーバ10に発言内容等を示すデータが送信されると、サーバ10は、新たな発言内容等を反映させたHTMLファイルをそれぞれの端末11に送信する。
Further, the contents of the statement may be edited jointly from each terminal 11. For example, the
なお、画面に表示される言葉は、翻訳処理が施されてもよい。例えば、発言内容等が入力され、サーバ10に発言内容等を示すデータが送信されると、サーバ10は、発言内容を翻訳し、翻訳前の発言内容と、翻訳後の発言内容とを示すHTMLファイルを生成する。続いて、サーバ10は、翻訳前の発言内容と、翻訳後の発言内容とを示すHTMLファイルをそれぞれの端末11に送信する。このようにすると、異言語の参加者であっても、会議支援システムは、ミスコミュニケーションが少なくなるようにできる。
The words displayed on the screen may be subjected to translation processing. For example, when the content of a statement is input and data indicating the content of a statement is transmitted to the
また、各端末11は、ユーザ認証を行ってもよい。例えば、ユーザ認証は、画面に表示されるユーザ名の入力テキストボックスにユーザ名を入力して行われる。他にも、ユーザ認証は、ICカード又はRFID等を用いて行われてもよい。このようにして、図4に示すファンクションキーの割り当てと同様に、上記のユーザ認証の認証結果と、発言内容が入力された端末とに基づいて、発言者及び発言内容が紐づけられてもよい。なお、発言者に係る情報は、第1実施形態と同様に、色付け、文頭の表示又は文末の表示等によって付加されてもよい。 Each terminal 11 may perform user authentication. For example, user authentication is performed by inputting the user name in the input text box of the user name displayed on the screen. Besides, user authentication may be performed using an IC card or an RFID. In this manner, as in the case of assignment of function keys shown in FIG. 4, the speaker and the content of the utterance may be linked based on the authentication result of the user authentication described above and the terminal to which the content of the utterance is input. . The information on the speaker may be added by coloring, displaying the beginning of a sentence, displaying the end of a sentence, or the like, as in the first embodiment.
さらに、発言内容に対して、主観評価が入力され、入力される主観評価に基づいて、会議支援システムは、評価を行ってもよい。例えば、主観評価は、以下のように入力される。 Furthermore, a subjective evaluation may be input with respect to the content of an utterance, and a meeting assistance system may perform evaluation based on the input subjective evaluation. For example, the subjective evaluation is input as follows.
図21は、本発明の第2実施形態の一実施形態に係る会議支援システムによって表示される主観評価を入力するための画面の一例を示す図である。図6と比較すると、図示する画面の例には、表示されるそれぞれの発言内容に対して、主観評価ボタン1001がそれぞれ加わる点が異なる。
FIG. 21: is a figure which shows an example of the screen for inputting the subjective evaluation displayed by the meeting assistance system which concerns on one Embodiment of 2nd Embodiment of this invention. Compared with FIG. 6, the example of the illustrated screen is different in that the
図示するように、主観評価ボタン1001は、発言内容ごとに表示される。そして、各参加者は、各自が支持する発言内容であると判断する場合には、支持する内容の発言内容に対して表示される主観評価ボタン1001を押す。なお、主観評価ボタン1001は、入力を担当する参加者によって押されてもよいし、各参加者がそれぞれの判断に基づいて押してもよい。また、主観評価ボタン1001は、支持しない場合に、押されるボタンでもよい。このように、主観評価が入力されると、会議支援システムは、各発言内容が各参加者の主観的に基づいて良い発言であるか否かを評価できる。そして、会議支援システムは、主観評価による評価結果を表示して、参加者に会議の目的達成に向けた良い発言を促すことができる。
As illustrated, the
また、会議支援システムは、主観評価ボタン1001による入力に基づいて発言内容を装飾して表示してもよい。例えば、図示する画面では、会議支援システムは、主観評価ボタン1001が押された発言内容を大表示1002にして表示する。大表示1002は、図示するように、他の発言内容と比較すると、発言内容を示す文字のフォントサイズが大きくなるように装飾された例である。このように、装飾が行われて発言内容が出力されると、参加者は、発言内容のうち、その発言内容が支持されているかが直観的にわかる。また、会議支援システムは、ユーザ情報を利用して、特定の意見に対して誰が賛成で誰が反対であるか等の発言内容に対する賛否の状況を表示してもよい。
In addition, the conference support system may decorate and display the speech content based on the input by the
なお、装飾は、例えば、支持及び支持しない情報を利用して、Javascript(登録商標)等の言語を用いて、CSS(Cascading Style Sheets)の記述を変更して実現される。 Note that the decoration is realized by changing the description of Cascading Style Sheets (CSS) using a language such as Javascript (registered trademark), for example, using information that is supported and not supported.
また、要約を表示する際には、会議支援システムは、発言の種類に基づく表示を行うに加えて、入力される主観評価に基づいて重要な発言と判断できる発言内容を表示してもよい。このようにすると、参加者は、結論に至るまでの議論の経緯をより理解することができる。すなわち、これにより、会議支援システムは、会議の振り返り及び情報共有として有効な議事録を生成することができる。 Further, when displaying the summary, the conference support system may display, in addition to the display based on the type of the speech, the speech content that can be judged as the important speech based on the input subjective evaluation. In this way, participants can better understand the background of the discussion leading up to the conclusion. That is, this enables the meeting support system to generate minutes that are effective as meeting reflection and information sharing.
さらに、評価部1F32(図18)は、会議が行われた時間に基づいて会議を評価してもよい。例えば、評価部1F32(図18)は、以下のようにして評価を行う。 Furthermore, the evaluation unit 1F32 (FIG. 18) may evaluate the meeting based on the time when the meeting was held. For example, the evaluation unit 1F32 (FIG. 18) performs the evaluation as follows.
図22は、本発明の第2実施形態の一実施形態に係る会議支援システムによる会議が行われた時間に基づいて評価を行う処理の一例を示すフローチャートである。 FIG. 22 is a flow chart showing an example of a process of performing evaluation based on the time when the meeting was held by the meeting support system according to the second embodiment of the present invention.
ステップS31では、会議支援システムは、評価ボタンが押下されるのを受け付ける。例えば、図10に示す「この会議を評価する」等の評価ボタンが押下されると、会議支援システムは、評価を開始する。また、会議が行われた時間は、会議が開始された時刻から会議が終了した時刻までの時間(以下「経過時間」という。)であるとする。さらに、会議が行われる予定時間(以下単に「予定時間」という。)は、評価ボタンが押下される前等にあらかじめ会議支援システムに入力されるとする。 In step S31, the meeting support system receives the pressing of the evaluation button. For example, when an evaluation button such as “evaluate this meeting” shown in FIG. 10 is pressed, the meeting support system starts the evaluation. In addition, it is assumed that the time when the conference was held is the time from the time when the conference was started to the time when the conference was ended (hereinafter referred to as "elapsed time"). Furthermore, it is assumed that the scheduled time for the conference to be held (hereinafter simply referred to as “scheduled time”) is input to the conference support system in advance before the evaluation button is pressed, for example.
ステップS32では、会議支援システムは、経過時間が予定時間を10%以上オーバーしたか否か判断する。次に、経過時間が予定時間を10%以上オーバーしたと会議支援システムによって判断されると(ステップS32でYES)、会議支援システムは、ステップS33に進む。一方、経過時間が予定時間を10%以上オーバーしていないと会議支援システムによって判断されると(ステップS32でNO)、会議支援システムは、ステップS34に進む。 In step S32, the meeting support system determines whether the elapsed time has exceeded the planned time by 10% or more. Next, when it is determined by the conference support system that the elapsed time has exceeded the planned time by 10% or more (YES in step S32), the conference support system proceeds to step S33. On the other hand, if it is determined by the conference support system that the elapsed time has not exceeded the planned time by 10% or more (NO in step S32), the conference support system proceeds to step S34.
ステップS33では、会議支援システムは、評価点を「0」ポイントとする。 In step S33, the meeting support system sets the evaluation point to "0".
ステップS34では、会議支援システムは、経過時間が予定時間を10%未満オーバーしたか否か判断する。次に、経過時間が予定時間を10%未満オーバーしたと会議支援システムによって判断されると(ステップS34でYES)、会議支援システムは、ステップS35に進む。一方、経過時間が予定時間を10%未満オーバーしていないと会議支援システムによって判断されると(ステップS34でNO)、会議支援システムは、ステップS36に進む。 In step S34, the meeting support system determines whether the elapsed time has exceeded the scheduled time by less than 10%. Next, when it is determined by the meeting support system that the elapsed time has exceeded the scheduled time by less than 10% (YES in step S34), the meeting support system proceeds to step S35. On the other hand, when it is determined by the meeting support system that the elapsed time has not exceeded the scheduled time by less than 10% (NO in step S34), the meeting support system proceeds to step S36.
ステップS35では、会議支援システムは、評価点を「5」ポイントとする。 In step S35, the meeting support system sets the evaluation point to "5".
ステップS36では、会議支援システムは、経過時間が予定時間を5%未満オーバーしたか否か判断する。次に、経過時間が予定時間を5%未満オーバーしたと会議支援システムによって判断されると(ステップS36でYES)、会議支援システムは、ステップS37に進む。一方、経過時間が予定時間を5%未満オーバーしていないと会議支援システムによって判断されると(ステップS36でNO)、会議支援システムは、ステップS38に進む。 In step S36, the meeting support system determines whether the elapsed time has exceeded the scheduled time by less than 5%. Next, when it is determined by the conference support system that the elapsed time has exceeded the scheduled time by less than 5% (YES in step S36), the conference support system proceeds to step S37. On the other hand, if it is determined by the meeting support system that the elapsed time has not exceeded the scheduled time by less than 5% (NO in step S36), the meeting support system proceeds to step S38.
ステップS37では、会議支援システムは、評価点を「10」ポイントとする。 In step S37, the meeting support system sets the evaluation point to "10".
ステップS38では、会議支援システムは、経過時間が予定時間より10%以上短いか否か判断する。次に、経過時間が予定時間より10%以上短いと会議支援システムによって判断されると(ステップS38でYES)、会議支援システムは、ステップS39に進む。一方、経過時間が予定時間より10%以上短くないと会議支援システムによって判断されると(ステップS38でNO)、会議支援システムは、ステップS40に進む。 In step S38, the meeting support system determines whether the elapsed time is 10% or more shorter than the scheduled time. Next, when it is determined by the meeting support system that the elapsed time is 10% or more shorter than the scheduled time (YES in step S38), the meeting support system proceeds to step S39. On the other hand, if it is determined by the meeting support system that the elapsed time is not 10% or more shorter than the scheduled time (NO in step S38), the meeting support system proceeds to step S40.
ステップS39では、会議支援システムは、評価点を「25」ポイントとする。 In step S39, the meeting support system sets the evaluation point to "25".
ステップS40では、会議支援システムは、経過時間が予定時間より5%以上短いか否か判断する。次に、経過時間が予定時間より5%以上短いと会議支援システムによって判断されると(ステップS40でYES)、会議支援システムは、ステップS41に進む。一方、経過時間が予定時間より5%以上短くないと会議支援システムによって判断されると(ステップS40でNO)、会議支援システムは、ステップS42に進む。 In step S40, the meeting support system determines whether the elapsed time is 5% or more shorter than the scheduled time. Next, if it is determined by the meeting support system that the elapsed time is 5% or more shorter than the scheduled time (YES in step S40), the meeting support system proceeds to step S41. On the other hand, if it is determined by the meeting support system that the elapsed time is not 5% or more shorter than the scheduled time (NO in step S40), the meeting support system proceeds to step S42.
ステップS41では、会議支援システムは、評価点を「20」ポイントとする。 In step S41, the meeting support system sets the evaluation point to "20".
ステップS42では、会議支援システムは、評価点を「15」ポイントとする。 In step S42, the meeting support system sets the evaluation point to "15".
例えば、図示するように、会議支援システムは、経過時間が予定時間より短い場合を評価点が高くなるように評価する。一方で、会議支援システムは、経過時間が予定時間をオーバーした場合を評価点が低くなるように評価する。なお、評価点の数値及び判断基準は、図示する値及び判断に限られず、設定等によって変更できてもよい。図示するように、評価された評価点が会議支援システムによって表示される。 For example, as illustrated, the conference support system evaluates cases where the elapsed time is shorter than the scheduled time so that the score is high. On the other hand, the meeting support system evaluates when the elapsed time exceeds the scheduled time so that the evaluation point becomes low. The numerical values of the evaluation points and the judgment criteria are not limited to the illustrated values and the judgment, and may be changed by setting or the like. As shown, the evaluated scores are displayed by the conference support system.
また、会議支援システムは、図20に示すように、星印等によって評価結果を表示してもよい。さらに、会議支援システムは、図20に示すように、行動の変容を促すコメント等を合わせて表示してもよい。さらにまた、図20に示すように、会議支援システムは、他の評価結果と併せて時間に係る評価結果を表示してもよい。このように、会議が行われた時間に基づいて会議を評価した評価結果が表示されると、会議支援システムは、参加者に会議に係る時間に対する意識を持たせることができ、時間内に目的を達成するように促すことができる。このようにして、会議支援システムは、会議を効率化させることができる。 Further, as shown in FIG. 20, the meeting support system may display the evaluation result by using a star or the like. Furthermore, as shown in FIG. 20, the meeting support system may also display a comment or the like prompting a change in behavior. Furthermore, as shown in FIG. 20, the meeting support system may display the evaluation result concerning time together with other evaluation results. Thus, when the evaluation result which evaluated the meeting based on the time when the meeting was held is displayed, the meeting support system can make the participants aware of the time concerning the meeting, and the purpose in time is Encourage them to achieve In this way, the meeting support system can streamline the meeting.
(第3実施形態)
第3実施形態は、例えば、第1実施形態と同様の全体構成、ハードウェア構成及び機能構成によって実現される実施形態である。以下、異なる点を中心に以下説明する。第3実施形態は、第1実施形態と比較すると、判断部1F21(図3)による判断方法が異なる。
Third Embodiment
The third embodiment is, for example, an embodiment realized by the same overall configuration, hardware configuration, and functional configuration as the first embodiment. Hereinafter, differences will be mainly described below. The third embodiment is different from the first embodiment in the determination method by the determination unit 1F21 (FIG. 3).
第3実施形態では、会議支援システムは、タグ付きコーパス(corpus)をいわゆる訓練データ(training data)とする。そして、会議支援システムは、機械学習の手法である、いわゆる教師あり学習(supervised learning)等を行うことで、自然言語処理を行う分類器を学習する。以下、タグ、すなわち、発言の種類が「提案」、「質問」、「回答」、「ポジティブな意見」、「ネガティブな意見」、「中立な意見」、「情報」、「要求」、「課題」、「アクションアイテム」及び「決定事項」等である例で説明する。 In the third embodiment, the conference support system uses a tagged corpus as so-called training data. Then, the conference support system learns a classifier that performs natural language processing by performing so-called supervised learning, which is a method of machine learning. The following tags indicate the types of comments: "Suggest", "Question", "Answer", "Positive Opinion", "Negative Opinion", "Neutral Opinion", "Information", "Request", "Issue An example of “action item” and “decision matter” will be described.
また、機械学習の手法は、例えば、サポートベクターマシン(SVM)、ナイーブベイズ分類器、決定木学習又は条件付き確立場(CRF)等である。なお、機械学習の手法は、サポートベクターマシンであるのが望ましい。サポートベクターマシンであると、順次判断を行うことができるため、いわゆるリアルタイム性等が良くなる。 The machine learning method is, for example, a support vector machine (SVM), a naive Bayes classifier, decision tree learning, a conditional establishment field (CRF), or the like. The machine learning method is preferably a support vector machine. If it is a support vector machine, so-called real-time performance etc. will be improved since judgment can be made sequentially.
分類器は、発言内容の特徴(以下「素性」という。)に基づいて、発言の種類を判断する。具体的には、素性は、発言のBoW(Bag of Words)や発言内容に含まれる助動詞、副詞、形容詞、名詞又は助動詞等の品詞、発言者が誰であるか等を使用する。例えば、形容詞は、ポジティブな表現又はネガティブな表現等を示す場合がある。また、名詞は、ポジティブな表現又はネガティブな表現等に加えて、「要検討」及び「要回答」等の「アクションアイテム」及び「課題」を示す表現である場合がある。さらに、助動詞等は、文末等において、希望、義務、必要性、依頼、提案、断定、推量、伝聞及び評価等を示す表現である場合がある。したがって、分類器が、素性に基づいて、発言の種類を判断すると、会議支援システムは、精度良く発言の種類を判断することができる。 The classifier determines the type of utterance based on the feature of the utterance content (hereinafter referred to as "feature"). Specifically, the feature uses BoW (Bag of Words) of speech, an auxiliary verb included in the speech content, an adverb, an adjective, a part of speech such as a noun or an auxiliary verb, who the speaker is, and the like. For example, an adjective may indicate a positive or negative expression or the like. In addition to a positive expression or a negative expression, a noun may be an expression indicating "action item" and "task" such as "requirement required" and "answer required". Furthermore, an auxiliary verb etc. may be an expression showing hope, duty, necessity, request, suggestion, assertion, guess, hearing, evaluation, etc. at the end of a sentence. Therefore, when the classifier determines the type of utterance based on the feature, the conference support system can accurately determine the type of utterance.
会議支援システムは、例えば、「"自然言語処理の基礎",奥村学著,コロナ社出版」に記載される方法によって、機械学習を用いた自然言語処理を行う。 The conference support system performs natural language processing using machine learning, for example, according to the method described in "Basics of Natural Language Processing", Okumura Gaku, Corona Press.
図23は、本発明の第3実施形態の一実施形態に係る会議支援システムによる機械学習を用いた自然言語処理の一例を示す概念図である。図示するように、会議支援システムは、分類器CLFを教師あり学習によって学習する。まず、分類器CLFには、素性と、値のペアの集合として表現されたデータとが入力され、分類器は、入力されるテストデータTSDが所属するクラスを出力する。クラスは、クラスラベルCLBによって示される。すなわち、クラスラベルCLBは、テストデータTSDが示す発言内容の発言の種類を判断した結果を示す。 FIG. 23 is a conceptual diagram showing an example of natural language processing using machine learning by the conference support system according to the third embodiment of the present invention. As illustrated, the meeting support system learns the classifier CLF by supervised learning. First, a feature and data represented as a set of value pairs are input to the classifier CLF, and the classifier outputs a class to which the input test data TSD belongs. The class is indicated by the class label CLB. That is, the class label CLB indicates the result of determining the type of the statement of the statement content indicated by the test data TSD.
分類器CLFを機械学習アルゴリズムにより学習するには、図示するように、会議支援システムは、訓練データTRDとして、データと、そのデータが所属するクラスの組の集合とを入力する。次に、訓練データTRDが入力されると、会議支援システムは、機械学習アルゴリズムによって、分類器CLFを学習する。このようにして、分類器CLFを学習した後、テストデータTSDが入力されると、会議支援システムは、分類器CLFによって、テストデータTSDが所属するクラスを出力することができる。 In order to learn the classifier CLF by a machine learning algorithm, as shown in the figure, the conference support system inputs data and a set of sets of classes to which the data belongs as training data TRD. Next, when the training data TRD is input, the conference support system learns the classifier CLF by a machine learning algorithm. Thus, when the test data TSD is input after learning the classifier CLF, the conference support system can output the class to which the test data TSD belongs by the classifier CLF.
分類器CLFを用いて発言の種類を判断する方法は、パターンマッチングを用いる方法等と比較して、会議支援システムが発言の種類を精度良く判断できる。また、分類器CLFを用いて発言の種類を判断する方法は、パターンマッチングを用いる方法等と比較して、パターンマッチングのルールをアップデートする等の手間が少なくできる。つまり、分類器CLFを用いて発言の種類を判断する方法が用いられると、いわゆるメンテナンス性が向上できる。 In the method of determining the type of utterance using the classifier CLF, the conference support system can accurately determine the type of utterance as compared with the method of using pattern matching or the like. Further, the method of determining the type of utterance using the classifier CLF can reduce the time and effort for updating the pattern matching rule, etc., as compared with the method using pattern matching and the like. That is, when the method of determining the type of utterance using the classifier CLF is used, so-called maintainability can be improved.
また、参加者がクラスラベルを変更できるような構成としてもよい。このようにすると、分類器CLFが判断した結果のクラスラベルCLBが、参加者が意図したクラスと異なるクラスを示す場合には、参加者がクラスを変更できる。例えば、発言された発言内容が会議支援システムによって「意見」と判断された場合であっても、参加者が「質問」であると思う場合には、参加者は、「意見」とされたクラスラベルを「質問」に変更する操作を行う。 Also, the configuration may be such that the participant can change the class label. In this way, when the class label CLB of the result determined by the classifier CLF indicates a class different from the class intended by the participant, the participant can change the class. For example, even if the content of the commented statement is judged as "opinion" by the meeting support system, if the participant thinks that it is a "question", the participant is considered to be a class that is considered as "opinion" Do the operation to change the label to "Question".
このように、変更の操作が行われ、フィードバックがされると、機械学習における訓練データTRDが入力された場合と同様に、会議支援システムは、分類器CLFを学習することができる。そのため、データをアップデートする等の手間が少なく、会議支援システムに分類器CLFを学習させることができるようになる。ゆえに、会議支援システムは、精度良く発言の種類を判断することができる。 In this manner, when the change operation is performed and feedback is performed, the conference support system can learn the classifier CLF as in the case where the training data TRD in machine learning is input. Therefore, it is possible to cause the conference support system to learn the classifier CLF with little effort for updating data. Therefore, the meeting support system can accurately determine the type of speech.
他にも、特定される発言内容を発言した人物の情報を素性に用いて分類器CLFを学習させてもよい。このようにすると、発言内容を発言した人物の傾向を考慮して、会議支援システムは、発言の種類を判断できる。そのため、会議支援システムは、精度良く発言の種類を判断できる。 In addition, information on a person who has made a statement of the specified utterance may be used as a feature to make the classifier CLF learn. In this way, the conference support system can determine the type of the speech in consideration of the tendency of the person who made the speech content. Therefore, the meeting support system can accurately determine the type of speech.
さらに、会議支援システムは、発言内容を発言した人物の会議における役割に基づいて、発言の種類を判断してもよい。例えば、報告会等の会議では、発言内容を発言した人物が「意思決定者」である場合には、「意思決定者」の情報を素性として使用して、発言の種類を判断してもよい。このようにすると、発言内容を発言した人物の傾向を考慮して、会議支援システムは、発言の種類を判断できる。そのため、会議支援システムは、精度良く発言の種類を判断できる。特に、会議支援システムは、「アクションアイテム」及び「決定事項」等の発言の種類を精度良く判断できる。 Furthermore, the meeting support system may determine the type of utterance based on the role in the conference of the person who spoke the utterance content. For example, in a meeting such as a briefing session, if the person who has made a statement is a "decision maker", the information of the "decision maker" may be used as an identity to determine the type of the statement. . In this way, the conference support system can determine the type of the speech in consideration of the tendency of the person who made the speech content. Therefore, the meeting support system can accurately determine the type of speech. In particular, the meeting support system can accurately determine the type of utterance such as "action item" and "decision item".
また、発言の種類、すなわち、ラベルは、多くなると、精度が悪くなる場合が多い。そこで、会議支援システムは、発言の種類をグループに分けてもよい。例えば、発言の種類が「提案」、「質問」、「回答」、「ポジティブな意見」、「ネガティブな意見」、「中立な意見」、「情報」、「要求」、「課題」、「アクションアイテム」及び「決定事項」である例で説明する。 Also, as the types of remarks, i.e., labels, increase in accuracy, the accuracy often decreases. Therefore, the meeting support system may divide the types of speech into groups. For example, types of remarks are "suggestion", "question", "answer", "positive opinion", "negative opinion", "neutral opinion", "information", "request", "problem", "action" An example will be described in which the item is an item and the item to be determined.
例えば、グループを以下に示す「第1グループ」及び「第2グループ」とする。 For example, the groups are referred to as "first group" and "second group" shown below.
第1グループ:「提案」、「質問」、「回答」、「ポジティブな意見」、「ネガティブな意見」、「中立な意見」、「情報」及び「要求」
第2グループ:「アクションアイテム」及び「決定事項」
そして、会議支援システムは、発言内容が「第1グループ」の発言の種類のうち、どの発言の種類であるかを判断する。次に、会議支援システムは、発言内容が「第2グループ」の発言の種類のうち、どの発言の種類であるかを判断する。図23に示す構成では、グループごとに、分類器CLFが用意される。
First group: "Proposal", "Question", "Answer", "Positive opinion", "Negative opinion", "Neutral opinion", "Information" and "Request"
Second group: "action items" and "decision items"
Then, the conference support system determines which of the types of utterances of the “first group” the utterance contents are. Next, the conference support system determines which of the types of utterances of the “second group” the utterance contents are. In the configuration shown in FIG. 23, a classifier CLF is prepared for each group.
例えば、会議において「複数の担当者同士の間でなんとかして欲しい」との発言内容があったとする。この発言内容は、上記第1グループの「回答」の発言の種類であり、かつ、上記第2グループの「アクションアイテム」の発言の種類であると会議支援システムによって判断される。 For example, it is assumed that there is a comment content saying "I want something to be done among a plurality of persons in charge" in a meeting. The content of the statement is determined by the conference support system to be the type of the "answer" of the first group and the type of the "action item" of the second group.
例えば、「アクションアイテム」及び「決定事項」の発言の種類の発言内容が会議において重要であるとする。このような場合には、上記第2グループのように、重要な発言の種類が選ばれてグループにされると、会議支援システムは、重要な発言の種類の発言内容を精度良く判断できる。また、各グループ内の発言の種類が、グループ分けされていない場合と比較して少なくなるため、会議支援システムは、発言の種類を精度良く判断できる。 For example, it is assumed that the statement contents of the "action item" and the "decision item" statement types are important in the meeting. In such a case, when the important utterance types are selected and grouped as in the second group, the conference support system can accurately determine the utterance contents of the important utterance types. Further, since the types of utterances in each group are smaller than in the case where they are not grouped, the conference support system can accurately determine the types of utterances.
(第4実施形態)
また、情報共有支援システム20は、例えば、以下のような全体構成でもよい。
Fourth Embodiment
Also, the information sharing
図24は、本発明の第4実施形態の一実施形態に係る情報共有支援システムの全体構成の一例を説明する概念図である。例えば、情報共有支援システム20は、会議支援システム1と、情報共有サーバ21とを有する全体構成である。図示するように、会議支援システム1は、複数あってもよい。また、情報共有支援システム20では、図示するように、会議支援システム1、情報共有サーバ21及び端末11は、別の装置でなくともよい。例えば、会議支援システム1及び情報共有サーバ21は、1つの情報処理装置が兼ねてもよい。以下、図示する全体構成を例に説明する。
FIG. 24 is a conceptual diagram for explaining an example of the entire configuration of an information sharing support system according to an embodiment of the fourth embodiment of the present invention. For example, the information sharing
情報共有サーバ21には、各端末11等の外部装置から、電子メールデータDEM、チャットデータDCH及び電子ファイルデータDEF等のコミュニケーションログが入力される。
Communication logs such as electronic mail data DEM, chat data DCH and electronic file data DEF are input to the
このように、情報共有支援システム20には、会議における発言内容に限られず、様々なデータ形式で文が入力されてもよい。なお、電子メールデータDEM、チャットデータDCH及び電子ファイルデータDEF等のデータは、会議支援システム1等を介して入力されてもよい。
As described above, the information sharing
そして、ある程度のデータが集まった時点で、マネージャ等の所定の人物が情報共有サーバ21にアクセスすると、例えば、図14に示すような画面が表示される。次に、ボタン1303が押されると、例えば、情報共有支援システム20は、各データ形式で入力された文を以下のように出力する。
Then, when a certain person such as a manager accesses the
図25は、本発明の第4実施形態の一実施形態に係る情報共有支援システムによる出力の一例を説明する図である。情報共有サーバ21は、例えば、図示するような画面を表示装置又は端末11等を介してユーザに表示する。
FIG. 25 is a view for explaining an example of an output of the information sharing support system according to the fourth embodiment of the present invention. The
なお、図示するような画面は、ボタン1303等の操作に基づいて表示されるに限られない。例えば、入力されるコミュニケーションログから、「課題」等の特定の種類の発言が発生すると、まず、マネージャ等の所定の人物に、「課題」等が発生したことがプッシュ通知される。なお、種類は、あらかじめ設定されるとする。そして、プッシュ通知に含まれるリンク(電子メールに記載されるURL(Uniform Resource Locator)等である。)からアクセスされると、図示するような画面が、表示されてもよい。
Note that the screen as illustrated is not limited to being displayed based on the operation of the
例えば、情報共有サーバ21は、図示するような画面を以下のような処理で生成する。
For example, the
図26は、本発明の第4実施形態の一実施形態に係る情報共有支援システムによる処理例を示すフローチャートである。なお、図では、図12と同様の処理には、同一の符号を付し、以下、重複した説明を省略する。 FIG. 26 is a flow chart showing an example of processing by the information sharing support system according to the fourth embodiment of the present invention. In the figure, the same processes as in FIG. 12 will be assigned the same reference numerals, and duplicate explanations will be omitted hereinafter.
ステップS51では、情報共有支援システム20は、文をソート(sort)する。まず、図示する例では、ステップS33までの処理を行うと、情報共有支援システム20は、特定の内容に関する文を抽出することができる。次に、情報共有支援システム20は、抽出された文を例えば時系列順にソートする。
In step S51, the information sharing
図25に示す例は、図の下から上へ向かって、古い文から新しい文が並ぶように、情報共有支援システム20がソートを行った結果を示す。このように、ソートされた結果が出力されると、ユーザは、図示するような画面を見て、ある議題がどのような経緯で結論に至ったか等を把握することができる。
The example shown in FIG. 25 shows the result of sorting by the information sharing
なお、出力される文は、選択されてもよい。例えば、情報共有支援システム20は、以下のように文を選択する。
The sentence to be output may be selected. For example, the information sharing
ステップS52では、情報共有支援システム20は、文を選択する。例えば、情報共有支援システム20は、文が入力された形式に基づいて、出力させる文を選択する。具体的には、図24に示す例では、会議支援システム1から情報共有支援システム20に、文が、議事録データ形式で入力される。同様に、端末11から情報共有支援システム20に、文が、電子メールデータDEMの形式、チャットデータDCHの形式及び電子ファイルデータDEFの形式で入力される。以下、このように、情報共有支援システム20には、4種類の形式で文が入力されるとする。
In step S52, the information sharing
そして、図25に示す画面では、会議アイコンICMが議事録データに基づく文であることを示す。同様に、チャットアイコンICCがチャットデータDCHに基づく文であることを示す。さらに、電子メールアイコンICEが電子メールデータDEMに基づく文であることを示す。図示するように、情報共有支援システム20は、例えば、各アイコンと合わせて文を出力することで、各文がどこで発言された文かを示すことができる。
Then, the screen shown in FIG. 25 indicates that the meeting icon ICM is a sentence based on the minutes data. Similarly, it indicates that the chat icon ICC is a sentence based on the chat data DCH. Further, it indicates that the email icon ICE is a sentence based on the email data DEM. As illustrated, the information sharing
なお、出力には、例えば、図25に示すように、各文に添付データFLが紐付けられてもよい。添付データFLは、例えば、会議で使用された会議資料であったり、又は、電子メールに添付された添付ファイルであったりする。このように、添付データFLが文に紐付けされて出力されると、経緯を見る場合等に、使用された資料を見るのが容易となり、ユーザは、経緯等を詳しく理解できる。他にも、例えば、テレワーク(telewprk)のような働き方では、担当者がいない等でも、ユーザは、添付データFLを素早く特定し、アクセスすることができる。 In the output, for example, as shown in FIG. 25, attached data FL may be associated with each sentence. The attached data FL is, for example, meeting material used in a meeting, or an attached file attached to an e-mail. In this manner, when the attached data FL is linked to a sentence and output, it is easy to view the used material when viewing the process, etc., and the user can understand the process etc. in detail. In addition, for example, in the working method such as telework (telewprk), even if there is no person in charge, the user can quickly identify and access the attached data FL.
そして、ユーザは、例えば、特定の形式で入力された文に絞って見たい場合には、ユーザは、図25に示すチェックボックスCB1、CB2、CB3及びCB4等によって、出力させる文を選ぶ操作を入力する。具体的には、図25に示す例では、チェックボックスCB1が設定されると、情報共有支援システム20は、議事録データに基づく文を出力する。同様に、チェックボックスCB2が設定されると、情報共有支援システム20は、チャットデータDCHに基づく文を出力する。さらに、チェックボックスCB3が設定されると、情報共有支援システム20は、電子メールデータDEMに基づく文を出力する。さらにまた、チェックボックスCB4が設定されると、情報共有支援システム20は、電子ファイルデータDEFに基づく文を出力する。
When, for example, the user wants to focus on a sentence input in a specific format, the user can select an operation to be output using the check boxes CB1, CB2, CB3 and CB4 shown in FIG. input. Specifically, in the example illustrated in FIG. 25, when the check box CB1 is set, the information sharing
図示する例では、チェックボックスCB1、チェックボックスCB2及びチェックボックスCB3が設定されているため、情報共有支援システム20は、入力された文のうち、図25に図示するように、議事録データに基づく文、チャットデータDCHに基づく文及び電子メールデータDEMに基づく文を選択して出力する。
In the example shown, since the check box CB1, the check box CB2 and the check box CB3 are set, the information sharing
なお、情報共有支援システム20による選択は、文が入力された形式に基づいて行われるに限られない。例えば、電子メールデータDEMが入力される場合には、電子メールデータDEMを発信した人物の所属を示す所属データDAFがある場合が多い。例えば、所属データDAFは、電子メールの発信元を示すメールアドレス等である。
The selection by the information sharing
そして、ユーザは、まず、特定の組織名等を情報共有支援システム20に設定する。次に、情報共有支援システム20は、所属データDAFに基づいて、設定された組織に所属している人物が発信した電子メールデータDEMを選択する。このようにすると、情報共有支援システム20は、所定の組織に所属している人物によって発言された文に絞って出力することができる。そのため、ユーザは、例えば、自部署の人物が発言した文に絞って、図25に示すような画面を見ることができる。
Then, the user first sets a specific organization name or the like in the information sharing
(別の実施形態)
図27は、本発明の第4実施形態の別の実施形態に係る情報共有支援システムの全体構成の一例を説明する概念図である。例えば、情報共有支援システム20は、以下のような全体構成でもよい。図24と比較すると、図示する全体構成では、会議支援システム1がない点が異なる。
(Another embodiment)
FIG. 27 is a conceptual diagram for explaining an example of the entire configuration of an information sharing support system according to another embodiment of the fourth embodiment of the present invention. For example, the information sharing
このように、情報共有支援システム20は、電子メールデータDEM、チャットデータDCH、電子ファイルデータDEF又はこれらの組み合わせを入力としてもよい。つまり、会議の開催は必須でなく、情報共有支援システム20には、言葉のやり取りを示すデータ、いわゆるコミュニケーションログであれば、どのような形式で文が入力されてもよい。
As described above, the information sharing
なお、本発明に係る各処理の全部又は一部は、アセンブラ、C、C++、C#、Java(登録商標)、Javascript(登録商標)、Python(登録商標)、Ruby及びPHP等のプログラミング言語又はオブジェクト指向プログラミング言語等で記述されたコンピュータに会議支援方法に係る各手順を実行させるためのプログラムによって実現されてもよい。すなわち、プログラムは、情報処理装置又は1以上の情報処理装置を有する情報共有支援システム等のコンピュータに各手順を実行させるためのコンピュータプログラムである。 Note that all or part of each process according to the present invention can be implemented using a programming language such as assembler, C, C ++, C #, Java (registered trademark), Javascript (registered trademark), Python (registered trademark), Ruby, PHP, or the like The present invention may be realized by a program for causing a computer described in an object oriented programming language or the like to execute each procedure according to the conference support method. That is, the program is a computer program for causing a computer such as an information processing apparatus or an information sharing support system having one or more information processing apparatuses to execute each procedure.
また、プログラムは、ROM又はEEPROM(Electrically Erasable Programmable ROM)等のコンピュータが読み取り可能な記録媒体に格納して頒布することができる。さらに、記録媒体は、EPROM(Erasable Programmable ROM)、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SD(登録商標)カード、又はMO等でもよい。さらにまた、プログラムは、電気通信回線を通じて頒布することができる。 Also, the program can be stored and distributed in a computer readable recording medium such as a ROM or an EEPROM (Electrically Erasable Programmable ROM). Furthermore, the recording medium may be an EPROM (Erasable Programmable ROM), a flash memory, a flexible disc, a CD-ROM, a CD-RW, a DVD-ROM, a DVD-RAM, a DVD-RW, a Blu-ray disc, an SD (registered trademark) card, or MO etc. may be sufficient. Furthermore, the program can be distributed via telecommunication lines.
さらに、情報共有支援システムは、ネットワーク等によって相互に接続される2以上の情報処理装置を有してもよい。すなわち、情報共有支援システムによって、各種処理の全部又は一部を分散、デュプレックスシステム(duplex system)等のように並列、又はデュアルシステム(dual system)等のように冗長して処理が行われてもよい。 Furthermore, the information sharing support system may have two or more information processing apparatuses mutually connected by a network or the like. That is, even if all or part of various processes are distributed, performed in parallel as in a duplex system, etc., or redundantly performed as in a dual system, etc., by the information sharing support system. Good.
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the preferred embodiments of the present invention have been described in detail, the present invention is not limited to the specific embodiments, and various modifications may be made within the scope of the present invention as set forth in the claims. Or change is possible.
1 会議支援システム
10 サーバ
11 端末
1F1 入力部
1F2 制御部
1F21 判断部
1F22 装飾部
1F23 時間管理部
1F24 発言者判断部
1F31 コスト計算部
1F32 評価部
1F3 記憶部
1F4 出力部
CLF 分類器
REFERENCE SIGNS
Claims (12)
会議で発言された発言内容、電子メール、電子ファイル若しくはチャットデータに記載された記載内容のうちのいずれか又はこれらの組み合わせを示す文を入力する入力部と、
前記入力部により入力された前記文の種類を判断する判断部と、
前記判断部による判断結果に基づいて、前記種類のうち、設定される種類となる特定文をリストにして出力する出力部と
を備える情報共有支援システム。 An information sharing support system having one or more information processing apparatuses for supporting information sharing,
An input unit for inputting a sentence indicating any one or a combination of description contents stated in a meeting, an electronic mail, an electronic file, or chat data;
A determination unit that determines the type of the sentence input by the input unit;
An information sharing support system, comprising: an output unit configured to output, as a list, specific sentences to be set among the types based on a determination result by the determination unit.
前記トピック境界で区切られる前記グループごとに、トピックを生成する請求項1又は2に記載の情報共有支援システム。 Estimate the topic boundaries that separate the groups of sentences,
The information sharing support system according to claim 1, wherein a topic is generated for each of the groups separated by the topic boundary.
前記線が押されると、前記コミュニケーションのログを示す請求項6に記載の情報共有支援システム。 The communication diagram shows communication in a line,
The information sharing support system according to claim 6, wherein when the line is pressed, a log of the communication is shown.
前記情報共有支援システムが、会議で発言された発言内容、電子メール、電子ファイル若しくはチャットデータに記載された記載内容のうちのいずれか又はこれらの組み合わせを示す文を入力する入力手順と、
前記情報共有支援システムが、前記入力手順により入力された前記文の種類を判断する判断手順と、
前記情報共有支援システムが、前記判断手順による判断結果に基づいて、前記種類のうち、設定される種類となる特定文をリストにして出力する出力手順と
を含む情報共有支援方法。 An information sharing support method performed by an information sharing support system having one or more information processing apparatuses for supporting information sharing,
An input procedure in which the information sharing support system inputs a sentence indicating any one or a combination of the contents of a statement made at a meeting, an electronic mail, an electronic file, or chat data;
A determination procedure in which the information sharing support system determines the type of the sentence input by the input procedure;
An information sharing support method, including: an output procedure in which the information sharing support system outputs, as a list, specific sentences to be set among the types based on a determination result by the determination procedure.
前記コンピュータが、会議で発言された発言内容、電子メール、電子ファイル若しくはチャットデータに記載された記載内容のうちのいずれか又はこれらの組み合わせを示す文を入力する入力手順と、
前記コンピュータが、前記入力手順により入力された前記文の種類を判断する判断手順と、
前記コンピュータが、前記判断手順による判断結果に基づいて、前記種類のうち、設定される種類となる特定文をリストにして出力する出力手順と
を含む、プログラム。 A program that causes a computer to execute an information sharing support method for supporting information sharing, the information sharing support method comprising:
An input procedure in which the computer inputs a sentence indicating any one or a combination of the contents of a statement spoken in a meeting, an electronic mail, an electronic file, or chat data;
A determination procedure in which the computer determines the type of the sentence input by the input procedure;
A program including: an output procedure of outputting, as a list, specific sentences to be set among the types based on a determination result by the determination procedure.
会議で発言された発言内容、電子メール、電子ファイル若しくはチャットデータに記載された記載内容のうちのいずれか又はこれらの組み合わせを示す文を入力する入力部と、
前記入力部により入力された前記文の種類を判断する判断部と、
前記判断部による判断結果に基づいて、前記種類のうち、設定される種類となる特定文をリストにして出力する出力部と
を備える情報共有支援装置。 An information sharing support device for supporting information sharing, comprising:
An input unit for inputting a sentence indicating any one or a combination of description contents stated in a meeting, an electronic mail, an electronic file, or chat data;
A determination unit that determines the type of the sentence input by the input unit;
An information sharing support device, comprising: an output unit configured to output, as a list, specific sentences to be set among the types based on a determination result by the determination unit.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/606,691 US10614162B2 (en) | 2016-05-27 | 2017-05-26 | Apparatus, system, and method of assisting information sharing, and recording medium |
US16/796,313 US10891441B2 (en) | 2016-05-27 | 2020-02-20 | Apparatus, system, and method of assisting information sharing, and recording medium |
US17/111,565 US11461557B2 (en) | 2016-05-27 | 2020-12-04 | Apparatus, system, and method of assisting information sharing, and recording medium |
JP2021183996A JP7283518B2 (en) | 2016-05-27 | 2021-11-11 | CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD AND PROGRAM |
US17/885,541 US11907667B2 (en) | 2016-05-27 | 2022-08-11 | Apparatus, system, and method of assisting information sharing, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016106604 | 2016-05-27 | ||
JP2016106604 | 2016-05-27 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021183996A Division JP7283518B2 (en) | 2016-05-27 | 2021-11-11 | CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD AND PROGRAM |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017215943A true JP2017215943A (en) | 2017-12-07 |
JP2017215943A5 JP2017215943A5 (en) | 2020-11-19 |
JP6977297B2 JP6977297B2 (en) | 2021-12-08 |
Family
ID=60575749
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017074344A Active JP6977297B2 (en) | 2016-05-27 | 2017-04-04 | Information processing equipment, information processing system |
JP2023080540A Pending JP2023101550A (en) | 2016-05-27 | 2023-05-16 | Conference support system, conference support device, conference support method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023080540A Pending JP2023101550A (en) | 2016-05-27 | 2023-05-16 | Conference support system, conference support device, conference support method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6977297B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019211962A (en) * | 2018-06-04 | 2019-12-12 | 株式会社東芝 | Conference productivity visualization system, conference productivity visualization device, visualization method and program |
JP2020148892A (en) * | 2019-03-13 | 2020-09-17 | 株式会社エヌ・ティ・ティ・データ | Language teaching material generation system |
JP2020173803A (en) * | 2019-04-04 | 2020-10-22 | ソニー株式会社 | Information sharing tracking system, method, and computer-readable storage medium |
JP2020194525A (en) * | 2019-05-27 | 2020-12-03 | 株式会社SmartHR | Information management system, information management program, and information management method |
US11625155B2 (en) | 2020-03-23 | 2023-04-11 | Ricoh Company, Ltd. | Information processing system, user terminal, method of processing information |
WO2023145849A1 (en) * | 2022-01-28 | 2023-08-03 | Line株式会社 | Program, information processing method, terminal, and server |
WO2024062779A1 (en) * | 2022-09-22 | 2024-03-28 | ソニーグループ株式会社 | Information processing device, information processing system, and information processing method |
JP7465040B1 (en) | 2022-12-27 | 2024-04-10 | 株式会社I’mbesideyou | Communication visualization system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049515A (en) * | 1996-08-02 | 1998-02-20 | Fuji Xerox Co Ltd | Information display device and information storing/ reproducing device |
US20090313346A1 (en) * | 2008-06-13 | 2009-12-17 | C-Mail Corp. | Method and system for mapping organizational social networks utilizing dynamically prioritized e-mail flow indicators |
JP2011164913A (en) * | 2010-02-09 | 2011-08-25 | Nec Corp | Communication cooperation system, communication cooperation method, and program for communication cooperation |
JP2013003942A (en) * | 2011-06-20 | 2013-01-07 | Konica Minolta Holdings Inc | Relationship evaluation device, relationship evaluation system, relationship evaluation program, and relationship evaluation method |
JP2013182560A (en) * | 2012-03-05 | 2013-09-12 | Nomura Research Institute Ltd | Human relationship estimation system |
JP2014206887A (en) * | 2013-04-15 | 2014-10-30 | 株式会社シーイーシー | Method, device and program for displaying communication between customer premises equipment |
-
2017
- 2017-04-04 JP JP2017074344A patent/JP6977297B2/en active Active
-
2023
- 2023-05-16 JP JP2023080540A patent/JP2023101550A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049515A (en) * | 1996-08-02 | 1998-02-20 | Fuji Xerox Co Ltd | Information display device and information storing/ reproducing device |
US20090313346A1 (en) * | 2008-06-13 | 2009-12-17 | C-Mail Corp. | Method and system for mapping organizational social networks utilizing dynamically prioritized e-mail flow indicators |
JP2011164913A (en) * | 2010-02-09 | 2011-08-25 | Nec Corp | Communication cooperation system, communication cooperation method, and program for communication cooperation |
JP2013003942A (en) * | 2011-06-20 | 2013-01-07 | Konica Minolta Holdings Inc | Relationship evaluation device, relationship evaluation system, relationship evaluation program, and relationship evaluation method |
JP2013182560A (en) * | 2012-03-05 | 2013-09-12 | Nomura Research Institute Ltd | Human relationship estimation system |
JP2014206887A (en) * | 2013-04-15 | 2014-10-30 | 株式会社シーイーシー | Method, device and program for displaying communication between customer premises equipment |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019211962A (en) * | 2018-06-04 | 2019-12-12 | 株式会社東芝 | Conference productivity visualization system, conference productivity visualization device, visualization method and program |
JP7214372B2 (en) | 2018-06-04 | 2023-01-30 | 株式会社東芝 | Conference productivity visualization system, conference productivity visualization device, visualization method and program |
JP2020148892A (en) * | 2019-03-13 | 2020-09-17 | 株式会社エヌ・ティ・ティ・データ | Language teaching material generation system |
JP7296029B2 (en) | 2019-03-13 | 2023-06-22 | 株式会社エヌ・ティ・ティ・データ | Language teaching material generation system |
JP2020173803A (en) * | 2019-04-04 | 2020-10-22 | ソニー株式会社 | Information sharing tracking system, method, and computer-readable storage medium |
JP7035105B2 (en) | 2019-04-04 | 2022-03-14 | ソニーグループ株式会社 | Information sharing tracking systems, methods and computer-readable storage media |
JP2020194525A (en) * | 2019-05-27 | 2020-12-03 | 株式会社SmartHR | Information management system, information management program, and information management method |
US11625155B2 (en) | 2020-03-23 | 2023-04-11 | Ricoh Company, Ltd. | Information processing system, user terminal, method of processing information |
WO2023145849A1 (en) * | 2022-01-28 | 2023-08-03 | Line株式会社 | Program, information processing method, terminal, and server |
WO2024062779A1 (en) * | 2022-09-22 | 2024-03-28 | ソニーグループ株式会社 | Information processing device, information processing system, and information processing method |
JP7465040B1 (en) | 2022-12-27 | 2024-04-10 | 株式会社I’mbesideyou | Communication visualization system |
Also Published As
Publication number | Publication date |
---|---|
JP6977297B2 (en) | 2021-12-08 |
JP2023101550A (en) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7283518B2 (en) | CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD AND PROGRAM | |
JP7098875B2 (en) | Conference support system, conference support device, conference support method and program | |
JP6977297B2 (en) | Information processing equipment, information processing system | |
US11625681B2 (en) | Conference support system, conference support method, and recording medium | |
JP7464098B2 (en) | Electronic conference system | |
CN106685916B (en) | Intelligent device and method for electronic conference | |
Apriyanto et al. | Born in social media culture: personality features impact in communication context | |
US10586237B2 (en) | Method, apparatus, and computer-readable media for customer interaction semantic annotation and analytics | |
CN113362045A (en) | Conference schedule generation method and device, electronic equipment and readable storage medium | |
Hoek et al. | Automatic coherence analysis of Dutch: Testing the subjectivity hypothesis on a larger scale | |
Morales-Ramirez et al. | Discovering Speech Acts in Online Discussions: A Tool-supported method. | |
Mircoli et al. | Automatic Emotional Text Annotation Using Facial Expression Analysis. | |
KR20090126862A (en) | System and method for analyzing emotional information from natural language sentence, and medium for storaging program for the same | |
Li et al. | Twitter sentiment analysis of the 2016 US Presidential Election using an emoji training heuristic | |
US20240143933A1 (en) | Apparatus, system, and method of assisting information sharing, and recording medium | |
Ebora et al. | Text classification of Facebook Messages Using Multiclass Support Vector Machine | |
US20230334427A1 (en) | Information processing system | |
JP7436012B2 (en) | Knowledge sharing support device, knowledge sharing support method, program, and recording medium | |
Zhang et al. | Argument detection in online discussion: A theory based approach | |
Andersson | Multi-Class Emotion Classification for Interactive Presentations: A case study on how emotional sentiment analysis can help end users better convey intended emotion | |
Zhang et al. | Extracting Conflict Models from Interaction Traces in Virtual Collaborative Work | |
Akkineni et al. | Polarity Identification from Micro Blogs Using Multimodal Sentiment Analysis | |
Khazeni et al. | Persian Slang Text Conversion to Formal and Deep Learning of Persian Short Texts on Social Media for Sentiment Classification | |
JP2022071401A (en) | Information processing system, information processing method, and program | |
Afli et al. | A Decision-Level Approach to Multimodal Sentiment Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6977297 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |