JP2017016566A - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2017016566A JP2017016566A JP2015135437A JP2015135437A JP2017016566A JP 2017016566 A JP2017016566 A JP 2017016566A JP 2015135437 A JP2015135437 A JP 2015135437A JP 2015135437 A JP2015135437 A JP 2015135437A JP 2017016566 A JP2017016566 A JP 2017016566A
- Authority
- JP
- Japan
- Prior art keywords
- text data
- visualization screen
- information processing
- conference
- meeting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、情報処理装置、情報処理方法及びプログラムに関する。 The present disclosure relates to an information processing apparatus, an information processing method, and a program.
会議の進行、並びに議事録の作成、承認及び管理等を支援するシステムが開発されている(例えば、特許文献1−4)。これらのシステムを用いることにより、会議がより効率化されることが期待される。 Systems that support the progress of meetings and the creation, approval, and management of minutes have been developed (for example, Patent Documents 1-4). By using these systems, it is expected that the conference will be more efficient.
しかしながら、特許文献1−4に示すシステムには、未だ改良の余地がある。例えば、特許文献1、2に記載の技術では、議事録等の会議において生成される情報を会議の参加者によって共有することを主な目的としており、これらの情報を内容に応じて分類する等の解析は行われていない。また、特許文献3には、会議中の発言を録音した音声情報や白板を撮影した画像情報からテキストデータを抽出し、当該テキストデータに基づいて議事録を自動生成する技術が開示されているが、これらのテキストデータを分類することは行われていない。
However, the systems shown in Patent Documents 1-4 still have room for improvement. For example, in the technologies described in
また、特許文献4には、会議中に取得されたテキストデータからキーワードを抽出し、抽出したキーワードの時系列での推移を分析し、その出現頻度によって当該キーワードに対して重み付けを行うことにより、当該キーワード間の階層関係を構造化する技術が開示されている。当該技術では、会議の各時点でのキーワードを把握することはできるが、会議中の発言を分類することは行われていない。 Further, in Patent Document 4, a keyword is extracted from text data acquired during a meeting, a time-series transition of the extracted keyword is analyzed, and the keyword is weighted according to the appearance frequency, A technique for structuring the hierarchical relationship between the keywords is disclosed. In this technology, keywords at each time point of the conference can be grasped, but the speech during the conference is not classified.
上記事情に鑑みれば、会議中に取得されるテキストデータをより適切に処理することにより、会議をより効率化し、会議の参加者の利便性をより向上させることができる可能性がある。そこで、本開示では、会議の参加者の利便性をより向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。 In view of the above circumstances, there is a possibility that the text can be more efficiently processed and the convenience of participants of the conference can be further improved by appropriately processing the text data acquired during the conference. Therefore, the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of further improving the convenience of conference participants.
本開示によれば、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成部、を備える、情報処理装置が提供される。 According to the present disclosure, a visualization screen generation unit that generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. An information processing apparatus is provided.
また、本開示によれば、プロセッサが、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成すること、を含む、情報処理方法が提供される。 Further, according to the present disclosure, the processor generates a visualization screen that is a screen in which text data generated by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. An information processing method is provided.
また、本開示によれば、コンピュータに、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成機能、を実現させるためのプログラムが提供される。 In addition, according to the present disclosure, a visualization for generating a visualization screen, which is a screen on which a classification result obtained by classifying text data issued by a plurality of speakers into a predetermined category is visualized in association with the speaker. A program for realizing the screen generation function is provided.
本開示によれば、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類され、その分類結果が当該発言者に関連付けて可視化される。当該所定のカテゴリは、例えば、発言者の意図等であり得る。可視化された分類結果は、会議の参加者に対して、会議の進行状況に関する気付きを与え得るものであるため、当該参加者は、当該分類結果を参照しながら会議を進行することにより、より円滑に会議を進行することができる。従って、会議の参加者の利便性を向上させることができる。 According to the present disclosure, text data uttered by a plurality of speakers is classified into a predetermined category, and the classification result is visualized in association with the speaker. The predetermined category may be, for example, a speaker's intention. Since the visualized classification results can give the participants of the conference awareness of the progress of the conference, the participants can make the smoother by proceeding with the conference while referring to the classification results. You can proceed with the meeting. Therefore, the convenience of the conference participants can be improved.
以上説明したように本開示によれば、会議の参加者の利便性をより向上させることが可能になる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。 As described above, according to the present disclosure, it is possible to further improve the convenience of conference participants. Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with the above effects or instead of the above effects. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
なお、説明は以下の順序で行うものとする。
1.システムの概要
2.システムの機能構成
2−1.全体構成
2−2.テキストデータ解析部の詳細
3.情報処理方法
4.可視化画面の表示例
4−1.会議の冒頭
4−2.1人の参加者によってプレゼンテーションが行われている場合
4−3.ディスカッション時
4−4.会議の停滞時
4−5.議論の紛糾時
4−6.会議の終盤
5.他の表示例
5−1.ポジネガ判定の結果についての可視化画面
5−2.モダリティを用いたテキストデータの分類結果についての可視化画面
6.他の適用例
7.ハードウェア構成
8.補足
The description will be made in the following order.
1. 1. System overview 2. Functional configuration of system 2-1. Overall configuration 2-2. 2. Details of text data analysis unit 3. Information processing method Display example of visualization screen 4-1. The beginning of the meeting 4-2.1 When presentations are given by participants 4-3. During discussion 4-4. When the meeting is stagnant 4-5. At the time of dispute 4-6. End of the meeting 5. Other display examples 5-1. Visualization screen for positive / negative determination results 5-2. Visualization screen for text data classification results using modalities Other application examples Hardware configuration Supplement
ここで、本開示は、複数のユーザによってテキストデータがやり取りされる状況に対して好適に適用され得る。以下では、本開示の一例として、会議に対して本開示が適用される実施形態について主に説明することとする。ただし、本開示はかかる例に限定されず、例えばSNS(Social Networking Service)等のソーシャルメディア上で、複数のユーザによってメッセージがやり取りされる状況に対しても適用され得る。 Here, the present disclosure can be suitably applied to a situation where text data is exchanged by a plurality of users. In the following, as an example of the present disclosure, an embodiment in which the present disclosure is applied to a conference will be mainly described. However, the present disclosure is not limited to such an example, and may be applied to a situation in which messages are exchanged by a plurality of users on social media such as SNS (Social Networking Service).
なお、会議において参加者によってやり取りされるテキストデータには、参加者が発話した内容や、参加者が自身が有する端末を介して入力した情報、参加者が電子白板等に手書きした情報等が含まれる。ただし、以下の説明では、説明の便宜のため、参加者がテキストデータを発する方法にかかわらず、参加者がテキストデータを発することを「発言」とも呼称し、テキストデータを発した参加者のことを「発言者」とも呼称することとする。 The text data exchanged by the participants in the conference includes the contents spoken by the participants, information input by the participants through their own terminals, information handwritten by the participants on the electronic whiteboard, etc. It is. However, in the following explanation, for the convenience of explanation, regardless of the method by which the participant emits text data, the participant issuing text data is also referred to as “speaking” and means the participant who issued the text data. Are also referred to as “speakers”.
(1.システムの概要)
図1を参照して、本開示の一実施形態に係るシステムの概要について説明する。図1は、本実施形態に係るシステムの概要について説明するための説明図である。
(1. System overview)
An overview of a system according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining an overview of a system according to the present embodiment.
図1では、一例として、電子白板20を用いた会議の様子を模擬的に図示している。図1に示すように、会議においては多数のテキストデータが発せられ得る。当該テキストデータは、例えば、電子白板20に書記501が記載する議事録に含まれるものや、会議に用いられる各種の資料(プレゼンテーション資料や、URL(Uniform Resource Locator)によって示されるリンク先のWebサイト等)に含まれるもの、会議の参加者の発話に含まれるもの、会議の参加者が所持する情報処理端末を介して入力されるもの、書記501以外の参加者が説明等のために電子白板20に手書きで記載したもの等であり得る。
In FIG. 1, the state of the meeting using the electronic
本実施形態に係るシステム1では、会議において発せられた各種のテキストデータが収集される。そして、収集されたテキストデータが解析され、当該テキストデータが所定のカテゴリに分類される。当該所定のカテゴリは、例えば、当該テキストデータの発言者の意図を示すカテゴリ及び/又は当該テキストデータが有するトピックを示すカテゴリ等であり得る。更に、その分類結果が可視化されて参加者に対して提示される。
In the
テキストデータの分類結果は、発せられたテキストデータの属性を表すものであるから、会議の参加者は、可視化された当該分類結果を見ることにより、例えば会議の趨勢等、現在の会議の状況についての様々な気付きを得ることができる。当該気付きに従って会議が進行されることにより、より効率的に会議を行うことが可能になる。 Since the classification result of the text data represents the attribute of the issued text data, the conference participants can see the status of the current conference such as the trend of the conference, for example, by viewing the classification result visualized. You can get various notices. By proceeding according to the notice, the conference can be performed more efficiently.
なお、テキストデータの解析方法については、下記(2−2.テキストデータ解析部の詳細)で詳しく説明する。また、可視化画面の表示例については、下記(4.可視化画面の表示例)で詳しく説明する。 The text data analysis method will be described in detail below (2-2. Details of Text Data Analysis Unit). A display example of the visualization screen will be described in detail in the following (4. Display example of the visualization screen).
更に、システム1では、テキストデータの解析結果を用いて、当該テキストデータの要約が生成されてもよい。当該要約は、例えばテキストデータを分類されたカテゴリと紐付けてまとめたものであってよい。また、当該要約には、可視化画面上に表示されるテキストデータの分類結果を可視化したチャート等が含まれていてもよい。
Furthermore, in the
当該要約は、会議において発せられた各種のテキストデータが要約されたものであるから、当該会議の議事録の役割を果たし得るものと言える。当該要約は、書記501が作成した正式な議事録とは異なる観点からまとめられた議事録であるとも言えるため、後日会議の内容を振り返るときに有用な情報となり得る。
Since the summary is a summary of various text data issued at the conference, it can be said that the summary can serve as the minutes of the conference. The summary can be said to be useful information when looking back on the contents of the meeting at a later date because it can be said that the summary is compiled from a different viewpoint than the official minutes created by the
また、システム1には、過去の会議における可視化画面や要約を検索し、改めて表示する機能が備えられていてもよい。当該機能により、例えば会議を開始する際に前回の会議における可視化画面や要約を参加者で参照することにより、前回の会議の内容を参加者で共有することができ、会議をより円滑に進めることが可能になる。
Further, the
以上、図1を参照して、本実施形態に係るシステムの概要について説明した。 The overview of the system according to the present embodiment has been described above with reference to FIG.
(2.システムの機能構成)
(2−1.全体構成)
図2を参照して、図1を参照して説明したシステム1の詳細な機能構成について説明する。図2は、本実施形態に係るシステム1の機能構成の一例を示すブロック図である。
(2. System functional configuration)
(2-1. Overall configuration)
A detailed functional configuration of the
図2を参照すると、本実施形態に係るシステム1は、情報処理装置10と、電子白板20と、1つ又は複数の会議参加者端末30と、が通信網40(ネットワーク40)を介して互いに通信可能に接続されて構成される。
Referring to FIG. 2, in the
(電子白板20)
電子白板20は、会議室内に設置され、会議に用いられる各種の情報をその白板面内の表示領域に表示する。例えば、電子白板20には、会議において参加者に提示される各種の資料(例えば、プレゼンテーション資料やWebサイト等)が表示され得る。また、電子白板20は、その表示領域に、会議の参加者によって会議参加者端末30を介して入力される各種の情報(例えば参加者のコメント等)を表示してもよい。
(Electronic white board 20)
The electronic
また、電子白板20は、通常の白板と同様に、その白板面に会議の参加者が手書きで各種の情報を記載可能に構成され得る。例えば、会議中には、書記が電子白板20に議事録を記載したり、他の参加者が説明のために電子白板20に図や文字等を記載したりすることができる。電子白板20は、白板面に記載された各種の情報を電子データとして取得することができる。電子白板20に対して手書きで記載された各種の情報(以下、白板入力情報という)は、ネットワーク40を介して情報処理装置10に送信される。
Moreover, the electronic
なお、電子白板20は、会議室内に設置され、複数の参加者によって参照及び操作され得る入出力デバイスの一例である。システム1は、電子白板20に代えて、又は電子白板20とともに、他の表示デバイスや他の入力デバイスを備えてもよい。例えば、システム1は、プロジェクターを備えてもよく、当該プロジェクターに会議に用いられる各種の情報が表示されてもよい。あるいは、会議の種類や規模によっては、電子白板20のような、複数の参加者によって共用される入出力デバイスは設けられなくてもよい。
The electronic
(会議参加者端末30)
会議参加者端末30は、会議の各参加者がそれぞれ所持する情報処理端末である。会議参加者端末30は、ノート型PC(Personal Computer)や、タブレットPC、スマートフォン、電子ペーパー端末、ウェアラブルデバイス(例えば、眼鏡型端末、ヘッドマウントディスプレイ(HMD:Head Mounted Display)等)等であり得る。なお、図示する例では、便宜的に2つの会議参加者端末30を示しているが、システム1は、1つ又は複数の任意の数の会議参加者端末30を備えてよい。
(Meeting participant terminal 30)
The
なお、本実施形態では、システム1が適用される会議は、参加者全員が同一の室内に集まって開催されるものであってもよいし、いわゆるテレビ会議システム等を用いて遠隔地にいる参加者が参加して開催されるものであってもよい。従って、会議参加者端末30も、会議室内にいる参加者によって利用されているものであってもよいし、遠隔地から会議に参加している参加者によって利用されているものでもよい。
In the present embodiment, the conference to which the
例えば、会議の参加者は、電子白板20の表示領域と、自身の会議参加者端末30の表示画面とを連携させることにより、手持ちの資料等を電子白板20の表示領域に表示させ、他の参加者に対して提示することができる。また、会議の参加者は、自身の会議参加者端末30に対してコメント等の情報を入力し、当該情報を電子白板20に表示させてもよい。会議参加者端末30を介して入力された各種の情報(以下、端末入力情報という)は、ネットワーク40を介して情報処理装置10に送信される。
For example, a conference participant causes the display area of the
(情報処理装置10)
情報処理装置10は、会議において発せられたテキストデータを解析し、当該テキストデータを所定のカテゴリに分類するとともに、その分類結果が当該テキストデータの発言者と関連付けて可視化された画面である可視化画面を生成する。なお、情報処理装置10は、会議室内に設置されるローカルなものであってもよいし、いわゆるクラウド上に設置されたサーバのように会議室とは離れた場所に設置されるものでもよい。
(Information processing apparatus 10)
The
情報処理装置10は、その機能として、発話解析部110と、テキストデータ収集部120と、テキストデータDB(Data Base)130と、テキストデータ解析部140と、解析結果DB150と、状況予測部160と、可視化画面生成部170と、要約部180と、検索部190と、を備える。
The
ここで、発話解析部110、テキストデータ収集部120、テキストデータ解析部140、状況予測部160、可視化画面生成部170、要約部180及び検索部190は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Pocessor)、ASIC(Application Specific Integrated Circuit)等の各種のプロセッサによって構成され、所定の演算処理を実行することにより情報処理装置10の動作を制御する制御手段である。テキストデータ収集部120、テキストデータ解析部140、状況予測部160、可視化画面生成部170、要約部180及び検索部190を構成するプロセッサが所定のプログラムに従って動作することにより、これらの機能が実現される。
Here, the
また、テキストデータDB130及び解析結果DB150は、例えばHDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等の各種の記憶デバイスによって構成され、各種の情報を記憶する記憶手段である。
In addition, the
発話解析部110は、会議中に参加者によって発せられた音声についての情報(以下、音声入力情報という)を取得し、当該音声入力情報に含まれる参加者の発話を解析する。なお、音声入力情報は、会議室内に設置されるマイクロフォン等の音声入力デバイス(図示せず)によって取得され得る。
The
例えば、発話解析部110は、音声区間解析(VAD:Voice Activity Detection)技術を用いて、観測された会議中の音声の中から、参加者の発話区間を抽出する。会議中の音声には、参加者が誰も発話しておらず、環境音等のノイズのみが生じている区間が存在し得るが、音声区間解析技術を用いることにより、このような区間を話者の発話区間として誤認識することを防止することができる。話者の発話とノイズとを識別する技術としては、例えば、PARADE法やSKIF法等が知られている(例えば、「荒木章子他、「音声区間検出と方向情報を用いた会議音声話者識別システムとその評価」、日本音響学会講演論文集、2008年3月」等を参照)。
For example, the
また、例えば、発話解析部110は、話者識別技術を用いて、発話している人物が同一人物か、別の人物か、を識別する。従来、機械学習を用いた様々な話者識別技術が提案されている。例えば、GMM−UBM法では、平均的な発話のモデル(UBM:Universal Back Ground Model)を導入し、ある話者Xの音声が既知の他の話者Yのものであるかの判定が行われる。具体的には、話者Xの音声について、話者Yに関する類似度とUBMに関する類似度の差分により判定が行われる。また複数のマイクロフォンを用いることにより、音声の方向を検出し話者の識別を行う方法も提案されている。
For example, the
なお、話者識別技術の詳細については、例えば、上記「荒木章子他、「音声区間検出と方向情報を用いた会議音声話者識別システムとその評価」、日本音響学会講演論文集、2008年3月」や、「越仲孝文他、「話者認識の国際動向」、日本音響学会誌、2013年、69巻、第7号、pp.342−348」等を参照することができる。 For details of the speaker identification technique, see, for example, “Akiko Araki et al.,“ Conference voice speaker identification system using voice interval detection and direction information and its evaluation ”, Acoustical Society of Japan Proceedings, March 2008. Tsuki ", Takafumi Koshinaka et al.,“ International trends in speaker recognition ”, Journal of the Acoustical Society of Japan, 2013, 69, 7, pp. 342-348 "and the like.
発話解析部110は、上述した音声区間検出技術や話者識別技術等を用いて、参加者が誰も発話していない区間(以下、非発話区間ともいう)や、複数の参加者が同時に発話している区間(以下、発話衝突区間ともいう)等を抽出することができる。
The
また、例えば、発話解析部110は、話者認識技術を用いて、発話している人物を特定する。これにより、音声入力情報に含まれる発話に係るテキストデータと、当該テキストデータの発言者とが紐付けられることになる。
Further, for example, the
なお、音声区間解析方法や話者識別方法、話者認識方法としては、例えば上述した各文献に記載されているような各種の公知の方法が用いられてよい。 In addition, as a speech area analysis method, a speaker identification method, and a speaker recognition method, for example, various known methods as described in the above-mentioned documents may be used.
発話解析部110は、音声入力情報の解析結果を、テキストデータ収集部120及び解析結果DB150に提供する。
The
テキストデータ収集部120は、会議に関連するあらゆる情報を取得し、当該情報の中からテキストデータを抽出することにより、会議に関連するテキストデータを収集する。例えば、テキストデータ収集部120は、会議参加者端末30から端末入力情報を取得し、当該端末入力情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、会議参加者端末30の各々に割り当てられているID等を利用して、発言者と紐付けられた状態でテキストデータを抽出し得る。
The text
また、例えば、テキストデータ収集部120は、会議において参加者に提示された各種の資料についての情報(以下、会議資料情報という)を取得し、当該会議資料情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、例えば会議資料の作成者等の情報に基づいて、当該会議資料中の文字を記載している人物(すなわち発言者)と紐付けられた状態でテキストデータを抽出してもよい。なお、会議資料情報は、会議の参加者のいずれかによって手動で情報処理装置10に入力されてもよいし、情報処理装置10がアクセス可能な所定の記憶領域に会議資料が保存されることにより、情報処理装置10によって自動で取得されてもよい。
Further, for example, the text
また、例えば、テキストデータ収集部120は、電子白板20から白板入力情報を取得し、OCR(Optical Character Recognition)やストロークに基づく文字認識方法(Stroke Based Character Recognition)等の各種の公知な方法を用いて電子白板20に手書きで入力された文字を解析することにより、白板入力情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、例えば記載された文字の筆跡を解析することにより、文字を記載している人物(すなわち発言者)と紐付けられた状態でテキストデータを抽出してもよい。あるいは、システム1には会議室内の様子を撮影する撮像装置が設けられてもよく、テキストデータ収集部120は、当該撮像装置によって撮影された映像に基づいて電子白板20に文字を手書きしている参加者を特定し、そのテキストデータと紐付けてもよい。なお、手書きされた文字の認識方法や、筆跡の解析方法、映像に基づく人物の認識方法としては、各種の公知な方法が用いられてよい。
In addition, for example, the text
また、例えば、テキストデータ収集部120は、音声入力情報を取得し、当該音声入力情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、発話解析部110による話者認識処理の結果に基づいて、発言者と紐付けられた状態でテキストデータを抽出してもよい。なお、音声からテキストデータを抽出する方法としては、各種の公知な方法が用いられてよい。
For example, the text
テキストデータ収集部120は、抽出したテキストデータをテキストデータDB130に格納する。このとき、テキストデータ収集部120は、テキストデータをその発言者と紐付けて格納する。
The text
なお、ここでは、一例として、テキストデータ収集部120が、端末入力情報、会議資料情報、白板入力情報及び音声入力情報からテキストデータを抽出する場合について説明したが、本実施形態はかかる例に限定されない。テキストデータ収集部120がテキストデータを抽出する対象とする情報は、会議に関連する情報であればよく、テキストデータ収集部120は、あらゆる情報からテキストデータを抽出することができる。例えば、電子白板20の代わりに通常の白板が用いられる場合であれば、テキストデータ収集部120は、当該白板を撮影した画像情報を取得し、当該画像情報に基づいて、当該白板に記載されたテキストデータを抽出してもよい。
Here, as an example, the case where the text
テキストデータDB130は、テキストデータ収集部120によって収集されたテキストデータを保存する。このとき、テキストデータDB130は、テキストデータを、当該テキストデータが発言された会議名、当該テキストデータが発言された時刻、当該テキストデータの発言者等と紐付けて保存することができる。また、テキストデータDB130は、1度の会議中に抽出されたテキストデータだけでなく、複数の会議のそれぞれにおいて抽出されたテキストデータの履歴を保存してもよい。
The
テキストデータ解析部140は、テキストデータDB130に保存されているテキストデータを解析する。テキストデータ解析部140は、その機能として、テキストデータから意見を抽出する意見抽出部141と、テキストデータに含まれるトピックを解析するトピック解析部142と、を有する。
The text
なお、本実施形態では、テキストデータ解析部140は、テキストデータを解析するために、意見抽出処理及びトピック解析処理の少なくともいずれかの処理を実行可能に構成されればよい。図1では、便宜的に、テキストデータ解析部140が、意見抽出部141及びトピック解析部142をともに有しているように図示しているが、実際には、テキストデータ解析部140は、これらの機能のうちの少なくともいずれかを有するように構成されればよい。
In the present embodiment, the text
意見抽出処理では、例えば意見の極性(肯定(positive)、否定(negative)、中立(moderate))や、モダリティ等の観点から、テキストデータから発言者の意図が抽出され、当該意図に応じたカテゴリ(意見タイプ)に当該テキストデータが分類される。トピック解析処理では、例えばLDA(Latent Dirichlet Allocation)等の方法を用いて、テキストデータに含まれる単語からトピックが抽出される。なお、テキストデータ解析部140における意見抽出処理及びトピック解析処理の詳細については、下記(2−2.テキストデータ解析部の詳細)で改めて説明する。
In the opinion extraction process, for example, the intention of the speaker is extracted from the text data in terms of the polarity of the opinion (positive, negative, moderate), modality, etc., and the category corresponding to the intention is extracted. The text data is classified into (opinion type). In the topic analysis process, topics are extracted from words included in the text data by using a method such as LDA (Lent Dirichlet Allocation), for example. Details of the opinion extraction process and the topic analysis process in the text
テキストデータ解析部140は、テキストデータの解析結果を解析結果DB150に格納する。
The text
解析結果DB150は、テキストデータ解析部140によるテキストデータの解析結果を保存する。このとき、解析結果DB150は、テキストデータの解析結果を、当該解析結果の基となったテキストデータ、当該テキストデータが発言された会議名、当該テキストデータが発言された時刻、当該テキストデータの発言者等と紐付けて保存することができる。また、解析結果DB150は、1度の会議中に抽出されたテキストデータに対する解析結果だけでなく、複数の会議のそれぞれにおいて抽出されたテキストデータに対する解析結果の履歴を保存してもよい。
The
また、解析結果DB150は、発話解析部110による発話の解析結果を保存する。このとき、解析結果DB150は、テキストデータの解析結果と同様に、発話の解析結果を、当該解析結果の基となった発話内容、当該発話がなされた会議名、当該発話がなされた時刻、当該発話の発話者等と紐付けて保存することができる。また、解析結果DB150は、1度の会議中に発せられた発話に対する解析結果だけでなく、複数の会議のそれぞれにおいて発せられた発話に対する解析結果の履歴を保存してもよい。
The
状況予測部160は、解析結果DB150に保存されているテキストデータ及び/又は発話の解析結果等に基づいて、会議の状況を予測する。会議の状況とは、例えば、会議が開始された直後であること、会議が停滞していること、議論が紛糾していること、会議が終盤に差し掛かっていること等である。状況予測部160は、予測した結果を可視化画面生成部170に提供する。
The
可視化画面生成部170は、解析結果DB150に保存されているテキストデータ及び/又は発話の解析結果に基づいて、当該解析結果が可視化された画面である可視化画面を生成する。例えば、可視化画面生成部170は、テキストデータ解析部140による解析結果に基づいて、所定のカテゴリ(例えば、テキストデータの発言者の意図を示すカテゴリ(すなわち意見タイプ)及び/又はテキストデータが有するトピックを示すカテゴリ等)にテキストデータを分類し、当該分類結果が当該テキストデータの発言者と関連付けられて可視化された画面を生成することができる。また、可視化画面生成部170は、発話解析部110による解析結果に基づいて、会議中における発話状況(例えば、各参加者の発話区間、非発話区間及び/又は発話衝突区間等)が可視化された画面を生成することができる。
Based on the text data stored in the
可視化画面生成部170によって生成された可視化画面についての情報は、ネットワーク40を介して、電子白板20及び/又は会議参加者端末30に送信され、当該電子白板20及び/又は当該会議参加者端末30の表示画面に表示される。可視化画面は、発言者の意図、テキストデータに含まれるトピック、及び/又は会議中の発話状況等が発言者と関連付けられて可視化された画面であるから、これらの可視化画面が会議中に参加者に対して提示されることにより、当該参加者に会議の進行に関する様々な気付きを与えることができる。
Information about the visualization screen generated by the visualization
例えば、可視化画面を参照することにより、各参加者は、議論が活発に交わされている状況か、肯定的な意見が多いか、各参加者の立ち位置はどうか等の情報を客観的に読み取ることができる。そのため、現在議論している内容が元々の会議の議題から外れてないかの確認や、議論が収束しつつあることの認識等の、気付きを得ることが可能になる。また、質問や疑問を呈するテキストデータが多い場合には、説明資料の内容や会議の事前準備が不十分である可能性があるため、参加者が次回の会議に向けてこれらの点を改善するきっかけになり得る。あるいは、参加者の担当分野や立場による理解力の差に起因して質問や疑問を呈するテキストデータが多くなっている可能性もあるため、次回の会議において資料を作成する際の参考にすることができる。 For example, by referring to the visualization screen, each participant objectively reads information such as the status of active discussion, whether there are many positive opinions, and the position of each participant. be able to. For this reason, it becomes possible to obtain awareness such as confirmation that the content currently being discussed does not deviate from the agenda of the original meeting, and that the discussion is converging. Also, if there are a lot of text data that ask questions or questions, the contents of the explanatory materials and the preliminary preparation of the meeting may be insufficient, so participants will improve these points for the next meeting It can be a trigger. Or, there may be a lot of text data that asks questions or questions due to differences in comprehension depending on the field or position of the participants, so it should be used as a reference when creating materials at the next meeting. Can do.
なお、可視化画面は、参加者全員が参照できるように、電子白板20及び/又は全ての会議参加者端末30において表示されてもよいし、特定の参加者だけが参照できるように、例えば会議の進行役等、一部の参加者の会議参加者端末30においてのみ表示されてもよい。
Note that the visualization screen may be displayed on the
また、このとき、可視化画面生成部170は、状況予測部160によって予測された会議の状況に基づいて、会議の状況に則した内容の可視化画面を、会議の状況に則したタイミングで生成してもよい。会議の状況を踏まえて、より適切な可視化画面が生成され、当該可視化画面がより適切なタイミングで会議の参加者に対して提示されることにより、参加者に対して会議の進行に関するより有益な情報を提供することが可能になる。
Further, at this time, the visualization
なお、状況予測部160による会議の状況の予測処理の詳細、及び可視化画面生成部170によって生成される可視化画面の例については、下記(4.可視化画面の表示例)及び(5.他の表示例)で詳しく説明する。
The details of the process of predicting the meeting status by the
要約部180は、解析結果DB150に保存されているテキストデータ及び発話の解析結果、並びに可視化画面生成部170によって生成された可視化画面に基づいて、会議の要約を作成する。例えば、要約部180は、テキストデータを分類されたカテゴリと紐付けてまとめることにより、要約を作成する。また、要約部180は、可視化画面上に表示されるテキストデータの分類結果を可視化したチャートを含めて要約を作成してもよい。更に、要約部は、電子白板20に書記によって記載された議事録や、会議中に表示された資料等を含めて要約を作成してもよい。
The
要約部180によって作成された会議の要約は、ネットワーク40を介して電子白板20及び/又は会議参加者端末30に配信される。参加者は、電子白板20及び/又は会議参加者端末30を介して、会議の要約を参照することができる。当該要約を参照することにより、参加者は、会議における意見の推移や、各参加者の議題に対する立ち位置等を事後的に容易に確認することが可能になる。
The conference summary created by the
ここで、電子白板20に書記によって記載された議事録や、会議後に書記によって作成される正式な議事録は、当該書記の主観が混ざっている可能性がある。一方、要約部180によって作成された要約は、テキストデータの解析結果等に基づいて自動的に生成されるものであるため、会議の内容がより客観的な視点からまとめられたものであると言える。従って、会議の参加者は、正式な議事録と、要約部180によって作成された要約と、の両方を参照することにより、会議の内容をより多角的に把握することが可能になる。
Here, the minutes recorded by the secretary on the electronic
なお、会議の要約を作成する方法としては、例えば会議の要約を自動的に生成する方法として一般的に知られている各種の方法が用いられてよい。 As a method for creating a conference summary, for example, various methods generally known as a method for automatically generating a conference summary may be used.
検索部190は、解析結果DB150に保存されているテキストデータ及び発話の解析結果、並びに可視化画面生成部170によって生成された可視化画面を検索し、過去の会議における解析結果及び/又は可視化画面を、ネットワーク40を介して電子白板20及び/又は会議参加者端末30に配信する。例えば、会議の参加者は、必要に応じて過去の会議における解析結果や可視化画面の内容を確認することにより、当該過去の会議の内容を容易に把握することができる。従って、過去の会議の内容を引き継いだ議論をより円滑に行うことが可能になる。また、検索部190は、過去の会議における、電子白板20に書記によって記載された議事録や、会議中に表示された資料等を検索し、電子白板20及び/又は会議参加者端末30に配信してもよい。
The
検索の指示は、電子白板20及び/又は会議参加者端末30を介して参加者によって入力されてよい。例えば、検索部190は、参加者からの指示に応じて、会議名、会議の開催日時、会議の参加者、会議中に発言されたテキストデータの内容等の観点から、検索を行うことができる。例えば、過去に開催された類似するテーマの会議における解析結果や可視化画面の内容等を検索することにより、当該過去の会議の内容についての知識を参加者全員で共有することができ、議論の重複を避けることが可能になる。
The search instruction may be input by the participant via the
以上、本実施形態に係るシステム1の機能構成について説明した。以上説明したように、本実施形態によれば、会議における発言から、発言者の意図(肯定、否定、提案、疑問、命令等)が抽出され、可視化される。従って、参加者に多くの気付きを与え、会議の進行を効率よく行うことができ、参加者の利便性を向上させることができる。例えば、否定的な発言が頻出した場合は、議論が本題からずれていないかの確認のきっかけになる。また、例えば、肯定的な意見が増えてきた場合には、議題について参加者の合意を得るステップに進む指針になる。また、例えば、質問が噴出する場合には、説明や資料に何らかの不備があることが想像される。更には、参加者の立場やスキルによって理解力の差が現れていることも分かり、次回の資料作成の参考にもなる。
Heretofore, the functional configuration of the
なお、システム1の構成は図示する例に限定されない。システム1は、全体として以上説明した各機能を実現可能に構成されればよく、その具体的な構成は任意であってよい。例えば、図2において情報処理装置10の機能として図示されている各機能は、必ずしも1台の装置において実行されなくてもよく、複数の装置の協働によって実行されてもよい。
The configuration of the
なお、上述のような本実施形態に係るシステム1の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
Note that a computer program for realizing each function of the
(2−2.テキストデータ解析部の詳細)
図2に示すテキストデータ解析部140のより詳細な機能について説明する。
(2-2. Details of text data analysis unit)
A more detailed function of the text
(意見抽出処理)
図3及び図4を参照して、図2に示すテキストデータ解析部140の意見抽出部141のより詳細な機能について説明する。図3は、図2に示す意見抽出部141の機能構成の一例を示す機能ブロック図である。図4は、意見抽出部141による意見抽出処理について説明するための説明図である。
(Opinion extraction process)
A more detailed function of the
意見抽出部141は、その機能として、文分割部201と、構文/意味解析部203と、業務用語集205と、辞書生成部207と、業務用語辞書209と、意見/評価表現抽出部211と、を有する。文分割部201、構文/意味解析部203、辞書生成部207及び意見/評価表現抽出部211はCPU等のプロセッサによって構成され、当該プログラムが所定のプログラムに従って所定の演算処理を実行することにより、これらの機能が実現され得る。また、業務用語集205及び業務用語辞書209は、HDD等の記憶デバイスによって構成され得る。
The
文分割部201は、例えば形態素解析処理により、テキストデータを単語単位に分解する。構文/意味解析部203は、文分割部201によって分割されたテキストデータに対して、業務用語辞書209を参照しながら、構文解析処理及び意味解析処理を行う。形態素解析処理、構文解析処理及び意味解析処理が行われることにより、テキストデータ内の文節間の係り結び構造が解析される。なお、形態素解析処理、構文解析処理及び意味解析処理の具体的な方法としては、いわゆる自然言語処理の分野において用いられている各種の公知な方法が用いられてよい。
The
例えば、文分割部201及び構文/意味解析部203によって、「Web製作の人員をもっと増やして欲しいです。」というテキストデータに対して解析が行われる場合について考える。この場合には、図4に示すように、当該テキストデータが、「Web製作の」、「人員を」、「もっと」及び「増やして欲しいです。」という文節に分割されるとともに、各文節の「句」や「格」が解析される。また、その係り受け構造について、「Web製作の」という文節は「人員を」という文節に係っており、「人員を」及び「もっと」という文節はともに「増やして欲しいです。」という文節に係っていることが解析される。
For example, let us consider a case where the
業務用語集205は、業務において用いられる頻度の高い用語が集められたデータベースである。業務用語集205は、業務の分野ごとに複数のものが用意されていてよい。業務の分野は、例えば、「電機」、「IT」、「建設」等、会議が行われる企業の事業分野であってもよいし、より詳細に、「設計開発」、「製作」、「経理」等、一企業内での職種に関する分野であってもよい。
The
辞書生成部207は、業務用語集205から、現在解析の対象としている会議が属する業務の分野に応じた用語を抽出し、業務用語辞書209を生成する。このように、辞書生成部207は、会議ごとに、当該会議に適した業務用語辞書209を生成することができる。
The
業務用語辞書209は、単語、品詞が格納されているデータベースである。業務用語辞書209は、一般的に構文解析処理及び意味解析処理を行うために必要となる固有表現情報や評価表現語が含まれるように構成されればよく、その構成は任意であってよい。
The
意見/評価表現抽出部211は、文分割部201及び構文/意味解析部203によって解析されたテキストデータに含まれる単語や、当該テキストデータの係り受け構造、当該テキストデータの述語項構造に基づいて、当該テキストデータから評価表現及び意見を抽出する。また、意見/評価表現抽出部211は、抽出した評価表現に基づいて、当該意見を、発言者の意図に応じたカテゴリ(意見タイプ)に分類する。
The opinion / evaluation
ここで、本実施形態では、「意見」とは、解析の対象としているテキストデータの「評価表現」と、当該評価表現の「評価対象(対象物)」とが組み合わされたものを意味する。評価表現とは、テキストデータに含まれる、発言者の意図を表す表現である。例えば、上記の例であれば、「増やして欲しいです。」が評価表現に対応する。また、「人員を」が当該評価表現の対象物に対応する。つまり、「Web製作の人員をもっと増やして欲しいです。」というテキストデータから抽出される意見は、「「人員を」「増やして欲しいです。」」であり得る。 Here, in this embodiment, “opinion” means a combination of “evaluation expression” of text data to be analyzed and “evaluation object (object)” of the evaluation expression. The evaluation expression is an expression representing the intention of the speaker included in the text data. For example, in the above example, “I want you to increase” corresponds to the evaluation expression. Further, “personnel” corresponds to the object of the evaluation expression. That is, the opinion extracted from the text data “I want you to increase the number of Web production personnel” can be ““ I want to increase the number of personnel ””.
具体的には、意見/評価表現抽出部211は、述語項構造解析処理を行うことにより、述部に対応する句と、当該述部に対応する句に係っている句とを特定する。そして、述部に対応する句からテキストデータの評価表現を抽出する。また、述部に対応する句に係っている句を当該評価表現の対象物として抽出する。
Specifically, the opinion / evaluation
また、意見タイプは、例えば、「肯定」、「否定」、「必要」、「要望」、「提案」等であり得る。意見タイプは、評価表現に基づいて判断され得る。例えば、上記の「Web製作の人員をもっと増やして欲しいです。」というテキストデータに対して解析が行われる場合であれば、意見/評価表現抽出部211は、評価表現である「増やして欲しいです。」が、「必要」及び「願望」という意見タイプを表す句であると判断する。そして、意見/評価表現抽出部211は、当該評価表現を含む意見(すなわち、「「人員を」「増やして欲しいです。」」)を、「必要」及び「願望」という意見タイプに分類する。
Further, the opinion type can be, for example, “affirmation”, “denial”, “necessary”, “request”, “suggestion”, and the like. The opinion type can be determined based on the evaluation expression. For example, in the case where the analysis is performed on the text data “I want to increase the number of Web production personnel” above, the opinion / evaluation
このように、意見/評価表現抽出部211は、最終的に、テキストデータから、意見と、当該意見が属するカテゴリを表す意見タイプを抽出する。意見は、テキストデータの主要部分を抜き出したものとも言えるため、意見/評価表現抽出部211による意見及び意見タイプの抽出処理は、テキストデータを意見タイプに分類する処理であるとも言える。
In this way, the opinion / evaluation
意見/評価表現抽出部211は、テキストデータ収集部120によって収集された会議中に発せられた各テキストデータからそれぞれ意見を抽出し、抽出した意見を意見タイプに分類する。そして、抽出した意見とその意見タイプとを紐付けて解析結果DB150に格納する。可視化画面生成部170は、解析結果DB150を参照して、その分類結果、すなわちテキストデータごと(あるいは意見ごと)の意見タイプが可視化された可視化画面を生成する。
The opinion / evaluation
ここで、評価表現から意見タイプを判断する方法としては、各種の公知の方法を用いることができる。ここでは、一例として、ポジネガ判定を用いる方法、及びモダリティを用いた方法について説明する。 Here, as a method for judging the opinion type from the evaluation expression, various known methods can be used. Here, as an example, a method using positive / negative determination and a method using modality will be described.
(ポジネガ判定を用いる方法)
一般的に、肯定(ポジティブ)及び否定(ネガティブ)を表す評価表現語を活用して、テキストデータの肯定度及び否定度を判定する、ポジネガ判定と呼ばれる技術が知られている。意見/評価表現抽出部211は、当該ポジネガ判定を用いて、テキストデータあるいは意見の肯定度又は否定度を判定し、当該テキストデータあるいは意見が属する意見タイプが、「肯定」、「否定」又は「中立」であることを判断することができる。
(Method using positive / negative judgment)
In general, a technique called positive / negative determination is known in which an evaluation expression word representing affirmative (positive) and negative (negative) is used to determine the affirmation degree and the negation degree of text data. The opinion / evaluation
なお、ポジネガ判定では、評価表現語辞書を事前に作成する必要がある。当該評価表現語辞書は人手で作成されてもよいが、人手による作成では、ドメインによる評価表現に差異があり作成に手間が掛かるため、当該評価表現語辞書を事前に自動的に作成する手法も提案されている(例えば、「那須川哲哉,金山博,坪井祐太,渡辺日出雄、「好否定文脈を応用した自然言語処理」、言語処理学会第11回年次大会、2005年3月、pp.153−156」や、「舘野昌一、「「お客様の声」に含まれるテキスト感性表現の抽出方法」、情報処理学会研究報告自然言語処理(NL153−14)、2002年、pp.105−112」等を参照)。 In the positive / negative determination, it is necessary to create an evaluation expression word dictionary in advance. The evaluation expression word dictionary may be created manually, but since manual evaluation creates differences in the evaluation expression by domain and takes time to create, there is also a method of automatically creating the evaluation expression word dictionary in advance. Proposed (for example, “Tetsuya Nasukawa, Hiroshi Kanayama, Yuta Tsuboi, Hideo Watanabe,“ Natural Language Processing Applying Favored Context ”, The 11th Annual Conference of the Association for Language Processing, March 2005, pp. 153-156 ”,“ Choichi Sugano, “Method for extracting text sensibility expression contained in“ voice of customer ””, IPSJ Research Report Natural Language Processing (NL153-14), 2002, pp. 105-112 ” Etc.).
また、評価表現語には、その評価表現語である句や単語の周囲の語や文脈によって評価(すなわち意見タイプ)が変化するものが存在する。例えば、「良い」、「悪い」等の評価表現語は、直接的に「肯定」又は「否定」を表す単語であり得るが、「長い」という評価表現語の場合には、当該「長い」という単語が用いられる文脈によって評価が変化し得る。例えば、「充電時間が長い」というテキストデータの評価は「否定」だが、「利用可能時間が長い」というテキストデータの評価は「肯定」であり得る。従って、文の構造や前後の単語の共起を解析して、ポジネガ判定の対象物まで考慮したポジネガ判定の手法も提案されている(例えば、「藤村滋他、「文の構造を考慮した評判抽出手法」、電子情報通信学会第16回データ工学ワークショップ(DEWS2005)、2005年」等を参照)。意見/評価表現抽出部211は、当該手法を用いて、上述した「対象物」まで考慮したポジネガ判定を行ってもよい。
In addition, there are evaluation evaluation words whose evaluation (that is, opinion type) varies depending on phrases and words around the evaluation expression word and context. For example, an evaluation expression word such as “good” or “bad” may be a word directly representing “affirmation” or “denial”, but in the case of an evaluation expression word “long”, the “long” The evaluation may vary depending on the context in which the word is used. For example, the evaluation of text data “long charging time” may be “negative”, but the evaluation of text data “long available time” may be “positive”. Therefore, a positive / negative determination method that analyzes the structure of a sentence and the co-occurrence of words before and after and considers the object of positive / negative determination has also been proposed (for example, “Shigeru Fujimura et al.” "Extraction method", IEICE 16th Data Engineering Workshop (DEWS 2005), 2005 ", etc.). The opinion / evaluation
(モダリティを用いる方法)
モダリティとは、文や発話における発言者の態度やムードのことである。例えば、「行く」という動詞に対して、活用変化や付属語の付与により、「行くだろう」(推量)、「行け」(命令)、「行くべきだ」(義務、断定)、「行かない」(否定)等の、発言者の態度等を表す様々な意味が付与される。一般的に、テキストデータに含まれる評価表現から、このような発言者の態度やムード(すなわち、モダリティ)を抽出する技術が開発されている。
(Method using modality)
Modality is the attitude or mood of a speaker in a sentence or utterance. For example, for the verb “go”, by changing the usage or attaching an attached word, “will go” (inference), “go” (command), “should” (duty, assert), “do not go” "(Negation)" is given various meanings representing the attitude of the speaker. In general, a technique for extracting such a speaker's attitude and mood (ie, modality) from an evaluation expression included in text data has been developed.
意見/評価表現抽出部211は、当該技術を用いて、テキストデータあるいは意見に含まれる評価表現からモダリティを抽出し、当該モダリティをそのテキストデータあるいは意見の意見タイプとして採用することができる。なお、モダリティは、例えば、「仮定」、「困難」、「容易」、「禁止」、「疑問」、「願望」、「主張」、「勧誘」、「可能」、「不意」、「程度」、「簡単」、「不可能」等、多数存在する。
The opinion / evaluation
ここで、上述したように、意見/評価表現抽出部211は、意見の一部として「対象物」を抽出している。当該「対象物」は、モダリティの対象となっているものを表していると言える。このように、本実施形態では、対象となっているものまで含めてモダリティを抽出することができる。
Here, as described above, the opinion / evaluation
例えば、「日程に余裕がない。」というテキストデータであれば、対象は「日程」であり、そのモダリティは「否定」となる。 For example, if the text data is “there is no schedule,” the target is “schedule” and the modality is “deny”.
また、例えば、「発売を延期しようよ。」というテキストデータであれば、対象は「発売」であり、そのモダリティは「願望」及び「主張」となる。 For example, in the case of text data “Let's postpone the sale”, the object is “release”, and the modalities are “aspiration” and “claim”.
また、例えば、「今のやり方では精度が出ない。」というテキストデータであれば、対象は「精度」であり、そのモダリティは「否定」となる。 For example, if the text data is “Accuracy is not achieved with the current method”, the target is “Accuracy” and the modality is “Negative”.
また、例えば、「プロジェクト関係者でブレストをやりませんか。」というテキストデータであれば、対象は「ブレスト」であり、そのモダリティは「仮定」及び「提案」となる。 For example, in the case of text data “Would you like to be involved in the project?”, The target is “Brest”, and the modalities are “Assumption” and “Proposal”.
以上、意見/評価表現抽出部211の詳細な機能について説明した。
The detailed function of the opinion / evaluation
(トピック解析処理)
図2に示すテキストデータ解析部140のトピック解析部142のより詳細な機能について説明する。トピック解析部142は、テキストデータのトピックを解析する。
(Topic analysis process)
A more detailed function of the
テキストデータのトピックを解析する方法としては、各種の公知の方法を用いることができる。例えば、文書中に登場する単語から当該文書の潜在トピックを推定する方法として、LDAが知られている。また、LDAを用いて一連の文章の流れの中からトピックの変化点を判定する方法も提案されている(例えば、「David M. Blei他、「Latent Dirichlet Allocation」、Journal of Machine Learning Research 3、2003年、pp.993−1022」や、「中村明他、「トピック変化点検出に基づくLDAのオンライン適応における複数モデル統合の効果」、言語処理学会 第15回年次大会発表論文集文献3,4、2009年」等を参照)。 As a method for analyzing the topic of text data, various known methods can be used. For example, LDA is known as a method for estimating a latent topic of a document from words appearing in the document. In addition, a method for determining a topic change point from a series of sentence flows using LDA has been proposed (for example, “David M. Blei et al.,“ Lent Dirichlet Allocation ”, Journal of Machine Learning Research 3, 2003, pp. 993-1022 "," Akira Nakamura et al., "Effects of multiple model integration in LDA online adaptation based on topic change point detection", Proc. Of the 15th Annual Conference of the Language Processing Society, 3, 4, 2009 ").
LDAは、文書が複数のトピックを有することを前提とした、文書分類モデルである。LDAでは、文書の潜在トピックを隠れ変数Z(複数次元)で定義し、事前に大量の文書から各文書Dのトピック確率P(Z|D)と潜在トピックごとの単語の出現確率P(W|Z)を学習する。そして、未知の文書に対して、P(Z|D)を推定することができる。 LDA is a document classification model based on the premise that a document has a plurality of topics. In LDA, a latent topic of a document is defined by a hidden variable Z (multiple dimensions), and a topic probability P (Z | D) of each document D and a word appearance probability P (W | Z) is learned. Then, P (Z | D) can be estimated for an unknown document.
LDAでは、予め該当する分野の大量の文書を用いて単語の共起関係を学習しておく必要がある。例えば、対象とする業界に関するビジネス文書を用いてその業界が属する分野についての学習を事前に行うと同時に、会議中に収集されたテキストデータを用いて追加的に学習を行うことにより、定期的に学習モデルのアップデートを行うことも可能である。 In LDA, it is necessary to learn a word co-occurrence relationship in advance using a large number of documents in a corresponding field. For example, the business documents related to the target industry are used in advance to learn about the field to which the industry belongs, and at the same time, additional learning is performed using text data collected during the meeting. It is also possible to update the learning model.
本実施形態では、LDAを用いて推定される潜在トピックによってテキストデータが分類され得る。例えば、「ハードディスク」、「パーティション」、「Cドライブ」等の単語がテキストデータに含まれていれば、当該テキストデータについては、これらの単語に関連した次元スコアが高くなる。また、例えば、「インターネット」、「Wi−Fi(登録商標)」、「ルータ」等の単語がテキストデータに含まれていれば、当該テキストデータについては、これらの単語に関連した次元スコアが高くなる。従って、次元スコアの結果に従ってテキストデータを分類することにより、同様のトピックを有するテキストデータが同一のカテゴリに分類されることとなる。このように、LDAによれば、マルチトピックの属性を使ってテキストデータを分類することができる。また、トピックの変化点を検出することも可能である。可視化画面生成部170は、このように潜在トピックによってテキストデータが分類された結果が可視化された可視化画面を生成することができる。
In the present embodiment, text data can be classified according to potential topics estimated using LDA. For example, if words such as “hard disk”, “partition”, and “C drive” are included in the text data, the dimension score related to these words is high for the text data. Also, for example, if words such as “Internet”, “Wi-Fi (registered trademark)”, “router” are included in the text data, the dimension score related to these words is high for the text data. Become. Therefore, by classifying the text data according to the result of the dimension score, the text data having a similar topic is classified into the same category. Thus, according to LDA, text data can be classified using multi-topic attributes. It is also possible to detect a topic change point. The visualization
以上、トピック解析部142の詳細な機能について説明した。
The detailed function of the
(3.情報処理方法)
図5を参照して、本実施形態に係る情報処理方法の処理手順について説明する。図5は、本実施形態に係る情報処理方法の処理手順の一例を示すフロー図である。なお、図5に示す各ステップにおける処理は、図2に示すシステム1において実行される処理に対応する。システム1において実行される処理の詳細については図2を参照して既に説明しているため、以下の本実施形態に係る情報処理方法についての説明では、各ステップにおける処理についての概要のみを記載し、各処理の詳細については説明を省略する。
(3. Information processing method)
With reference to FIG. 5, a processing procedure of the information processing method according to the present embodiment will be described. FIG. 5 is a flowchart showing an example of a processing procedure of the information processing method according to the present embodiment. Note that the processing in each step shown in FIG. 5 corresponds to the processing executed in the
図5を参照すると、本実施形態に係る情報処理方法では、まず、音声入力情報に基づいて参加者の発話が解析される(ステップS101)。ステップS101における処理は、図2に示す発話解析部110によって実行される処理に対応している。
Referring to FIG. 5, in the information processing method according to the present embodiment, first, the participant's utterance is analyzed based on the voice input information (step S101). The processing in step S101 corresponds to the processing executed by the
次に、会議に関連するテキストデータが収集される(ステップS103)。ステップS103における処理は、図2に示すテキストデータ収集部120によって実行される処理に対応している。
Next, text data related to the meeting is collected (step S103). The processing in step S103 corresponds to the processing executed by the text
次に、収集されたテキストデータが解析される(ステップS105)。ステップS105における処理は、図2に示すテキストデータ解析部140によって実行される処理に対応している。
Next, the collected text data is analyzed (step S105). The processing in step S105 corresponds to the processing executed by the text
次に、ステップS101における発話解析結果、及び/又はステップS103におけるテキストデータの解析結果に基づいて、会議の状況が予測される(ステップS107)。ステップS107における処理は、図2に示す状況予測部160によって実行される処理に対応している。なお、ステップS107における処理の詳細については、下記(4.可視化画面の表示例)で後述する。
Next, based on the utterance analysis result in step S101 and / or the text data analysis result in step S103, the status of the conference is predicted (step S107). The process in step S107 corresponds to the process executed by the
次に、ステップS101における発話解析結果、及び/又はステップS103におけるテキストデータの解析結果に基づいて、当該解析結果が可視化された画面である可視化画面が生成される(ステップS109)。ステップS109における処理は、図2に示す可視化画面生成部170によって実行される処理に対応している。なお、ステップS109における処理では、ステップS107における会議の状況の予測結果に更に基づいて、可視化画面が生成されてもよい。
Next, based on the utterance analysis result in step S101 and / or the analysis result of the text data in step S103, a visualization screen that is a screen on which the analysis result is visualized is generated (step S109). The processing in step S109 corresponds to the processing executed by the visualization
次に、生成された可視化画面が表示される(ステップS111)。ステップS111における処理では、図2に示す電子白板20及び/又は会議参加者端末30に、可視化画面が表示される。
Next, the generated visualization screen is displayed (step S111). In the process in step S111, a visualization screen is displayed on the electronic
以上、図5を参照して、本実施形態に係る情報処理方法の処理手順について説明した。 The processing procedure of the information processing method according to the present embodiment has been described above with reference to FIG.
(4.可視化画面の表示例)
本実施形態に係る可視化画面の表示例について説明する。なお、本実施形態では、会議の状況が予測され、当該状況に応じて、参加者に対して提示される可視化画面の表示が順次切り替えられ得る。従って、ここでは、典型的な会議の進行状況を想定して、当該会議の進行状況に従って可視化画面の表示が順次変化していく様子について説明しつつ、可視化画面の表示例について説明することとする。また、併せて、会議の状況の予測処理の具体例についても説明する。
(4. Visualization screen display example)
A display example of the visualization screen according to the present embodiment will be described. In the present embodiment, the status of the conference is predicted, and the display of the visualization screen presented to the participant can be sequentially switched according to the status. Accordingly, here, assuming a typical meeting progress, a display example of the visualization screen will be described while explaining how the display of the visualization screen changes sequentially according to the progress of the meeting. . In addition, a specific example of the process of predicting the meeting status will also be described.
(4−1.会議の冒頭)
例えば、図2に示す状況予測部160には、会議が開始されてからの時間についての情報が入力されてもよく、状況予測部160は、当該時間についての情報に基づいて、現在の状況が、会議が開始された直後、すなわち会議の冒頭であることを予測することができる。
(4-1. The beginning of the meeting)
For example, the
会議の冒頭である場合には、可視化画面生成部170は、例えば、前回の会議の際に表示された可視化画面を再度生成する。前回の会議の際に表示された可視化画面が参加者に対して提示されることにより、当該参加者は、前回の会議の内容を直感的に短時間で把握することができ、今回の会議の議事にスムーズに参加することが可能となる。当該可視化画面としては、例えば後述する図7に示すトピック及びキーワードの時系列での推移が表示されている画面のように、前回の会議の内容が把握されやすいものであることが好ましい。
In the case of the beginning of the meeting, the visualization
(4−2.1人の参加者によってプレゼンテーションが行われている場合)
会議の冒頭においては、ある1人の参加者が、議題を提起するためのプレゼンテーションを行うことが多い。プレゼンテーション中は、主に当該1人の参加者のみが発話していると考えられる。
(When a presentation is given by 4-2.1 participants)
At the beginning of a meeting, a single participant often makes a presentation to raise an agenda. During the presentation, it is likely that only one participant is speaking.
従って、状況予測部160は、発話解析部110による話者識別処理の結果に基づいて、1人の話者が所定の時間以上発話を継続しているかどうかを判定する。状況予測部160は、その判定結果に基づいて、現在の状況が、1人の話者によってプレゼンテーションが行われている状況であることを予測することができる。状況予測部160によってこのような予測がなされた場合には、参加者に対してはプレゼンテーション資料が提示されるべきであるため、例えば、可視化画面生成部170は可視化画面を生成しない。ただし、可視化画面が生成されていない場合であっても、システム1では、発話の解析やテキストデータの収集等のその他の処理は随時実行されている。
Accordingly, the
図6に、状況予測部160による1人の参加者によってプレゼンテーションが行われているかの予測処理、及び当該予測処理の結果に応じた可視化画面生成部170による処理の処理手順を示す。図6は、状況予測部160による1人の参加者によってプレゼンテーションが行われているかの予測処理、及び当該予測処理の結果に応じた可視化画面生成部170による処理の処理手順の一例を示すフロー図である。なお、図6に示す各処理において、ステップS201〜ステップS205及びステップS211における処理は、状況予測部160によって行われる処理に対応し、ステップS207及びステップS209における処理は、可視化画面生成部170によって行われる処理に対応している。
FIG. 6 shows a processing procedure of a prediction process of whether a presentation is being performed by one participant by the
図6を参照すると、まず、単位時間フレームごとに各話者の発話区間が検出されるとともに、それらが積算される(ステップS201)。次に、全話者の発話区間の合計(全発話区間)が規定時間以上に達したかどうかが判定される(ステップS203)。 Referring to FIG. 6, first, each speaker's utterance section is detected for each unit time frame, and these are integrated (step S201). Next, it is determined whether or not the total of all the speaker utterance sections (all utterance sections) has reached a specified time or more (step S203).
ここで、後述するステップS205における処理では、全発話区間に対する各話者の発話区間の割合に基づいて、1人の話者が長時間継続して発話しているかどうかが判定される。従って、全発話区間が短い場合には、ある話者が極短い時間しか発話していない場合であっても、全発話区間に占める当該話者の発話区間の割合が大きくなってしまうため、ステップS205において誤った判定が行われてしまう恐れがある。よって、本実施形態では、ステップS203において全発話時間が規定時間よりも短いと判定された場合には、ステップS205には進まず、ステップS201に戻り、次の単位時間フレームまで含めて発話区間の積算処理が更に行われる。そして、ステップS203において全発話時間が規定時間以上であると判定された場合のみ、ステップS205に進む。 Here, in the processing in step S205, which will be described later, it is determined whether or not one speaker is speaking continuously for a long time, based on the ratio of each speaker's utterance interval to the total utterance interval. Therefore, when the entire utterance section is short, even if a certain speaker utters only for a very short time, the proportion of the utterance section of the speaker in the entire utterance section becomes large. There is a risk that an erroneous determination is made in S205. Therefore, in this embodiment, when it is determined in step S203 that the total utterance time is shorter than the specified time, the process does not proceed to step S205, but returns to step S201 to include the next unit time frame. Integration processing is further performed. Only when it is determined in step S203 that the total utterance time is equal to or longer than the specified time, the process proceeds to step S205.
ステップS205では、話者X(Xは話者を示す番号:1、・・・、N(Nは会議の全参加者数))の発話率S(X)が、しきい値Tsを超えたかどうかが判定される。ここで、発話率S(X)は、S(X)=(話者Xの発話時間)/(全発話区間)である。また、しきい値Tsは、話者Xがプレゼンテーションを行っているかどうかを判定するためのしきい値である。しきい値Tsとしては、一般的なプレゼンテーションにおける当該プレゼンテーションを行っている話者の発話率の過去の実績値等を考慮して適宜設定され得る。 In step S205, whether the utterance rate S (X) of the speaker X (X is a number indicating the speaker: 1,..., N (N is the total number of participants in the conference)) exceeds the threshold Ts. Whether it is determined. Here, the utterance rate S (X) is S (X) = (the utterance time of the speaker X) / (all utterance sections). The threshold value Ts is a threshold value for determining whether or not the speaker X is giving a presentation. The threshold value Ts can be appropriately set in consideration of the past actual value of the utterance rate of a speaker who performs the presentation in a general presentation.
ステップS205においてS(X)がしきい値Tsを超えていると判定された場合には、判定の対象としている区間(すなわち、全発話区間が算出された区間)においては、ほぼ当該話者Xのみが発話をしていると考えられるため、現在の状況は、当該話者Xがプレゼンテーションを行っている状況であることが予測される。従って、この場合には、ステップS207に進み、可視化画面は生成されず、プレゼンテーション資料が会議の参加者に対して表示される(ステップS207)。 When it is determined in step S205 that S (X) exceeds the threshold value Ts, in the section to be determined (that is, the section in which all utterance sections are calculated), the speaker X is almost the same. Therefore, the current situation is predicted to be a situation where the speaker X is giving a presentation. Accordingly, in this case, the process proceeds to step S207, and the visualization screen is not generated, and the presentation material is displayed to the conference participants (step S207).
一方、ステップS205においてS(X)がしきい値Ts以下であると判定された場合には、判定の対象としている区間(すなわち、全発話区間が算出された区間)においては、複数の話者がそれぞれ発話をしていると考えられるため、現在の状況が、いずれか1人の話者がプレゼンテーションを行っている状況とは考え難い。従って、この場合には、ステップS209に進み、通常のディスカッション期間に応じた可視化画面(例えば、状況予測部160による他の予測結果に応じた可視化画面)が生成され、会議の参加者に対して表示される。 On the other hand, when it is determined in step S205 that S (X) is equal to or less than the threshold value Ts, a plurality of speakers are used in the determination target section (that is, a section in which all utterance sections are calculated). Therefore, the current situation is unlikely to be the situation where any one speaker is giving a presentation. Accordingly, in this case, the process proceeds to step S209, where a visualization screen corresponding to a normal discussion period (for example, a visualization screen corresponding to another prediction result by the situation prediction unit 160) is generated, and is sent to the conference participants. Is displayed.
ステップS207又はステップS209における処理が終わると、全発話区間を算出する積算区間を更新し(ステップS211)、ステップS201に戻り、以上説明した一連の処理が繰り返し実行される。 When the process in step S207 or step S209 is completed, the integration period for calculating all utterance periods is updated (step S211), the process returns to step S201, and the series of processes described above is repeatedly executed.
(4−3.ディスカッション時)
プレゼンテーションが終了すると、複数の参加者によって議題に対するディスカッションが行われ得る。例えば、状況予測部160は、発話解析部110による話者識別処理の結果に基づいて各話者の発話率を算出することにより、プレゼンテーションの終了及びディスカッションの開始を予測することができる。
(4-3. During discussion)
When the presentation ends, a discussion on the agenda can be held by a plurality of participants. For example, the
本実施形態では、ディスカッション時には、可視化画面生成部170は、例えば図7に示すような、意見タイプ(例えばポジネガ判定の結果やモダリティ)の推移、潜在トピックの推移及びキーワードの推移が可視化された可視化画面を好適に生成する。図7は、可視化画面の一例である、意見タイプの推移、潜在トピックの推移及びキーワードの推移が可視化された可視化画面を示す図である。
In the present embodiment, at the time of discussion, the visualization
図7を参照すると、当該可視化画面では、時間の流れを縦軸に取り、会議中に発言されたテキストデータに対して、当該テキストデータを発言した発言者、当該テキストデータの意見タイプ(ポジネガ判定の結果及びモダリティ)、当該テキストデータの潜在トピック、及び当該テキストデータに含まれるキーワードが、当該テキストデータが発言された時刻順に並べられて表示され得る。可視化画面生成部170は、図2に示す意見抽出部141による解析結果に基づいて、可視化画面上に意見タイプを含めることができる。また、可視化画面生成部170は、図2に示すトピック解析部142による解析結果に基づいて、可視化画面上に潜在トピック及びキーワードを含めることができる。
Referring to FIG. 7, in the visualization screen, the flow of time is plotted on the vertical axis, and for the text data spoken during the meeting, the speaker who spoke the text data, the opinion type of the text data (positive / negative determination) Result, modality), latent topics of the text data, and keywords included in the text data can be arranged and displayed in the order in which the text data was spoken. The visualization
図示する例では、意見タイプについては、意見タイプごとに欄が設けられ、該当する欄が塗り潰されることにより、テキストデータの意見タイプが視覚的に表現されている。また、図示するように、当該塗り潰しには、当該テキストデータに対応する意見タイプが表す発言者の意図の度合いの強弱により濃淡が施されていてもよい。 In the illustrated example, regarding the opinion type, a column is provided for each opinion type, and the corresponding column is filled in, so that the opinion type of the text data is visually expressed. Further, as shown in the drawing, the fill may be shaded depending on the degree of intention of the speaker represented by the opinion type corresponding to the text data.
会議の参加者は、意見タイプの欄の塗り潰しの状態を参照することにより、ディスカッション中における意見タイプの推移を直感的に把握することができる。例えば、「否定」や「質問」等の意見タイプの出現頻度が減少していれば、会議の議題に対する反対意見や質問についての発言が減少していると考えられるため、当該意見タイプの推移は、議題に対して参加者の合意が形成されつつあることの指標となる。 Participants in the conference can intuitively grasp the transition of the opinion type during the discussion by referring to the filled state in the opinion type column. For example, if the frequency of opinion types such as “Negative” and “Question” decreases, it is considered that opinions about the agenda of the meeting and comments about the question have decreased. It is an indicator that participants' agreement is being formed on the agenda.
なお、図示する例では、意見タイプとして「肯定」、「否定」、「願望」、「質問」及び「提案」が表示されているが、可視化画面に表示される意見タイプの種類はかかる例に限定されず、会議の進行に有益と考えられる各種の意見タイプが可視化画面上に表示されてよい。どの意見タイプを可視化画面に含めるかは、システム1の設計者又は会議の参加者等によって適宜設定されてよい。
In the illustrated example, “affirmation”, “denial”, “aspiration”, “question”, and “suggestion” are displayed as opinion types, but the types of opinion types displayed on the visualization screen are such examples. Without limitation, various opinion types that are considered beneficial for the progress of the meeting may be displayed on the visualization screen. Which opinion type is included in the visualization screen may be appropriately set by the designer of the
また、当該可視化画面では、潜在トピックについても、モダリティと同様に、潜在トピックの種類ごとに欄が設けられ、該当する欄が塗り潰されることにより、テキストデータが示す潜在トピックが視覚的に表現されている。また、当該塗り潰しには、当該テキストデータに対応する潜在トピックの度合いの強弱により濃淡が施されていてもよい。 In addition, in the visualization screen, as with the modality, a column is provided for each type of the latent topic, and the corresponding topic is filled in so that the latent topic indicated by the text data is visually expressed. Yes. Further, the filling may be shaded depending on the level of the level of the latent topic corresponding to the text data.
なお、潜在トピックの種類は、上述したLDAにおける隠れ変数Zに対応するものであり得る。図示する例では、各欄の中に、トピック解析の結果得られる各隠れ変数Z(この例では5次元、Z1〜Z5)に対応する確率値を表示している。当該確率値は、そのテキストデータが各隠れ変数Zに対応する潜在トピックに属する確率を表すものである。各欄の塗り潰しの濃淡は、当該確率値の大小に対応している。 Note that the type of latent topic may correspond to the hidden variable Z in the LDA described above. In the illustrated example, probability values corresponding to the hidden variables Z (in this example, five dimensions, Z1 to Z5) obtained as a result of topic analysis are displayed in each column. The probability value represents the probability that the text data belongs to the latent topic corresponding to each hidden variable Z. The shade of each column corresponds to the magnitude of the probability value.
会議の参加者は、潜在トピックの欄の塗り潰しの状態を参照することにより、ディスカッション中におけるトピックの推移を直感的に把握することができる。例えば、ある時点において潜在トピックの傾向が大きく変化していれば、参加者は、当該時点で会議の方向性が変化している可能性があることを知ることができる。また、参加者は、キーワード欄を参照することにより、具体的な話題の変化を知ることができる。 Participants in the conference can intuitively grasp the topic transition during the discussion by referring to the state of filling in the latent topic column. For example, if the tendency of the latent topic has changed significantly at a certain time, the participant can know that the direction of the meeting may have changed at that time. In addition, the participant can know a specific change in the topic by referring to the keyword column.
なお、図示する例では、意見タイプの推移、潜在トピックの推移及びキーワードの推移が全て表示されているが、ディスカッション時に表示される可視化画面はかかる例に限定されない。ディスカッション時には、議論の流れが視覚的に把握され得るような可視化画面が生成されることが好ましいため、例えば、ディスカッション時に表示される可視化画面には、意見タイプの推移、潜在トピックの推移及びキーワードの推移のうちの少なくともいずれかが含まれていればよい。また、画面スペースに余裕があれば、具体的な意見が可視化されてもよい。 In the illustrated example, the transition of opinion types, the transition of latent topics, and the transition of keywords are all displayed, but the visualization screen displayed at the time of discussion is not limited to such an example. At the time of discussion, it is preferable to generate a visualization screen that can visually grasp the flow of discussion. For example, the visualization screen displayed at the time of discussion includes the transition of opinion types, the transition of potential topics, and the It is sufficient that at least one of the transitions is included. In addition, if there is room in the screen space, a specific opinion may be visualized.
ここで、上記の潜在トピックの傾向の変化について、本実施形態では、可視化画面上に、潜在トピックの傾向が大きく変化した時点(潜在トピックの変化点)が明示的に表示されてもよい。図示する例では、可視化画面において、潜在トピックの変化点が、太線破線によって示されている。 Here, regarding the change in the tendency of the latent topic, in the present embodiment, the point in time when the tendency of the latent topic has changed significantly (potential topic change point) may be explicitly displayed on the visualization screen. In the example shown in the figure, the change point of the latent topic is indicated by a thick broken line on the visualization screen.
潜在トピックの変化点は、例えば図8に示す処理手順によって検出され得る。図8は、潜在トピックの変化点を検出する処理の処理手順の一例を示すフロー図である。なお、図8に示す各処理において、ステップS301〜ステップS307及びステップS313における処理は、状況予測部160によって行われる処理に対応し、ステップS309及びステップS311における処理は、可視化画面生成部170によって行われる処理に対応している。つまり、潜在トピックの変化点は状況予測部160によって予測され、当該予測結果に基づいて、可視化画面生成部170が当該変化点を含む可視化画面を生成してよい。
The change point of the latent topic can be detected by the processing procedure shown in FIG. 8, for example. FIG. 8 is a flowchart showing an example of a processing procedure for detecting a change point of a latent topic. In each process shown in FIG. 8, the processes in steps S301 to S307 and S313 correspond to the processes performed by the
図8を参照すると、まず、単位時間フレーム内のテキストデータに含まれる単語が取得される(ステップS301)。なお、当該単語としては、例えば図3に示す文分割部201によって行われた形態素解析によるテキストデータの分割結果が用いられてよい。
Referring to FIG. 8, first, words included in text data within a unit time frame are acquired (step S301). As the word, for example, a text data division result by morphological analysis performed by the
次に、所定の時間が経過したかどうかが判定される(ステップS303)。テキストデータが収集される期間が過度に短い場合には、収集されるテキストデータの数が少なく、潜在トピックの変化を高精度に検出することが困難だからである。 Next, it is determined whether a predetermined time has elapsed (step S303). This is because if the period of time during which text data is collected is excessively short, the number of collected text data is small, and it is difficult to detect changes in potential topics with high accuracy.
ステップS303において所定の時間が経過していないと判定された場合には、ステップS301に戻り、次の単位時間フレームにおいて収集されたテキストデータまで含めて、単語の取得が更に行われる。一方、ステップS303において所定の時間が経過したと判定された場合には、ステップS305に進む。 If it is determined in step S303 that the predetermined time has not elapsed, the process returns to step S301 to further acquire words including the text data collected in the next unit time frame. On the other hand, if it is determined in step S303 that the predetermined time has elapsed, the process proceeds to step S305.
ステップS305では、LDAを用いて、テキストデータ中の単語に基づいてトピック特徴ベクトルZが抽出される。トピック特徴ベクトルZは、上述したLDAにおける隠れ変数Zをベクトル表記したものである。トピック特徴ベクトルZは、単語を取得した期間内において、収集されたテキストデータごとに随時抽出される。以下、1つのトピック特徴ベクトルZが抽出される期間のことを、便宜的に、トピックフレームとも呼称し、トピックフレームn(n=1、2、・・・)において抽出されたトピック特徴ベクトルZをZnと記載することとする。 In step S305, the topic feature vector Z is extracted based on the words in the text data using LDA. The topic feature vector Z is a vector representation of the hidden variable Z in the LDA described above. The topic feature vector Z is extracted as needed for each collected text data within a period in which words are acquired. Hereinafter, the period during which one topic feature vector Z is extracted is also referred to as a topic frame for convenience, and the topic feature vector Z extracted in the topic frame n (n = 1, 2,...) and it is described as Z n.
次に、抽出されたトピック特徴ベクトルZnに基づいて、トピック変化点が検出されたかどうかが判定される(ステップS307)。トピック変化点の検出処理としては、各種の公知の方法が用いられてよい。例えば、トピック特徴ベクトルZnとトピック特徴ベクトルZn−1との線形的な距離や、Kallback−Leibler情報量等を用いて、1つ前のトピックフレームにおいて抽出されたトピック特徴ベクトルZn−1と、ピック特徴ベクトルZnとの類似度Sim(Zn,Zn−1)を算出し、当該類似度Sim(Zn,Zn−1)が、所定のしきい値Ttよりも小さいかどうかを判定することにより、トピック変化点を検出することができる。 Then, based on the extracted topic feature vector Z n, whether topics change point is detected is judged (step S307). Various known methods may be used as the topic change point detection process. For example, linear distance and topic feature vector Z n and topic feature vector Z n-1, Kallback-Leibler using information amount, etc., topics extracted in the previous topic frame feature vector Z n-1 And the similarity Sim (Z n , Z n-1 ) with the pick feature vector Z n is calculated, and is the similarity Sim (Z n , Z n-1 ) smaller than a predetermined threshold value Tt? By determining whether or not, a topic change point can be detected.
例えば、本実施形態では、類似度Sim(Zn,Zn−1)は、下記数式(1)のような単純な形式によって定義されてよい。また、しきい値Ttとしては、一般的に潜在トピックの類似度の判定に用いられている任意の値が設定されてよい。 For example, in the present embodiment, the similarity Sim (Z n , Z n-1 ) may be defined by a simple format such as the following formula (1). In addition, as the threshold value Tt, an arbitrary value generally used for determining the similarity of latent topics may be set.
類似度Sim(Zn,Zn−1)がしきい値Ttよりも小さいと判定された場合には、その時点においてトピックが比較的大きく変化していると考えられるため、当該時点をトピック変化点とみなすことができる。この場合には、トピック変化点が検出されたとみなし、ステップS309に進む。ステップS309では、例えば図7に示すように、モダリティ、潜在トピック及びキーワードの推移とともに、検出されたトピック変化点を含む可視化画面が生成される。 If it is determined that the similarity Sim (Z n , Z n-1 ) is smaller than the threshold value Tt, it is considered that the topic has changed relatively greatly at that time, so that the time changes the topic. It can be regarded as a point. In this case, it is considered that a topic change point has been detected, and the process proceeds to step S309. In step S309, for example, as shown in FIG. 7, a visualization screen including the detected topic change point is generated along with the change of the modality, the latent topic, and the keyword.
一方、類似度Sim(Zn,Zn−1)がしきい値Tt以上であると判定された場合には、大きなトピックの変化は生じていないと考えられる。この場合には、トピック変化点が検出されなかったとみなし、ステップS311に進む。ステップS311では、例えば図7に示す可視化画面においてトピック変化点に関する表示が存在しないもの、すなわち、トピック変化点が表示されない通常の意見タイプ、潜在トピック及びキーワードの推移を示す可視化画面が生成される。 On the other hand, when it is determined that the similarity Sim (Z n , Z n-1 ) is equal to or greater than the threshold value Tt, it is considered that no major topic change has occurred. In this case, it is considered that a topic change point has not been detected, and the process proceeds to step S311. In step S311, for example, the visualization screen shown in FIG. 7 has no display related to the topic change point, that is, the visualization screen showing the normal opinion type, latent topic, and keyword transition in which the topic change point is not displayed.
ステップS309又はステップS311における処理が終わると、トピック変化点の検出のために単語を取得する積算区間を更新し(ステップS313)、ステップS301に戻り、以上説明した一連の処理が繰り返し実行される。 When the processing in step S309 or step S311 is completed, the integration interval for acquiring a word for detecting a topic change point is updated (step S313), the process returns to step S301, and the series of processing described above is repeatedly executed.
(4−4.会議の停滞時)
会議が進むにつれて、参加者から意見が出難くなり会議が停滞する場合がある。例えば、状況予測部160は、発話解析部110による音声区間解析処理の結果に基づいて非発話区間を検出することにより、会議が停滞していることを予測することができる。例えば、状況予測部160は、非発話区間が所定の時間以上継続している場合に、現在の状況が、会議が停滞している状況であると予測する。
(4-4. When the meeting is stagnant)
As the conference progresses, it is difficult for the participants to give opinions, and the conference may stagnate. For example, the
状況予測部160によって会議が停滞していると予測された場合には、可視化画面生成部170は、例えば図9に示すような、会議中における参加者の発話状況が可視化された可視化画面を好適に生成する。図9は、可視化画面の他の例である、会議中における参加者の発話状況が可視化された可視化画面を示す図である。
When the
図9を参照すると、当該可視化画面では、横軸に会議開始時点からの時間を取り、参加者ごとに発話があった区間が塗り潰されて表示されている。また、現在時点を示す表示が併せてなされている。可視化画面生成部170は、発話解析部110による音声区間解析処理及び話者認識処理の結果に基づいて、当該可視化画面を生成することができる。
Referring to FIG. 9, on the visualization screen, the horizontal axis indicates the time from the conference start time, and the section where the utterance is spoken for each participant is filled and displayed. In addition, a display showing the current time is also made. The visualization
会議の参加者は、当該可視化画面を参照することにより、これまでにあまり発言をしていない参加者を直感的に知ることができる。例えば、進行役の参加者等、他の参加者は、このようなこれまでにあまり発言をしていない参加者に対して発言を促すことができる。このように、当該可視化画面によれば、参加者のこれまでの発言の頻度が可視化されて参加者に対して提示されるため、発言の少ない参加者に対して発言の機会を与えることができ、議論がより活性化することが期待できる。 By referring to the visualization screen, the conference participants can intuitively know the participants who have not spoken so far. For example, other participants, such as facilitator participants, can encourage such participants to speak up so far. In this way, according to the visualization screen, since the frequency of the participant's previous speech is visualized and presented to the participant, an opportunity to speak can be given to the participant who has little speech. It can be expected that the discussion will become more active.
なお、会議が停滞している場合には、可視化画面生成部170は、図9に示す可視化画面に代えて、図10に示す可視化画面を生成してもよい。図10は、可視化画面の他の例である、会議中における参加者の発話状況及び当該発話の意見タイプの推移が可視化された可視化画面を示す図である。
When the meeting is stagnant, the visualization
図10を参照すると、当該可視化画面では、図9に示す可視化画面と同様に、横軸に会議開始時点からの時間を取り、参加者ごとに発話があった区間が塗り潰されて表示されている。ただし、図10に示す可視化画面では、その発話の意見タイプの種類に応じて当該塗り潰しの色が変更されている。図示する例では、「肯定」、「否定」及び「中立」に属する発言に対して、それぞれ異なる色が付されている。また、図10に示す可視化画面では、併せて、発話衝突区間及び非発話区間も表示されている。可視化画面生成部170は、意見抽出部141による意見抽出処理、並びに発話解析部110による音声区間解析処理及び話者認識処理の結果に基づいて、当該可視化画面を生成することができる。
Referring to FIG. 10, in the visualization screen, similarly to the visualization screen shown in FIG. 9, the horizontal axis takes time from the conference start time, and the section where the utterance is spoken is displayed for each participant. . However, in the visualization screen shown in FIG. 10, the color of the fill is changed according to the type of opinion type of the utterance. In the example shown in the figure, different colors are assigned to the statements belonging to “affirmation”, “denial”, and “neutral”. In addition, in the visualization screen shown in FIG. 10, an utterance collision section and a non-utterance section are also displayed. The visualization
会議の参加者は、図10に示す可視化画面を参照することにより、図9に示す可視化画面を参照した場合と同様に、これまでにあまり発言をしていない参加者を直感的に把握することができ、当該参加者に意見を求めることができる。このとき、図10に示す可視化画面では、発話に対する各参加者の意見タイプ、すなわち意図も可視化されているため、進行役の参加者等は、そのあまり発言をしていない参加者の議題に対する立ち位置を踏まえて、当該参加者に対して発言を求めることができる。従って、より適切なタイミングで、より適切な参加者に対して発言を求めることができるため、議論のより一層の活性化が期待できる。 By referring to the visualization screen shown in FIG. 10, the conference participants can intuitively grasp the participants who have not spoken so far as in the case of referring to the visualization screen shown in FIG. And ask the participants for their opinions. At this time, in the visualization screen shown in FIG. 10, since each participant's opinion type with respect to the utterance, that is, the intention, is also visualized, the facilitating participant or the like stands on the agenda of the participant who does not speak much. Based on the position, the participant can be asked to speak. Therefore, since it is possible to ask for a more appropriate participant at a more appropriate timing, further activation of the discussion can be expected.
(4−5.議論の紛糾時)
上記(4−4.会議の停滞時)とは逆に、会議が進むにつれて、参加者から意見が頻出し、議論が紛糾する場合がある。例えば、状況予測部160は、発話解析部110による音声区間解析処理及び話者識別処理の結果に基づいて発話衝突区間を検出することにより、会議が停滞していることを予測することができる。例えば、状況予測部160は、発話衝突区間が所定の回数以上発生している場合に、現在の状況が、議論が紛糾している状況であると予測する。なお、発話衝突区間は、各発話者に取り付けられたマイクロフォンによるオンマイクで収音された音声の解析、又は複数のマイクロフォンによって構成されるマイクロフォンアレイによる発話者の方向の推定を行うことにより、検出できることが知られている(例えば、「黄楊暘他、「マイクロホンアレイを用いた複数人対話からの音声区間検出および話者方向推定の評価手法」、日本ロボット学会第30回記念学術講演会、RSJ2012AC3D1−4、2012年9月」や、「Kofi Boakye他、「OVERLAPPED SPEECH DETECTION FOR IMPROVED SPEAKER DIARIZATION IN MULTIPARTY MEETINGS」、Acoustics, Speech and Signal Processing、2008.ICASSP、2008. IEEE International Conference on、2008年3月31日−4月4日、p.4353−4356」等を参照)。
(4-5. Discussion disputes)
Contrary to the above (4-4. At the time of stagnation of the conference), as the conference progresses, opinions frequently come out from the participants, and the discussion may be confused. For example, the
状況予測部160によって議論が紛糾していると予測された場合には、可視化画面生成部170は、例えば図11に示すような、発言内容の推移及び当該発言の意見タイプの推移が可視化された可視化画面を生成する。図11は、可視化画面の他の例である、発言内容の推移及び当該発言の意見タイプの推移が可視化された可視化画面を示す図である。
When the
図11を参照すると、当該可視化画面では、横軸に会議開始時点からの時間を取り、代表的な発言内容が、その発言時刻と対応付けて吹き出しとして表示されている。図では簡単のため詳細な記載は省略しているが、吹き出し内には、参加者が発言したテキストデータの内容が表示され得る。 Referring to FIG. 11, on the visualization screen, the horizontal axis indicates the time from the conference start time, and typical utterance content is displayed as a balloon in association with the utterance time. In the figure, detailed description is omitted for the sake of simplicity, but the contents of the text data spoken by the participant can be displayed in the balloon.
また、各テキストデータには、意見抽出部141によって分類された意見タイプを表す表示が付されてもよい。図示する例では、テキストデータの周囲に互いに異なる種類の色を付すことにより、当該テキストデータの意見タイプが、「肯定」、「否定」及び「中立」のいずれかであることが示されている。
In addition, each text data may be provided with a display indicating the opinion type classified by the
また、当該可視化画面では、代表的な時刻における、会議の開始時刻から当該時刻までの間において発言されたテキストデータの意見タイプの割合を示すグラフが併せて表示され得る。図示する例では、「15min」、「30min」、「45min」における、「肯定」、「否定」及び「中立」に属するテキストデータの割合が円グラフで表示されている。 In addition, on the visualization screen, a graph indicating the ratio of opinion types of text data uttered between a meeting start time and the time at a representative time can be displayed together. In the illustrated example, the ratio of text data belonging to “affirmation”, “denial”, and “neutral” in “15 min”, “30 min”, and “45 min” is displayed in a pie chart.
なお、上記吹き出し及び上記円グラフは、常時表示されていてもよいし、例えば参加者がポインタを時間軸を表す表示上に移動させることにより当該ポインタの位置に対応する時刻における吹き出し及び円グラフがポップアップ表示されてもよい。 The balloon and the pie chart may be displayed at all times. For example, the balloon and the pie chart at the time corresponding to the position of the pointer by moving the pointer on the display indicating the time axis by the participant. A pop-up may be displayed.
可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。
The visualization
会議の参加者は、当該可視化画面を参照することにより、会議中における発言内容の推移及び会議中における発言の意見タイプの推移を直感的に把握することができる。例えば、進行役の参加者は、これらの推移を確認することにより、議論の方向性が当初の予定からずれていないかどうかを確認し、必要があればその方向性を適切な方向に修正するように他の参加者たちに促すことが可能となる。 By referring to the visualization screen, the conference participant can intuitively grasp the transition of the content of the speech during the conference and the transition of the opinion type of the speech during the conference. For example, facilitating participants check these transitions to confirm whether the direction of discussion is not deviated from the original schedule, and correct the direction if necessary. So that other participants can be encouraged.
なお、議論が紛糾している場合には、可視化画面生成部170は、図11に示す可視化画面に代えて、上述した図7に示す可視化画面を生成してもよい。上述したように、図7に示す可視化画面では、時系列に沿ったキーワードの推移及び意見タイプの推移が表示されている。従って、当該可視化画面も、参加者に議論の方向性を確認させるために有効な画面であり得る。
If the discussion is inconsistent, the visualization
(4−6.会議の終盤)
状況予測部160は、意見抽出部141による意見抽出処理の結果に基づいて、会議が終盤に差し掛かっていることを予測してもよい。一般的に、会議が終了する際には、参加者同士の意見に合意が形成されることが多いと考えられる。従って、例えば、状況予測部160は、所定の時間内に発言されたテキストデータについて、意見タイプが「肯定」であるテキストデータが所定の割合以上存在している場合に、現在の状況が、会議が終盤に差し掛かっている状況であると予測する。
(4-6. End of the meeting)
The
状況予測部160によって会議が終盤に差し掛かっていると予測された場合には、可視化画面生成部170は、例えば上述した図10に示す可視化画面を生成する。図10に示す可視化画面では、意見タイプの推移が示されているため、会議の参加者は、当該可視化画面を参照することにより、会議中になされた発言の意見タイプの推移を直感的に把握することができる。このとき、図10に示すように、当該可視化画面には、「肯定」及び「否定」を少なくとも含む意見タイプの推移が示されていることが好ましい。例えば、参加者は、当該可視化画面によって「肯定」に属する発言が増加してきたことを確認することにより、参加者間に合意が形成されつつあり、会議が終盤に差し掛かっていることを認識することができる。例えば、進行役の参加者は、これをきっかけとして、会議が終了に向かうように議論を誘導することができ、会議を円滑に進行することが可能になる。
When the
なお、会議が終盤に差し掛かっている場合には、可視化画面生成部170は、図10に示す可視化画面に代えて、上述した図7に示す可視化画面を生成してもよい。図7に示す可視化画面では、図10に示す可視化画面と同様に、「肯定」及び「否定」を少なくとも含む意見タイプの推移が表示されている。従って、当該可視化画面も、参加者に会議の終盤を示唆するために有効な画面であり得る。
When the meeting is approaching the final stage, the visualization
(5.他の表示例)
上記(4.可視化画面の表示例)で説明した表示例以外の、他の表示例について説明する。
(5. Other display examples)
Other display examples other than the display example described in the above (4. Display example of visualization screen) will be described.
(5−1.ポジネガ判定の結果についての可視化画面)
図12を参照して、意見抽出部141によるポジネガ判定の結果についての可視化画面の一例について説明する。図12は、可視化画面の他の例である、ポジネガ判定の結果が可視化された可視化画面を示す図である。
(5-1. Visualization screen for positive / negative determination results)
With reference to FIG. 12, an example of the visualization screen about the result of positive / negative determination by the
図12を参照すると、当該可視化画面では、その上段に、会議中の所定の時間内に発言されたテキストデータのポジネガ判定の結果として、「肯定」に対応するテキストデータと「否定」に対応するテキストデータとの割合を示す棒グラフが表示されている。また、下段には、「否定」という判定がなされたテキストデータにおける、対象物と述部との組み合わせが集計され、その出現頻度が棒グラフで表示されている。可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。
Referring to FIG. 12, on the visualization screen, the text data corresponding to “affirmation” and “denial” are corresponded as the result of the positive / negative determination of the text data uttered within a predetermined time during the meeting. A bar graph showing the percentage of text data is displayed. In the lower row, combinations of the object and the predicate in the text data determined to be “No” are tabulated, and the appearance frequency is displayed as a bar graph. The visualization
図示する例であれば、「消費電力が−大きい」、「資料が−分かり難い」、「費用負担が−大きすぎる」、「データが−壊れました」、「信頼性が−低い」等の、対象物と述部との組み合わせが抽出されている。また、これらの組み合わせの中で、「消費電力が−大きい」という組み合わせが、会議中に最も頻繁に発言されていることが分かる。図示する例では、「否定」についての結果のみが表示されているが、参加者による適当な切り替え操作により、「肯定」についての結果も同様に表示されてもよい。 In the example shown in the figure, “power consumption is large”, “data is difficult to understand”, “cost burden is too large”, “data is broken”, “reliability is low”, etc. The combination of the object and the predicate is extracted. It can also be seen that among these combinations, the combination of “high power consumption” is said most frequently during the conference. In the illustrated example, only the result for “No” is displayed, but the result for “Yes” may be displayed in the same manner by an appropriate switching operation by the participant.
対象物と述部との組み合わせは、いわばテキストデータが要約されたものであるため、当該可視化画面を参照した参加者は、会議中に発せられた「肯定」又は「否定」に係るテキストデータの概要の一覧を確認することができる。また、その出現頻度が表示されることにより、参加者は、会議においてどのような内容について最も話し合われているのかを把握することができる。 Since the combination of the target object and the predicate is a summary of text data, the participants who have referred to the visualization screen can use the text data related to “affirmation” or “denial” issued during the meeting. You can check the summary list. Also, by displaying the appearance frequency, the participant can grasp what kind of content is most discussed in the meeting.
(5−2.モダリティを用いたテキストデータの分類結果についての可視化画面)
図13を参照して、意見抽出部141によるモダリティを用いたテキストデータの分類結果についての可視化画面の一例について説明する。図13は、可視化画面の他の例である、モダリティを用いたテキストデータの分類結果が可視化された可視化画面を示す図である。
(5-2. Visualization screen for text data classification results using modalities)
With reference to FIG. 13, an example of the visualization screen about the classification result of the text data using the modality by the
図13を参照すると、当該可視化画面では、その上段に、会議中の所定の時間内に発言されたテキストデータのモダリティを用いた分類結果として、各モダリティ(すなわち意見タイプ)に対応するテキストデータの割合を示す棒グラフが表示されている。棒グラフ上の各モダリティに対応する場所にポインタを移動させる等の選択操作により、そのモダリティの具体的な割合の数値がポップアップ表示されてもよい。図示する例では、「願望」に係るテキストデータの割合がポップアップ表示されている。また、下段には、「願望」に分類されたテキストデータにおける、対象物と述部との組み合わせが集計され、その出現頻度が棒グラフで表示されている。可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。
Referring to FIG. 13, in the visualization screen, as the classification result using the modalities of the text data uttered within a predetermined time during the meeting, the text data corresponding to each modality (that is, opinion type) is displayed on the visualization screen. A bar graph showing the percentage is displayed. By a selection operation such as moving the pointer to a location corresponding to each modality on the bar graph, a numerical value of a specific ratio of the modality may be displayed as a pop-up. In the example shown in the drawing, the ratio of text data related to “desire” is displayed in a pop-up manner. In the lower row, the combinations of the object and the predicate in the text data classified as “desire” are tabulated, and the appearance frequency is displayed as a bar graph. The visualization
図示する例であれば、「資料を−作成して欲しい」、「修正を−お願いしたい」、「性能を−確認して欲しい」、「費用を−負担して欲しい」、「日程調整を−お願いしたい」等の、対象物と述部との組み合わせが抽出されている。また、これらの組み合わせの中で、「資料を−作成して欲しい」という組み合わせが、会議中に最も頻繁に発言されていることが分かる。図示する例では、「願望」についての結果のみが表示されているが、参加者による適当な切り替え処理により、他のモダリティについての結果も同様に表示されてもよい。 In the example shown in the figure, “I want you to create a document”, “I want to request a correction”, “I want to check the performance”, “I want to bear the cost”, “ A combination of an object and a predicate such as “I want to ask” is extracted. In addition, among these combinations, it can be seen that the combination of “I want you to create a document” is said most frequently during the meeting. In the example shown in the figure, only the result for “Wish” is displayed, but the result for other modalities may be displayed in the same manner by an appropriate switching process by the participant.
「対象物」と述部との組み合わせは、いわばテキストデータが要約されたものであるため、当該可視化画面を参照した参加者は、会議中に発せられた各モダリティに係る発言の一覧を確認することができる。また、その頻度が表示されることにより、参加者は、会議においてどのような内容について最も話し合われているのかを把握することができる。 Since the combination of the “object” and the predicate is a summary of text data, the participant who refers to the visualization screen checks the list of statements related to each modality issued during the meeting. be able to. Further, by displaying the frequency, the participant can grasp what kind of content is most discussed in the conference.
(6.他の適用例)
近年、SNS等のソーシャルメディア上で、いわゆるチャットツールを用いて会議が行われる場合がある。ここでは、このようなソーシャルメディア上で行われる会議に対してシステム1が適用された場合について説明する。
(6. Other application examples)
In recent years, there are cases where conferences are held on social media such as SNS using so-called chat tools. Here, a case where the
ソーシャルメディア上で会議が行われる場合には、システム1は、会議参加者が投稿したメッセージ、画像、資料へのリンクを示すURL等を取得し、当該メッセージや画像、URLが示すリンク先等からテキストデータを収集する。そして、当該テキストデータを解析し、意見やトピックを抽出し、その結果が可視化された可視化画面を生成する。
When a conference is held on social media, the
図14及び図15に、ソーシャルメディア上で会議が行われる場合における可視化画面の一例を示す。図14及び図15は、可視化画面の他の例である、ソーシャルメディア上で会議が行われる場合における可視化画面を示す図である。 FIG. 14 and FIG. 15 show an example of a visualization screen when a meeting is held on social media. 14 and 15 are diagrams illustrating a visualization screen when a meeting is performed on social media, which is another example of the visualization screen.
図14及び図15を参照すると、いわゆるチャットツールを用いて会議が行われており、各参加者が投稿したメッセージや画像が時系列順に表示されている。メッセージが表示される吹き出しには、意見抽出部141によって抽出された各メッセージに対応する意見タイプに応じた色が付されている。図示する例では、「肯定」、「否定」及び「提案」に属するメッセージに対して、それぞれ異なる色が付されている。また、図示するように、「提案」に属するメッセージには、当該メッセージが「提案」を示していることを強調するためのアイコンが併せて表示されてもよい。可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。
Referring to FIGS. 14 and 15, a meeting is performed using a so-called chat tool, and messages and images posted by each participant are displayed in chronological order. The balloons displaying the messages are colored according to the opinion type corresponding to each message extracted by the
会議の参加者は、当該可視化画面を参照することにより、各参加者のメッセージの意見タイプを視覚的に把握することができるため、各参加者の考えや会議の趨勢を直感的に認識することができる。また、「提案」のように他の参加者への呼び掛けを含むメッセージが強調されて表示されることにより、当該他の参加者は、誰かから「提案」があったことにより気付きやすくなり、議論がより活発に行われることが期待される。なお、図示する例では、「肯定」、「否定」及び「提案」の3種類の意見タイプのみが対象とされているが、他の意見タイプについても同様に可視化されてよい。 The participants of the conference can visually grasp the opinion type of each participant's message by referring to the visualization screen, so that they can intuitively recognize each participant's thoughts and the trend of the conference. Can do. In addition, a message including a call to another participant such as “Suggestion” is highlighted and displayed, so that the other participant becomes more aware of the “Suggestion” from someone, Is expected to be more active. Note that, in the illustrated example, only three types of opinion, “affirmation”, “denial”, and “proposition” are targeted, but other opinion types may be visualized in the same manner.
ここで、用途が会議に特定されない一般的なソーシャルメディア(例えば、Facebook社の「Facebook(登録商標)」等)のチャットツールでは、投稿されたメッセージや画像が時系列順に表示されるだけであるため、必ずしも会議に向いているとは言えない。このようなチャットツールでは、例えば、メッセージ等が縦方向に順次表示されていくため過去の情報へのアクセスがしにくいこと、メッセージ群をセッションごとに分けて表示できないこと、及びメッセージ間の依存関係(あるメッセージがどのメッセージに対して発せられたものであるか)が分かり難いこと、等の不都合が存在し得る。 Here, in a chat tool of general social media whose use is not specified for a meeting (for example, “Facebook (registered trademark)” of Facebook, etc.), posted messages and images are only displayed in chronological order. Therefore, it is not necessarily suitable for meetings. In such a chat tool, for example, messages are sequentially displayed in the vertical direction, so it is difficult to access past information, message groups cannot be displayed separately for each session, and dependency between messages There may be inconveniences such as it is difficult to understand (for which message a message is issued).
そこで、会議に特化したチャットツールも開発されている(例えば、ビジネス・ブレークスルー社の「Air−Campus(登録商標)」や、Co−meeting社の「Co−meeting(登録商標)」等)。これらのツールには、例えば階層型の議論チャートにより複数の話題について同時に議論ができる機能や、リアルタイム同時編集ノート機能等、会議を円滑に行うための様々な機能が搭載されており、上述した諸問題を解決し得るものである。 Therefore, chat tools specialized for conferences have been developed (for example, “Air-Campus (registered trademark)” of Business Breakthrough, “Co-meeting (registered trademark)” of Co-meeting, etc.) . These tools are equipped with various functions for smooth meetings, such as the ability to discuss multiple topics simultaneously using a hierarchical discussion chart and the real-time simultaneous editing note function. It can solve the problem.
しかしながら、これらのツールにおいても、発言者の意図を視覚化することは行われていない。本実施形態では、図14及び図15に示すように、各参加者によって直感的に把握され得るように発言者の意図が可視化されて表示されるため、会議をより円滑に行うことが可能になる。 However, in these tools, the intention of the speaker is not visualized. In this embodiment, as shown in FIGS. 14 and 15, since the intention of the speaker is visualized and displayed so that each participant can intuitively grasp it, the meeting can be performed more smoothly. Become.
なお、ソーシャルメディア上で行われる会議に対してシステム1が適用された場合における可視化画面は、図14及び図15に示すものに限定されず、当該場合であっても上述した図7、図9−図12と同様の可視化画面が生成されてもよい。
Note that the visualization screen when the
(7.ハードウェア構成)
図16を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図16は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図16に示す情報処理装置900は、図2に示す情報処理装置10を実現し得るものである。
(7. Hardware configuration)
A hardware configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 16 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the present embodiment. Note that the
情報処理装置900は、CPU901、ROM(Read Only Memory)903及びRAM(Random Access Memory)905を備える。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、通信装置921、ドライブ923及び接続ポート925を備えてもよい。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
The
CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体929に記録された各種のプログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行時のパラメータ等を一次記憶する。CPU901、ROM903及びRAM905は、CPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。本実施形態では、例えばCPU901が所定のプログラムに従って動作することにより、上述した情報処理装置10の各機能が実現され得る。
The
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス911に接続されている。
The
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバー等、ユーザによって操作される装置によって構成される。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器931であってもよい。更に、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。本実施形態では、ユーザによって、入力装置915を介して、例えば、意見抽出部141による意見抽出処理において用いられる辞書に係る情報等が入力されてよい。
The
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。本実施形態では、当該表示装置に、例えば発話解析部110及びテキストデータ解析部140による解析結果や、可視化画面生成部170によって生成された可視化画面等が表示されてよい。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
The
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。本実施形態では、ストレージ装置919は、テキストデータDB130及び解析結果DB150を構成し得るものであり、テキストデータ収集部120によって収集されたテキストデータや、発話解析部110及びテキストデータ解析部140による解析結果等を格納し得る。
The
通信装置921は、例えば、ネットワーク927に接続するための通信デバイス等で構成された通信インターフェースである。通信装置921は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置921は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置921は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置921に接続されるネットワーク927は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。本実施形態では、例えば、ネットワーク927は、図2に示すネットワーク40に対応する。情報処理装置10は、通信装置921によって、ネットワーク927を介して、電子白板20及び/又は会議参加者端末30と通信することができる。
The
ドライブ923は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ923は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体929に記録されている情報を読み出して、RAM905に出力する。また、ドライブ923は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体929に情報を書き込むことも可能である。リムーバブル記録媒体929は、例えば、DVDメディア、HD−DVDメディア、Blu−ray(登録商標)メディア等である。また、リムーバブル記録媒体929は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体929は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。本実施形態では、CPU901によって処理される各種の情報が、ドライブ923によって、リムーバブル記録媒体929から読み出されたり、リムーバブル記録媒体929に書き込まれたりしてもよい。
The
接続ポート925は、機器を情報処理装置900に直接接続するためのポートである。接続ポート925の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート及びSCSI(Small Computer System Interface)ポート等がある。接続ポート925の別の例として、RS−232Cポート、光オーディオ端子及びHDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート925に外部接続機器931を接続することで、情報処理装置900は、外部接続機器931から直接各種のデータを取得したり、外部接続機器931に各種のデータを提供したりする。本実施形態では、CPU901によって処理される各種の情報が、接続ポート925を介して、外部接続機器931から取得されたり、外部接続機器931に出力されたりしてもよい。
The
以上、本実施形態に係る情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
Heretofore, an example of the hardware configuration of the
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
Note that a computer program for realizing each function of the
(8.補足)
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
(8. Supplement)
The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的なものではない。つまり、本開示に係る技術は、上記の効果とともに、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。 In addition, the effects described in the present specification are merely illustrative or illustrative, and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
例えば、上記実施形態において例示した可視化画面は、いずれも、テキストデータの分類結果と、当該テキストデータの発言者とを、1対1で対応付けて表示したものであったが、本実施形態はかかる例に限定されない。例えば、テキストデータの分類結果である意見タイプが、発言者の属性(例えば、性別、年齢、国籍、居住地等)と関連付けて可視化された可視化画面が生成されてもよい。当該可視化画面では、ある議題に対する発言者の属性に応じた意見タイプがいわば統計的に表示されることとなるため、当該可視化画面を参照した参加者に対して、上述した実施形態とは異なる種類の気付きを与えることができる。例えば、当該可視化画面を参照しながら、発言者の属性に応じた意見タイプの傾向等を把握した上で会議を行うことにより、会議をより円滑に行うことが可能になる。 For example, each of the visualization screens exemplified in the above embodiment displays the classification result of the text data and the speaker of the text data in a one-to-one correspondence. It is not limited to such an example. For example, a visualization screen may be generated in which an opinion type that is a classification result of text data is visualized in association with an attribute of a speaker (for example, gender, age, nationality, residence, etc.). In the visualization screen, since the opinion type corresponding to the attribute of the speaker on a certain agenda is statistically displayed, it is different from the embodiment described above for the participants who referred to the visualization screen. Can be noticed. For example, by referring to the visualization screen and grasping the tendency of the opinion type according to the attribute of the speaker, the meeting can be performed more smoothly.
また、上記実施形態において例示した可視化画面は、いずれも、テキストデータの分類結果が当該テキストデータの発言者と対応付けられて表示されたもの(すなわち、テキストデータの分類結果が当該テキストデータの発言者の観点からまとめられたもの)であったが、本実施形態はかかる例に限定されない。例えば、テキストデータの分類結果が、発言された時刻、又は当該テキストデータの内容等、異なる観点からまとめられた可視化画面が生成されてもよい。例えば、会議の序盤、中盤、終盤でそれぞれ出現頻度が高かった意見タイプについてまとめて表示することにより、会議の進行状況に応じた意見タイプの推移について新たな気付きを得られる可能性がある。また、例えば、所定の単語を含むテキストデータをその意見タイプに応じて整理して表示することにより、単語と意見タイプとの関係について新たな気付きを得られる可能性がある。 In addition, the visualization screens exemplified in the above embodiment are all displayed with the text data classification result associated with the speaker of the text data (that is, the text data classification result is the text data speech. However, the present embodiment is not limited to such an example. For example, a visualization screen may be generated in which text data classification results are summarized from different viewpoints such as the time when the text data was spoken or the content of the text data. For example, it may be possible to obtain a new awareness about the transition of opinion types according to the progress of the conference by collectively displaying the opinion types that have appeared frequently at the beginning, middle, and end of the conference. In addition, for example, by arranging and displaying text data including a predetermined word according to the opinion type, there is a possibility that a new awareness may be obtained about the relationship between the word and the opinion type.
なお、以下のような構成も本開示の技術的範囲に属する。
(1)複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成部、を備える、情報処理装置。
(2)前記テキストデータは、前記発言者の意図に応じたカテゴリに分類される、前記(1)に記載の情報処理装置。
(3)前記テキストデータは、肯定、否定及び中立のいずれかに分類される、前記(2)に記載の情報処理装置。
(4)前記テキストデータは、モダリティを用いて分類される、前記(2)に記載の情報処理装置。
(5)前記テキストデータは、前記テキストデータが有する潜在トピックに応じて分類される、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が会議の冒頭であると予測された場合には、前回の会議において生成した前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が複数の参加者によって議論が行われている状況であると予測された場合には、前記テキストデータの発言者の意図の推移、前記テキストデータが有する潜在トピックの推移、及び前記テキストデータの内容の推移の少なくともいずれかが可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(8)前記可視化画面生成部は、前記潜在トピックの推移が可視化された前記可視化画面に、議論のトピックが変化した時点を併せて表示させる、前記(7)に記載の情報処理装置。
(9)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が会議が停滞している状況であると予測された場合には、会議中において各参加者が発言した区間、及び前記各参加者の発言の意図が可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(10)会議の参加者が誰も発話していない非発話区間が所定の時間以上継続した場合に、現在の状況が会議が停滞している状況であると予測される、前記(9)に記載の情報処理装置。
(11)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が議論が紛糾している状況であると予測された場合には、前記テキストデータの発言者の意図の推移、及び当該テキストデータの内容の推移が可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(12)会議の複数の参加者が同時に発話している発話衝突区間が所定の回数以上発生した場合に、現在の状況が議論が紛糾している状況であると予測される、前記(11)に記載の情報処理装置。
(13)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が会議が終盤に差し掛かっている状況であると予測された場合には、肯定及び否定を少なくとも含む前記テキストデータの発言者の意図が可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(14)所定の時間内における全テキストデータ数に対する、発言者の意図が肯定であると推定されるテキストデータの数が、所定の割合以上に達した場合に、現在の状況が会議が終盤に差し掛かっている状況であると予測される、前記(13)に記載の情報処理装置。
(15)前記可視化画面生成部は、分類された発言者の意図のいずれかに係るテキストデータの、述部に対応する文節と、前記述部の対象となる対象物と、の組み合わせの、所定の時間内での出現頻度が可視化された前記可視化画面を生成する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(16)前記テキストデータは、ソーシャルメディア上でユーザによってやり取りされるテキストデータである、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)プロセッサが、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成すること、を含む、情報処理方法。
(18)コンピュータに、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成機能、を実現させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1) A visualization screen generation unit that generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. Processing equipment.
(2) The information processing apparatus according to (1), wherein the text data is classified into a category according to the intention of the speaker.
(3) The information processing apparatus according to (2), wherein the text data is classified into one of positive, negative, and neutral.
(4) The information processing apparatus according to (2), wherein the text data is classified using a modality.
(5) The information processing apparatus according to any one of (1) to (4), wherein the text data is classified according to a latent topic included in the text data.
(6) The text data is text data uttered by a participant during a meeting, and the visualization screen generation unit, in the case where it is predicted that the current situation is the beginning of the meeting, The information processing apparatus according to any one of (1) to (5), wherein the generated visualization screen is generated.
(7) The text data is text data spoken by a participant during a meeting, and the visualization screen generation unit is predicted that the current situation is a situation in which a plurality of participants are discussing. In the case, the visualization screen on which at least one of the transition of the intention of the speaker of the text data, the transition of the latent topic that the text data has, and the transition of the content of the text data is visualized, The information processing apparatus according to any one of (1) to (5).
(8) The information processing apparatus according to (7), wherein the visualization screen generation unit causes the visualization screen on which the transition of the latent topic is visualized to display the time when the topic of discussion has changed.
(9) The text data is text data remarked by a participant during a meeting, and the visualization screen generation unit, when it is predicted that the current situation is a situation where the meeting is stagnant, The information processing apparatus according to any one of (1) to (5), wherein a section in which each participant speaks during a meeting and the visualization screen on which the intention of each participant's speech is visualized are generated. .
(10) In the above (9), the current situation is predicted to be a situation where the meeting is stagnant when a non-speaking section in which no participant speaks continues for a predetermined time or more. The information processing apparatus described.
(11) The text data is text data remarked by a participant during a meeting, and the visualization screen generation unit, when it is predicted that the current situation is a situation in which the discussion is confused, The information processing apparatus according to any one of (1) to (5), wherein the visualization screen on which a transition of an intention of a speaker of the text data and a transition of the content of the text data are visualized is generated.
(12) When the utterance collision section in which a plurality of participants in the conference speak at the same time occurs more than a predetermined number of times, the current situation is predicted to be a situation in which the discussion is confused (11) The information processing apparatus described in 1.
(13) The text data is text data uttered by a participant during a meeting, and the visualization screen generation unit, when it is predicted that the current situation is a situation where the meeting is approaching the final stage The information processing apparatus according to any one of (1) to (5), wherein the visualization screen on which an intention of a speaker of the text data including at least positive and negative is visualized.
(14) When the number of text data that is estimated to be positive by the speaker with respect to the total number of text data within a predetermined time has reached a predetermined ratio or more, the current situation is at the end of the meeting. The information processing apparatus according to (13), wherein the information processing apparatus is predicted to be in an approaching state.
(15) The visualization screen generation unit is a predetermined combination of a clause corresponding to a predicate and an object to be a target of the previous description unit of text data related to any of the classified speaker's intentions The information processing apparatus according to any one of (2) to (4), wherein the visualization screen is generated in which the appearance frequency within the time is visualized.
(16) The information processing apparatus according to any one of (1) to (15), wherein the text data is text data exchanged by a user on social media.
(17) The processor includes generating a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. Processing method.
(18) A visualization screen generation function for generating, on a computer, a visualization screen which is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. A program to make it happen.
1 システム
10 情報処理装置
20 電子白板
30 会議者端末
40 ネットワーク
110 発話解析部
120 テキストデータ収集部
130 テキストデータDB
140 テキストデータ解析部
141 意見抽出部
142 トピック解析部
150 解析結果DB
160 状況予測部
170 可視化画面生成部
180 要約部
190 検索部
201 文分割部
203 構文/意味解析部
205 業務用語集
207 辞書生成部
209 業務用語辞書
211 意見/評価表現抽出部
DESCRIPTION OF
140 Text
160
Claims (18)
を備える、情報処理装置。 A visualization screen generating unit that generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker;
An information processing apparatus comprising:
請求項1に記載の情報処理装置。 The text data is classified into a category according to the intention of the speaker.
The information processing apparatus according to claim 1.
請求項2に記載の情報処理装置。 The text data is classified as either positive, negative, or neutral.
The information processing apparatus according to claim 2.
請求項2に記載の情報処理装置。 The text data is classified using a modality.
The information processing apparatus according to claim 2.
請求項1に記載の情報処理装置。 The text data is classified according to potential topics that the text data has.
The information processing apparatus according to claim 1.
前記可視化画面生成部は、現在の状況が会議の冒頭であると予測された場合には、前回の会議において生成した前記可視化画面を生成する、
請求項1に記載の情報処理装置。 The text data is text data spoken by a participant during a meeting,
The visualization screen generation unit generates the visualization screen generated in the previous conference when the current situation is predicted to be the beginning of the conference,
The information processing apparatus according to claim 1.
前記可視化画面生成部は、現在の状況が複数の参加者によって議論が行われている状況であると予測された場合には、前記テキストデータの発言者の意図の推移、前記テキストデータが有する潜在トピックの推移、及び前記テキストデータの内容の推移の少なくともいずれかが可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。 The text data is text data spoken by a participant during a meeting,
When the current screen state is predicted to be a state where discussions are being conducted by a plurality of participants, the visualization screen generation unit may change the intention of the speaker of the text data and the potential of the text data. Generating the visualization screen in which at least one of the transition of the topic and the transition of the content of the text data is visualized;
The information processing apparatus according to claim 1.
請求項7に記載の情報処理装置。 The visualization screen generation unit causes the visualization screen on which the transition of the latent topic is visualized to be displayed together with the time when the topic of discussion has changed,
The information processing apparatus according to claim 7.
前記可視化画面生成部は、現在の状況が会議が停滞している状況であると予測された場合には、会議中において各参加者が発言した区間、及び前記各参加者の発言の意図が可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。 The text data is text data spoken by a participant during a meeting,
When it is predicted that the current situation is a situation in which the conference is stagnant, the visualization screen generation unit visualizes a section where each participant speaks during the conference, and the intention of each participant's speech Generating the visualized screen,
The information processing apparatus according to claim 1.
請求項9に記載の情報処理装置。 If a non-speaking section in which no participant in the meeting has spoken continues for a predetermined time or longer, the current situation is predicted to be a situation where the meeting is stagnant,
The information processing apparatus according to claim 9.
前記可視化画面生成部は、現在の状況が議論が紛糾している状況であると予測された場合には、前記テキストデータの発言者の意図の推移、及び当該テキストデータの内容の推移が可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。 The text data is text data spoken by a participant during a meeting,
When it is predicted that the current situation is a situation in which the discussion is inconsistent, the visualization screen generation unit visualizes the transition of the intention of the speaker of the text data and the transition of the content of the text data. Generating the visualization screen,
The information processing apparatus according to claim 1.
請求項11に記載の情報処理装置。 When the number of utterance collision sections where a plurality of participants in the conference speak at the same time occurs more than a predetermined number of times, the current situation is predicted to be a situation where the discussion is in conflict.
The information processing apparatus according to claim 11.
前記可視化画面生成部は、現在の状況が会議が終盤に差し掛かっている状況であると予測された場合には、肯定及び否定を少なくとも含む前記テキストデータの発言者の意図が可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。 The text data is text data spoken by a participant during a meeting,
The visualization screen generation unit visualizes the speaker's intention of the text data including at least affirmation and denial when the current situation is predicted to be a situation where a meeting is about to end Generate
The information processing apparatus according to claim 1.
請求項13に記載の情報処理装置。 The current situation is approaching the end of the meeting when the number of text data estimated to be positive by the speaker is greater than a certain percentage of the total number of text data in a given time Predicted to be the situation,
The information processing apparatus according to claim 13.
請求項2に記載の情報処理装置。 The visualization screen generation unit is a predetermined time of a combination of a clause corresponding to the predicate and the target object of the previous description unit of the text data related to any of the classified speaker's intentions Generating the visualization screen in which the appearance frequency in is visualized,
The information processing apparatus according to claim 2.
請求項1に記載の情報処理装置。 The text data is text data exchanged by a user on social media.
The information processing apparatus according to claim 1.
を含む、情報処理方法。 A processor generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker;
Including an information processing method.
複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成機能、
を実現させるためのプログラム。
On the computer,
A visualization screen generation function for generating a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015135437A JP2017016566A (en) | 2015-07-06 | 2015-07-06 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015135437A JP2017016566A (en) | 2015-07-06 | 2015-07-06 | Information processing device, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017016566A true JP2017016566A (en) | 2017-01-19 |
Family
ID=57830860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015135437A Pending JP2017016566A (en) | 2015-07-06 | 2015-07-06 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017016566A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019023805A (en) * | 2017-07-24 | 2019-02-14 | シャープ株式会社 | Display control equipment, display control method and program |
JP2019061491A (en) * | 2017-09-26 | 2019-04-18 | 株式会社東芝 | Interactive idea assisting method and interactive idea assisting device |
JP2019160259A (en) * | 2018-03-16 | 2019-09-19 | 株式会社リコー | Information presentation device, information presentation system, information presentation method, and program |
JP2019168551A (en) * | 2018-03-22 | 2019-10-03 | Kddi株式会社 | Device, program and method to analyze discussion content between users in training |
JP2019175344A (en) * | 2018-03-29 | 2019-10-10 | 旭化成ホームズ株式会社 | Speech amount integration device, customer service supporting device, and program |
JP2020017088A (en) * | 2018-07-25 | 2020-01-30 | 株式会社リコー | Information processing system, information processing method and program |
WO2021002136A1 (en) * | 2019-07-04 | 2021-01-07 | パナソニックIpマネジメント株式会社 | Utterance analysis device, utterance analysis method, and program |
CN113302632A (en) * | 2019-01-28 | 2021-08-24 | 三菱电机株式会社 | Development support device, development support system, and development support method |
WO2021171613A1 (en) * | 2020-02-28 | 2021-09-02 | 日本電気株式会社 | Server device, conference assistance system, conference assistance method, and program |
JPWO2022004567A1 (en) * | 2020-07-02 | 2022-01-06 | ||
JP2022056128A (en) * | 2020-09-29 | 2022-04-08 | ソフトバンク株式会社 | Information processing device, information processing method, information processing program, and information processing system |
JP2022071401A (en) * | 2020-10-28 | 2022-05-16 | ベルフェイス株式会社 | Information processing system, information processing method, and program |
JP2022075662A (en) * | 2020-10-27 | 2022-05-18 | 株式会社I’mbesideyou | Information extraction apparatus |
WO2022137351A1 (en) * | 2020-12-22 | 2022-06-30 | 日本電信電話株式会社 | Layout method, layout device, and program |
JP7223469B1 (en) * | 2022-09-07 | 2023-02-16 | 株式会社Aces | Utterance information documentation device |
WO2023223498A1 (en) * | 2022-05-19 | 2023-11-23 | 日本電信電話株式会社 | Meeting evaluation system |
JP7438088B2 (en) | 2020-11-27 | 2024-02-26 | 株式会社 日立産業制御ソリューションズ | Minutes creation support device, minutes creation support method, and minutes creation support program |
JP7443407B2 (en) | 2017-11-02 | 2024-03-05 | グーグル エルエルシー | Automated assistant with conferencing capabilities |
-
2015
- 2015-07-06 JP JP2015135437A patent/JP2017016566A/en active Pending
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019023805A (en) * | 2017-07-24 | 2019-02-14 | シャープ株式会社 | Display control equipment, display control method and program |
JP2019061491A (en) * | 2017-09-26 | 2019-04-18 | 株式会社東芝 | Interactive idea assisting method and interactive idea assisting device |
JP7443407B2 (en) | 2017-11-02 | 2024-03-05 | グーグル エルエルシー | Automated assistant with conferencing capabilities |
JP2019160259A (en) * | 2018-03-16 | 2019-09-19 | 株式会社リコー | Information presentation device, information presentation system, information presentation method, and program |
JP7159576B2 (en) | 2018-03-16 | 2022-10-25 | 株式会社リコー | Information presentation device, information presentation system, information presentation method and program |
JP2019168551A (en) * | 2018-03-22 | 2019-10-03 | Kddi株式会社 | Device, program and method to analyze discussion content between users in training |
JP7111488B2 (en) | 2018-03-29 | 2022-08-02 | 旭化成ホームズ株式会社 | Speech volume integration device, customer service support device and program |
JP2019175344A (en) * | 2018-03-29 | 2019-10-10 | 旭化成ホームズ株式会社 | Speech amount integration device, customer service supporting device, and program |
JP2020017088A (en) * | 2018-07-25 | 2020-01-30 | 株式会社リコー | Information processing system, information processing method and program |
JP7180168B2 (en) | 2018-07-25 | 2022-11-30 | 株式会社リコー | Information processing system, information processing method and program |
CN113302632A (en) * | 2019-01-28 | 2021-08-24 | 三菱电机株式会社 | Development support device, development support system, and development support method |
WO2021002136A1 (en) * | 2019-07-04 | 2021-01-07 | パナソニックIpマネジメント株式会社 | Utterance analysis device, utterance analysis method, and program |
JPWO2021171613A1 (en) * | 2020-02-28 | 2021-09-02 | ||
WO2021171613A1 (en) * | 2020-02-28 | 2021-09-02 | 日本電気株式会社 | Server device, conference assistance system, conference assistance method, and program |
WO2022004567A1 (en) * | 2020-07-02 | 2022-01-06 | パナソニックIpマネジメント株式会社 | Communication analysis system, and communication analysis method |
JPWO2022004567A1 (en) * | 2020-07-02 | 2022-01-06 | ||
JP7369942B2 (en) | 2020-07-02 | 2023-10-27 | パナソニックIpマネジメント株式会社 | Communication analysis system and communication analysis method |
JP2022056128A (en) * | 2020-09-29 | 2022-04-08 | ソフトバンク株式会社 | Information processing device, information processing method, information processing program, and information processing system |
JP7170013B2 (en) | 2020-09-29 | 2022-11-11 | ソフトバンク株式会社 | Information processing device, information processing method, information processing program, and information processing system |
JP7096626B2 (en) | 2020-10-27 | 2022-07-06 | 株式会社I’mbesideyou | Information extraction device |
JP2022075662A (en) * | 2020-10-27 | 2022-05-18 | 株式会社I’mbesideyou | Information extraction apparatus |
JP7075096B2 (en) | 2020-10-28 | 2022-05-25 | ベルフェイス株式会社 | Information processing system, information processing method and program |
JP2022071401A (en) * | 2020-10-28 | 2022-05-16 | ベルフェイス株式会社 | Information processing system, information processing method, and program |
JP7438088B2 (en) | 2020-11-27 | 2024-02-26 | 株式会社 日立産業制御ソリューションズ | Minutes creation support device, minutes creation support method, and minutes creation support program |
WO2022137351A1 (en) * | 2020-12-22 | 2022-06-30 | 日本電信電話株式会社 | Layout method, layout device, and program |
WO2023223498A1 (en) * | 2022-05-19 | 2023-11-23 | 日本電信電話株式会社 | Meeting evaluation system |
JP7223469B1 (en) * | 2022-09-07 | 2023-02-16 | 株式会社Aces | Utterance information documentation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017016566A (en) | Information processing device, information processing method and program | |
Moore et al. | Conversational UX design: A practitioner's guide to the natural conversation framework | |
US10977452B2 (en) | Multi-lingual virtual personal assistant | |
Narayanan et al. | Behavioral signal processing: Deriving human behavioral informatics from speech and language | |
CN108000526B (en) | Dialogue interaction method and system for intelligent robot | |
McTear et al. | The conversational interface | |
Schroder et al. | Building autonomous sensitive artificial listeners | |
CN106663383B (en) | Method and system for analyzing a subject | |
CN114556354A (en) | Automatically determining and presenting personalized action items from an event | |
WO2017100334A1 (en) | Vpa with integrated object recognition and facial expression recognition | |
Johar | Emotion, affect and personality in speech: The Bias of language and paralanguage | |
US10896688B2 (en) | Real-time conversation analysis system | |
US11321675B2 (en) | Cognitive scribe and meeting moderator assistant | |
Pugh et al. | Say What? Automatic Modeling of Collaborative Problem Solving Skills from Student Speech in the Wild. | |
Tsai et al. | A study of multimodal addressee detection in human-human-computer interaction | |
Antunes et al. | A framework to support development of sign language human-computer interaction: Building tools for effective information access and inclusion of the deaf | |
Vlachostergiou et al. | Investigating context awareness of affective computing systems: a critical approach | |
US20200184965A1 (en) | Cognitive triggering of human interaction strategies to facilitate collaboration, productivity, and learning | |
Axelsson et al. | Modeling feedback in interaction with conversational agents—a review | |
McDuff et al. | Multimodal analysis of vocal collaborative search: A public corpus and results | |
Qadri et al. | A critical insight into multi-languages speech emotion databases | |
Kim et al. | A review on dyadic conversation visualizations-purposes, data, lens of analysis | |
Abu Shaqra et al. | A multi-modal deep learning system for arabic emotion recognition | |
Wei et al. | Investigating the relationship between dialogue and exchange-level impression | |
Karpouzis et al. | Induction, recording and recognition of natural emotions from facial expressions and speech prosody |