JP2017016566A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2017016566A
JP2017016566A JP2015135437A JP2015135437A JP2017016566A JP 2017016566 A JP2017016566 A JP 2017016566A JP 2015135437 A JP2015135437 A JP 2015135437A JP 2015135437 A JP2015135437 A JP 2015135437A JP 2017016566 A JP2017016566 A JP 2017016566A
Authority
JP
Japan
Prior art keywords
text data
visualization screen
information processing
conference
meeting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015135437A
Other languages
Japanese (ja)
Inventor
政明 星野
Masaaki Hoshino
政明 星野
賢一郎 小林
Kenichiro Kobayashi
賢一郎 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015135437A priority Critical patent/JP2017016566A/en
Publication of JP2017016566A publication Critical patent/JP2017016566A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device for improving the convenience of a participant of a conference more by processing text data acquired during the conference.SOLUTION: The information processing device includes a visualization screen generation part for classifying text data issued by a plurality of speakers during a conference into prescribed categories on the basis of intentions, modality and potential topics of the speakers, and generating a visualization screen being a screen obtained by visualizing classification results classified into the prescribed categories in association with the speakers, and generates any visualization screen of the transition of the intentions of utterances, a transition phase of the potential topics and the transition of the contents of the text data in the case that a state in which a debate is performed is predicted.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。   The present disclosure relates to an information processing apparatus, an information processing method, and a program.

会議の進行、並びに議事録の作成、承認及び管理等を支援するシステムが開発されている(例えば、特許文献1−4)。これらのシステムを用いることにより、会議がより効率化されることが期待される。   Systems that support the progress of meetings and the creation, approval, and management of minutes have been developed (for example, Patent Documents 1-4). By using these systems, it is expected that the conference will be more efficient.

特開2007−108865号公報JP 2007-108865 A 特開2010−72784号公報JP 2010-72784 A 特開2005−175627号公報JP 2005-175627 A 特開2008−77495号公報JP 2008-77495 A

しかしながら、特許文献1−4に示すシステムには、未だ改良の余地がある。例えば、特許文献1、2に記載の技術では、議事録等の会議において生成される情報を会議の参加者によって共有することを主な目的としており、これらの情報を内容に応じて分類する等の解析は行われていない。また、特許文献3には、会議中の発言を録音した音声情報や白板を撮影した画像情報からテキストデータを抽出し、当該テキストデータに基づいて議事録を自動生成する技術が開示されているが、これらのテキストデータを分類することは行われていない。   However, the systems shown in Patent Documents 1-4 still have room for improvement. For example, in the technologies described in Patent Documents 1 and 2, the main purpose is to share information generated in a meeting such as minutes, etc. among the participants of the meeting, and the information is classified according to the contents. Analysis has not been performed. Patent Document 3 discloses a technique for extracting text data from audio information recording a speech during a meeting and image information obtained by photographing a white board, and automatically generating a minutes based on the text data. These text data are not classified.

また、特許文献4には、会議中に取得されたテキストデータからキーワードを抽出し、抽出したキーワードの時系列での推移を分析し、その出現頻度によって当該キーワードに対して重み付けを行うことにより、当該キーワード間の階層関係を構造化する技術が開示されている。当該技術では、会議の各時点でのキーワードを把握することはできるが、会議中の発言を分類することは行われていない。   Further, in Patent Document 4, a keyword is extracted from text data acquired during a meeting, a time-series transition of the extracted keyword is analyzed, and the keyword is weighted according to the appearance frequency, A technique for structuring the hierarchical relationship between the keywords is disclosed. In this technology, keywords at each time point of the conference can be grasped, but the speech during the conference is not classified.

上記事情に鑑みれば、会議中に取得されるテキストデータをより適切に処理することにより、会議をより効率化し、会議の参加者の利便性をより向上させることができる可能性がある。そこで、本開示では、会議の参加者の利便性をより向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。   In view of the above circumstances, there is a possibility that the text can be more efficiently processed and the convenience of participants of the conference can be further improved by appropriately processing the text data acquired during the conference. Therefore, the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of further improving the convenience of conference participants.

本開示によれば、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成部、を備える、情報処理装置が提供される。   According to the present disclosure, a visualization screen generation unit that generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. An information processing apparatus is provided.

また、本開示によれば、プロセッサが、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成すること、を含む、情報処理方法が提供される。   Further, according to the present disclosure, the processor generates a visualization screen that is a screen in which text data generated by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. An information processing method is provided.

また、本開示によれば、コンピュータに、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成機能、を実現させるためのプログラムが提供される。   In addition, according to the present disclosure, a visualization for generating a visualization screen, which is a screen on which a classification result obtained by classifying text data issued by a plurality of speakers into a predetermined category is visualized in association with the speaker. A program for realizing the screen generation function is provided.

本開示によれば、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類され、その分類結果が当該発言者に関連付けて可視化される。当該所定のカテゴリは、例えば、発言者の意図等であり得る。可視化された分類結果は、会議の参加者に対して、会議の進行状況に関する気付きを与え得るものであるため、当該参加者は、当該分類結果を参照しながら会議を進行することにより、より円滑に会議を進行することができる。従って、会議の参加者の利便性を向上させることができる。   According to the present disclosure, text data uttered by a plurality of speakers is classified into a predetermined category, and the classification result is visualized in association with the speaker. The predetermined category may be, for example, a speaker's intention. Since the visualized classification results can give the participants of the conference awareness of the progress of the conference, the participants can make the smoother by proceeding with the conference while referring to the classification results. You can proceed with the meeting. Therefore, the convenience of the conference participants can be improved.

以上説明したように本開示によれば、会議の参加者の利便性をより向上させることが可能になる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。   As described above, according to the present disclosure, it is possible to further improve the convenience of conference participants. Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with the above effects or instead of the above effects. May be played.

本実施形態に係るシステムの概要について説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the system which concerns on this embodiment. 本実施形態に係るシステムの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the system which concerns on this embodiment. 図2に示す意見抽出部の機能構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of a function structure of the opinion extraction part shown in FIG. 意見抽出部による意見抽出処理について説明するための説明図である。It is explanatory drawing for demonstrating the opinion extraction process by an opinion extraction part. 本実施形態に係る情報処理方法の処理手順の一例を示すフロー図である。It is a flowchart which shows an example of the process sequence of the information processing method which concerns on this embodiment. 状況予測部による1人の参加者によってプレゼンテーションが行われているかの予測処理、及び当該予測処理の結果に応じた可視化画面生成部による処理の処理手順の一例を示すフロー図である。It is a flowchart which shows an example of the process sequence of the prediction process by the situation prediction part whether the presentation is performed by one participant, and the process by the visualization screen generation part according to the result of the said prediction process. 可視化画面の一例である、意見タイプの推移、潜在トピックの推移及びキーワードの推移が可視化された可視化画面を示す図である。It is a figure which shows the visualization screen which visualized the transition of opinion type, the transition of a latent topic, and the transition of a keyword which is an example of a visualization screen. 潜在トピックの変化点を検出する処理の処理手順の一例を示すフロー図である。It is a flowchart which shows an example of the process sequence of the process which detects the change point of a latent topic. 可視化画面の他の例である、会議中における参加者の発話状況が可視化された可視化画面を示す図である。It is a figure which shows the visualization screen which visualized the speech condition of the participant in a meeting which is another example of a visualization screen. 可視化画面の他の例である、会議中における参加者の発話状況及び当該発話の意見タイプの推移が可視化された可視化画面を示す図である。It is a figure which shows the visualization screen which visualized the transition of the utterance situation of the participant in a meeting and the opinion type of the said utterance which is another example of a visualization screen. 可視化画面の他の例である、発言内容の推移及び当該発言の意見タイプの推移が可視化された可視化画面を示す図である。It is a figure which shows the visualization screen which visualized the transition of the content of an utterance and the transition of the opinion type of the said utterance which is another example of a visualization screen. 可視化画面の他の例である、ポジネガ判定の結果が可視化された可視化画面を示す図である。It is a figure which shows the visualization screen on which the result of the positive / negative determination was visualized which is another example of a visualization screen. 可視化画面の他の例である、モダリティを用いたテキストデータの分類結果が可視化された可視化画面を示す図である。It is a figure which shows the visualization screen as which the classification result of the text data using a modality was visualized which is another example of a visualization screen. 可視化画面の他の例である、ソーシャルメディア上で会議が行われる場合における可視化画面を示す図である。It is a figure which shows the visualization screen in the case where a meeting is performed on social media which is another example of a visualization screen. 可視化画面の他の例である、ソーシャルメディア上で会議が行われる場合における可視化画面を示す図である。It is a figure which shows the visualization screen in the case where a meeting is performed on social media which is another example of a visualization screen. 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the information processing apparatus which concerns on this embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
1.システムの概要
2.システムの機能構成
2−1.全体構成
2−2.テキストデータ解析部の詳細
3.情報処理方法
4.可視化画面の表示例
4−1.会議の冒頭
4−2.1人の参加者によってプレゼンテーションが行われている場合
4−3.ディスカッション時
4−4.会議の停滞時
4−5.議論の紛糾時
4−6.会議の終盤
5.他の表示例
5−1.ポジネガ判定の結果についての可視化画面
5−2.モダリティを用いたテキストデータの分類結果についての可視化画面
6.他の適用例
7.ハードウェア構成
8.補足
The description will be made in the following order.
1. 1. System overview 2. Functional configuration of system 2-1. Overall configuration 2-2. 2. Details of text data analysis unit 3. Information processing method Display example of visualization screen 4-1. The beginning of the meeting 4-2.1 When presentations are given by participants 4-3. During discussion 4-4. When the meeting is stagnant 4-5. At the time of dispute 4-6. End of the meeting 5. Other display examples 5-1. Visualization screen for positive / negative determination results 5-2. Visualization screen for text data classification results using modalities Other application examples Hardware configuration Supplement

ここで、本開示は、複数のユーザによってテキストデータがやり取りされる状況に対して好適に適用され得る。以下では、本開示の一例として、会議に対して本開示が適用される実施形態について主に説明することとする。ただし、本開示はかかる例に限定されず、例えばSNS(Social Networking Service)等のソーシャルメディア上で、複数のユーザによってメッセージがやり取りされる状況に対しても適用され得る。   Here, the present disclosure can be suitably applied to a situation where text data is exchanged by a plurality of users. In the following, as an example of the present disclosure, an embodiment in which the present disclosure is applied to a conference will be mainly described. However, the present disclosure is not limited to such an example, and may be applied to a situation in which messages are exchanged by a plurality of users on social media such as SNS (Social Networking Service).

なお、会議において参加者によってやり取りされるテキストデータには、参加者が発話した内容や、参加者が自身が有する端末を介して入力した情報、参加者が電子白板等に手書きした情報等が含まれる。ただし、以下の説明では、説明の便宜のため、参加者がテキストデータを発する方法にかかわらず、参加者がテキストデータを発することを「発言」とも呼称し、テキストデータを発した参加者のことを「発言者」とも呼称することとする。   The text data exchanged by the participants in the conference includes the contents spoken by the participants, information input by the participants through their own terminals, information handwritten by the participants on the electronic whiteboard, etc. It is. However, in the following explanation, for the convenience of explanation, regardless of the method by which the participant emits text data, the participant issuing text data is also referred to as “speaking” and means the participant who issued the text data. Are also referred to as “speakers”.

(1.システムの概要)
図1を参照して、本開示の一実施形態に係るシステムの概要について説明する。図1は、本実施形態に係るシステムの概要について説明するための説明図である。
(1. System overview)
An overview of a system according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining an overview of a system according to the present embodiment.

図1では、一例として、電子白板20を用いた会議の様子を模擬的に図示している。図1に示すように、会議においては多数のテキストデータが発せられ得る。当該テキストデータは、例えば、電子白板20に書記501が記載する議事録に含まれるものや、会議に用いられる各種の資料(プレゼンテーション資料や、URL(Uniform Resource Locator)によって示されるリンク先のWebサイト等)に含まれるもの、会議の参加者の発話に含まれるもの、会議の参加者が所持する情報処理端末を介して入力されるもの、書記501以外の参加者が説明等のために電子白板20に手書きで記載したもの等であり得る。   In FIG. 1, the state of the meeting using the electronic white board 20 is schematically illustrated as an example. As shown in FIG. 1, a large number of text data can be issued in a conference. For example, the text data is included in the minutes recorded by the clerk 501 on the electronic whiteboard 20, or various materials used for the conference (presentation materials and URL (Uniform Resource Locator)) linked websites. Etc.), what is included in the speech of the conference participant, what is input via the information processing terminal possessed by the conference participant, and participants other than the secretary 501 use the electronic white board for explanation, etc. 20 may be those described in handwriting.

本実施形態に係るシステム1では、会議において発せられた各種のテキストデータが収集される。そして、収集されたテキストデータが解析され、当該テキストデータが所定のカテゴリに分類される。当該所定のカテゴリは、例えば、当該テキストデータの発言者の意図を示すカテゴリ及び/又は当該テキストデータが有するトピックを示すカテゴリ等であり得る。更に、その分類結果が可視化されて参加者に対して提示される。   In the system 1 according to the present embodiment, various text data issued at the conference are collected. Then, the collected text data is analyzed, and the text data is classified into a predetermined category. The predetermined category may be, for example, a category indicating the intention of a speaker of the text data and / or a category indicating a topic included in the text data. Further, the classification result is visualized and presented to the participant.

テキストデータの分類結果は、発せられたテキストデータの属性を表すものであるから、会議の参加者は、可視化された当該分類結果を見ることにより、例えば会議の趨勢等、現在の会議の状況についての様々な気付きを得ることができる。当該気付きに従って会議が進行されることにより、より効率的に会議を行うことが可能になる。   Since the classification result of the text data represents the attribute of the issued text data, the conference participants can see the status of the current conference such as the trend of the conference, for example, by viewing the classification result visualized. You can get various notices. By proceeding according to the notice, the conference can be performed more efficiently.

なお、テキストデータの解析方法については、下記(2−2.テキストデータ解析部の詳細)で詳しく説明する。また、可視化画面の表示例については、下記(4.可視化画面の表示例)で詳しく説明する。   The text data analysis method will be described in detail below (2-2. Details of Text Data Analysis Unit). A display example of the visualization screen will be described in detail in the following (4. Display example of the visualization screen).

更に、システム1では、テキストデータの解析結果を用いて、当該テキストデータの要約が生成されてもよい。当該要約は、例えばテキストデータを分類されたカテゴリと紐付けてまとめたものであってよい。また、当該要約には、可視化画面上に表示されるテキストデータの分類結果を可視化したチャート等が含まれていてもよい。   Furthermore, in the system 1, a summary of the text data may be generated using the analysis result of the text data. The summary may be, for example, text data collected in association with a classified category. Further, the summary may include a chart that visualizes the classification result of the text data displayed on the visualization screen.

当該要約は、会議において発せられた各種のテキストデータが要約されたものであるから、当該会議の議事録の役割を果たし得るものと言える。当該要約は、書記501が作成した正式な議事録とは異なる観点からまとめられた議事録であるとも言えるため、後日会議の内容を振り返るときに有用な情報となり得る。   Since the summary is a summary of various text data issued at the conference, it can be said that the summary can serve as the minutes of the conference. The summary can be said to be useful information when looking back on the contents of the meeting at a later date because it can be said that the summary is compiled from a different viewpoint than the official minutes created by the secretary 501.

また、システム1には、過去の会議における可視化画面や要約を検索し、改めて表示する機能が備えられていてもよい。当該機能により、例えば会議を開始する際に前回の会議における可視化画面や要約を参加者で参照することにより、前回の会議の内容を参加者で共有することができ、会議をより円滑に進めることが可能になる。   Further, the system 1 may be provided with a function of searching for visualization screens and summaries in past meetings and displaying them again. With this function, for example, when a meeting is started, the contents of the previous meeting can be shared with the participants by referring to the visualization screen and summary of the previous meeting with the participants, so that the meeting can proceed more smoothly. Is possible.

以上、図1を参照して、本実施形態に係るシステムの概要について説明した。   The overview of the system according to the present embodiment has been described above with reference to FIG.

(2.システムの機能構成)
(2−1.全体構成)
図2を参照して、図1を参照して説明したシステム1の詳細な機能構成について説明する。図2は、本実施形態に係るシステム1の機能構成の一例を示すブロック図である。
(2. System functional configuration)
(2-1. Overall configuration)
A detailed functional configuration of the system 1 described with reference to FIG. 1 will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of a functional configuration of the system 1 according to the present embodiment.

図2を参照すると、本実施形態に係るシステム1は、情報処理装置10と、電子白板20と、1つ又は複数の会議参加者端末30と、が通信網40(ネットワーク40)を介して互いに通信可能に接続されて構成される。   Referring to FIG. 2, in the system 1 according to the present embodiment, an information processing apparatus 10, an electronic white board 20, and one or a plurality of conference participant terminals 30 are mutually connected via a communication network 40 (network 40). It is configured to be communicably connected.

(電子白板20)
電子白板20は、会議室内に設置され、会議に用いられる各種の情報をその白板面内の表示領域に表示する。例えば、電子白板20には、会議において参加者に提示される各種の資料(例えば、プレゼンテーション資料やWebサイト等)が表示され得る。また、電子白板20は、その表示領域に、会議の参加者によって会議参加者端末30を介して入力される各種の情報(例えば参加者のコメント等)を表示してもよい。
(Electronic white board 20)
The electronic white board 20 is installed in the conference room and displays various information used for the conference in a display area within the white board surface. For example, the electronic whiteboard 20 can display various materials (for example, presentation materials and websites) presented to the participants at the conference. Moreover, the electronic white board 20 may display various information (for example, comment of a participant etc.) input by the participant of the conference via the conference participant terminal 30 in the display area.

また、電子白板20は、通常の白板と同様に、その白板面に会議の参加者が手書きで各種の情報を記載可能に構成され得る。例えば、会議中には、書記が電子白板20に議事録を記載したり、他の参加者が説明のために電子白板20に図や文字等を記載したりすることができる。電子白板20は、白板面に記載された各種の情報を電子データとして取得することができる。電子白板20に対して手書きで記載された各種の情報(以下、白板入力情報という)は、ネットワーク40を介して情報処理装置10に送信される。   Moreover, the electronic white board 20 can be comprised so that the participant of a meeting can describe various information by handwriting on the white board surface similarly to a normal white board. For example, during the meeting, the clerk can write the minutes on the electronic white board 20, or other participants can write figures, characters, etc. on the electronic white board 20 for explanation. The electronic white board 20 can acquire various information described on the white board surface as electronic data. Various types of information written on the electronic white board 20 by handwriting (hereinafter referred to as white board input information) are transmitted to the information processing apparatus 10 via the network 40.

なお、電子白板20は、会議室内に設置され、複数の参加者によって参照及び操作され得る入出力デバイスの一例である。システム1は、電子白板20に代えて、又は電子白板20とともに、他の表示デバイスや他の入力デバイスを備えてもよい。例えば、システム1は、プロジェクターを備えてもよく、当該プロジェクターに会議に用いられる各種の情報が表示されてもよい。あるいは、会議の種類や規模によっては、電子白板20のような、複数の参加者によって共用される入出力デバイスは設けられなくてもよい。   The electronic white board 20 is an example of an input / output device that is installed in a conference room and can be referred to and operated by a plurality of participants. The system 1 may include other display devices or other input devices instead of the electronic white board 20 or together with the electronic white board 20. For example, the system 1 may include a projector, and various types of information used for the conference may be displayed on the projector. Alternatively, depending on the type and scale of the conference, an input / output device such as the electronic white board 20 shared by a plurality of participants may not be provided.

(会議参加者端末30)
会議参加者端末30は、会議の各参加者がそれぞれ所持する情報処理端末である。会議参加者端末30は、ノート型PC(Personal Computer)や、タブレットPC、スマートフォン、電子ペーパー端末、ウェアラブルデバイス(例えば、眼鏡型端末、ヘッドマウントディスプレイ(HMD:Head Mounted Display)等)等であり得る。なお、図示する例では、便宜的に2つの会議参加者端末30を示しているが、システム1は、1つ又は複数の任意の数の会議参加者端末30を備えてよい。
(Meeting participant terminal 30)
The conference participant terminal 30 is an information processing terminal possessed by each participant of the conference. The conference participant terminal 30 may be a notebook PC (Personal Computer), a tablet PC, a smartphone, an electronic paper terminal, a wearable device (for example, a spectacle-type terminal, a head mounted display (HMD), or the like). . In the illustrated example, two conference participant terminals 30 are shown for convenience, but the system 1 may include one or more arbitrary number of conference participant terminals 30.

なお、本実施形態では、システム1が適用される会議は、参加者全員が同一の室内に集まって開催されるものであってもよいし、いわゆるテレビ会議システム等を用いて遠隔地にいる参加者が参加して開催されるものであってもよい。従って、会議参加者端末30も、会議室内にいる参加者によって利用されているものであってもよいし、遠隔地から会議に参加している参加者によって利用されているものでもよい。   In the present embodiment, the conference to which the system 1 is applied may be held by all the participants gathered in the same room, or participation in a remote place using a so-called video conference system or the like. It may be held with the participation of a person. Accordingly, the conference participant terminal 30 may also be used by a participant in the conference room, or may be used by a participant participating in the conference from a remote location.

例えば、会議の参加者は、電子白板20の表示領域と、自身の会議参加者端末30の表示画面とを連携させることにより、手持ちの資料等を電子白板20の表示領域に表示させ、他の参加者に対して提示することができる。また、会議の参加者は、自身の会議参加者端末30に対してコメント等の情報を入力し、当該情報を電子白板20に表示させてもよい。会議参加者端末30を介して入力された各種の情報(以下、端末入力情報という)は、ネットワーク40を介して情報処理装置10に送信される。   For example, a conference participant causes the display area of the electronic whiteboard 20 to be displayed in the display area of the electronic whiteboard 20 by linking the display area of the electronic whiteboard 20 with the display screen of the conference participant terminal 30 of the conference. Can be presented to participants. In addition, a conference participant may input information such as a comment to his / her conference participant terminal 30 and display the information on the electronic white board 20. Various types of information input through the conference participant terminal 30 (hereinafter referred to as terminal input information) are transmitted to the information processing apparatus 10 through the network 40.

(情報処理装置10)
情報処理装置10は、会議において発せられたテキストデータを解析し、当該テキストデータを所定のカテゴリに分類するとともに、その分類結果が当該テキストデータの発言者と関連付けて可視化された画面である可視化画面を生成する。なお、情報処理装置10は、会議室内に設置されるローカルなものであってもよいし、いわゆるクラウド上に設置されたサーバのように会議室とは離れた場所に設置されるものでもよい。
(Information processing apparatus 10)
The information processing apparatus 10 analyzes the text data issued in the meeting, classifies the text data into a predetermined category, and visualizes the classification result visualized in association with the speaker of the text data Is generated. The information processing apparatus 10 may be a local apparatus installed in the conference room, or may be installed in a place away from the conference room, such as a server installed on a so-called cloud.

情報処理装置10は、その機能として、発話解析部110と、テキストデータ収集部120と、テキストデータDB(Data Base)130と、テキストデータ解析部140と、解析結果DB150と、状況予測部160と、可視化画面生成部170と、要約部180と、検索部190と、を備える。   The information processing apparatus 10 functions as an utterance analysis unit 110, a text data collection unit 120, a text data DB (Data Base) 130, a text data analysis unit 140, an analysis result DB 150, and a situation prediction unit 160. , A visualization screen generation unit 170, a summarization unit 180, and a search unit 190.

ここで、発話解析部110、テキストデータ収集部120、テキストデータ解析部140、状況予測部160、可視化画面生成部170、要約部180及び検索部190は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Pocessor)、ASIC(Application Specific Integrated Circuit)等の各種のプロセッサによって構成され、所定の演算処理を実行することにより情報処理装置10の動作を制御する制御手段である。テキストデータ収集部120、テキストデータ解析部140、状況予測部160、可視化画面生成部170、要約部180及び検索部190を構成するプロセッサが所定のプログラムに従って動作することにより、これらの機能が実現される。   Here, the speech analysis unit 110, the text data collection unit 120, the text data analysis unit 140, the situation prediction unit 160, the visualization screen generation unit 170, the summarization unit 180, and the search unit 190 are, for example, a CPU (Central Processing Unit), a DSP (DSP). The control means is configured by various processors such as a digital signal processor (ASIC) and an application specific integrated circuit (ASIC), and controls the operation of the information processing apparatus 10 by executing predetermined arithmetic processing. These functions are realized by the processors constituting the text data collection unit 120, the text data analysis unit 140, the situation prediction unit 160, the visualization screen generation unit 170, the summarization unit 180, and the search unit 190 operating according to a predetermined program. The

また、テキストデータDB130及び解析結果DB150は、例えばHDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等の各種の記憶デバイスによって構成され、各種の情報を記憶する記憶手段である。   In addition, the text data DB 130 and the analysis result DB 150 are configured by various storage devices such as a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device. Storage means for storing.

発話解析部110は、会議中に参加者によって発せられた音声についての情報(以下、音声入力情報という)を取得し、当該音声入力情報に含まれる参加者の発話を解析する。なお、音声入力情報は、会議室内に設置されるマイクロフォン等の音声入力デバイス(図示せず)によって取得され得る。   The utterance analysis unit 110 acquires information about the voice uttered by the participant during the conference (hereinafter referred to as voice input information), and analyzes the participant's utterance included in the voice input information. Note that the voice input information can be acquired by a voice input device (not shown) such as a microphone installed in the conference room.

例えば、発話解析部110は、音声区間解析(VAD:Voice Activity Detection)技術を用いて、観測された会議中の音声の中から、参加者の発話区間を抽出する。会議中の音声には、参加者が誰も発話しておらず、環境音等のノイズのみが生じている区間が存在し得るが、音声区間解析技術を用いることにより、このような区間を話者の発話区間として誤認識することを防止することができる。話者の発話とノイズとを識別する技術としては、例えば、PARADE法やSKIF法等が知られている(例えば、「荒木章子他、「音声区間検出と方向情報を用いた会議音声話者識別システムとその評価」、日本音響学会講演論文集、2008年3月」等を参照)。   For example, the utterance analysis unit 110 uses the voice activity analysis (VAD) technology to extract the utterance interval of the participant from the observed audio during the conference. There may be sections in the conference where no participants are speaking and there are only noises such as environmental sounds, but these sections can be spoken by using voice section analysis technology. Can be prevented from being misrecognized as an utterance section of a person. Known techniques for identifying speaker utterances and noise include, for example, the PARADE method and the SKIF method (for example, “Akiko Araki et al.,“ Conference voice speaker identification using voice segment detection and direction information). System and its evaluation ", Acoustical Society of Japan Proceedings, March 2008").

また、例えば、発話解析部110は、話者識別技術を用いて、発話している人物が同一人物か、別の人物か、を識別する。従来、機械学習を用いた様々な話者識別技術が提案されている。例えば、GMM−UBM法では、平均的な発話のモデル(UBM:Universal Back Ground Model)を導入し、ある話者Xの音声が既知の他の話者Yのものであるかの判定が行われる。具体的には、話者Xの音声について、話者Yに関する類似度とUBMに関する類似度の差分により判定が行われる。また複数のマイクロフォンを用いることにより、音声の方向を検出し話者の識別を行う方法も提案されている。   For example, the utterance analysis unit 110 uses a speaker identification technique to identify whether the person who is speaking is the same person or a different person. Conventionally, various speaker identification techniques using machine learning have been proposed. For example, in the GMM-UBM method, an average utterance model (UBM: Universal Back Ground Model) is introduced, and it is determined whether the voice of a certain speaker X belongs to another known speaker Y. . Specifically, for the voice of the speaker X, the determination is made based on the difference between the similarity regarding the speaker Y and the similarity regarding the UBM. In addition, a method has been proposed in which a plurality of microphones are used to detect the direction of speech and identify a speaker.

なお、話者識別技術の詳細については、例えば、上記「荒木章子他、「音声区間検出と方向情報を用いた会議音声話者識別システムとその評価」、日本音響学会講演論文集、2008年3月」や、「越仲孝文他、「話者認識の国際動向」、日本音響学会誌、2013年、69巻、第7号、pp.342−348」等を参照することができる。   For details of the speaker identification technique, see, for example, “Akiko Araki et al.,“ Conference voice speaker identification system using voice interval detection and direction information and its evaluation ”, Acoustical Society of Japan Proceedings, March 2008. Tsuki ", Takafumi Koshinaka et al.,“ International trends in speaker recognition ”, Journal of the Acoustical Society of Japan, 2013, 69, 7, pp. 342-348 "and the like.

発話解析部110は、上述した音声区間検出技術や話者識別技術等を用いて、参加者が誰も発話していない区間(以下、非発話区間ともいう)や、複数の参加者が同時に発話している区間(以下、発話衝突区間ともいう)等を抽出することができる。   The utterance analysis unit 110 uses the above-described voice segment detection technology, speaker identification technology, and the like, and a segment in which no participant speaks (hereinafter also referred to as a non-speak segment), or a plurality of participants speak at the same time. And the like (hereinafter also referred to as an utterance collision section) or the like can be extracted.

また、例えば、発話解析部110は、話者認識技術を用いて、発話している人物を特定する。これにより、音声入力情報に含まれる発話に係るテキストデータと、当該テキストデータの発言者とが紐付けられることになる。   Further, for example, the utterance analysis unit 110 identifies a person who is speaking using speaker recognition technology. Thereby, the text data related to the utterance included in the voice input information and the speaker of the text data are associated with each other.

なお、音声区間解析方法や話者識別方法、話者認識方法としては、例えば上述した各文献に記載されているような各種の公知の方法が用いられてよい。   In addition, as a speech area analysis method, a speaker identification method, and a speaker recognition method, for example, various known methods as described in the above-mentioned documents may be used.

発話解析部110は、音声入力情報の解析結果を、テキストデータ収集部120及び解析結果DB150に提供する。   The utterance analysis unit 110 provides the analysis result of the voice input information to the text data collection unit 120 and the analysis result DB 150.

テキストデータ収集部120は、会議に関連するあらゆる情報を取得し、当該情報の中からテキストデータを抽出することにより、会議に関連するテキストデータを収集する。例えば、テキストデータ収集部120は、会議参加者端末30から端末入力情報を取得し、当該端末入力情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、会議参加者端末30の各々に割り当てられているID等を利用して、発言者と紐付けられた状態でテキストデータを抽出し得る。   The text data collection unit 120 collects text data related to the conference by acquiring all information related to the conference and extracting text data from the information. For example, the text data collection unit 120 acquires terminal input information from the conference participant terminal 30 and extracts text data from the terminal input information. At this time, the text data collection unit 120 can extract the text data in a state associated with the speaker by using an ID or the like assigned to each conference participant terminal 30.

また、例えば、テキストデータ収集部120は、会議において参加者に提示された各種の資料についての情報(以下、会議資料情報という)を取得し、当該会議資料情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、例えば会議資料の作成者等の情報に基づいて、当該会議資料中の文字を記載している人物(すなわち発言者)と紐付けられた状態でテキストデータを抽出してもよい。なお、会議資料情報は、会議の参加者のいずれかによって手動で情報処理装置10に入力されてもよいし、情報処理装置10がアクセス可能な所定の記憶領域に会議資料が保存されることにより、情報処理装置10によって自動で取得されてもよい。   Further, for example, the text data collection unit 120 acquires information on various materials presented to the participants in the conference (hereinafter referred to as conference material information), and extracts text data from the conference material information. At this time, the text data collection unit 120, for example, based on information such as the creator of the conference material, the text data is associated with the person who describes the characters in the conference material (that is, the speaker). It may be extracted. The conference material information may be manually input to the information processing apparatus 10 by any of the participants in the conference, or the conference material is stored in a predetermined storage area accessible by the information processing apparatus 10. The information processing apparatus 10 may automatically acquire the information.

また、例えば、テキストデータ収集部120は、電子白板20から白板入力情報を取得し、OCR(Optical Character Recognition)やストロークに基づく文字認識方法(Stroke Based Character Recognition)等の各種の公知な方法を用いて電子白板20に手書きで入力された文字を解析することにより、白板入力情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、例えば記載された文字の筆跡を解析することにより、文字を記載している人物(すなわち発言者)と紐付けられた状態でテキストデータを抽出してもよい。あるいは、システム1には会議室内の様子を撮影する撮像装置が設けられてもよく、テキストデータ収集部120は、当該撮像装置によって撮影された映像に基づいて電子白板20に文字を手書きしている参加者を特定し、そのテキストデータと紐付けてもよい。なお、手書きされた文字の認識方法や、筆跡の解析方法、映像に基づく人物の認識方法としては、各種の公知な方法が用いられてよい。   In addition, for example, the text data collection unit 120 acquires whiteboard input information from the electronic whiteboard 20, and uses various known methods such as OCR (Optical Character Recognition) and a stroke-based character recognition method (Stroke Based Character Recognition). Then, text data is extracted from the whiteboard input information by analyzing the handwritten characters input to the electronic whiteboard 20. At this time, the text data collection unit 120 may extract the text data in a state associated with the person describing the character (that is, the speaker), for example, by analyzing the handwriting of the written character. . Alternatively, the system 1 may be provided with an imaging device that captures the state of the conference room, and the text data collection unit 120 writes characters on the electronic whiteboard 20 based on the video captured by the imaging device. Participants may be identified and associated with the text data. Various known methods may be used as a handwritten character recognition method, a handwriting analysis method, and a person recognition method based on video.

また、例えば、テキストデータ収集部120は、音声入力情報を取得し、当該音声入力情報からテキストデータを抽出する。このとき、テキストデータ収集部120は、発話解析部110による話者認識処理の結果に基づいて、発言者と紐付けられた状態でテキストデータを抽出してもよい。なお、音声からテキストデータを抽出する方法としては、各種の公知な方法が用いられてよい。   For example, the text data collection unit 120 acquires voice input information and extracts text data from the voice input information. At this time, the text data collection unit 120 may extract the text data in a state associated with the speaker based on the result of the speaker recognition process performed by the utterance analysis unit 110. Various known methods may be used as a method for extracting text data from speech.

テキストデータ収集部120は、抽出したテキストデータをテキストデータDB130に格納する。このとき、テキストデータ収集部120は、テキストデータをその発言者と紐付けて格納する。   The text data collection unit 120 stores the extracted text data in the text data DB 130. At this time, the text data collection unit 120 stores the text data in association with the speaker.

なお、ここでは、一例として、テキストデータ収集部120が、端末入力情報、会議資料情報、白板入力情報及び音声入力情報からテキストデータを抽出する場合について説明したが、本実施形態はかかる例に限定されない。テキストデータ収集部120がテキストデータを抽出する対象とする情報は、会議に関連する情報であればよく、テキストデータ収集部120は、あらゆる情報からテキストデータを抽出することができる。例えば、電子白板20の代わりに通常の白板が用いられる場合であれば、テキストデータ収集部120は、当該白板を撮影した画像情報を取得し、当該画像情報に基づいて、当該白板に記載されたテキストデータを抽出してもよい。   Here, as an example, the case where the text data collection unit 120 extracts text data from the terminal input information, the conference material information, the white board input information, and the voice input information has been described, but the present embodiment is limited to such an example. Not. The information to be extracted by the text data collection unit 120 may be information related to the conference, and the text data collection unit 120 can extract the text data from any information. For example, if a normal white board is used instead of the electronic white board 20, the text data collection unit 120 acquires image information obtained by photographing the white board, and is written on the white board based on the image information. Text data may be extracted.

テキストデータDB130は、テキストデータ収集部120によって収集されたテキストデータを保存する。このとき、テキストデータDB130は、テキストデータを、当該テキストデータが発言された会議名、当該テキストデータが発言された時刻、当該テキストデータの発言者等と紐付けて保存することができる。また、テキストデータDB130は、1度の会議中に抽出されたテキストデータだけでなく、複数の会議のそれぞれにおいて抽出されたテキストデータの履歴を保存してもよい。   The text data DB 130 stores the text data collected by the text data collection unit 120. At this time, the text data DB 130 can store the text data in association with the name of the meeting in which the text data is spoken, the time when the text data was spoken, the speaker of the text data, and the like. The text data DB 130 may store not only text data extracted during one meeting, but also a history of text data extracted in each of a plurality of meetings.

テキストデータ解析部140は、テキストデータDB130に保存されているテキストデータを解析する。テキストデータ解析部140は、その機能として、テキストデータから意見を抽出する意見抽出部141と、テキストデータに含まれるトピックを解析するトピック解析部142と、を有する。   The text data analysis unit 140 analyzes text data stored in the text data DB 130. The text data analysis unit 140 includes, as its function, an opinion extraction unit 141 that extracts opinions from text data, and a topic analysis unit 142 that analyzes topics included in the text data.

なお、本実施形態では、テキストデータ解析部140は、テキストデータを解析するために、意見抽出処理及びトピック解析処理の少なくともいずれかの処理を実行可能に構成されればよい。図1では、便宜的に、テキストデータ解析部140が、意見抽出部141及びトピック解析部142をともに有しているように図示しているが、実際には、テキストデータ解析部140は、これらの機能のうちの少なくともいずれかを有するように構成されればよい。   In the present embodiment, the text data analysis unit 140 may be configured to execute at least one of the opinion extraction process and the topic analysis process in order to analyze the text data. In FIG. 1, for convenience, the text data analysis unit 140 is illustrated as having both an opinion extraction unit 141 and a topic analysis unit 142, but actually, the text data analysis unit 140 What is necessary is just to be comprised so that it may have at least one of these functions.

意見抽出処理では、例えば意見の極性(肯定(positive)、否定(negative)、中立(moderate))や、モダリティ等の観点から、テキストデータから発言者の意図が抽出され、当該意図に応じたカテゴリ(意見タイプ)に当該テキストデータが分類される。トピック解析処理では、例えばLDA(Latent Dirichlet Allocation)等の方法を用いて、テキストデータに含まれる単語からトピックが抽出される。なお、テキストデータ解析部140における意見抽出処理及びトピック解析処理の詳細については、下記(2−2.テキストデータ解析部の詳細)で改めて説明する。   In the opinion extraction process, for example, the intention of the speaker is extracted from the text data in terms of the polarity of the opinion (positive, negative, moderate), modality, etc., and the category corresponding to the intention is extracted. The text data is classified into (opinion type). In the topic analysis process, topics are extracted from words included in the text data by using a method such as LDA (Lent Dirichlet Allocation), for example. Details of the opinion extraction process and the topic analysis process in the text data analysis unit 140 will be described later (2-2. Details of the text data analysis unit).

テキストデータ解析部140は、テキストデータの解析結果を解析結果DB150に格納する。   The text data analysis unit 140 stores the analysis result of the text data in the analysis result DB 150.

解析結果DB150は、テキストデータ解析部140によるテキストデータの解析結果を保存する。このとき、解析結果DB150は、テキストデータの解析結果を、当該解析結果の基となったテキストデータ、当該テキストデータが発言された会議名、当該テキストデータが発言された時刻、当該テキストデータの発言者等と紐付けて保存することができる。また、解析結果DB150は、1度の会議中に抽出されたテキストデータに対する解析結果だけでなく、複数の会議のそれぞれにおいて抽出されたテキストデータに対する解析結果の履歴を保存してもよい。   The analysis result DB 150 stores the analysis result of the text data by the text data analysis unit 140. At this time, the analysis result DB 150 displays the analysis result of the text data, the text data that is the basis of the analysis result, the name of the meeting in which the text data is spoken, the time when the text data is spoken, and the statement of the text data. Can be stored in association with a person or the like. In addition, the analysis result DB 150 may store not only analysis results for text data extracted during one meeting, but also a history of analysis results for text data extracted in each of a plurality of meetings.

また、解析結果DB150は、発話解析部110による発話の解析結果を保存する。このとき、解析結果DB150は、テキストデータの解析結果と同様に、発話の解析結果を、当該解析結果の基となった発話内容、当該発話がなされた会議名、当該発話がなされた時刻、当該発話の発話者等と紐付けて保存することができる。また、解析結果DB150は、1度の会議中に発せられた発話に対する解析結果だけでなく、複数の会議のそれぞれにおいて発せられた発話に対する解析結果の履歴を保存してもよい。   The analysis result DB 150 stores the utterance analysis result by the utterance analysis unit 110. At this time, similarly to the analysis result of the text data, the analysis result DB 150 displays the analysis result of the utterance, the utterance content that is the basis of the analysis result, the name of the meeting where the utterance was made, the time when the utterance was made, It can be stored in association with the utterer of the utterance. Further, the analysis result DB 150 may store not only the analysis result for the utterances uttered during one meeting, but also the history of the analysis results for the utterances uttered in each of a plurality of meetings.

状況予測部160は、解析結果DB150に保存されているテキストデータ及び/又は発話の解析結果等に基づいて、会議の状況を予測する。会議の状況とは、例えば、会議が開始された直後であること、会議が停滞していること、議論が紛糾していること、会議が終盤に差し掛かっていること等である。状況予測部160は、予測した結果を可視化画面生成部170に提供する。   The situation prediction unit 160 predicts the meeting situation based on the text data stored in the analysis result DB 150 and / or the analysis result of the utterance. The status of the conference includes, for example, that it is immediately after the conference is started, that the conference is stagnant, that the discussion is inconsistent, and that the conference is approaching the end. The situation prediction unit 160 provides the predicted result to the visualization screen generation unit 170.

可視化画面生成部170は、解析結果DB150に保存されているテキストデータ及び/又は発話の解析結果に基づいて、当該解析結果が可視化された画面である可視化画面を生成する。例えば、可視化画面生成部170は、テキストデータ解析部140による解析結果に基づいて、所定のカテゴリ(例えば、テキストデータの発言者の意図を示すカテゴリ(すなわち意見タイプ)及び/又はテキストデータが有するトピックを示すカテゴリ等)にテキストデータを分類し、当該分類結果が当該テキストデータの発言者と関連付けられて可視化された画面を生成することができる。また、可視化画面生成部170は、発話解析部110による解析結果に基づいて、会議中における発話状況(例えば、各参加者の発話区間、非発話区間及び/又は発話衝突区間等)が可視化された画面を生成することができる。   Based on the text data stored in the analysis result DB 150 and / or the analysis result of the utterance, the visualization screen generation unit 170 generates a visualization screen that is a screen on which the analysis result is visualized. For example, the visualization screen generation unit 170 determines a predetermined category (for example, a category indicating the intention of the speaker of the text data (ie, opinion type) and / or a topic included in the text data based on the analysis result by the text data analysis unit 140. Text data can be classified into categories, and a screen in which the classification result is visualized in association with the speaker of the text data can be generated. In addition, the visualization screen generation unit 170 visualizes the utterance situation (for example, the utterance interval, non-utterance interval, and / or utterance collision interval of each participant) during the conference based on the analysis result by the utterance analysis unit 110. A screen can be generated.

可視化画面生成部170によって生成された可視化画面についての情報は、ネットワーク40を介して、電子白板20及び/又は会議参加者端末30に送信され、当該電子白板20及び/又は当該会議参加者端末30の表示画面に表示される。可視化画面は、発言者の意図、テキストデータに含まれるトピック、及び/又は会議中の発話状況等が発言者と関連付けられて可視化された画面であるから、これらの可視化画面が会議中に参加者に対して提示されることにより、当該参加者に会議の進行に関する様々な気付きを与えることができる。   Information about the visualization screen generated by the visualization screen generation unit 170 is transmitted to the electronic white board 20 and / or the conference participant terminal 30 via the network 40, and the electronic white board 20 and / or the conference participant terminal 30. Displayed on the display screen. Since the visualization screen is a screen in which the intention of the speaker, the topic included in the text data, and / or the utterance status during the conference are visualized in association with the speaker, these visualization screens are displayed during the conference. It is possible to give the participant various awareness regarding the progress of the conference.

例えば、可視化画面を参照することにより、各参加者は、議論が活発に交わされている状況か、肯定的な意見が多いか、各参加者の立ち位置はどうか等の情報を客観的に読み取ることができる。そのため、現在議論している内容が元々の会議の議題から外れてないかの確認や、議論が収束しつつあることの認識等の、気付きを得ることが可能になる。また、質問や疑問を呈するテキストデータが多い場合には、説明資料の内容や会議の事前準備が不十分である可能性があるため、参加者が次回の会議に向けてこれらの点を改善するきっかけになり得る。あるいは、参加者の担当分野や立場による理解力の差に起因して質問や疑問を呈するテキストデータが多くなっている可能性もあるため、次回の会議において資料を作成する際の参考にすることができる。   For example, by referring to the visualization screen, each participant objectively reads information such as the status of active discussion, whether there are many positive opinions, and the position of each participant. be able to. For this reason, it becomes possible to obtain awareness such as confirmation that the content currently being discussed does not deviate from the agenda of the original meeting, and that the discussion is converging. Also, if there are a lot of text data that ask questions or questions, the contents of the explanatory materials and the preliminary preparation of the meeting may be insufficient, so participants will improve these points for the next meeting It can be a trigger. Or, there may be a lot of text data that asks questions or questions due to differences in comprehension depending on the field or position of the participants, so it should be used as a reference when creating materials at the next meeting. Can do.

なお、可視化画面は、参加者全員が参照できるように、電子白板20及び/又は全ての会議参加者端末30において表示されてもよいし、特定の参加者だけが参照できるように、例えば会議の進行役等、一部の参加者の会議参加者端末30においてのみ表示されてもよい。   Note that the visualization screen may be displayed on the electronic whiteboard 20 and / or all conference participant terminals 30 so that all participants can refer to it. For example, only a specific participant can refer to the visualization screen. It may be displayed only on the conference participant terminals 30 of some participants such as facilitators.

また、このとき、可視化画面生成部170は、状況予測部160によって予測された会議の状況に基づいて、会議の状況に則した内容の可視化画面を、会議の状況に則したタイミングで生成してもよい。会議の状況を踏まえて、より適切な可視化画面が生成され、当該可視化画面がより適切なタイミングで会議の参加者に対して提示されることにより、参加者に対して会議の進行に関するより有益な情報を提供することが可能になる。   Further, at this time, the visualization screen generation unit 170 generates a visualization screen having contents according to the conference status based on the conference status predicted by the status prediction unit 160 at a timing according to the conference status. Also good. Based on the situation of the meeting, a more appropriate visualization screen is generated, and the visualization screen is presented to the meeting participants at a more appropriate timing, so that the participants can be more useful about the progress of the meeting. It becomes possible to provide information.

なお、状況予測部160による会議の状況の予測処理の詳細、及び可視化画面生成部170によって生成される可視化画面の例については、下記(4.可視化画面の表示例)及び(5.他の表示例)で詳しく説明する。   The details of the process of predicting the meeting status by the status prediction unit 160 and the example of the visualization screen generated by the visualization screen generation unit 170 are described below (4. Display example of visualization screen) and (5. Other tables). This will be described in detail in the example).

要約部180は、解析結果DB150に保存されているテキストデータ及び発話の解析結果、並びに可視化画面生成部170によって生成された可視化画面に基づいて、会議の要約を作成する。例えば、要約部180は、テキストデータを分類されたカテゴリと紐付けてまとめることにより、要約を作成する。また、要約部180は、可視化画面上に表示されるテキストデータの分類結果を可視化したチャートを含めて要約を作成してもよい。更に、要約部は、電子白板20に書記によって記載された議事録や、会議中に表示された資料等を含めて要約を作成してもよい。   The summarization unit 180 creates a summary of the meeting based on the text data stored in the analysis result DB 150 and the analysis result of the utterance and the visualization screen generated by the visualization screen generation unit 170. For example, the summary unit 180 creates a summary by associating text data with a classified category. The summarization unit 180 may create a summary including a chart that visualizes the classification result of the text data displayed on the visualization screen. Further, the summary unit may create a summary including minutes recorded on the electronic white board 20 by a secretary, materials displayed during the meeting, and the like.

要約部180によって作成された会議の要約は、ネットワーク40を介して電子白板20及び/又は会議参加者端末30に配信される。参加者は、電子白板20及び/又は会議参加者端末30を介して、会議の要約を参照することができる。当該要約を参照することにより、参加者は、会議における意見の推移や、各参加者の議題に対する立ち位置等を事後的に容易に確認することが可能になる。   The conference summary created by the summary unit 180 is distributed to the electronic whiteboard 20 and / or the conference participant terminal 30 via the network 40. The participant can refer to the summary of the conference via the electronic white board 20 and / or the conference participant terminal 30. By referring to the summary, the participant can easily check the transition of opinions in the conference, the standing position of each participant on the agenda, and the like afterwards.

ここで、電子白板20に書記によって記載された議事録や、会議後に書記によって作成される正式な議事録は、当該書記の主観が混ざっている可能性がある。一方、要約部180によって作成された要約は、テキストデータの解析結果等に基づいて自動的に生成されるものであるため、会議の内容がより客観的な視点からまとめられたものであると言える。従って、会議の参加者は、正式な議事録と、要約部180によって作成された要約と、の両方を参照することにより、会議の内容をより多角的に把握することが可能になる。   Here, the minutes recorded by the secretary on the electronic white board 20 and the official minutes created by the secretary after the meeting may have a mixed subjectivity of the secretary. On the other hand, since the summary created by the summarization unit 180 is automatically generated based on the analysis result of the text data, it can be said that the contents of the meeting are summarized from a more objective viewpoint. . Therefore, the participants of the conference can grasp the content of the conference from various perspectives by referring to both the official minutes and the summary created by the summary unit 180.

なお、会議の要約を作成する方法としては、例えば会議の要約を自動的に生成する方法として一般的に知られている各種の方法が用いられてよい。   As a method for creating a conference summary, for example, various methods generally known as a method for automatically generating a conference summary may be used.

検索部190は、解析結果DB150に保存されているテキストデータ及び発話の解析結果、並びに可視化画面生成部170によって生成された可視化画面を検索し、過去の会議における解析結果及び/又は可視化画面を、ネットワーク40を介して電子白板20及び/又は会議参加者端末30に配信する。例えば、会議の参加者は、必要に応じて過去の会議における解析結果や可視化画面の内容を確認することにより、当該過去の会議の内容を容易に把握することができる。従って、過去の会議の内容を引き継いだ議論をより円滑に行うことが可能になる。また、検索部190は、過去の会議における、電子白板20に書記によって記載された議事録や、会議中に表示された資料等を検索し、電子白板20及び/又は会議参加者端末30に配信してもよい。   The search unit 190 searches the text data stored in the analysis result DB 150 and the analysis result of the utterance, and the visualization screen generated by the visualization screen generation unit 170, and displays the analysis result and / or the visualization screen in the past meeting. This is distributed to the electronic whiteboard 20 and / or the conference participant terminal 30 via the network 40. For example, the participants of the conference can easily grasp the content of the past conference by checking the analysis result in the past conference and the content of the visualization screen as necessary. Therefore, it is possible to more smoothly carry out discussions taking over the contents of past meetings. In addition, the search unit 190 searches the minutes recorded in the electronic whiteboard 20 in the past conference, the materials displayed during the conference, etc., and distributes them to the electronic whiteboard 20 and / or the conference participant terminal 30. May be.

検索の指示は、電子白板20及び/又は会議参加者端末30を介して参加者によって入力されてよい。例えば、検索部190は、参加者からの指示に応じて、会議名、会議の開催日時、会議の参加者、会議中に発言されたテキストデータの内容等の観点から、検索を行うことができる。例えば、過去に開催された類似するテーマの会議における解析結果や可視化画面の内容等を検索することにより、当該過去の会議の内容についての知識を参加者全員で共有することができ、議論の重複を避けることが可能になる。   The search instruction may be input by the participant via the electronic whiteboard 20 and / or the conference participant terminal 30. For example, in response to an instruction from the participant, the search unit 190 can perform a search from the viewpoint of the meeting name, the date and time of the meeting, the participants of the meeting, the contents of text data spoken during the meeting, and the like. . For example, by searching for analysis results and contents of visualization screens at meetings of similar themes held in the past, knowledge about the contents of the past meetings can be shared among all participants. Can be avoided.

以上、本実施形態に係るシステム1の機能構成について説明した。以上説明したように、本実施形態によれば、会議における発言から、発言者の意図(肯定、否定、提案、疑問、命令等)が抽出され、可視化される。従って、参加者に多くの気付きを与え、会議の進行を効率よく行うことができ、参加者の利便性を向上させることができる。例えば、否定的な発言が頻出した場合は、議論が本題からずれていないかの確認のきっかけになる。また、例えば、肯定的な意見が増えてきた場合には、議題について参加者の合意を得るステップに進む指針になる。また、例えば、質問が噴出する場合には、説明や資料に何らかの不備があることが想像される。更には、参加者の立場やスキルによって理解力の差が現れていることも分かり、次回の資料作成の参考にもなる。   Heretofore, the functional configuration of the system 1 according to the present embodiment has been described. As described above, according to the present embodiment, a speaker's intention (affirmation, denial, suggestion, question, command, etc.) is extracted from the speech in the conference and visualized. Therefore, a lot of awareness can be given to the participants, the conference can proceed efficiently, and the convenience of the participants can be improved. For example, if negative remarks occur frequently, it will trigger confirmation of whether the discussion has deviated from the main topic. In addition, for example, when positive opinions increase, it becomes a guide to proceed to the step of obtaining the participant's agreement on the agenda. In addition, for example, when a question erupts, it is imagined that there is some deficiency in explanation or material. In addition, it can be seen that there is a difference in understanding depending on the position and skills of the participants, which can be used as a reference for the next document preparation.

なお、システム1の構成は図示する例に限定されない。システム1は、全体として以上説明した各機能を実現可能に構成されればよく、その具体的な構成は任意であってよい。例えば、図2において情報処理装置10の機能として図示されている各機能は、必ずしも1台の装置において実行されなくてもよく、複数の装置の協働によって実行されてもよい。   The configuration of the system 1 is not limited to the illustrated example. The system 1 should just be comprised so that each function demonstrated above as a whole is realizable, and the specific structure may be arbitrary. For example, each function illustrated as a function of the information processing apparatus 10 in FIG. 2 may not necessarily be executed by one apparatus, and may be executed by cooperation of a plurality of apparatuses.

なお、上述のような本実施形態に係るシステム1の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。   Note that a computer program for realizing each function of the system 1 according to the present embodiment as described above can be produced and mounted on a PC or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.

(2−2.テキストデータ解析部の詳細)
図2に示すテキストデータ解析部140のより詳細な機能について説明する。
(2-2. Details of text data analysis unit)
A more detailed function of the text data analysis unit 140 shown in FIG. 2 will be described.

(意見抽出処理)
図3及び図4を参照して、図2に示すテキストデータ解析部140の意見抽出部141のより詳細な機能について説明する。図3は、図2に示す意見抽出部141の機能構成の一例を示す機能ブロック図である。図4は、意見抽出部141による意見抽出処理について説明するための説明図である。
(Opinion extraction process)
A more detailed function of the opinion extraction unit 141 of the text data analysis unit 140 shown in FIG. 2 will be described with reference to FIGS. FIG. 3 is a functional block diagram illustrating an example of a functional configuration of the opinion extraction unit 141 illustrated in FIG. FIG. 4 is an explanatory diagram for explaining opinion extraction processing by the opinion extraction unit 141.

意見抽出部141は、その機能として、文分割部201と、構文/意味解析部203と、業務用語集205と、辞書生成部207と、業務用語辞書209と、意見/評価表現抽出部211と、を有する。文分割部201、構文/意味解析部203、辞書生成部207及び意見/評価表現抽出部211はCPU等のプロセッサによって構成され、当該プログラムが所定のプログラムに従って所定の演算処理を実行することにより、これらの機能が実現され得る。また、業務用語集205及び業務用語辞書209は、HDD等の記憶デバイスによって構成され得る。   The opinion extraction unit 141 includes, as its functions, a sentence division unit 201, a syntax / semantic analysis unit 203, a business term collection 205, a dictionary generation unit 207, a business term dictionary 209, an opinion / evaluation expression extraction unit 211, Have. The sentence division unit 201, the syntax / semantic analysis unit 203, the dictionary generation unit 207, and the opinion / evaluation expression extraction unit 211 are configured by a processor such as a CPU, and the program executes predetermined arithmetic processing according to a predetermined program. These functions can be realized. Further, the business term collection 205 and the business term dictionary 209 can be configured by a storage device such as an HDD.

文分割部201は、例えば形態素解析処理により、テキストデータを単語単位に分解する。構文/意味解析部203は、文分割部201によって分割されたテキストデータに対して、業務用語辞書209を参照しながら、構文解析処理及び意味解析処理を行う。形態素解析処理、構文解析処理及び意味解析処理が行われることにより、テキストデータ内の文節間の係り結び構造が解析される。なお、形態素解析処理、構文解析処理及び意味解析処理の具体的な方法としては、いわゆる自然言語処理の分野において用いられている各種の公知な方法が用いられてよい。   The sentence division unit 201 decomposes the text data into words by, for example, morphological analysis processing. The syntax / semantic analysis unit 203 performs syntax analysis processing and semantic analysis processing on the text data divided by the sentence division unit 201 while referring to the business term dictionary 209. By performing the morphological analysis process, the syntax analysis process, and the semantic analysis process, the relationship structure between the clauses in the text data is analyzed. Note that various known methods used in the field of so-called natural language processing may be used as specific methods of morphological analysis processing, syntax analysis processing, and semantic analysis processing.

例えば、文分割部201及び構文/意味解析部203によって、「Web製作の人員をもっと増やして欲しいです。」というテキストデータに対して解析が行われる場合について考える。この場合には、図4に示すように、当該テキストデータが、「Web製作の」、「人員を」、「もっと」及び「増やして欲しいです。」という文節に分割されるとともに、各文節の「句」や「格」が解析される。また、その係り受け構造について、「Web製作の」という文節は「人員を」という文節に係っており、「人員を」及び「もっと」という文節はともに「増やして欲しいです。」という文節に係っていることが解析される。   For example, let us consider a case where the sentence division unit 201 and the syntax / semantic analysis unit 203 analyze the text data “I want more Web production personnel”. In this case, as shown in FIG. 4, the text data is divided into phrases “Web production”, “Human resources”, “More” and “I want more”. "Phrase" and "case" are analyzed. In addition, regarding the dependency structure, the phrase “Web production” is related to the phrase “personnel”, and the phrases “personnel” and “more” are both phrased “I want more.” It is analyzed that it is involved.

業務用語集205は、業務において用いられる頻度の高い用語が集められたデータベースである。業務用語集205は、業務の分野ごとに複数のものが用意されていてよい。業務の分野は、例えば、「電機」、「IT」、「建設」等、会議が行われる企業の事業分野であってもよいし、より詳細に、「設計開発」、「製作」、「経理」等、一企業内での職種に関する分野であってもよい。   The business terminology 205 is a database in which terms that are frequently used in business are collected. A plurality of business glossaries 205 may be prepared for each business field. The business field may be, for example, the business field of the company where the conference is held, such as “electrical machinery”, “IT”, “construction”, or more specifically “design development”, “production”, “accounting”. ", Etc., may be a field related to occupations within a single company.

辞書生成部207は、業務用語集205から、現在解析の対象としている会議が属する業務の分野に応じた用語を抽出し、業務用語辞書209を生成する。このように、辞書生成部207は、会議ごとに、当該会議に適した業務用語辞書209を生成することができる。   The dictionary generation unit 207 extracts a term corresponding to the business field to which the conference currently being analyzed belongs from the business term collection 205 and generates a business term dictionary 209. As described above, the dictionary generation unit 207 can generate the business term dictionary 209 suitable for the conference for each conference.

業務用語辞書209は、単語、品詞が格納されているデータベースである。業務用語辞書209は、一般的に構文解析処理及び意味解析処理を行うために必要となる固有表現情報や評価表現語が含まれるように構成されればよく、その構成は任意であってよい。   The business term dictionary 209 is a database in which words and parts of speech are stored. The business term dictionary 209 only needs to be configured to include specific expression information and evaluation expression words that are generally required to perform syntax analysis processing and semantic analysis processing, and the configuration may be arbitrary.

意見/評価表現抽出部211は、文分割部201及び構文/意味解析部203によって解析されたテキストデータに含まれる単語や、当該テキストデータの係り受け構造、当該テキストデータの述語項構造に基づいて、当該テキストデータから評価表現及び意見を抽出する。また、意見/評価表現抽出部211は、抽出した評価表現に基づいて、当該意見を、発言者の意図に応じたカテゴリ(意見タイプ)に分類する。   The opinion / evaluation expression extraction unit 211 is based on the words included in the text data analyzed by the sentence division unit 201 and the syntax / semantic analysis unit 203, the dependency structure of the text data, and the predicate term structure of the text data. The evaluation expression and opinion are extracted from the text data. Further, the opinion / evaluation expression extraction unit 211 classifies the opinion into a category (opinion type) according to the intention of the speaker based on the extracted evaluation expression.

ここで、本実施形態では、「意見」とは、解析の対象としているテキストデータの「評価表現」と、当該評価表現の「評価対象(対象物)」とが組み合わされたものを意味する。評価表現とは、テキストデータに含まれる、発言者の意図を表す表現である。例えば、上記の例であれば、「増やして欲しいです。」が評価表現に対応する。また、「人員を」が当該評価表現の対象物に対応する。つまり、「Web製作の人員をもっと増やして欲しいです。」というテキストデータから抽出される意見は、「「人員を」「増やして欲しいです。」」であり得る。   Here, in this embodiment, “opinion” means a combination of “evaluation expression” of text data to be analyzed and “evaluation object (object)” of the evaluation expression. The evaluation expression is an expression representing the intention of the speaker included in the text data. For example, in the above example, “I want you to increase” corresponds to the evaluation expression. Further, “personnel” corresponds to the object of the evaluation expression. That is, the opinion extracted from the text data “I want you to increase the number of Web production personnel” can be ““ I want to increase the number of personnel ””.

具体的には、意見/評価表現抽出部211は、述語項構造解析処理を行うことにより、述部に対応する句と、当該述部に対応する句に係っている句とを特定する。そして、述部に対応する句からテキストデータの評価表現を抽出する。また、述部に対応する句に係っている句を当該評価表現の対象物として抽出する。   Specifically, the opinion / evaluation expression extraction unit 211 identifies a phrase corresponding to the predicate and a phrase related to the phrase corresponding to the predicate by performing predicate term structure analysis processing. Then, an evaluation expression of the text data is extracted from the phrase corresponding to the predicate. In addition, a phrase related to the phrase corresponding to the predicate is extracted as an object of the evaluation expression.

また、意見タイプは、例えば、「肯定」、「否定」、「必要」、「要望」、「提案」等であり得る。意見タイプは、評価表現に基づいて判断され得る。例えば、上記の「Web製作の人員をもっと増やして欲しいです。」というテキストデータに対して解析が行われる場合であれば、意見/評価表現抽出部211は、評価表現である「増やして欲しいです。」が、「必要」及び「願望」という意見タイプを表す句であると判断する。そして、意見/評価表現抽出部211は、当該評価表現を含む意見(すなわち、「「人員を」「増やして欲しいです。」」)を、「必要」及び「願望」という意見タイプに分類する。   Further, the opinion type can be, for example, “affirmation”, “denial”, “necessary”, “request”, “suggestion”, and the like. The opinion type can be determined based on the evaluation expression. For example, in the case where the analysis is performed on the text data “I want to increase the number of Web production personnel” above, the opinion / evaluation expression extraction unit 211 is the evaluation expression “I want more. . ”Is a phrase representing the opinion types“ necessary ”and“ aspiration ”. Then, the opinion / evaluation expression extraction unit 211 classifies opinions including the evaluation expression (that is, “I want more people” and “I want more people”) into opinion types “necessary” and “wish”.

このように、意見/評価表現抽出部211は、最終的に、テキストデータから、意見と、当該意見が属するカテゴリを表す意見タイプを抽出する。意見は、テキストデータの主要部分を抜き出したものとも言えるため、意見/評価表現抽出部211による意見及び意見タイプの抽出処理は、テキストデータを意見タイプに分類する処理であるとも言える。   In this way, the opinion / evaluation expression extraction unit 211 finally extracts an opinion and an opinion type representing the category to which the opinion belongs from the text data. Since it can be said that the opinion is extracted from the main part of the text data, it can be said that the extraction processing of the opinion and opinion type by the opinion / evaluation expression extraction unit 211 is processing for classifying the text data into opinion types.

意見/評価表現抽出部211は、テキストデータ収集部120によって収集された会議中に発せられた各テキストデータからそれぞれ意見を抽出し、抽出した意見を意見タイプに分類する。そして、抽出した意見とその意見タイプとを紐付けて解析結果DB150に格納する。可視化画面生成部170は、解析結果DB150を参照して、その分類結果、すなわちテキストデータごと(あるいは意見ごと)の意見タイプが可視化された可視化画面を生成する。   The opinion / evaluation expression extraction unit 211 extracts opinions from each text data issued during the meeting collected by the text data collection unit 120, and classifies the extracted opinions into opinion types. Then, the extracted opinion and the opinion type are linked and stored in the analysis result DB 150. The visualization screen generation unit 170 refers to the analysis result DB 150 and generates a visualization screen in which the classification result, that is, the opinion type for each text data (or each opinion) is visualized.

ここで、評価表現から意見タイプを判断する方法としては、各種の公知の方法を用いることができる。ここでは、一例として、ポジネガ判定を用いる方法、及びモダリティを用いた方法について説明する。   Here, as a method for judging the opinion type from the evaluation expression, various known methods can be used. Here, as an example, a method using positive / negative determination and a method using modality will be described.

(ポジネガ判定を用いる方法)
一般的に、肯定(ポジティブ)及び否定(ネガティブ)を表す評価表現語を活用して、テキストデータの肯定度及び否定度を判定する、ポジネガ判定と呼ばれる技術が知られている。意見/評価表現抽出部211は、当該ポジネガ判定を用いて、テキストデータあるいは意見の肯定度又は否定度を判定し、当該テキストデータあるいは意見が属する意見タイプが、「肯定」、「否定」又は「中立」であることを判断することができる。
(Method using positive / negative judgment)
In general, a technique called positive / negative determination is known in which an evaluation expression word representing affirmative (positive) and negative (negative) is used to determine the affirmation degree and the negation degree of text data. The opinion / evaluation expression extraction unit 211 uses the positive / negative determination to determine whether the text data or opinion is affirmative or negative, and the opinion type to which the text data or opinion belongs is “affirmation”, “denial”, or “ Can be determined to be neutral.

なお、ポジネガ判定では、評価表現語辞書を事前に作成する必要がある。当該評価表現語辞書は人手で作成されてもよいが、人手による作成では、ドメインによる評価表現に差異があり作成に手間が掛かるため、当該評価表現語辞書を事前に自動的に作成する手法も提案されている(例えば、「那須川哲哉,金山博,坪井祐太,渡辺日出雄、「好否定文脈を応用した自然言語処理」、言語処理学会第11回年次大会、2005年3月、pp.153−156」や、「舘野昌一、「「お客様の声」に含まれるテキスト感性表現の抽出方法」、情報処理学会研究報告自然言語処理(NL153−14)、2002年、pp.105−112」等を参照)。   In the positive / negative determination, it is necessary to create an evaluation expression word dictionary in advance. The evaluation expression word dictionary may be created manually, but since manual evaluation creates differences in the evaluation expression by domain and takes time to create, there is also a method of automatically creating the evaluation expression word dictionary in advance. Proposed (for example, “Tetsuya Nasukawa, Hiroshi Kanayama, Yuta Tsuboi, Hideo Watanabe,“ Natural Language Processing Applying Favored Context ”, The 11th Annual Conference of the Association for Language Processing, March 2005, pp. 153-156 ”,“ Choichi Sugano, “Method for extracting text sensibility expression contained in“ voice of customer ””, IPSJ Research Report Natural Language Processing (NL153-14), 2002, pp. 105-112 ” Etc.).

また、評価表現語には、その評価表現語である句や単語の周囲の語や文脈によって評価(すなわち意見タイプ)が変化するものが存在する。例えば、「良い」、「悪い」等の評価表現語は、直接的に「肯定」又は「否定」を表す単語であり得るが、「長い」という評価表現語の場合には、当該「長い」という単語が用いられる文脈によって評価が変化し得る。例えば、「充電時間が長い」というテキストデータの評価は「否定」だが、「利用可能時間が長い」というテキストデータの評価は「肯定」であり得る。従って、文の構造や前後の単語の共起を解析して、ポジネガ判定の対象物まで考慮したポジネガ判定の手法も提案されている(例えば、「藤村滋他、「文の構造を考慮した評判抽出手法」、電子情報通信学会第16回データ工学ワークショップ(DEWS2005)、2005年」等を参照)。意見/評価表現抽出部211は、当該手法を用いて、上述した「対象物」まで考慮したポジネガ判定を行ってもよい。   In addition, there are evaluation evaluation words whose evaluation (that is, opinion type) varies depending on phrases and words around the evaluation expression word and context. For example, an evaluation expression word such as “good” or “bad” may be a word directly representing “affirmation” or “denial”, but in the case of an evaluation expression word “long”, the “long” The evaluation may vary depending on the context in which the word is used. For example, the evaluation of text data “long charging time” may be “negative”, but the evaluation of text data “long available time” may be “positive”. Therefore, a positive / negative determination method that analyzes the structure of a sentence and the co-occurrence of words before and after and considers the object of positive / negative determination has also been proposed (for example, “Shigeru Fujimura et al.” "Extraction method", IEICE 16th Data Engineering Workshop (DEWS 2005), 2005 ", etc.). The opinion / evaluation expression extraction unit 211 may perform positive / negative determination in consideration of the above-described “object” using the method.

(モダリティを用いる方法)
モダリティとは、文や発話における発言者の態度やムードのことである。例えば、「行く」という動詞に対して、活用変化や付属語の付与により、「行くだろう」(推量)、「行け」(命令)、「行くべきだ」(義務、断定)、「行かない」(否定)等の、発言者の態度等を表す様々な意味が付与される。一般的に、テキストデータに含まれる評価表現から、このような発言者の態度やムード(すなわち、モダリティ)を抽出する技術が開発されている。
(Method using modality)
Modality is the attitude or mood of a speaker in a sentence or utterance. For example, for the verb “go”, by changing the usage or attaching an attached word, “will go” (inference), “go” (command), “should” (duty, assert), “do not go” "(Negation)" is given various meanings representing the attitude of the speaker. In general, a technique for extracting such a speaker's attitude and mood (ie, modality) from an evaluation expression included in text data has been developed.

意見/評価表現抽出部211は、当該技術を用いて、テキストデータあるいは意見に含まれる評価表現からモダリティを抽出し、当該モダリティをそのテキストデータあるいは意見の意見タイプとして採用することができる。なお、モダリティは、例えば、「仮定」、「困難」、「容易」、「禁止」、「疑問」、「願望」、「主張」、「勧誘」、「可能」、「不意」、「程度」、「簡単」、「不可能」等、多数存在する。   The opinion / evaluation expression extraction unit 211 can extract a modality from text data or an evaluation expression included in an opinion using the technology, and can employ the modality as the text data or the opinion type of the opinion. The modalities are, for example, “assumed”, “difficult”, “easy”, “prohibited”, “question”, “aspiration”, “claim”, “solicitation”, “possible”, “unexpected”, “degree”. , “Easy”, “Impossible” and so on.

ここで、上述したように、意見/評価表現抽出部211は、意見の一部として「対象物」を抽出している。当該「対象物」は、モダリティの対象となっているものを表していると言える。このように、本実施形態では、対象となっているものまで含めてモダリティを抽出することができる。   Here, as described above, the opinion / evaluation expression extraction unit 211 extracts “object” as a part of the opinion. It can be said that the “object” represents a target of the modality. Thus, in the present embodiment, modalities can be extracted including the target ones.

例えば、「日程に余裕がない。」というテキストデータであれば、対象は「日程」であり、そのモダリティは「否定」となる。   For example, if the text data is “there is no schedule,” the target is “schedule” and the modality is “deny”.

また、例えば、「発売を延期しようよ。」というテキストデータであれば、対象は「発売」であり、そのモダリティは「願望」及び「主張」となる。   For example, in the case of text data “Let's postpone the sale”, the object is “release”, and the modalities are “aspiration” and “claim”.

また、例えば、「今のやり方では精度が出ない。」というテキストデータであれば、対象は「精度」であり、そのモダリティは「否定」となる。   For example, if the text data is “Accuracy is not achieved with the current method”, the target is “Accuracy” and the modality is “Negative”.

また、例えば、「プロジェクト関係者でブレストをやりませんか。」というテキストデータであれば、対象は「ブレスト」であり、そのモダリティは「仮定」及び「提案」となる。   For example, in the case of text data “Would you like to be involved in the project?”, The target is “Brest”, and the modalities are “Assumption” and “Proposal”.

以上、意見/評価表現抽出部211の詳細な機能について説明した。   The detailed function of the opinion / evaluation expression extraction unit 211 has been described above.

(トピック解析処理)
図2に示すテキストデータ解析部140のトピック解析部142のより詳細な機能について説明する。トピック解析部142は、テキストデータのトピックを解析する。
(Topic analysis process)
A more detailed function of the topic analysis unit 142 of the text data analysis unit 140 shown in FIG. 2 will be described. The topic analysis unit 142 analyzes the topic of the text data.

テキストデータのトピックを解析する方法としては、各種の公知の方法を用いることができる。例えば、文書中に登場する単語から当該文書の潜在トピックを推定する方法として、LDAが知られている。また、LDAを用いて一連の文章の流れの中からトピックの変化点を判定する方法も提案されている(例えば、「David M. Blei他、「Latent Dirichlet Allocation」、Journal of Machine Learning Research 3、2003年、pp.993−1022」や、「中村明他、「トピック変化点検出に基づくLDAのオンライン適応における複数モデル統合の効果」、言語処理学会 第15回年次大会発表論文集文献3,4、2009年」等を参照)。   As a method for analyzing the topic of text data, various known methods can be used. For example, LDA is known as a method for estimating a latent topic of a document from words appearing in the document. In addition, a method for determining a topic change point from a series of sentence flows using LDA has been proposed (for example, “David M. Blei et al.,“ Lent Dirichlet Allocation ”, Journal of Machine Learning Research 3, 2003, pp. 993-1022 "," Akira Nakamura et al., "Effects of multiple model integration in LDA online adaptation based on topic change point detection", Proc. Of the 15th Annual Conference of the Language Processing Society, 3, 4, 2009 ").

LDAは、文書が複数のトピックを有することを前提とした、文書分類モデルである。LDAでは、文書の潜在トピックを隠れ変数Z(複数次元)で定義し、事前に大量の文書から各文書Dのトピック確率P(Z|D)と潜在トピックごとの単語の出現確率P(W|Z)を学習する。そして、未知の文書に対して、P(Z|D)を推定することができる。   LDA is a document classification model based on the premise that a document has a plurality of topics. In LDA, a latent topic of a document is defined by a hidden variable Z (multiple dimensions), and a topic probability P (Z | D) of each document D and a word appearance probability P (W | Z) is learned. Then, P (Z | D) can be estimated for an unknown document.

LDAでは、予め該当する分野の大量の文書を用いて単語の共起関係を学習しておく必要がある。例えば、対象とする業界に関するビジネス文書を用いてその業界が属する分野についての学習を事前に行うと同時に、会議中に収集されたテキストデータを用いて追加的に学習を行うことにより、定期的に学習モデルのアップデートを行うことも可能である。   In LDA, it is necessary to learn a word co-occurrence relationship in advance using a large number of documents in a corresponding field. For example, the business documents related to the target industry are used in advance to learn about the field to which the industry belongs, and at the same time, additional learning is performed using text data collected during the meeting. It is also possible to update the learning model.

本実施形態では、LDAを用いて推定される潜在トピックによってテキストデータが分類され得る。例えば、「ハードディスク」、「パーティション」、「Cドライブ」等の単語がテキストデータに含まれていれば、当該テキストデータについては、これらの単語に関連した次元スコアが高くなる。また、例えば、「インターネット」、「Wi−Fi(登録商標)」、「ルータ」等の単語がテキストデータに含まれていれば、当該テキストデータについては、これらの単語に関連した次元スコアが高くなる。従って、次元スコアの結果に従ってテキストデータを分類することにより、同様のトピックを有するテキストデータが同一のカテゴリに分類されることとなる。このように、LDAによれば、マルチトピックの属性を使ってテキストデータを分類することができる。また、トピックの変化点を検出することも可能である。可視化画面生成部170は、このように潜在トピックによってテキストデータが分類された結果が可視化された可視化画面を生成することができる。   In the present embodiment, text data can be classified according to potential topics estimated using LDA. For example, if words such as “hard disk”, “partition”, and “C drive” are included in the text data, the dimension score related to these words is high for the text data. Also, for example, if words such as “Internet”, “Wi-Fi (registered trademark)”, “router” are included in the text data, the dimension score related to these words is high for the text data. Become. Therefore, by classifying the text data according to the result of the dimension score, the text data having a similar topic is classified into the same category. Thus, according to LDA, text data can be classified using multi-topic attributes. It is also possible to detect a topic change point. The visualization screen generation unit 170 can generate a visualization screen in which the result of classifying text data by latent topics in this way is visualized.

以上、トピック解析部142の詳細な機能について説明した。   The detailed function of the topic analysis unit 142 has been described above.

(3.情報処理方法)
図5を参照して、本実施形態に係る情報処理方法の処理手順について説明する。図5は、本実施形態に係る情報処理方法の処理手順の一例を示すフロー図である。なお、図5に示す各ステップにおける処理は、図2に示すシステム1において実行される処理に対応する。システム1において実行される処理の詳細については図2を参照して既に説明しているため、以下の本実施形態に係る情報処理方法についての説明では、各ステップにおける処理についての概要のみを記載し、各処理の詳細については説明を省略する。
(3. Information processing method)
With reference to FIG. 5, a processing procedure of the information processing method according to the present embodiment will be described. FIG. 5 is a flowchart showing an example of a processing procedure of the information processing method according to the present embodiment. Note that the processing in each step shown in FIG. 5 corresponds to the processing executed in the system 1 shown in FIG. Since the details of the processing executed in the system 1 have already been described with reference to FIG. 2, the following description of the information processing method according to the present embodiment describes only an overview of the processing in each step. The description of the details of each process is omitted.

図5を参照すると、本実施形態に係る情報処理方法では、まず、音声入力情報に基づいて参加者の発話が解析される(ステップS101)。ステップS101における処理は、図2に示す発話解析部110によって実行される処理に対応している。   Referring to FIG. 5, in the information processing method according to the present embodiment, first, the participant's utterance is analyzed based on the voice input information (step S101). The processing in step S101 corresponds to the processing executed by the utterance analysis unit 110 shown in FIG.

次に、会議に関連するテキストデータが収集される(ステップS103)。ステップS103における処理は、図2に示すテキストデータ収集部120によって実行される処理に対応している。   Next, text data related to the meeting is collected (step S103). The processing in step S103 corresponds to the processing executed by the text data collection unit 120 shown in FIG.

次に、収集されたテキストデータが解析される(ステップS105)。ステップS105における処理は、図2に示すテキストデータ解析部140によって実行される処理に対応している。   Next, the collected text data is analyzed (step S105). The processing in step S105 corresponds to the processing executed by the text data analysis unit 140 shown in FIG.

次に、ステップS101における発話解析結果、及び/又はステップS103におけるテキストデータの解析結果に基づいて、会議の状況が予測される(ステップS107)。ステップS107における処理は、図2に示す状況予測部160によって実行される処理に対応している。なお、ステップS107における処理の詳細については、下記(4.可視化画面の表示例)で後述する。   Next, based on the utterance analysis result in step S101 and / or the text data analysis result in step S103, the status of the conference is predicted (step S107). The process in step S107 corresponds to the process executed by the situation prediction unit 160 shown in FIG. Details of the processing in step S107 will be described later in (4. Display example of visualization screen).

次に、ステップS101における発話解析結果、及び/又はステップS103におけるテキストデータの解析結果に基づいて、当該解析結果が可視化された画面である可視化画面が生成される(ステップS109)。ステップS109における処理は、図2に示す可視化画面生成部170によって実行される処理に対応している。なお、ステップS109における処理では、ステップS107における会議の状況の予測結果に更に基づいて、可視化画面が生成されてもよい。   Next, based on the utterance analysis result in step S101 and / or the analysis result of the text data in step S103, a visualization screen that is a screen on which the analysis result is visualized is generated (step S109). The processing in step S109 corresponds to the processing executed by the visualization screen generation unit 170 shown in FIG. In the process in step S109, a visualization screen may be generated based further on the prediction result of the meeting status in step S107.

次に、生成された可視化画面が表示される(ステップS111)。ステップS111における処理では、図2に示す電子白板20及び/又は会議参加者端末30に、可視化画面が表示される。   Next, the generated visualization screen is displayed (step S111). In the process in step S111, a visualization screen is displayed on the electronic white board 20 and / or the conference participant terminal 30 shown in FIG.

以上、図5を参照して、本実施形態に係る情報処理方法の処理手順について説明した。   The processing procedure of the information processing method according to the present embodiment has been described above with reference to FIG.

(4.可視化画面の表示例)
本実施形態に係る可視化画面の表示例について説明する。なお、本実施形態では、会議の状況が予測され、当該状況に応じて、参加者に対して提示される可視化画面の表示が順次切り替えられ得る。従って、ここでは、典型的な会議の進行状況を想定して、当該会議の進行状況に従って可視化画面の表示が順次変化していく様子について説明しつつ、可視化画面の表示例について説明することとする。また、併せて、会議の状況の予測処理の具体例についても説明する。
(4. Visualization screen display example)
A display example of the visualization screen according to the present embodiment will be described. In the present embodiment, the status of the conference is predicted, and the display of the visualization screen presented to the participant can be sequentially switched according to the status. Accordingly, here, assuming a typical meeting progress, a display example of the visualization screen will be described while explaining how the display of the visualization screen changes sequentially according to the progress of the meeting. . In addition, a specific example of the process of predicting the meeting status will also be described.

(4−1.会議の冒頭)
例えば、図2に示す状況予測部160には、会議が開始されてからの時間についての情報が入力されてもよく、状況予測部160は、当該時間についての情報に基づいて、現在の状況が、会議が開始された直後、すなわち会議の冒頭であることを予測することができる。
(4-1. The beginning of the meeting)
For example, the situation prediction unit 160 illustrated in FIG. 2 may be input with information about the time since the start of the conference, and the situation prediction unit 160 determines the current situation based on the information about the time. , Immediately after the meeting is started, that is, the beginning of the meeting can be predicted.

会議の冒頭である場合には、可視化画面生成部170は、例えば、前回の会議の際に表示された可視化画面を再度生成する。前回の会議の際に表示された可視化画面が参加者に対して提示されることにより、当該参加者は、前回の会議の内容を直感的に短時間で把握することができ、今回の会議の議事にスムーズに参加することが可能となる。当該可視化画面としては、例えば後述する図7に示すトピック及びキーワードの時系列での推移が表示されている画面のように、前回の会議の内容が把握されやすいものであることが好ましい。   In the case of the beginning of the meeting, the visualization screen generation unit 170 generates, for example, the visualization screen displayed at the time of the previous meeting again. The visualization screen displayed during the previous meeting is presented to the participant so that the participant can intuitively grasp the contents of the previous meeting in a short time. It will be possible to participate smoothly in the proceedings. The visualization screen is preferably a screen on which the contents of the previous meeting can be easily grasped, such as a screen on which changes in the time series of topics and keywords shown in FIG.

(4−2.1人の参加者によってプレゼンテーションが行われている場合)
会議の冒頭においては、ある1人の参加者が、議題を提起するためのプレゼンテーションを行うことが多い。プレゼンテーション中は、主に当該1人の参加者のみが発話していると考えられる。
(When a presentation is given by 4-2.1 participants)
At the beginning of a meeting, a single participant often makes a presentation to raise an agenda. During the presentation, it is likely that only one participant is speaking.

従って、状況予測部160は、発話解析部110による話者識別処理の結果に基づいて、1人の話者が所定の時間以上発話を継続しているかどうかを判定する。状況予測部160は、その判定結果に基づいて、現在の状況が、1人の話者によってプレゼンテーションが行われている状況であることを予測することができる。状況予測部160によってこのような予測がなされた場合には、参加者に対してはプレゼンテーション資料が提示されるべきであるため、例えば、可視化画面生成部170は可視化画面を生成しない。ただし、可視化画面が生成されていない場合であっても、システム1では、発話の解析やテキストデータの収集等のその他の処理は随時実行されている。   Accordingly, the situation prediction unit 160 determines whether one speaker has continued speaking for a predetermined time or more based on the result of speaker identification processing by the speech analysis unit 110. Based on the determination result, the situation prediction unit 160 can predict that the current situation is a situation where a presentation is being performed by one speaker. When such a prediction is made by the situation prediction unit 160, the presentation material should be presented to the participant. For example, the visualization screen generation unit 170 does not generate a visualization screen. However, even if the visualization screen is not generated, in the system 1, other processes such as speech analysis and text data collection are executed as needed.

図6に、状況予測部160による1人の参加者によってプレゼンテーションが行われているかの予測処理、及び当該予測処理の結果に応じた可視化画面生成部170による処理の処理手順を示す。図6は、状況予測部160による1人の参加者によってプレゼンテーションが行われているかの予測処理、及び当該予測処理の結果に応じた可視化画面生成部170による処理の処理手順の一例を示すフロー図である。なお、図6に示す各処理において、ステップS201〜ステップS205及びステップS211における処理は、状況予測部160によって行われる処理に対応し、ステップS207及びステップS209における処理は、可視化画面生成部170によって行われる処理に対応している。   FIG. 6 shows a processing procedure of a prediction process of whether a presentation is being performed by one participant by the situation prediction unit 160 and a process by the visualization screen generation unit 170 according to the result of the prediction process. FIG. 6 is a flowchart showing an example of a processing procedure of a prediction process of whether a presentation is being performed by one participant by the situation prediction unit 160 and a process by the visualization screen generation unit 170 according to the result of the prediction process. It is. In each process shown in FIG. 6, the processes in steps S201 to S205 and step S211 correspond to the processes performed by the situation prediction unit 160, and the processes in steps S207 and S209 are performed by the visualization screen generation unit 170. It corresponds to the processing.

図6を参照すると、まず、単位時間フレームごとに各話者の発話区間が検出されるとともに、それらが積算される(ステップS201)。次に、全話者の発話区間の合計(全発話区間)が規定時間以上に達したかどうかが判定される(ステップS203)。   Referring to FIG. 6, first, each speaker's utterance section is detected for each unit time frame, and these are integrated (step S201). Next, it is determined whether or not the total of all the speaker utterance sections (all utterance sections) has reached a specified time or more (step S203).

ここで、後述するステップS205における処理では、全発話区間に対する各話者の発話区間の割合に基づいて、1人の話者が長時間継続して発話しているかどうかが判定される。従って、全発話区間が短い場合には、ある話者が極短い時間しか発話していない場合であっても、全発話区間に占める当該話者の発話区間の割合が大きくなってしまうため、ステップS205において誤った判定が行われてしまう恐れがある。よって、本実施形態では、ステップS203において全発話時間が規定時間よりも短いと判定された場合には、ステップS205には進まず、ステップS201に戻り、次の単位時間フレームまで含めて発話区間の積算処理が更に行われる。そして、ステップS203において全発話時間が規定時間以上であると判定された場合のみ、ステップS205に進む。   Here, in the processing in step S205, which will be described later, it is determined whether or not one speaker is speaking continuously for a long time, based on the ratio of each speaker's utterance interval to the total utterance interval. Therefore, when the entire utterance section is short, even if a certain speaker utters only for a very short time, the proportion of the utterance section of the speaker in the entire utterance section becomes large. There is a risk that an erroneous determination is made in S205. Therefore, in this embodiment, when it is determined in step S203 that the total utterance time is shorter than the specified time, the process does not proceed to step S205, but returns to step S201 to include the next unit time frame. Integration processing is further performed. Only when it is determined in step S203 that the total utterance time is equal to or longer than the specified time, the process proceeds to step S205.

ステップS205では、話者X(Xは話者を示す番号:1、・・・、N(Nは会議の全参加者数))の発話率S(X)が、しきい値Tsを超えたかどうかが判定される。ここで、発話率S(X)は、S(X)=(話者Xの発話時間)/(全発話区間)である。また、しきい値Tsは、話者Xがプレゼンテーションを行っているかどうかを判定するためのしきい値である。しきい値Tsとしては、一般的なプレゼンテーションにおける当該プレゼンテーションを行っている話者の発話率の過去の実績値等を考慮して適宜設定され得る。   In step S205, whether the utterance rate S (X) of the speaker X (X is a number indicating the speaker: 1,..., N (N is the total number of participants in the conference)) exceeds the threshold Ts. Whether it is determined. Here, the utterance rate S (X) is S (X) = (the utterance time of the speaker X) / (all utterance sections). The threshold value Ts is a threshold value for determining whether or not the speaker X is giving a presentation. The threshold value Ts can be appropriately set in consideration of the past actual value of the utterance rate of a speaker who performs the presentation in a general presentation.

ステップS205においてS(X)がしきい値Tsを超えていると判定された場合には、判定の対象としている区間(すなわち、全発話区間が算出された区間)においては、ほぼ当該話者Xのみが発話をしていると考えられるため、現在の状況は、当該話者Xがプレゼンテーションを行っている状況であることが予測される。従って、この場合には、ステップS207に進み、可視化画面は生成されず、プレゼンテーション資料が会議の参加者に対して表示される(ステップS207)。   When it is determined in step S205 that S (X) exceeds the threshold value Ts, in the section to be determined (that is, the section in which all utterance sections are calculated), the speaker X is almost the same. Therefore, the current situation is predicted to be a situation where the speaker X is giving a presentation. Accordingly, in this case, the process proceeds to step S207, and the visualization screen is not generated, and the presentation material is displayed to the conference participants (step S207).

一方、ステップS205においてS(X)がしきい値Ts以下であると判定された場合には、判定の対象としている区間(すなわち、全発話区間が算出された区間)においては、複数の話者がそれぞれ発話をしていると考えられるため、現在の状況が、いずれか1人の話者がプレゼンテーションを行っている状況とは考え難い。従って、この場合には、ステップS209に進み、通常のディスカッション期間に応じた可視化画面(例えば、状況予測部160による他の予測結果に応じた可視化画面)が生成され、会議の参加者に対して表示される。   On the other hand, when it is determined in step S205 that S (X) is equal to or less than the threshold value Ts, a plurality of speakers are used in the determination target section (that is, a section in which all utterance sections are calculated). Therefore, the current situation is unlikely to be the situation where any one speaker is giving a presentation. Accordingly, in this case, the process proceeds to step S209, where a visualization screen corresponding to a normal discussion period (for example, a visualization screen corresponding to another prediction result by the situation prediction unit 160) is generated, and is sent to the conference participants. Is displayed.

ステップS207又はステップS209における処理が終わると、全発話区間を算出する積算区間を更新し(ステップS211)、ステップS201に戻り、以上説明した一連の処理が繰り返し実行される。   When the process in step S207 or step S209 is completed, the integration period for calculating all utterance periods is updated (step S211), the process returns to step S201, and the series of processes described above is repeatedly executed.

(4−3.ディスカッション時)
プレゼンテーションが終了すると、複数の参加者によって議題に対するディスカッションが行われ得る。例えば、状況予測部160は、発話解析部110による話者識別処理の結果に基づいて各話者の発話率を算出することにより、プレゼンテーションの終了及びディスカッションの開始を予測することができる。
(4-3. During discussion)
When the presentation ends, a discussion on the agenda can be held by a plurality of participants. For example, the situation prediction unit 160 can predict the end of the presentation and the start of the discussion by calculating the utterance rate of each speaker based on the result of the speaker identification process by the utterance analysis unit 110.

本実施形態では、ディスカッション時には、可視化画面生成部170は、例えば図7に示すような、意見タイプ(例えばポジネガ判定の結果やモダリティ)の推移、潜在トピックの推移及びキーワードの推移が可視化された可視化画面を好適に生成する。図7は、可視化画面の一例である、意見タイプの推移、潜在トピックの推移及びキーワードの推移が可視化された可視化画面を示す図である。   In the present embodiment, at the time of discussion, the visualization screen generation unit 170 visualizes the transition of opinion types (for example, results of positive / negative determination and modality), the transition of latent topics, and the transition of keywords as shown in FIG. A screen is suitably generated. FIG. 7 is a diagram illustrating an example of a visualization screen, which is a visualization screen in which a transition of opinion types, a transition of latent topics, and a transition of keywords are visualized.

図7を参照すると、当該可視化画面では、時間の流れを縦軸に取り、会議中に発言されたテキストデータに対して、当該テキストデータを発言した発言者、当該テキストデータの意見タイプ(ポジネガ判定の結果及びモダリティ)、当該テキストデータの潜在トピック、及び当該テキストデータに含まれるキーワードが、当該テキストデータが発言された時刻順に並べられて表示され得る。可視化画面生成部170は、図2に示す意見抽出部141による解析結果に基づいて、可視化画面上に意見タイプを含めることができる。また、可視化画面生成部170は、図2に示すトピック解析部142による解析結果に基づいて、可視化画面上に潜在トピック及びキーワードを含めることができる。   Referring to FIG. 7, in the visualization screen, the flow of time is plotted on the vertical axis, and for the text data spoken during the meeting, the speaker who spoke the text data, the opinion type of the text data (positive / negative determination) Result, modality), latent topics of the text data, and keywords included in the text data can be arranged and displayed in the order in which the text data was spoken. The visualization screen generation unit 170 can include an opinion type on the visualization screen based on the analysis result by the opinion extraction unit 141 illustrated in FIG. Further, the visualization screen generation unit 170 can include the latent topics and keywords on the visualization screen based on the analysis result by the topic analysis unit 142 illustrated in FIG.

図示する例では、意見タイプについては、意見タイプごとに欄が設けられ、該当する欄が塗り潰されることにより、テキストデータの意見タイプが視覚的に表現されている。また、図示するように、当該塗り潰しには、当該テキストデータに対応する意見タイプが表す発言者の意図の度合いの強弱により濃淡が施されていてもよい。   In the illustrated example, regarding the opinion type, a column is provided for each opinion type, and the corresponding column is filled in, so that the opinion type of the text data is visually expressed. Further, as shown in the drawing, the fill may be shaded depending on the degree of intention of the speaker represented by the opinion type corresponding to the text data.

会議の参加者は、意見タイプの欄の塗り潰しの状態を参照することにより、ディスカッション中における意見タイプの推移を直感的に把握することができる。例えば、「否定」や「質問」等の意見タイプの出現頻度が減少していれば、会議の議題に対する反対意見や質問についての発言が減少していると考えられるため、当該意見タイプの推移は、議題に対して参加者の合意が形成されつつあることの指標となる。   Participants in the conference can intuitively grasp the transition of the opinion type during the discussion by referring to the filled state in the opinion type column. For example, if the frequency of opinion types such as “Negative” and “Question” decreases, it is considered that opinions about the agenda of the meeting and comments about the question have decreased. It is an indicator that participants' agreement is being formed on the agenda.

なお、図示する例では、意見タイプとして「肯定」、「否定」、「願望」、「質問」及び「提案」が表示されているが、可視化画面に表示される意見タイプの種類はかかる例に限定されず、会議の進行に有益と考えられる各種の意見タイプが可視化画面上に表示されてよい。どの意見タイプを可視化画面に含めるかは、システム1の設計者又は会議の参加者等によって適宜設定されてよい。   In the illustrated example, “affirmation”, “denial”, “aspiration”, “question”, and “suggestion” are displayed as opinion types, but the types of opinion types displayed on the visualization screen are such examples. Without limitation, various opinion types that are considered beneficial for the progress of the meeting may be displayed on the visualization screen. Which opinion type is included in the visualization screen may be appropriately set by the designer of the system 1 or the participant of the conference.

また、当該可視化画面では、潜在トピックについても、モダリティと同様に、潜在トピックの種類ごとに欄が設けられ、該当する欄が塗り潰されることにより、テキストデータが示す潜在トピックが視覚的に表現されている。また、当該塗り潰しには、当該テキストデータに対応する潜在トピックの度合いの強弱により濃淡が施されていてもよい。   In addition, in the visualization screen, as with the modality, a column is provided for each type of the latent topic, and the corresponding topic is filled in so that the latent topic indicated by the text data is visually expressed. Yes. Further, the filling may be shaded depending on the level of the level of the latent topic corresponding to the text data.

なお、潜在トピックの種類は、上述したLDAにおける隠れ変数Zに対応するものであり得る。図示する例では、各欄の中に、トピック解析の結果得られる各隠れ変数Z(この例では5次元、Z1〜Z5)に対応する確率値を表示している。当該確率値は、そのテキストデータが各隠れ変数Zに対応する潜在トピックに属する確率を表すものである。各欄の塗り潰しの濃淡は、当該確率値の大小に対応している。   Note that the type of latent topic may correspond to the hidden variable Z in the LDA described above. In the illustrated example, probability values corresponding to the hidden variables Z (in this example, five dimensions, Z1 to Z5) obtained as a result of topic analysis are displayed in each column. The probability value represents the probability that the text data belongs to the latent topic corresponding to each hidden variable Z. The shade of each column corresponds to the magnitude of the probability value.

会議の参加者は、潜在トピックの欄の塗り潰しの状態を参照することにより、ディスカッション中におけるトピックの推移を直感的に把握することができる。例えば、ある時点において潜在トピックの傾向が大きく変化していれば、参加者は、当該時点で会議の方向性が変化している可能性があることを知ることができる。また、参加者は、キーワード欄を参照することにより、具体的な話題の変化を知ることができる。   Participants in the conference can intuitively grasp the topic transition during the discussion by referring to the state of filling in the latent topic column. For example, if the tendency of the latent topic has changed significantly at a certain time, the participant can know that the direction of the meeting may have changed at that time. In addition, the participant can know a specific change in the topic by referring to the keyword column.

なお、図示する例では、意見タイプの推移、潜在トピックの推移及びキーワードの推移が全て表示されているが、ディスカッション時に表示される可視化画面はかかる例に限定されない。ディスカッション時には、議論の流れが視覚的に把握され得るような可視化画面が生成されることが好ましいため、例えば、ディスカッション時に表示される可視化画面には、意見タイプの推移、潜在トピックの推移及びキーワードの推移のうちの少なくともいずれかが含まれていればよい。また、画面スペースに余裕があれば、具体的な意見が可視化されてもよい。   In the illustrated example, the transition of opinion types, the transition of latent topics, and the transition of keywords are all displayed, but the visualization screen displayed at the time of discussion is not limited to such an example. At the time of discussion, it is preferable to generate a visualization screen that can visually grasp the flow of discussion. For example, the visualization screen displayed at the time of discussion includes the transition of opinion types, the transition of potential topics, and the It is sufficient that at least one of the transitions is included. In addition, if there is room in the screen space, a specific opinion may be visualized.

ここで、上記の潜在トピックの傾向の変化について、本実施形態では、可視化画面上に、潜在トピックの傾向が大きく変化した時点(潜在トピックの変化点)が明示的に表示されてもよい。図示する例では、可視化画面において、潜在トピックの変化点が、太線破線によって示されている。   Here, regarding the change in the tendency of the latent topic, in the present embodiment, the point in time when the tendency of the latent topic has changed significantly (potential topic change point) may be explicitly displayed on the visualization screen. In the example shown in the figure, the change point of the latent topic is indicated by a thick broken line on the visualization screen.

潜在トピックの変化点は、例えば図8に示す処理手順によって検出され得る。図8は、潜在トピックの変化点を検出する処理の処理手順の一例を示すフロー図である。なお、図8に示す各処理において、ステップS301〜ステップS307及びステップS313における処理は、状況予測部160によって行われる処理に対応し、ステップS309及びステップS311における処理は、可視化画面生成部170によって行われる処理に対応している。つまり、潜在トピックの変化点は状況予測部160によって予測され、当該予測結果に基づいて、可視化画面生成部170が当該変化点を含む可視化画面を生成してよい。   The change point of the latent topic can be detected by the processing procedure shown in FIG. 8, for example. FIG. 8 is a flowchart showing an example of a processing procedure for detecting a change point of a latent topic. In each process shown in FIG. 8, the processes in steps S301 to S307 and S313 correspond to the processes performed by the situation prediction unit 160, and the processes in steps S309 and S311 are performed by the visualization screen generation unit 170. It corresponds to the processing. That is, the change point of the latent topic is predicted by the situation prediction unit 160, and the visualization screen generation unit 170 may generate a visualization screen including the change point based on the prediction result.

図8を参照すると、まず、単位時間フレーム内のテキストデータに含まれる単語が取得される(ステップS301)。なお、当該単語としては、例えば図3に示す文分割部201によって行われた形態素解析によるテキストデータの分割結果が用いられてよい。   Referring to FIG. 8, first, words included in text data within a unit time frame are acquired (step S301). As the word, for example, a text data division result by morphological analysis performed by the sentence division unit 201 illustrated in FIG. 3 may be used.

次に、所定の時間が経過したかどうかが判定される(ステップS303)。テキストデータが収集される期間が過度に短い場合には、収集されるテキストデータの数が少なく、潜在トピックの変化を高精度に検出することが困難だからである。   Next, it is determined whether a predetermined time has elapsed (step S303). This is because if the period of time during which text data is collected is excessively short, the number of collected text data is small, and it is difficult to detect changes in potential topics with high accuracy.

ステップS303において所定の時間が経過していないと判定された場合には、ステップS301に戻り、次の単位時間フレームにおいて収集されたテキストデータまで含めて、単語の取得が更に行われる。一方、ステップS303において所定の時間が経過したと判定された場合には、ステップS305に進む。   If it is determined in step S303 that the predetermined time has not elapsed, the process returns to step S301 to further acquire words including the text data collected in the next unit time frame. On the other hand, if it is determined in step S303 that the predetermined time has elapsed, the process proceeds to step S305.

ステップS305では、LDAを用いて、テキストデータ中の単語に基づいてトピック特徴ベクトルZが抽出される。トピック特徴ベクトルZは、上述したLDAにおける隠れ変数Zをベクトル表記したものである。トピック特徴ベクトルZは、単語を取得した期間内において、収集されたテキストデータごとに随時抽出される。以下、1つのトピック特徴ベクトルZが抽出される期間のことを、便宜的に、トピックフレームとも呼称し、トピックフレームn(n=1、2、・・・)において抽出されたトピック特徴ベクトルZをZと記載することとする。 In step S305, the topic feature vector Z is extracted based on the words in the text data using LDA. The topic feature vector Z is a vector representation of the hidden variable Z in the LDA described above. The topic feature vector Z is extracted as needed for each collected text data within a period in which words are acquired. Hereinafter, the period during which one topic feature vector Z is extracted is also referred to as a topic frame for convenience, and the topic feature vector Z extracted in the topic frame n (n = 1, 2,...) and it is described as Z n.

次に、抽出されたトピック特徴ベクトルZに基づいて、トピック変化点が検出されたかどうかが判定される(ステップS307)。トピック変化点の検出処理としては、各種の公知の方法が用いられてよい。例えば、トピック特徴ベクトルZとトピック特徴ベクトルZn−1との線形的な距離や、Kallback−Leibler情報量等を用いて、1つ前のトピックフレームにおいて抽出されたトピック特徴ベクトルZn−1と、ピック特徴ベクトルZとの類似度Sim(Z,Zn−1)を算出し、当該類似度Sim(Z,Zn−1)が、所定のしきい値Ttよりも小さいかどうかを判定することにより、トピック変化点を検出することができる。 Then, based on the extracted topic feature vector Z n, whether topics change point is detected is judged (step S307). Various known methods may be used as the topic change point detection process. For example, linear distance and topic feature vector Z n and topic feature vector Z n-1, Kallback-Leibler using information amount, etc., topics extracted in the previous topic frame feature vector Z n-1 And the similarity Sim (Z n , Z n-1 ) with the pick feature vector Z n is calculated, and is the similarity Sim (Z n , Z n-1 ) smaller than a predetermined threshold value Tt? By determining whether or not, a topic change point can be detected.

例えば、本実施形態では、類似度Sim(Z,Zn−1)は、下記数式(1)のような単純な形式によって定義されてよい。また、しきい値Ttとしては、一般的に潜在トピックの類似度の判定に用いられている任意の値が設定されてよい。 For example, in the present embodiment, the similarity Sim (Z n , Z n-1 ) may be defined by a simple format such as the following formula (1). In addition, as the threshold value Tt, an arbitrary value generally used for determining the similarity of latent topics may be set.

Figure 2017016566
Figure 2017016566

類似度Sim(Z,Zn−1)がしきい値Ttよりも小さいと判定された場合には、その時点においてトピックが比較的大きく変化していると考えられるため、当該時点をトピック変化点とみなすことができる。この場合には、トピック変化点が検出されたとみなし、ステップS309に進む。ステップS309では、例えば図7に示すように、モダリティ、潜在トピック及びキーワードの推移とともに、検出されたトピック変化点を含む可視化画面が生成される。 If it is determined that the similarity Sim (Z n , Z n-1 ) is smaller than the threshold value Tt, it is considered that the topic has changed relatively greatly at that time, so that the time changes the topic. It can be regarded as a point. In this case, it is considered that a topic change point has been detected, and the process proceeds to step S309. In step S309, for example, as shown in FIG. 7, a visualization screen including the detected topic change point is generated along with the change of the modality, the latent topic, and the keyword.

一方、類似度Sim(Z,Zn−1)がしきい値Tt以上であると判定された場合には、大きなトピックの変化は生じていないと考えられる。この場合には、トピック変化点が検出されなかったとみなし、ステップS311に進む。ステップS311では、例えば図7に示す可視化画面においてトピック変化点に関する表示が存在しないもの、すなわち、トピック変化点が表示されない通常の意見タイプ、潜在トピック及びキーワードの推移を示す可視化画面が生成される。 On the other hand, when it is determined that the similarity Sim (Z n , Z n-1 ) is equal to or greater than the threshold value Tt, it is considered that no major topic change has occurred. In this case, it is considered that a topic change point has not been detected, and the process proceeds to step S311. In step S311, for example, the visualization screen shown in FIG. 7 has no display related to the topic change point, that is, the visualization screen showing the normal opinion type, latent topic, and keyword transition in which the topic change point is not displayed.

ステップS309又はステップS311における処理が終わると、トピック変化点の検出のために単語を取得する積算区間を更新し(ステップS313)、ステップS301に戻り、以上説明した一連の処理が繰り返し実行される。   When the processing in step S309 or step S311 is completed, the integration interval for acquiring a word for detecting a topic change point is updated (step S313), the process returns to step S301, and the series of processing described above is repeatedly executed.

(4−4.会議の停滞時)
会議が進むにつれて、参加者から意見が出難くなり会議が停滞する場合がある。例えば、状況予測部160は、発話解析部110による音声区間解析処理の結果に基づいて非発話区間を検出することにより、会議が停滞していることを予測することができる。例えば、状況予測部160は、非発話区間が所定の時間以上継続している場合に、現在の状況が、会議が停滞している状況であると予測する。
(4-4. When the meeting is stagnant)
As the conference progresses, it is difficult for the participants to give opinions, and the conference may stagnate. For example, the situation prediction unit 160 can predict that the conference is stagnant by detecting a non-speech segment based on the result of the speech segment analysis process performed by the utterance analysis unit 110. For example, the situation prediction unit 160 predicts that the current situation is a situation where the conference is stagnant when the non-speech section continues for a predetermined time or more.

状況予測部160によって会議が停滞していると予測された場合には、可視化画面生成部170は、例えば図9に示すような、会議中における参加者の発話状況が可視化された可視化画面を好適に生成する。図9は、可視化画面の他の例である、会議中における参加者の発話状況が可視化された可視化画面を示す図である。   When the situation prediction unit 160 predicts that the conference is stagnant, the visualization screen generation unit 170 preferably uses a visualization screen that visualizes the utterance status of participants during the conference, as shown in FIG. 9, for example. To generate. FIG. 9 is a diagram illustrating a visualization screen that is another example of the visualization screen, in which the utterance status of the participant during the conference is visualized.

図9を参照すると、当該可視化画面では、横軸に会議開始時点からの時間を取り、参加者ごとに発話があった区間が塗り潰されて表示されている。また、現在時点を示す表示が併せてなされている。可視化画面生成部170は、発話解析部110による音声区間解析処理及び話者認識処理の結果に基づいて、当該可視化画面を生成することができる。   Referring to FIG. 9, on the visualization screen, the horizontal axis indicates the time from the conference start time, and the section where the utterance is spoken for each participant is filled and displayed. In addition, a display showing the current time is also made. The visualization screen generation unit 170 can generate the visualization screen based on the results of the speech segment analysis processing and speaker recognition processing by the utterance analysis unit 110.

会議の参加者は、当該可視化画面を参照することにより、これまでにあまり発言をしていない参加者を直感的に知ることができる。例えば、進行役の参加者等、他の参加者は、このようなこれまでにあまり発言をしていない参加者に対して発言を促すことができる。このように、当該可視化画面によれば、参加者のこれまでの発言の頻度が可視化されて参加者に対して提示されるため、発言の少ない参加者に対して発言の機会を与えることができ、議論がより活性化することが期待できる。   By referring to the visualization screen, the conference participants can intuitively know the participants who have not spoken so far. For example, other participants, such as facilitator participants, can encourage such participants to speak up so far. In this way, according to the visualization screen, since the frequency of the participant's previous speech is visualized and presented to the participant, an opportunity to speak can be given to the participant who has little speech. It can be expected that the discussion will become more active.

なお、会議が停滞している場合には、可視化画面生成部170は、図9に示す可視化画面に代えて、図10に示す可視化画面を生成してもよい。図10は、可視化画面の他の例である、会議中における参加者の発話状況及び当該発話の意見タイプの推移が可視化された可視化画面を示す図である。   When the meeting is stagnant, the visualization screen generation unit 170 may generate the visualization screen shown in FIG. 10 instead of the visualization screen shown in FIG. FIG. 10 is a diagram illustrating a visualization screen that is another example of the visualization screen, in which the utterance status of participants during the conference and the transition of the opinion type of the utterance are visualized.

図10を参照すると、当該可視化画面では、図9に示す可視化画面と同様に、横軸に会議開始時点からの時間を取り、参加者ごとに発話があった区間が塗り潰されて表示されている。ただし、図10に示す可視化画面では、その発話の意見タイプの種類に応じて当該塗り潰しの色が変更されている。図示する例では、「肯定」、「否定」及び「中立」に属する発言に対して、それぞれ異なる色が付されている。また、図10に示す可視化画面では、併せて、発話衝突区間及び非発話区間も表示されている。可視化画面生成部170は、意見抽出部141による意見抽出処理、並びに発話解析部110による音声区間解析処理及び話者認識処理の結果に基づいて、当該可視化画面を生成することができる。   Referring to FIG. 10, in the visualization screen, similarly to the visualization screen shown in FIG. 9, the horizontal axis takes time from the conference start time, and the section where the utterance is spoken is displayed for each participant. . However, in the visualization screen shown in FIG. 10, the color of the fill is changed according to the type of opinion type of the utterance. In the example shown in the figure, different colors are assigned to the statements belonging to “affirmation”, “denial”, and “neutral”. In addition, in the visualization screen shown in FIG. 10, an utterance collision section and a non-utterance section are also displayed. The visualization screen generation unit 170 can generate the visualization screen based on the results of the opinion extraction processing by the opinion extraction unit 141 and the speech segment analysis processing and speaker recognition processing by the utterance analysis unit 110.

会議の参加者は、図10に示す可視化画面を参照することにより、図9に示す可視化画面を参照した場合と同様に、これまでにあまり発言をしていない参加者を直感的に把握することができ、当該参加者に意見を求めることができる。このとき、図10に示す可視化画面では、発話に対する各参加者の意見タイプ、すなわち意図も可視化されているため、進行役の参加者等は、そのあまり発言をしていない参加者の議題に対する立ち位置を踏まえて、当該参加者に対して発言を求めることができる。従って、より適切なタイミングで、より適切な参加者に対して発言を求めることができるため、議論のより一層の活性化が期待できる。   By referring to the visualization screen shown in FIG. 10, the conference participants can intuitively grasp the participants who have not spoken so far as in the case of referring to the visualization screen shown in FIG. And ask the participants for their opinions. At this time, in the visualization screen shown in FIG. 10, since each participant's opinion type with respect to the utterance, that is, the intention, is also visualized, the facilitating participant or the like stands on the agenda of the participant who does not speak much. Based on the position, the participant can be asked to speak. Therefore, since it is possible to ask for a more appropriate participant at a more appropriate timing, further activation of the discussion can be expected.

(4−5.議論の紛糾時)
上記(4−4.会議の停滞時)とは逆に、会議が進むにつれて、参加者から意見が頻出し、議論が紛糾する場合がある。例えば、状況予測部160は、発話解析部110による音声区間解析処理及び話者識別処理の結果に基づいて発話衝突区間を検出することにより、会議が停滞していることを予測することができる。例えば、状況予測部160は、発話衝突区間が所定の回数以上発生している場合に、現在の状況が、議論が紛糾している状況であると予測する。なお、発話衝突区間は、各発話者に取り付けられたマイクロフォンによるオンマイクで収音された音声の解析、又は複数のマイクロフォンによって構成されるマイクロフォンアレイによる発話者の方向の推定を行うことにより、検出できることが知られている(例えば、「黄楊暘他、「マイクロホンアレイを用いた複数人対話からの音声区間検出および話者方向推定の評価手法」、日本ロボット学会第30回記念学術講演会、RSJ2012AC3D1−4、2012年9月」や、「Kofi Boakye他、「OVERLAPPED SPEECH DETECTION FOR IMPROVED SPEAKER DIARIZATION IN MULTIPARTY MEETINGS」、Acoustics, Speech and Signal Processing、2008.ICASSP、2008. IEEE International Conference on、2008年3月31日−4月4日、p.4353−4356」等を参照)。
(4-5. Discussion disputes)
Contrary to the above (4-4. At the time of stagnation of the conference), as the conference progresses, opinions frequently come out from the participants, and the discussion may be confused. For example, the situation prediction unit 160 can predict that the conference is stagnant by detecting an utterance collision section based on the results of the speech section analysis process and the speaker identification process performed by the utterance analysis section 110. For example, the situation prediction unit 160 predicts that the current situation is a situation in which the discussion is inconsistent when the utterance collision section has occurred a predetermined number of times or more. Note that the utterance collision section can be detected by analyzing the sound collected by an on-microphone with a microphone attached to each speaker or estimating the direction of the speaker using a microphone array composed of a plurality of microphones. (For example, “Yuo et al.,“ Evaluation method of speech section detection and speaker direction estimation from multi-person dialogue using microphone array ”, 30th Anniversary Conference of the Robotics Society of Japan, RSJ2012AC3D1- 4, September 2012 ”,“ Kofi Bokeye et al., “OVERLAPPED SPEECH DETECTION FOR IMPROVED SPEAKER DIARIZATION IN MULTIPARTY MEETINGS”, Acoustics and Spiges al Processing, 2008. ICASSP, 2008. IEEE International Conference on, March 31-April 4, 2008, p.

状況予測部160によって議論が紛糾していると予測された場合には、可視化画面生成部170は、例えば図11に示すような、発言内容の推移及び当該発言の意見タイプの推移が可視化された可視化画面を生成する。図11は、可視化画面の他の例である、発言内容の推移及び当該発言の意見タイプの推移が可視化された可視化画面を示す図である。   When the situation prediction unit 160 predicts that the discussion is inconsistent, the visualization screen generation unit 170 visualizes the transition of the content of the speech and the transition of the opinion type of the speech as shown in FIG. Generate a visualization screen. FIG. 11 is a diagram illustrating a visualization screen that is another example of the visualization screen, in which the transition of the content of the speech and the transition of the opinion type of the speech are visualized.

図11を参照すると、当該可視化画面では、横軸に会議開始時点からの時間を取り、代表的な発言内容が、その発言時刻と対応付けて吹き出しとして表示されている。図では簡単のため詳細な記載は省略しているが、吹き出し内には、参加者が発言したテキストデータの内容が表示され得る。   Referring to FIG. 11, on the visualization screen, the horizontal axis indicates the time from the conference start time, and typical utterance content is displayed as a balloon in association with the utterance time. In the figure, detailed description is omitted for the sake of simplicity, but the contents of the text data spoken by the participant can be displayed in the balloon.

また、各テキストデータには、意見抽出部141によって分類された意見タイプを表す表示が付されてもよい。図示する例では、テキストデータの周囲に互いに異なる種類の色を付すことにより、当該テキストデータの意見タイプが、「肯定」、「否定」及び「中立」のいずれかであることが示されている。   In addition, each text data may be provided with a display indicating the opinion type classified by the opinion extraction unit 141. In the illustrated example, different types of colors are added around the text data to indicate that the opinion type of the text data is one of “affirmation”, “denial”, and “neutral”. .

また、当該可視化画面では、代表的な時刻における、会議の開始時刻から当該時刻までの間において発言されたテキストデータの意見タイプの割合を示すグラフが併せて表示され得る。図示する例では、「15min」、「30min」、「45min」における、「肯定」、「否定」及び「中立」に属するテキストデータの割合が円グラフで表示されている。   In addition, on the visualization screen, a graph indicating the ratio of opinion types of text data uttered between a meeting start time and the time at a representative time can be displayed together. In the illustrated example, the ratio of text data belonging to “affirmation”, “denial”, and “neutral” in “15 min”, “30 min”, and “45 min” is displayed in a pie chart.

なお、上記吹き出し及び上記円グラフは、常時表示されていてもよいし、例えば参加者がポインタを時間軸を表す表示上に移動させることにより当該ポインタの位置に対応する時刻における吹き出し及び円グラフがポップアップ表示されてもよい。   The balloon and the pie chart may be displayed at all times. For example, the balloon and the pie chart at the time corresponding to the position of the pointer by moving the pointer on the display indicating the time axis by the participant. A pop-up may be displayed.

可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。   The visualization screen generation unit 170 can generate the visualization screen based on the result of opinion extraction processing by the opinion extraction unit 141.

会議の参加者は、当該可視化画面を参照することにより、会議中における発言内容の推移及び会議中における発言の意見タイプの推移を直感的に把握することができる。例えば、進行役の参加者は、これらの推移を確認することにより、議論の方向性が当初の予定からずれていないかどうかを確認し、必要があればその方向性を適切な方向に修正するように他の参加者たちに促すことが可能となる。   By referring to the visualization screen, the conference participant can intuitively grasp the transition of the content of the speech during the conference and the transition of the opinion type of the speech during the conference. For example, facilitating participants check these transitions to confirm whether the direction of discussion is not deviated from the original schedule, and correct the direction if necessary. So that other participants can be encouraged.

なお、議論が紛糾している場合には、可視化画面生成部170は、図11に示す可視化画面に代えて、上述した図7に示す可視化画面を生成してもよい。上述したように、図7に示す可視化画面では、時系列に沿ったキーワードの推移及び意見タイプの推移が表示されている。従って、当該可視化画面も、参加者に議論の方向性を確認させるために有効な画面であり得る。   If the discussion is inconsistent, the visualization screen generation unit 170 may generate the visualization screen shown in FIG. 7 described above instead of the visualization screen shown in FIG. As described above, on the visualization screen shown in FIG. 7, the transition of keywords and the transition of opinion types along the time series are displayed. Therefore, the visualization screen can also be an effective screen for allowing participants to confirm the direction of discussion.

(4−6.会議の終盤)
状況予測部160は、意見抽出部141による意見抽出処理の結果に基づいて、会議が終盤に差し掛かっていることを予測してもよい。一般的に、会議が終了する際には、参加者同士の意見に合意が形成されることが多いと考えられる。従って、例えば、状況予測部160は、所定の時間内に発言されたテキストデータについて、意見タイプが「肯定」であるテキストデータが所定の割合以上存在している場合に、現在の状況が、会議が終盤に差し掛かっている状況であると予測する。
(4-6. End of the meeting)
The situation prediction unit 160 may predict that the meeting is approaching the final stage based on the result of the opinion extraction process by the opinion extraction unit 141. In general, when a conference ends, it is considered that an agreement is often formed on the opinions of the participants. Accordingly, for example, the situation prediction unit 160 determines that the current situation is a meeting when text data whose opinion type is “affirmation” is greater than or equal to a predetermined ratio for text data remarked within a predetermined time. Predict that the situation is approaching the end.

状況予測部160によって会議が終盤に差し掛かっていると予測された場合には、可視化画面生成部170は、例えば上述した図10に示す可視化画面を生成する。図10に示す可視化画面では、意見タイプの推移が示されているため、会議の参加者は、当該可視化画面を参照することにより、会議中になされた発言の意見タイプの推移を直感的に把握することができる。このとき、図10に示すように、当該可視化画面には、「肯定」及び「否定」を少なくとも含む意見タイプの推移が示されていることが好ましい。例えば、参加者は、当該可視化画面によって「肯定」に属する発言が増加してきたことを確認することにより、参加者間に合意が形成されつつあり、会議が終盤に差し掛かっていることを認識することができる。例えば、進行役の参加者は、これをきっかけとして、会議が終了に向かうように議論を誘導することができ、会議を円滑に進行することが可能になる。   When the situation prediction unit 160 predicts that the meeting is approaching the final stage, the visualization screen generation unit 170 generates, for example, the visualization screen illustrated in FIG. 10 described above. Since the visualization screen shown in FIG. 10 shows the transition of opinion types, the participants of the conference intuitively grasp the transition of the opinion type of the speech made during the conference by referring to the visualization screen. can do. At this time, as shown in FIG. 10, it is preferable that the visualization screen shows a transition of opinion types including at least “affirmation” and “denial”. For example, participants can recognize that an agreement is being formed between participants by confirming that the number of comments belonging to “affirmation” has increased on the visualization screen, and that the meeting is approaching the end. Can do. For example, the facilitating participant can use this as a trigger to guide the discussion toward the end of the conference, and the conference can proceed smoothly.

なお、会議が終盤に差し掛かっている場合には、可視化画面生成部170は、図10に示す可視化画面に代えて、上述した図7に示す可視化画面を生成してもよい。図7に示す可視化画面では、図10に示す可視化画面と同様に、「肯定」及び「否定」を少なくとも含む意見タイプの推移が表示されている。従って、当該可視化画面も、参加者に会議の終盤を示唆するために有効な画面であり得る。   When the meeting is approaching the final stage, the visualization screen generation unit 170 may generate the visualization screen shown in FIG. 7 described above instead of the visualization screen shown in FIG. In the visualization screen illustrated in FIG. 7, as in the visualization screen illustrated in FIG. 10, opinion type transitions including at least “affirmation” and “denial” are displayed. Therefore, the visualization screen can also be an effective screen for suggesting the end of the conference to the participants.

(5.他の表示例)
上記(4.可視化画面の表示例)で説明した表示例以外の、他の表示例について説明する。
(5. Other display examples)
Other display examples other than the display example described in the above (4. Display example of visualization screen) will be described.

(5−1.ポジネガ判定の結果についての可視化画面)
図12を参照して、意見抽出部141によるポジネガ判定の結果についての可視化画面の一例について説明する。図12は、可視化画面の他の例である、ポジネガ判定の結果が可視化された可視化画面を示す図である。
(5-1. Visualization screen for positive / negative determination results)
With reference to FIG. 12, an example of the visualization screen about the result of positive / negative determination by the opinion extraction part 141 is demonstrated. FIG. 12 is a diagram illustrating a visualization screen in which the result of positive / negative determination is visualized, which is another example of the visualization screen.

図12を参照すると、当該可視化画面では、その上段に、会議中の所定の時間内に発言されたテキストデータのポジネガ判定の結果として、「肯定」に対応するテキストデータと「否定」に対応するテキストデータとの割合を示す棒グラフが表示されている。また、下段には、「否定」という判定がなされたテキストデータにおける、対象物と述部との組み合わせが集計され、その出現頻度が棒グラフで表示されている。可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。   Referring to FIG. 12, on the visualization screen, the text data corresponding to “affirmation” and “denial” are corresponded as the result of the positive / negative determination of the text data uttered within a predetermined time during the meeting. A bar graph showing the percentage of text data is displayed. In the lower row, combinations of the object and the predicate in the text data determined to be “No” are tabulated, and the appearance frequency is displayed as a bar graph. The visualization screen generation unit 170 can generate the visualization screen based on the result of opinion extraction processing by the opinion extraction unit 141.

図示する例であれば、「消費電力が−大きい」、「資料が−分かり難い」、「費用負担が−大きすぎる」、「データが−壊れました」、「信頼性が−低い」等の、対象物と述部との組み合わせが抽出されている。また、これらの組み合わせの中で、「消費電力が−大きい」という組み合わせが、会議中に最も頻繁に発言されていることが分かる。図示する例では、「否定」についての結果のみが表示されているが、参加者による適当な切り替え操作により、「肯定」についての結果も同様に表示されてもよい。   In the example shown in the figure, “power consumption is large”, “data is difficult to understand”, “cost burden is too large”, “data is broken”, “reliability is low”, etc. The combination of the object and the predicate is extracted. It can also be seen that among these combinations, the combination of “high power consumption” is said most frequently during the conference. In the illustrated example, only the result for “No” is displayed, but the result for “Yes” may be displayed in the same manner by an appropriate switching operation by the participant.

対象物と述部との組み合わせは、いわばテキストデータが要約されたものであるため、当該可視化画面を参照した参加者は、会議中に発せられた「肯定」又は「否定」に係るテキストデータの概要の一覧を確認することができる。また、その出現頻度が表示されることにより、参加者は、会議においてどのような内容について最も話し合われているのかを把握することができる。   Since the combination of the target object and the predicate is a summary of text data, the participants who have referred to the visualization screen can use the text data related to “affirmation” or “denial” issued during the meeting. You can check the summary list. Also, by displaying the appearance frequency, the participant can grasp what kind of content is most discussed in the meeting.

(5−2.モダリティを用いたテキストデータの分類結果についての可視化画面)
図13を参照して、意見抽出部141によるモダリティを用いたテキストデータの分類結果についての可視化画面の一例について説明する。図13は、可視化画面の他の例である、モダリティを用いたテキストデータの分類結果が可視化された可視化画面を示す図である。
(5-2. Visualization screen for text data classification results using modalities)
With reference to FIG. 13, an example of the visualization screen about the classification result of the text data using the modality by the opinion extraction unit 141 will be described. FIG. 13 is a diagram illustrating a visualization screen that is another example of the visualization screen, in which the classification result of text data using modalities is visualized.

図13を参照すると、当該可視化画面では、その上段に、会議中の所定の時間内に発言されたテキストデータのモダリティを用いた分類結果として、各モダリティ(すなわち意見タイプ)に対応するテキストデータの割合を示す棒グラフが表示されている。棒グラフ上の各モダリティに対応する場所にポインタを移動させる等の選択操作により、そのモダリティの具体的な割合の数値がポップアップ表示されてもよい。図示する例では、「願望」に係るテキストデータの割合がポップアップ表示されている。また、下段には、「願望」に分類されたテキストデータにおける、対象物と述部との組み合わせが集計され、その出現頻度が棒グラフで表示されている。可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。   Referring to FIG. 13, in the visualization screen, as the classification result using the modalities of the text data uttered within a predetermined time during the meeting, the text data corresponding to each modality (that is, opinion type) is displayed on the visualization screen. A bar graph showing the percentage is displayed. By a selection operation such as moving the pointer to a location corresponding to each modality on the bar graph, a numerical value of a specific ratio of the modality may be displayed as a pop-up. In the example shown in the drawing, the ratio of text data related to “desire” is displayed in a pop-up manner. In the lower row, the combinations of the object and the predicate in the text data classified as “desire” are tabulated, and the appearance frequency is displayed as a bar graph. The visualization screen generation unit 170 can generate the visualization screen based on the result of opinion extraction processing by the opinion extraction unit 141.

図示する例であれば、「資料を−作成して欲しい」、「修正を−お願いしたい」、「性能を−確認して欲しい」、「費用を−負担して欲しい」、「日程調整を−お願いしたい」等の、対象物と述部との組み合わせが抽出されている。また、これらの組み合わせの中で、「資料を−作成して欲しい」という組み合わせが、会議中に最も頻繁に発言されていることが分かる。図示する例では、「願望」についての結果のみが表示されているが、参加者による適当な切り替え処理により、他のモダリティについての結果も同様に表示されてもよい。   In the example shown in the figure, “I want you to create a document”, “I want to request a correction”, “I want to check the performance”, “I want to bear the cost”, “ A combination of an object and a predicate such as “I want to ask” is extracted. In addition, among these combinations, it can be seen that the combination of “I want you to create a document” is said most frequently during the meeting. In the example shown in the figure, only the result for “Wish” is displayed, but the result for other modalities may be displayed in the same manner by an appropriate switching process by the participant.

「対象物」と述部との組み合わせは、いわばテキストデータが要約されたものであるため、当該可視化画面を参照した参加者は、会議中に発せられた各モダリティに係る発言の一覧を確認することができる。また、その頻度が表示されることにより、参加者は、会議においてどのような内容について最も話し合われているのかを把握することができる。   Since the combination of the “object” and the predicate is a summary of text data, the participant who refers to the visualization screen checks the list of statements related to each modality issued during the meeting. be able to. Further, by displaying the frequency, the participant can grasp what kind of content is most discussed in the conference.

(6.他の適用例)
近年、SNS等のソーシャルメディア上で、いわゆるチャットツールを用いて会議が行われる場合がある。ここでは、このようなソーシャルメディア上で行われる会議に対してシステム1が適用された場合について説明する。
(6. Other application examples)
In recent years, there are cases where conferences are held on social media such as SNS using so-called chat tools. Here, a case where the system 1 is applied to a conference held on such social media will be described.

ソーシャルメディア上で会議が行われる場合には、システム1は、会議参加者が投稿したメッセージ、画像、資料へのリンクを示すURL等を取得し、当該メッセージや画像、URLが示すリンク先等からテキストデータを収集する。そして、当該テキストデータを解析し、意見やトピックを抽出し、その結果が可視化された可視化画面を生成する。   When a conference is held on social media, the system 1 acquires a message, an image, a URL indicating a link to a document, etc. posted by the conference participant, and a link destination indicated by the message, the image, or the URL. Collect text data. Then, the text data is analyzed, opinions and topics are extracted, and a visualization screen on which the results are visualized is generated.

図14及び図15に、ソーシャルメディア上で会議が行われる場合における可視化画面の一例を示す。図14及び図15は、可視化画面の他の例である、ソーシャルメディア上で会議が行われる場合における可視化画面を示す図である。   FIG. 14 and FIG. 15 show an example of a visualization screen when a meeting is held on social media. 14 and 15 are diagrams illustrating a visualization screen when a meeting is performed on social media, which is another example of the visualization screen.

図14及び図15を参照すると、いわゆるチャットツールを用いて会議が行われており、各参加者が投稿したメッセージや画像が時系列順に表示されている。メッセージが表示される吹き出しには、意見抽出部141によって抽出された各メッセージに対応する意見タイプに応じた色が付されている。図示する例では、「肯定」、「否定」及び「提案」に属するメッセージに対して、それぞれ異なる色が付されている。また、図示するように、「提案」に属するメッセージには、当該メッセージが「提案」を示していることを強調するためのアイコンが併せて表示されてもよい。可視化画面生成部170は、意見抽出部141による意見抽出処理の結果に基づいて、当該可視化画面を生成することができる。   Referring to FIGS. 14 and 15, a meeting is performed using a so-called chat tool, and messages and images posted by each participant are displayed in chronological order. The balloons displaying the messages are colored according to the opinion type corresponding to each message extracted by the opinion extraction unit 141. In the illustrated example, different colors are assigned to messages belonging to “affirmation”, “denial”, and “suggestion”. Further, as shown in the figure, an icon for emphasizing that the message indicates “suggestion” may be displayed together with the message belonging to “suggestion”. The visualization screen generation unit 170 can generate the visualization screen based on the result of opinion extraction processing by the opinion extraction unit 141.

会議の参加者は、当該可視化画面を参照することにより、各参加者のメッセージの意見タイプを視覚的に把握することができるため、各参加者の考えや会議の趨勢を直感的に認識することができる。また、「提案」のように他の参加者への呼び掛けを含むメッセージが強調されて表示されることにより、当該他の参加者は、誰かから「提案」があったことにより気付きやすくなり、議論がより活発に行われることが期待される。なお、図示する例では、「肯定」、「否定」及び「提案」の3種類の意見タイプのみが対象とされているが、他の意見タイプについても同様に可視化されてよい。   The participants of the conference can visually grasp the opinion type of each participant's message by referring to the visualization screen, so that they can intuitively recognize each participant's thoughts and the trend of the conference. Can do. In addition, a message including a call to another participant such as “Suggestion” is highlighted and displayed, so that the other participant becomes more aware of the “Suggestion” from someone, Is expected to be more active. Note that, in the illustrated example, only three types of opinion, “affirmation”, “denial”, and “proposition” are targeted, but other opinion types may be visualized in the same manner.

ここで、用途が会議に特定されない一般的なソーシャルメディア(例えば、Facebook社の「Facebook(登録商標)」等)のチャットツールでは、投稿されたメッセージや画像が時系列順に表示されるだけであるため、必ずしも会議に向いているとは言えない。このようなチャットツールでは、例えば、メッセージ等が縦方向に順次表示されていくため過去の情報へのアクセスがしにくいこと、メッセージ群をセッションごとに分けて表示できないこと、及びメッセージ間の依存関係(あるメッセージがどのメッセージに対して発せられたものであるか)が分かり難いこと、等の不都合が存在し得る。   Here, in a chat tool of general social media whose use is not specified for a meeting (for example, “Facebook (registered trademark)” of Facebook, etc.), posted messages and images are only displayed in chronological order. Therefore, it is not necessarily suitable for meetings. In such a chat tool, for example, messages are sequentially displayed in the vertical direction, so it is difficult to access past information, message groups cannot be displayed separately for each session, and dependency between messages There may be inconveniences such as it is difficult to understand (for which message a message is issued).

そこで、会議に特化したチャットツールも開発されている(例えば、ビジネス・ブレークスルー社の「Air−Campus(登録商標)」や、Co−meeting社の「Co−meeting(登録商標)」等)。これらのツールには、例えば階層型の議論チャートにより複数の話題について同時に議論ができる機能や、リアルタイム同時編集ノート機能等、会議を円滑に行うための様々な機能が搭載されており、上述した諸問題を解決し得るものである。   Therefore, chat tools specialized for conferences have been developed (for example, “Air-Campus (registered trademark)” of Business Breakthrough, “Co-meeting (registered trademark)” of Co-meeting, etc.) . These tools are equipped with various functions for smooth meetings, such as the ability to discuss multiple topics simultaneously using a hierarchical discussion chart and the real-time simultaneous editing note function. It can solve the problem.

しかしながら、これらのツールにおいても、発言者の意図を視覚化することは行われていない。本実施形態では、図14及び図15に示すように、各参加者によって直感的に把握され得るように発言者の意図が可視化されて表示されるため、会議をより円滑に行うことが可能になる。   However, in these tools, the intention of the speaker is not visualized. In this embodiment, as shown in FIGS. 14 and 15, since the intention of the speaker is visualized and displayed so that each participant can intuitively grasp it, the meeting can be performed more smoothly. Become.

なお、ソーシャルメディア上で行われる会議に対してシステム1が適用された場合における可視化画面は、図14及び図15に示すものに限定されず、当該場合であっても上述した図7、図9−図12と同様の可視化画面が生成されてもよい。   Note that the visualization screen when the system 1 is applied to a conference held on social media is not limited to that shown in FIGS. 14 and 15, and even in this case, the above-described FIGS. A visualization screen similar to FIG. 12 may be generated.

(7.ハードウェア構成)
図16を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図16は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図16に示す情報処理装置900は、図2に示す情報処理装置10を実現し得るものである。
(7. Hardware configuration)
A hardware configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 16 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the present embodiment. Note that the information processing apparatus 900 illustrated in FIG. 16 can realize the information processing apparatus 10 illustrated in FIG. 2.

情報処理装置900は、CPU901、ROM(Read Only Memory)903及びRAM(Random Access Memory)905を備える。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、通信装置921、ドライブ923及び接続ポート925を備えてもよい。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。   The information processing apparatus 900 includes a CPU 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905. The information processing apparatus 900 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a communication device 921, a drive 923, and a connection port 925. The information processing apparatus 900 may include a processing circuit such as a DSP or an ASIC in place of or in addition to the CPU 901.

CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体929に記録された各種のプログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行時のパラメータ等を一次記憶する。CPU901、ROM903及びRAM905は、CPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。本実施形態では、例えばCPU901が所定のプログラムに従って動作することにより、上述した情報処理装置10の各機能が実現され得る。   The CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the information processing apparatus 900 according to various programs recorded in the ROM 903, the RAM 905, the storage apparatus 919, or the removable recording medium 929. The ROM 903 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 905 temporarily stores programs used in the execution of the CPU 901, parameters at the time of execution, and the like. The CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. In the present embodiment, for example, each function of the information processing apparatus 10 described above can be realized by the CPU 901 operating according to a predetermined program.

ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス911に接続されている。   The host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.

入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバー等、ユーザによって操作される装置によって構成される。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器931であってもよい。更に、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。本実施形態では、ユーザによって、入力装置915を介して、例えば、意見抽出部141による意見抽出処理において用いられる辞書に係る情報等が入力されてよい。   The input device 915 is configured by a device operated by a user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. The input device 915 may be, for example, a remote control device (so-called remote controller) that uses infrared rays or other radio waves, or an external connection device such as a mobile phone or a PDA that supports the operation of the information processing device 900. It may be 931. Furthermore, the input device 915 includes an input control circuit that generates an input signal based on information input by the user using the above-described operation means and outputs the input signal to the CPU 901, for example. A user of the information processing apparatus 900 can input various data and instruct a processing operation to the information processing apparatus 900 by operating the input device 915. In the present embodiment, for example, information related to a dictionary used in opinion extraction processing by the opinion extraction unit 141 may be input by the user via the input device 915.

出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。本実施形態では、当該表示装置に、例えば発話解析部110及びテキストデータ解析部140による解析結果や、可視化画面生成部170によって生成された可視化画面等が表示されてよい。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。   The output device 917 is a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices, display devices such as lamps, audio output devices such as speakers and headphones, printer devices, and the like. For example, the output device 917 outputs results obtained by various processes performed by the information processing apparatus 900. Specifically, the display device visually displays results obtained by various processes performed by the information processing device 900 in various formats such as text, images, tables, and graphs. In the present embodiment, for example, the analysis result by the speech analysis unit 110 and the text data analysis unit 140, the visualization screen generated by the visualization screen generation unit 170, and the like may be displayed on the display device. On the other hand, the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs it aurally.

ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。本実施形態では、ストレージ装置919は、テキストデータDB130及び解析結果DB150を構成し得るものであり、テキストデータ収集部120によって収集されたテキストデータや、発話解析部110及びテキストデータ解析部140による解析結果等を格納し得る。   The storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900. The storage device 919 includes, for example, a magnetic storage device such as an HDD, a semiconductor storage device, an optical storage device, or a magneto-optical storage device. The storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like. In the present embodiment, the storage device 919 can constitute the text data DB 130 and the analysis result DB 150, and the text data collected by the text data collection unit 120 and the analysis by the utterance analysis unit 110 and the text data analysis unit 140. Results etc. can be stored.

通信装置921は、例えば、ネットワーク927に接続するための通信デバイス等で構成された通信インターフェースである。通信装置921は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置921は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置921は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置921に接続されるネットワーク927は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。本実施形態では、例えば、ネットワーク927は、図2に示すネットワーク40に対応する。情報処理装置10は、通信装置921によって、ネットワーク927を介して、電子白板20及び/又は会議参加者端末30と通信することができる。   The communication device 921 is a communication interface configured by a communication device or the like for connecting to the network 927, for example. The communication device 921 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB). Further, the communication device 921 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communication, or the like. The communication device 921 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices. The network 927 connected to the communication device 921 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. In the present embodiment, for example, the network 927 corresponds to the network 40 illustrated in FIG. The information processing apparatus 10 can communicate with the electronic white board 20 and / or the conference participant terminal 30 via the network 927 by the communication apparatus 921.

ドライブ923は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ923は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体929に記録されている情報を読み出して、RAM905に出力する。また、ドライブ923は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体929に情報を書き込むことも可能である。リムーバブル記録媒体929は、例えば、DVDメディア、HD−DVDメディア、Blu−ray(登録商標)メディア等である。また、リムーバブル記録媒体929は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体929は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。本実施形態では、CPU901によって処理される各種の情報が、ドライブ923によって、リムーバブル記録媒体929から読み出されたり、リムーバブル記録媒体929に書き込まれたりしてもよい。   The drive 923 is a recording medium reader / writer, and is built in or externally attached to the information processing apparatus 900. The drive 923 reads information recorded on a removable recording medium 929 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905. The drive 923 can also write information to a removable recording medium 929 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory. The removable recording medium 929 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray (registered trademark) medium, or the like. Further, the removable recording medium 929 may be a compact flash (registered trademark) (CompactFlash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. The removable recording medium 929 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like. In this embodiment, various types of information processed by the CPU 901 may be read from the removable recording medium 929 or written to the removable recording medium 929 by the drive 923.

接続ポート925は、機器を情報処理装置900に直接接続するためのポートである。接続ポート925の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート及びSCSI(Small Computer System Interface)ポート等がある。接続ポート925の別の例として、RS−232Cポート、光オーディオ端子及びHDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート925に外部接続機器931を接続することで、情報処理装置900は、外部接続機器931から直接各種のデータを取得したり、外部接続機器931に各種のデータを提供したりする。本実施形態では、CPU901によって処理される各種の情報が、接続ポート925を介して、外部接続機器931から取得されたり、外部接続機器931に出力されたりしてもよい。   The connection port 925 is a port for directly connecting a device to the information processing apparatus 900. Examples of the connection port 925 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and the like. As another example of the connection port 925, there are an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, and the like. By connecting the external connection device 931 to the connection port 925, the information processing apparatus 900 acquires various data directly from the external connection device 931 or provides various data to the external connection device 931. In the present embodiment, various types of information processed by the CPU 901 may be acquired from the external connection device 931 or output to the external connection device 931 via the connection port 925.

以上、本実施形態に係る情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。   Heretofore, an example of the hardware configuration of the information processing apparatus 900 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.

なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。   Note that a computer program for realizing each function of the information processing apparatus 900 according to the present embodiment as described above can be produced and mounted on a PC or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.

(8.補足)
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
(8. Supplement)
The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的なものではない。つまり、本開示に係る技術は、上記の効果とともに、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。   In addition, the effects described in the present specification are merely illustrative or illustrative, and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

例えば、上記実施形態において例示した可視化画面は、いずれも、テキストデータの分類結果と、当該テキストデータの発言者とを、1対1で対応付けて表示したものであったが、本実施形態はかかる例に限定されない。例えば、テキストデータの分類結果である意見タイプが、発言者の属性(例えば、性別、年齢、国籍、居住地等)と関連付けて可視化された可視化画面が生成されてもよい。当該可視化画面では、ある議題に対する発言者の属性に応じた意見タイプがいわば統計的に表示されることとなるため、当該可視化画面を参照した参加者に対して、上述した実施形態とは異なる種類の気付きを与えることができる。例えば、当該可視化画面を参照しながら、発言者の属性に応じた意見タイプの傾向等を把握した上で会議を行うことにより、会議をより円滑に行うことが可能になる。   For example, each of the visualization screens exemplified in the above embodiment displays the classification result of the text data and the speaker of the text data in a one-to-one correspondence. It is not limited to such an example. For example, a visualization screen may be generated in which an opinion type that is a classification result of text data is visualized in association with an attribute of a speaker (for example, gender, age, nationality, residence, etc.). In the visualization screen, since the opinion type corresponding to the attribute of the speaker on a certain agenda is statistically displayed, it is different from the embodiment described above for the participants who referred to the visualization screen. Can be noticed. For example, by referring to the visualization screen and grasping the tendency of the opinion type according to the attribute of the speaker, the meeting can be performed more smoothly.

また、上記実施形態において例示した可視化画面は、いずれも、テキストデータの分類結果が当該テキストデータの発言者と対応付けられて表示されたもの(すなわち、テキストデータの分類結果が当該テキストデータの発言者の観点からまとめられたもの)であったが、本実施形態はかかる例に限定されない。例えば、テキストデータの分類結果が、発言された時刻、又は当該テキストデータの内容等、異なる観点からまとめられた可視化画面が生成されてもよい。例えば、会議の序盤、中盤、終盤でそれぞれ出現頻度が高かった意見タイプについてまとめて表示することにより、会議の進行状況に応じた意見タイプの推移について新たな気付きを得られる可能性がある。また、例えば、所定の単語を含むテキストデータをその意見タイプに応じて整理して表示することにより、単語と意見タイプとの関係について新たな気付きを得られる可能性がある。   In addition, the visualization screens exemplified in the above embodiment are all displayed with the text data classification result associated with the speaker of the text data (that is, the text data classification result is the text data speech. However, the present embodiment is not limited to such an example. For example, a visualization screen may be generated in which text data classification results are summarized from different viewpoints such as the time when the text data was spoken or the content of the text data. For example, it may be possible to obtain a new awareness about the transition of opinion types according to the progress of the conference by collectively displaying the opinion types that have appeared frequently at the beginning, middle, and end of the conference. In addition, for example, by arranging and displaying text data including a predetermined word according to the opinion type, there is a possibility that a new awareness may be obtained about the relationship between the word and the opinion type.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成部、を備える、情報処理装置。
(2)前記テキストデータは、前記発言者の意図に応じたカテゴリに分類される、前記(1)に記載の情報処理装置。
(3)前記テキストデータは、肯定、否定及び中立のいずれかに分類される、前記(2)に記載の情報処理装置。
(4)前記テキストデータは、モダリティを用いて分類される、前記(2)に記載の情報処理装置。
(5)前記テキストデータは、前記テキストデータが有する潜在トピックに応じて分類される、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が会議の冒頭であると予測された場合には、前回の会議において生成した前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が複数の参加者によって議論が行われている状況であると予測された場合には、前記テキストデータの発言者の意図の推移、前記テキストデータが有する潜在トピックの推移、及び前記テキストデータの内容の推移の少なくともいずれかが可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(8)前記可視化画面生成部は、前記潜在トピックの推移が可視化された前記可視化画面に、議論のトピックが変化した時点を併せて表示させる、前記(7)に記載の情報処理装置。
(9)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が会議が停滞している状況であると予測された場合には、会議中において各参加者が発言した区間、及び前記各参加者の発言の意図が可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(10)会議の参加者が誰も発話していない非発話区間が所定の時間以上継続した場合に、現在の状況が会議が停滞している状況であると予測される、前記(9)に記載の情報処理装置。
(11)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が議論が紛糾している状況であると予測された場合には、前記テキストデータの発言者の意図の推移、及び当該テキストデータの内容の推移が可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(12)会議の複数の参加者が同時に発話している発話衝突区間が所定の回数以上発生した場合に、現在の状況が議論が紛糾している状況であると予測される、前記(11)に記載の情報処理装置。
(13)前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、前記可視化画面生成部は、現在の状況が会議が終盤に差し掛かっている状況であると予測された場合には、肯定及び否定を少なくとも含む前記テキストデータの発言者の意図が可視化された前記可視化画面を生成する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(14)所定の時間内における全テキストデータ数に対する、発言者の意図が肯定であると推定されるテキストデータの数が、所定の割合以上に達した場合に、現在の状況が会議が終盤に差し掛かっている状況であると予測される、前記(13)に記載の情報処理装置。
(15)前記可視化画面生成部は、分類された発言者の意図のいずれかに係るテキストデータの、述部に対応する文節と、前記述部の対象となる対象物と、の組み合わせの、所定の時間内での出現頻度が可視化された前記可視化画面を生成する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(16)前記テキストデータは、ソーシャルメディア上でユーザによってやり取りされるテキストデータである、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)プロセッサが、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成すること、を含む、情報処理方法。
(18)コンピュータに、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成機能、を実現させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1) A visualization screen generation unit that generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. Processing equipment.
(2) The information processing apparatus according to (1), wherein the text data is classified into a category according to the intention of the speaker.
(3) The information processing apparatus according to (2), wherein the text data is classified into one of positive, negative, and neutral.
(4) The information processing apparatus according to (2), wherein the text data is classified using a modality.
(5) The information processing apparatus according to any one of (1) to (4), wherein the text data is classified according to a latent topic included in the text data.
(6) The text data is text data uttered by a participant during a meeting, and the visualization screen generation unit, in the case where it is predicted that the current situation is the beginning of the meeting, The information processing apparatus according to any one of (1) to (5), wherein the generated visualization screen is generated.
(7) The text data is text data spoken by a participant during a meeting, and the visualization screen generation unit is predicted that the current situation is a situation in which a plurality of participants are discussing. In the case, the visualization screen on which at least one of the transition of the intention of the speaker of the text data, the transition of the latent topic that the text data has, and the transition of the content of the text data is visualized, The information processing apparatus according to any one of (1) to (5).
(8) The information processing apparatus according to (7), wherein the visualization screen generation unit causes the visualization screen on which the transition of the latent topic is visualized to display the time when the topic of discussion has changed.
(9) The text data is text data remarked by a participant during a meeting, and the visualization screen generation unit, when it is predicted that the current situation is a situation where the meeting is stagnant, The information processing apparatus according to any one of (1) to (5), wherein a section in which each participant speaks during a meeting and the visualization screen on which the intention of each participant's speech is visualized are generated. .
(10) In the above (9), the current situation is predicted to be a situation where the meeting is stagnant when a non-speaking section in which no participant speaks continues for a predetermined time or more. The information processing apparatus described.
(11) The text data is text data remarked by a participant during a meeting, and the visualization screen generation unit, when it is predicted that the current situation is a situation in which the discussion is confused, The information processing apparatus according to any one of (1) to (5), wherein the visualization screen on which a transition of an intention of a speaker of the text data and a transition of the content of the text data are visualized is generated.
(12) When the utterance collision section in which a plurality of participants in the conference speak at the same time occurs more than a predetermined number of times, the current situation is predicted to be a situation in which the discussion is confused (11) The information processing apparatus described in 1.
(13) The text data is text data uttered by a participant during a meeting, and the visualization screen generation unit, when it is predicted that the current situation is a situation where the meeting is approaching the final stage The information processing apparatus according to any one of (1) to (5), wherein the visualization screen on which an intention of a speaker of the text data including at least positive and negative is visualized.
(14) When the number of text data that is estimated to be positive by the speaker with respect to the total number of text data within a predetermined time has reached a predetermined ratio or more, the current situation is at the end of the meeting. The information processing apparatus according to (13), wherein the information processing apparatus is predicted to be in an approaching state.
(15) The visualization screen generation unit is a predetermined combination of a clause corresponding to a predicate and an object to be a target of the previous description unit of text data related to any of the classified speaker's intentions The information processing apparatus according to any one of (2) to (4), wherein the visualization screen is generated in which the appearance frequency within the time is visualized.
(16) The information processing apparatus according to any one of (1) to (15), wherein the text data is text data exchanged by a user on social media.
(17) The processor includes generating a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. Processing method.
(18) A visualization screen generation function for generating, on a computer, a visualization screen which is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker. A program to make it happen.

1 システム
10 情報処理装置
20 電子白板
30 会議者端末
40 ネットワーク
110 発話解析部
120 テキストデータ収集部
130 テキストデータDB
140 テキストデータ解析部
141 意見抽出部
142 トピック解析部
150 解析結果DB
160 状況予測部
170 可視化画面生成部
180 要約部
190 検索部
201 文分割部
203 構文/意味解析部
205 業務用語集
207 辞書生成部
209 業務用語辞書
211 意見/評価表現抽出部
DESCRIPTION OF SYMBOLS 1 System 10 Information processing apparatus 20 Electronic white board 30 Conference terminal 40 Network 110 Speech analysis part 120 Text data collection part 130 Text data DB
140 Text Data Analysis Unit 141 Opinion Extraction Unit 142 Topic Analysis Unit 150 Analysis Result DB
160 Situation Prediction Unit 170 Visualization Screen Generation Unit 180 Summarization Unit 190 Search Unit 201 Sentence Division Unit 203 Syntax / Semantic Analysis Unit 205 Business Glossary 207 Dictionary Generation Unit 209 Business Term Dictionary 211 Opinion / Evaluation Expression Extraction Unit

Claims (18)

複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成部、
を備える、情報処理装置。
A visualization screen generating unit that generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker;
An information processing apparatus comprising:
前記テキストデータは、前記発言者の意図に応じたカテゴリに分類される、
請求項1に記載の情報処理装置。
The text data is classified into a category according to the intention of the speaker.
The information processing apparatus according to claim 1.
前記テキストデータは、肯定、否定及び中立のいずれかに分類される、
請求項2に記載の情報処理装置。
The text data is classified as either positive, negative, or neutral.
The information processing apparatus according to claim 2.
前記テキストデータは、モダリティを用いて分類される、
請求項2に記載の情報処理装置。
The text data is classified using a modality.
The information processing apparatus according to claim 2.
前記テキストデータは、前記テキストデータが有する潜在トピックに応じて分類される、
請求項1に記載の情報処理装置。
The text data is classified according to potential topics that the text data has.
The information processing apparatus according to claim 1.
前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、
前記可視化画面生成部は、現在の状況が会議の冒頭であると予測された場合には、前回の会議において生成した前記可視化画面を生成する、
請求項1に記載の情報処理装置。
The text data is text data spoken by a participant during a meeting,
The visualization screen generation unit generates the visualization screen generated in the previous conference when the current situation is predicted to be the beginning of the conference,
The information processing apparatus according to claim 1.
前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、
前記可視化画面生成部は、現在の状況が複数の参加者によって議論が行われている状況であると予測された場合には、前記テキストデータの発言者の意図の推移、前記テキストデータが有する潜在トピックの推移、及び前記テキストデータの内容の推移の少なくともいずれかが可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。
The text data is text data spoken by a participant during a meeting,
When the current screen state is predicted to be a state where discussions are being conducted by a plurality of participants, the visualization screen generation unit may change the intention of the speaker of the text data and the potential of the text data. Generating the visualization screen in which at least one of the transition of the topic and the transition of the content of the text data is visualized;
The information processing apparatus according to claim 1.
前記可視化画面生成部は、前記潜在トピックの推移が可視化された前記可視化画面に、議論のトピックが変化した時点を併せて表示させる、
請求項7に記載の情報処理装置。
The visualization screen generation unit causes the visualization screen on which the transition of the latent topic is visualized to be displayed together with the time when the topic of discussion has changed,
The information processing apparatus according to claim 7.
前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、
前記可視化画面生成部は、現在の状況が会議が停滞している状況であると予測された場合には、会議中において各参加者が発言した区間、及び前記各参加者の発言の意図が可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。
The text data is text data spoken by a participant during a meeting,
When it is predicted that the current situation is a situation in which the conference is stagnant, the visualization screen generation unit visualizes a section where each participant speaks during the conference, and the intention of each participant's speech Generating the visualized screen,
The information processing apparatus according to claim 1.
会議の参加者が誰も発話していない非発話区間が所定の時間以上継続した場合に、現在の状況が会議が停滞している状況であると予測される、
請求項9に記載の情報処理装置。
If a non-speaking section in which no participant in the meeting has spoken continues for a predetermined time or longer, the current situation is predicted to be a situation where the meeting is stagnant,
The information processing apparatus according to claim 9.
前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、
前記可視化画面生成部は、現在の状況が議論が紛糾している状況であると予測された場合には、前記テキストデータの発言者の意図の推移、及び当該テキストデータの内容の推移が可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。
The text data is text data spoken by a participant during a meeting,
When it is predicted that the current situation is a situation in which the discussion is inconsistent, the visualization screen generation unit visualizes the transition of the intention of the speaker of the text data and the transition of the content of the text data. Generating the visualization screen,
The information processing apparatus according to claim 1.
会議の複数の参加者が同時に発話している発話衝突区間が所定の回数以上発生した場合に、現在の状況が議論が紛糾している状況であると予測される、
請求項11に記載の情報処理装置。
When the number of utterance collision sections where a plurality of participants in the conference speak at the same time occurs more than a predetermined number of times, the current situation is predicted to be a situation where the discussion is in conflict.
The information processing apparatus according to claim 11.
前記テキストデータは、会議中に参加者によって発言されたテキストデータであり、
前記可視化画面生成部は、現在の状況が会議が終盤に差し掛かっている状況であると予測された場合には、肯定及び否定を少なくとも含む前記テキストデータの発言者の意図が可視化された前記可視化画面を生成する、
請求項1に記載の情報処理装置。
The text data is text data spoken by a participant during a meeting,
The visualization screen generation unit visualizes the speaker's intention of the text data including at least affirmation and denial when the current situation is predicted to be a situation where a meeting is about to end Generate
The information processing apparatus according to claim 1.
所定の時間内における全テキストデータ数に対する、発言者の意図が肯定であると推定されるテキストデータの数が、所定の割合以上に達した場合に、現在の状況が会議が終盤に差し掛かっている状況であると予測される、
請求項13に記載の情報処理装置。
The current situation is approaching the end of the meeting when the number of text data estimated to be positive by the speaker is greater than a certain percentage of the total number of text data in a given time Predicted to be the situation,
The information processing apparatus according to claim 13.
前記可視化画面生成部は、分類された発言者の意図のいずれかに係るテキストデータの、述部に対応する文節と、前記述部の対象となる対象物と、の組み合わせの、所定の時間内での出現頻度が可視化された前記可視化画面を生成する、
請求項2に記載の情報処理装置。
The visualization screen generation unit is a predetermined time of a combination of a clause corresponding to the predicate and the target object of the previous description unit of the text data related to any of the classified speaker's intentions Generating the visualization screen in which the appearance frequency in is visualized,
The information processing apparatus according to claim 2.
前記テキストデータは、ソーシャルメディア上でユーザによってやり取りされるテキストデータである、
請求項1に記載の情報処理装置。
The text data is text data exchanged by a user on social media.
The information processing apparatus according to claim 1.
プロセッサが、複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成すること、
を含む、情報処理方法。
A processor generates a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker;
Including an information processing method.
コンピュータに、
複数の発言者によって発せられたテキストデータが所定のカテゴリに分類された分類結果が前記発言者に関連付けて可視化された画面である可視化画面を生成する可視化画面生成機能、
を実現させるためのプログラム。
On the computer,
A visualization screen generation function for generating a visualization screen that is a screen in which text data issued by a plurality of speakers is classified into a predetermined category and visualized in association with the speaker;
A program to realize
JP2015135437A 2015-07-06 2015-07-06 Information processing device, information processing method and program Pending JP2017016566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015135437A JP2017016566A (en) 2015-07-06 2015-07-06 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135437A JP2017016566A (en) 2015-07-06 2015-07-06 Information processing device, information processing method and program

Publications (1)

Publication Number Publication Date
JP2017016566A true JP2017016566A (en) 2017-01-19

Family

ID=57830860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135437A Pending JP2017016566A (en) 2015-07-06 2015-07-06 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP2017016566A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019023805A (en) * 2017-07-24 2019-02-14 シャープ株式会社 Display control equipment, display control method and program
JP2019061491A (en) * 2017-09-26 2019-04-18 株式会社東芝 Interactive idea assisting method and interactive idea assisting device
JP2019160259A (en) * 2018-03-16 2019-09-19 株式会社リコー Information presentation device, information presentation system, information presentation method, and program
JP2019168551A (en) * 2018-03-22 2019-10-03 Kddi株式会社 Device, program and method to analyze discussion content between users in training
JP2019175344A (en) * 2018-03-29 2019-10-10 旭化成ホームズ株式会社 Speech amount integration device, customer service supporting device, and program
JP2020017088A (en) * 2018-07-25 2020-01-30 株式会社リコー Information processing system, information processing method and program
WO2021002136A1 (en) * 2019-07-04 2021-01-07 パナソニックIpマネジメント株式会社 Utterance analysis device, utterance analysis method, and program
CN113302632A (en) * 2019-01-28 2021-08-24 三菱电机株式会社 Development support device, development support system, and development support method
WO2021171613A1 (en) * 2020-02-28 2021-09-02 日本電気株式会社 Server device, conference assistance system, conference assistance method, and program
JPWO2022004567A1 (en) * 2020-07-02 2022-01-06
JP2022056128A (en) * 2020-09-29 2022-04-08 ソフトバンク株式会社 Information processing device, information processing method, information processing program, and information processing system
JP2022071401A (en) * 2020-10-28 2022-05-16 ベルフェイス株式会社 Information processing system, information processing method, and program
JP2022075662A (en) * 2020-10-27 2022-05-18 株式会社I’mbesideyou Information extraction apparatus
WO2022137351A1 (en) * 2020-12-22 2022-06-30 日本電信電話株式会社 Layout method, layout device, and program
JP7223469B1 (en) * 2022-09-07 2023-02-16 株式会社Aces Utterance information documentation device
WO2023223498A1 (en) * 2022-05-19 2023-11-23 日本電信電話株式会社 Meeting evaluation system
JP7438088B2 (en) 2020-11-27 2024-02-26 株式会社 日立産業制御ソリューションズ Minutes creation support device, minutes creation support method, and minutes creation support program
JP7443407B2 (en) 2017-11-02 2024-03-05 グーグル エルエルシー Automated assistant with conferencing capabilities

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019023805A (en) * 2017-07-24 2019-02-14 シャープ株式会社 Display control equipment, display control method and program
JP2019061491A (en) * 2017-09-26 2019-04-18 株式会社東芝 Interactive idea assisting method and interactive idea assisting device
JP7443407B2 (en) 2017-11-02 2024-03-05 グーグル エルエルシー Automated assistant with conferencing capabilities
JP2019160259A (en) * 2018-03-16 2019-09-19 株式会社リコー Information presentation device, information presentation system, information presentation method, and program
JP7159576B2 (en) 2018-03-16 2022-10-25 株式会社リコー Information presentation device, information presentation system, information presentation method and program
JP2019168551A (en) * 2018-03-22 2019-10-03 Kddi株式会社 Device, program and method to analyze discussion content between users in training
JP7111488B2 (en) 2018-03-29 2022-08-02 旭化成ホームズ株式会社 Speech volume integration device, customer service support device and program
JP2019175344A (en) * 2018-03-29 2019-10-10 旭化成ホームズ株式会社 Speech amount integration device, customer service supporting device, and program
JP2020017088A (en) * 2018-07-25 2020-01-30 株式会社リコー Information processing system, information processing method and program
JP7180168B2 (en) 2018-07-25 2022-11-30 株式会社リコー Information processing system, information processing method and program
CN113302632A (en) * 2019-01-28 2021-08-24 三菱电机株式会社 Development support device, development support system, and development support method
WO2021002136A1 (en) * 2019-07-04 2021-01-07 パナソニックIpマネジメント株式会社 Utterance analysis device, utterance analysis method, and program
JPWO2021171613A1 (en) * 2020-02-28 2021-09-02
WO2021171613A1 (en) * 2020-02-28 2021-09-02 日本電気株式会社 Server device, conference assistance system, conference assistance method, and program
WO2022004567A1 (en) * 2020-07-02 2022-01-06 パナソニックIpマネジメント株式会社 Communication analysis system, and communication analysis method
JPWO2022004567A1 (en) * 2020-07-02 2022-01-06
JP7369942B2 (en) 2020-07-02 2023-10-27 パナソニックIpマネジメント株式会社 Communication analysis system and communication analysis method
JP2022056128A (en) * 2020-09-29 2022-04-08 ソフトバンク株式会社 Information processing device, information processing method, information processing program, and information processing system
JP7170013B2 (en) 2020-09-29 2022-11-11 ソフトバンク株式会社 Information processing device, information processing method, information processing program, and information processing system
JP7096626B2 (en) 2020-10-27 2022-07-06 株式会社I’mbesideyou Information extraction device
JP2022075662A (en) * 2020-10-27 2022-05-18 株式会社I’mbesideyou Information extraction apparatus
JP7075096B2 (en) 2020-10-28 2022-05-25 ベルフェイス株式会社 Information processing system, information processing method and program
JP2022071401A (en) * 2020-10-28 2022-05-16 ベルフェイス株式会社 Information processing system, information processing method, and program
JP7438088B2 (en) 2020-11-27 2024-02-26 株式会社 日立産業制御ソリューションズ Minutes creation support device, minutes creation support method, and minutes creation support program
WO2022137351A1 (en) * 2020-12-22 2022-06-30 日本電信電話株式会社 Layout method, layout device, and program
WO2023223498A1 (en) * 2022-05-19 2023-11-23 日本電信電話株式会社 Meeting evaluation system
JP7223469B1 (en) * 2022-09-07 2023-02-16 株式会社Aces Utterance information documentation device

Similar Documents

Publication Publication Date Title
JP2017016566A (en) Information processing device, information processing method and program
Moore et al. Conversational UX design: A practitioner's guide to the natural conversation framework
US10977452B2 (en) Multi-lingual virtual personal assistant
Narayanan et al. Behavioral signal processing: Deriving human behavioral informatics from speech and language
CN108000526B (en) Dialogue interaction method and system for intelligent robot
McTear et al. The conversational interface
Schroder et al. Building autonomous sensitive artificial listeners
CN106663383B (en) Method and system for analyzing a subject
CN114556354A (en) Automatically determining and presenting personalized action items from an event
WO2017100334A1 (en) Vpa with integrated object recognition and facial expression recognition
Johar Emotion, affect and personality in speech: The Bias of language and paralanguage
US10896688B2 (en) Real-time conversation analysis system
US11321675B2 (en) Cognitive scribe and meeting moderator assistant
Pugh et al. Say What? Automatic Modeling of Collaborative Problem Solving Skills from Student Speech in the Wild.
Tsai et al. A study of multimodal addressee detection in human-human-computer interaction
Antunes et al. A framework to support development of sign language human-computer interaction: Building tools for effective information access and inclusion of the deaf
Vlachostergiou et al. Investigating context awareness of affective computing systems: a critical approach
US20200184965A1 (en) Cognitive triggering of human interaction strategies to facilitate collaboration, productivity, and learning
Axelsson et al. Modeling feedback in interaction with conversational agents—a review
McDuff et al. Multimodal analysis of vocal collaborative search: A public corpus and results
Qadri et al. A critical insight into multi-languages speech emotion databases
Kim et al. A review on dyadic conversation visualizations-purposes, data, lens of analysis
Abu Shaqra et al. A multi-modal deep learning system for arabic emotion recognition
Wei et al. Investigating the relationship between dialogue and exchange-level impression
Karpouzis et al. Induction, recording and recognition of natural emotions from facial expressions and speech prosody