JP2019102060A - Information presentation system, information presentation method, program, and recording medium - Google Patents

Information presentation system, information presentation method, program, and recording medium Download PDF

Info

Publication number
JP2019102060A
JP2019102060A JP2018163122A JP2018163122A JP2019102060A JP 2019102060 A JP2019102060 A JP 2019102060A JP 2018163122 A JP2018163122 A JP 2018163122A JP 2018163122 A JP2018163122 A JP 2018163122A JP 2019102060 A JP2019102060 A JP 2019102060A
Authority
JP
Japan
Prior art keywords
unit
data
information
keyword
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018163122A
Other languages
Japanese (ja)
Inventor
嘉偉 勇
Kai Yu
嘉偉 勇
金崎 克己
Katsumi Kanezaki
克己 金崎
篠宮 聖彦
Masahiko Shinomiya
聖彦 篠宮
古田 俊之
Toshiyuki Furuta
俊之 古田
啓佑 小西
Keisuke Konishi
啓佑 小西
昭一 内藤
Shoichi Naito
昭一 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2019102060A publication Critical patent/JP2019102060A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve adequacy of information to be presented.SOLUTION: An information presentation system 1 creates a query on the basis of a common word common to a plurality of pieces of text data included in at least two pieces of data from among voice data of a voice acquired in an arbitrary period, image data displayed on a predetermined display or prepared for printing purpose, and keyword data indicating registered keywords, acquires a result of searching with a query from a predetermined database, and outputs the search result or part of the search result to a predetermined output device.SELECTED DRAWING: Figure 3

Description

本発明は、情報提示システム、情報提示方法、プログラム、及び記録媒体に関する。   The present invention relates to an information presentation system, an information presentation method, a program, and a recording medium.

会議の参加者に会議に関連する関連情報を提示するシステムが利用されている。このようなシステムにおいては、例えば、会議中に発せられた音声、表示装置に表示された画像等に関連する文書等(関連情報)を簡便且つ適切に参加者に提示できるようにすることが求められる。   A system is used that presents meeting participants with relevant information related to the meeting. In such a system, for example, it is required to be able to simply and appropriately present to a participant a document (related information) related to a voice emitted during a meeting, an image displayed on a display device, etc. Be

例えば、撮像手段により取得された文字列の画像やマイクにより取得された音声から文字情報を抽出し、抽出された文字情報に基づく支援情報を生成するアイデア抽出支援システムが開示されている(特許文献1)。   For example, an idea extraction support system is disclosed that extracts character information from an image of a character string acquired by an imaging unit and voice acquired by a microphone and generates support information based on the extracted character information (Patent Document 1).

上記のようなシステムを利用することにより、会議中に発せられた音声や表示された画像に関連する情報を参加者に提示することができる。しかしながら、音声をテキスト化する際に実行される音声認識処理や画像をテキスト化する際に実行される画像認識処理においては、ある程度の確率で誤認識が生じることが避けられない。このような誤認識が生じると、会議の内容とは無関係な情報が提示されてしまう場合がある。従来のシステムによってはこのような問題に対処することができないため、提示される情報の適切性という観点において改善の余地が大きい。例えば、参加者が検索動作を行わずとも、多種類の既得情報に基づいてシステムから参加者に自主的に関連情報が提示されることが望まれる。このとき提示される情報の適切性を向上させることが重要である。   By using the system as described above, it is possible to present the participants with information relating to the sound emitted during the meeting and the displayed image. However, in speech recognition processing performed when converting speech into text and image recognition processing performed when converting into text, it is inevitable that false recognition occurs with a certain degree of probability. When such misrecognition occurs, information unrelated to the content of the meeting may be presented. Since conventional systems can not cope with such problems, there is much room for improvement in terms of the appropriateness of the presented information. For example, even if a participant does not perform a search operation, it is desirable that related information be presented to the participant voluntarily from the system based on many types of acquired information. It is important to improve the appropriateness of the information presented at this time.

本発明は、上記に鑑みてなされたものであって、提示される情報の適切性を向上させることを目的とする。   The present invention has been made in view of the above, and its object is to improve the appropriateness of presented information.

上述した課題を解決し、目的を達成するために、本発明の一形態は、任意の期間内の任意の時刻に提示又は取得される情報に関連する関連情報を提示する情報提示システムであって、前記任意の期間内に取得される音声の音声データ、所定の表示装置に表示されるか又は媒体への印刷用途として用意される画像データ、及び登録されたキーワードを示すキーワードデータのうちの少なくとも2つのデータに含まれる複数のテキストデータに共通する共通語に基づいてクエリを生成し、所定のデータベースから前記クエリによる検索結果を取得する情報取得部と、前記検索結果又は前記検索結果の一部を所定の出力装置に出力する出力部と、を備えることを特徴とする。   In order to solve the problems described above and achieve an object, an aspect of the present invention is an information presentation system that presents related information related to information presented or acquired at any time within any period. At least one of voice data of voice obtained within the given period, image data to be displayed on a predetermined display device or prepared for printing on a medium, and keyword data indicating a registered keyword A query is generated based on a common word common to a plurality of text data included in two data, and an information acquisition unit for acquiring a search result by the query from a predetermined database, the search result or a part of the search result And an output unit for outputting the signal to a predetermined output device.

本発明によれば、提示される情報の適切性を向上させることが可能となる。   According to the present invention, it is possible to improve the appropriateness of presented information.

図1は、第1の実施形態に係る情報提示システムのシステム構成例を示す図である。FIG. 1 is a diagram showing an example of a system configuration of the information presentation system according to the first embodiment. 図2は、第1の実施形態に係る管理サーバ及びデータベースサーバのハードウェア構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the hardware configuration of the management server and the database server according to the first embodiment. 図3は、第1の実施形態に係る情報提示システムの機能構成例を示すブロック図である。FIG. 3 is a block diagram showing an example of a functional configuration of the information presentation system according to the first embodiment. 図4は、第1の実施形態に係る外部検索部の機能構成例を示すブロック図である。FIG. 4 is a block diagram showing an example of a functional configuration of the external search unit according to the first embodiment. 図5は、第1の実施形態に係るインデックス情報のデータ構造例を示す図である。FIG. 5 is a diagram showing an example data structure of index information according to the first embodiment. 図6は、第1の実施形態に係るテキスト化部の機能構成例を示すブロック図である。FIG. 6 is a block diagram showing an example of the functional configuration of the text conversion unit according to the first embodiment. 図7は、第1の実施形態に係る認識データ情報のデータ構造例を示す図である。FIG. 7 is a diagram showing an example data structure of recognition data information according to the first embodiment. 図8は、第1の実施形態に係る情報取得部の機能構成例を示すブロック図である。FIG. 8 is a block diagram showing an example of a functional configuration of the information acquisition unit according to the first embodiment. 図9は、第1の実施形態に係る情報提示システムにおける処理例を示すシーケンス図である。FIG. 9 is a sequence diagram showing an example of processing in the information presentation system according to the first embodiment. 図10は、第1の実施形態に係るクエリを生成する際の処理例を示すフローチャートである。FIG. 10 is a flowchart showing an example of processing when generating a query according to the first embodiment. 図11は、第1の実施形態に係る設定画面の例を示す図である。FIG. 11 is a diagram showing an example of a setting screen according to the first embodiment. 図12は、第1の実施形態に係る検索結果表示画面の例を示す図である。FIG. 12 is a diagram showing an example of a search result display screen according to the first embodiment. 図13は、第2の実施形態に係る情報提示システムの機能構成例を示すブロック図である。FIG. 13 is a block diagram showing an example of a functional configuration of the information presentation system according to the second embodiment. 図14は、第2の実施形態に係るキーワード取得部の機能構成例を示すブロック図である。FIG. 14 is a block diagram showing an example of the functional configuration of a keyword acquisition unit according to the second embodiment. 図15は、第2の実施形態に係る外部検索部の機能構成例を示すブロック図である。FIG. 15 is a block diagram showing an example of a functional configuration of the external search unit according to the second embodiment. 図16は、第2の実施形態に係る情報提示システムにおける処理例を示すシーケンス図である。FIG. 16 is a sequence diagram showing an example of processing in the information presentation system according to the second embodiment. 図17は、第2の実施形態に係るSNS画面の例を示す図である。FIG. 17 is a diagram illustrating an example of the SNS screen according to the second embodiment. 図18は、第3の実施形態に係る情報提示システムの機能構成例を示すブロック図である。FIG. 18 is a block diagram showing an example of a functional configuration of the information presentation system according to the third embodiment. 図19は、第3の実施形態に係る類似文章抽出部の機能構成例を示すブロック図である。FIG. 19 is a block diagram showing an example of a functional configuration of a similar sentence extraction unit according to the third embodiment. 図20は、第3の実施形態に係る類似文章抽出部における処理例を示すシーケンス図である。FIG. 20 is a sequence diagram showing an example of processing in the similar sentence extraction unit according to the third embodiment. 図21は、第3の実施形態に係るキーフレーズ作成部の機能構成例を示すブロック図である。FIG. 21 is a block diagram showing an example of a functional configuration of a key phrase creation unit according to the third embodiment. 図22は、第3の実施形態に係るキーフレーズ作成部における処理例を示すフローチャートである。FIG. 22 is a flowchart showing an example of processing in the key phrase creation unit according to the third embodiment. 図23は、第3の実施形態に係る情報取得部の機能構成例を示すブロック図である。FIG. 23 is a block diagram showing an example of a functional configuration of an information acquisition unit according to the third embodiment. 図24は、第3の実施形態に係る情報取得部における処理例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of processing in the information acquisition unit according to the third embodiment. 図25は、第4の実施形態に係る情報提示システムの機能構成例を示すブロック図である。FIG. 25 is a block diagram showing an example of a functional configuration of the information presentation system according to the fourth embodiment. 図26は、第4の実施形態に係る類似情報抽出部の機能構成例を示すブロック図である。FIG. 26 is a block diagram showing an example of a functional configuration of a similar information extraction unit according to the fourth embodiment. 図27は、第4の実施形態に係る類似情報抽出部における処理例を示すシーケンス図である。FIG. 27 is a sequence diagram showing an example of processing in the similar information extraction unit according to the fourth embodiment. 図28は、第5の実施形態に係る情報提示システムの機能構成例を示すブロック図である。FIG. 28 is a block diagram showing an example of a functional configuration of an information presentation system according to the fifth embodiment. 図29は、第5の実施形態に係る取得情報クラスタリング部の機能構成例を示すブロック図である。FIG. 29 is a block diagram showing an example of a functional configuration of an acquisition information clustering unit according to the fifth embodiment. 図30は、第5の実施形態に係る取得情報クラスタリング部における処理例を示すシーケンス図である。FIG. 30 is a sequence diagram showing an example of processing in an acquisition information clustering unit according to the fifth embodiment.

以下に添付図面を参照して、情報提示システム、情報提示方法、プログラム、及び記録媒体の実施形態を詳細に説明する。以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には当業者が容易に想到できるもの、実質的に同一のもの、及びいわゆる均等の範囲のものが含まれる。以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更、及び組み合わせを行うことができる。   Hereinafter, embodiments of an information presentation system, an information presentation method, a program, and a recording medium will be described in detail with reference to the attached drawings. The present invention is not limited by the following embodiments, and the constituent elements in the following embodiments include those which can be easily conceived by those skilled in the art, substantially the same ones, and so-called equivalent ranges. . Various omissions, substitutions, changes, and combinations of the constituent elements can be made without departing from the scope of the following embodiments.

(第1の実施形態)
図1は、第1の実施形態に係る情報提示システム1のシステム構成例を示す図である。情報提示システム1は、会議の参加者に会議に関連する関連情報を提示するシステムである。なお、「関連情報」は、「会議」に関連する情報に限られるものではなく、任意の期間内の任意の時刻に提示又は取得される情報に関連する情報であり得る。本例に係る情報提示システム1は、管理サーバ11、データベースサーバ12、マイク13、プロジェクタ14(表示装置)、ディスプレイ15(表示装置)、クライアント端末16(端末)、及びネットワーク19を含む。
First Embodiment
FIG. 1 is a diagram showing an example of a system configuration of the information presentation system 1 according to the first embodiment. The information presentation system 1 is a system that presents related information related to the conference to the participants of the conference. The "related information" is not limited to the information related to the "meeting", and may be information related to the information presented or acquired at any time within any period. The information presentation system 1 according to the present example includes a management server 11, a database server 12, a microphone 13, a projector 14 (display device), a display 15 (display device), a client terminal 16 (terminal), and a network 19.

マイク13は会議の参加者の音声を集音し、音声データを生成する。音声データはネットワーク19を介して管理サーバ11に送信される。プロジェクタ14は所定のスクリーンに画像(静止画又は動画)を投影する。ディスプレイ15は画像を表示する。プロジェクタ14及びディスプレイ15は、ネットワーク19を介して管理サーバ11から送信される画像データ、制御信号等に応じて動作する。クライアント端末16は会議の参加者等により操作されるパーソナルコンピュータであり、ネットワーク19を介して管理サーバ11と接続している。データベースサーバ12は、関連情報を含む各種データを管理(書き込み、読み出し、検索等)する、プロセッサ、記憶装置等を含むコンピュータシステムであり、ネットワーク19を介して管理サーバ11と接続している。管理サーバ11は、関連情報を参加者に提示するための処理を行う、プロセッサ、記憶装置等を含むコンピュータシステムであり、ネットワーク19を介してデータベースサーバ12、マイク13、プロジェクタ14、ディスプレイ15、クライアント端末16、その他適宜なデバイスと接続している。   The microphone 13 collects the voices of the participants in the conference and generates voice data. The voice data is transmitted to the management server 11 via the network 19. The projector 14 projects an image (still or moving image) on a predetermined screen. The display 15 displays an image. The projector 14 and the display 15 operate in accordance with image data, control signals and the like transmitted from the management server 11 via the network 19. The client terminal 16 is a personal computer operated by a participant of the conference, etc., and is connected to the management server 11 via the network 19. The database server 12 is a computer system including a processor, a storage device and the like that manages (writes, reads, searches, etc.) various data including related information, and is connected to the management server 11 via the network 19. The management server 11 is a computer system including a processor, a storage device, and the like that performs processing for presenting related information to participants, and the database server 12, the microphone 13, the projector 14, the display 15, and the client via the network 19. It is connected to the terminal 16 and other appropriate devices.

なお、プロジェクタ14とディスプレイ15とは常に両方同時に使用されなければならないものではなく、どちらか一方のみが使用されてもよい。また、ディスプレイ15は管理サーバ11からの制御信号だけでなく、クライアント端末16からの制御信号に基づいて動作する場合がある。また、図1においては表示装置としてプロジェクタ14とディスプレイ15とが例示されているが、例えば、表示(投影)機能と入力機能とを兼ね備えたデバイス(電子黒板(インタラクティブホワイトボード)、電子情報ボード等)を利用してもよい。また、取得済みの表示内容に基づいて、管理サーバ11からの制御により、所定の表示装置に関連情報が表示されてもよい。また、データベース機能を有するサーチエンジンを利用する場合には、情報提示システム1内にデータベースサーバ12が含まれていなくてもよい。また、管理サーバ11は特定のコンピュータであってもよいが、管理サーバ11の機能をクラウドに委託する構成であってもよい。   The projector 14 and the display 15 do not always have to be used at the same time, but only one of them may be used. In addition, the display 15 may operate based on not only the control signal from the management server 11 but also the control signal from the client terminal 16. Although the projector 14 and the display 15 are illustrated as display devices in FIG. 1, for example, a device having both a display (projection) function and an input function (electronic blackboard (interactive white board), electronic information board, etc. ) May be used. Further, related information may be displayed on a predetermined display device under the control of the management server 11 based on the acquired display content. Further, when using a search engine having a database function, the database server 12 may not be included in the information presentation system 1. The management server 11 may be a specific computer, but may be configured to delegate the function of the management server 11 to the cloud.

図2は、第1の実施形態に係る管理サーバ11及びデータベースサーバ12のハードウェア構成例を示すブロック図である。管理サーバ11及びデータベースサーバ12は、CPU(Central Processing Unit)21、RAM(Random Access Memory)22、ROM(Read Only Memory)23、ストレージ24、入力デバイス25、出力デバイス26、及び通信I/F27を含む。CPU21はROM23に記憶されたプログラムに従ってRAM22をワーキングエリアとして所定の制御演算処理を行う。ストレージ24は不揮発性メモリであって、各種データを記憶する。入力デバイス25は、使用者(システム管理者等)の操作を受け付けて外部から情報を入力するためのデバイスであり、例えばキーボード、マウス、タッチパネル等である。出力デバイス26は、内部で生成した情報を外部に出力するためのデバイスであり、例えばディスプレイ、プリンタ等である。通信I/F27は、ネットワーク19を介して外部の機器との間で情報の送受信を可能にするデバイスである。なお、入力デバイス25及び/又は出力デバイス26が不要となる場合がある。   FIG. 2 is a block diagram showing an example of the hardware configuration of the management server 11 and the database server 12 according to the first embodiment. The management server 11 and the database server 12 include a central processing unit (CPU) 21, a random access memory (RAM) 22, a read only memory (ROM) 23, a storage 24, an input device 25, an output device 26, and a communication I / F 27. Including. The CPU 21 performs predetermined control arithmetic processing with the RAM 22 as a working area in accordance with a program stored in the ROM 23. The storage 24 is a non-volatile memory and stores various data. The input device 25 is a device for receiving an operation of a user (a system administrator or the like) and inputting information from the outside, and is, for example, a keyboard, a mouse, a touch panel or the like. The output device 26 is a device for outputting the internally generated information to the outside, and is, for example, a display, a printer or the like. The communication I / F 27 is a device that enables transmission and reception of information with an external device via the network 19. The input device 25 and / or the output device 26 may be unnecessary.

なお、図1及び図2に示すシステム構成及びハードウェア構成は単なる例示であり、情報提示システム1は、使用状況に応じて適宜なハードウェア及びソフトウェアを利用して構築されるべきものである。   The system configuration and the hardware configuration shown in FIGS. 1 and 2 are merely examples, and the information presentation system 1 should be constructed using appropriate hardware and software according to the use situation.

図3は、第1の実施形態に係る情報提示システム1の機能構成例を示すブロック図である。本例に係る情報提示システム1は、音声データ取得部101、画像データ取得部102、キーワード取得部103、入力部104、テキスト化部105、情報取得部106、外部検索部107、出力部108、及び外部出力部109を含む。   FIG. 3 is a block diagram showing an example of a functional configuration of the information presentation system 1 according to the first embodiment. The information presentation system 1 according to this example includes an audio data acquisition unit 101, an image data acquisition unit 102, a keyword acquisition unit 103, an input unit 104, a textification unit 105, an information acquisition unit 106, an external search unit 107, an output unit 108. And an external output unit 109.

音声データ取得部101は、会議中に発せられた音声の音声データを取得する。音声データは、例えば、会議室に設置されたマイク13により取得される。   The audio data acquisition unit 101 acquires audio data of audio emitted during a meeting. The audio data is acquired, for example, by the microphone 13 installed in the conference room.

画像データ取得部102は、会議室等に設置された表示装置(プロジェクタ14、ディスプレイ15等)に表示された画像の画像データを取得する。画像データは、表示装置に実際に表示された画像を撮影したデータであってもよいし、表示内容を示すコンテンツデータ等であってもよい。   The image data acquisition unit 102 acquires image data of an image displayed on a display device (projector 14, display 15 or the like) installed in a conference room or the like. The image data may be data obtained by capturing an image actually displayed on the display device, or may be content data indicating the display content.

キーワード取得部103は、参加者等により予め登録されたキーワードを示すキーワードデータを取得する。キーワードの登録は、例えば、参加者がクライアント端末16を操作すること等により行われる。ここでのキーワードは、適切な関連情報を取得するために有効な情報であって、例えば会議の内容に関連し参加者が興味を持っている事柄を示す文言等である。会議の内容に関連性があり参加者が興味を持っているにも関わらず、会議中では発言されなかったり、画像として表示されなかったりする文言を、キーワードとして登録することが好ましい。   The keyword acquisition unit 103 acquires keyword data indicating a keyword registered in advance by a participant or the like. The registration of the keyword is performed, for example, by the participant operating the client terminal 16 or the like. The keywords in this case are information that is effective for acquiring appropriate related information, and are, for example, texts and the like that are related to the contents of the meeting and that indicate that the participants are interested. It is preferable to register, as a keyword, a wording that is not spoken during the meeting or is not displayed as an image despite the relevance of the contents of the meeting and the participants are interested.

入力部104は、音声データ取得部101により取得された音声データ、画像データ取得部102により取得された画像データ、及びキーワード取得部103により取得されたキーワードデータを入力する。音声データ、画像データ、及びキーワードデータの入力及び保持は、例えば、管理サーバ11のストレージ24等を利用して行われる。   The input unit 104 inputs the audio data acquired by the audio data acquisition unit 101, the image data acquired by the image data acquisition unit 102, and the keyword data acquired by the keyword acquisition unit 103. Input and retention of voice data, image data, and keyword data are performed using, for example, the storage 24 of the management server 11 or the like.

テキスト化部105は、入力部104により入力された音声データ、画像データ、及びキーワードデータをテキスト化する。音声データをテキスト化することにより、音声テキストデータが生成される。画像データをテキスト化することにより、画像テキストデータが生成される。キーワードデータをテキスト化することにより、キーワードテキストデータが生成される。キーワードデータのテキスト化は、例えば、手書き等の手段で入力されたキーワードデータを正規化した文字列に変換する処理である。テキスト化は、公知の音声認識処理(ASR(Automatic Speech Recognition)処理)、画像認識処理(OCR(Optical Character Recognition)処理)等を利用して行うことができ、主に管理サーバ11の処理能力を利用して行うことができる。   The text conversion unit 105 converts the voice data, the image data, and the keyword data input by the input unit 104 into text. By converting voice data into text, voice text data is generated. Image text data is generated by converting the image data into text. Keyword text data is generated by converting the keyword data into text. Textification of keyword data is, for example, a process of converting keyword data input by means such as handwriting into a normalized character string. Textification can be performed using known speech recognition processing (ASR (Automatic Speech Recognition) processing), image recognition processing (OCR (Optical Character Recognition) processing), etc., and mainly the processing capability of the management server 11 is It can be done using.

情報取得部106は、テキスト化部105により生成されたテキストデータ(音声テキストデータ、画像テキストデータ、及びキーワードテキストデータ)に基づいて、外部検索部107から関連情報を取得する。情報取得部106は、テキストデータに基づくクエリを生成し、クエリを外部検索部107に送信し、外部検索部107からクエリに適合する関連情報を取得する。なお、本実施形態における「クエリ」は、情報検索における明確な情報要求のことである。クエリは、主に、キーワード群を論理演算子や他の修飾子で繋いで表現される。情報取得部106は、例えば、管理サーバ11の処理能力を利用して実現される。   The information acquisition unit 106 acquires related information from the external search unit 107 based on the text data (voice text data, image text data, and keyword text data) generated by the textification unit 105. The information acquisition unit 106 generates a query based on text data, transmits the query to the external search unit 107, and acquires related information matching the query from the external search unit 107. The “query” in this embodiment is a clear information request in information search. Queries are mainly expressed by linking keywords with logical operators and other modifiers. The information acquisition unit 106 is realized, for example, using the processing capability of the management server 11.

外部検索部107は、関連情報を蓄積したデータベースから、情報取得部106から受信したクエリに適合する関連情報を検索及び抽出し、抽出された関連情報を情報取得部106に送信する。外部検索部107は、例えば、データベースサーバ12の処理能力を利用して実現される。   The external search unit 107 searches and extracts related information conforming to the query received from the information acquisition unit 106 from the database storing the related information, and transmits the extracted related information to the information acquisition unit 106. The external search unit 107 is realized, for example, using the processing capability of the database server 12.

出力部108は、情報取得部106により取得された関連情報を外部出力部109に出力する。出力部108は、取得された関連情報を各外部出力部109の仕様に応じた形式に変換する機能等を備え、例えば、管理サーバ11の機能を利用して実現される。   The output unit 108 outputs the related information acquired by the information acquisition unit 106 to the external output unit 109. The output unit 108 has a function of converting the acquired related information into a format according to the specification of each external output unit 109, and is realized, for example, using the function of the management server 11.

外部出力部109は、関連情報を参加者に提示するものであって、例えば、クライアント端末16、ディスプレイ15、プロジェクタ14等であり得る。   The external output unit 109 presents related information to the participant, and may be, for example, the client terminal 16, the display 15, the projector 14 or the like.

図4は、第1の実施形態に係る外部検索部107の機能構成例を示すブロック図である。本例に係る外部検索部107は、外部ソース121(データベース)、外部ソース連携部122、クロール制御部123、文書収集部124、インデックス記憶部125、及び文書検索部126を含む。   FIG. 4 is a block diagram showing an example of a functional configuration of the external search unit 107 according to the first embodiment. The external search unit 107 according to this example includes an external source 121 (database), an external source cooperation unit 122, a crawl control unit 123, a document collection unit 124, an index storage unit 125, and a document search unit 126.

外部ソース連携部122は、外部ソース121に蓄積された文書等の関連情報を読み出すための処理を行う。外部ソース連携部122は、所定のアクセス処理により外部ソース121にアクセスする。アクセス処理には、データの送受信の他に認証処理が含まれてもよい。   The external source cooperation unit 122 performs processing for reading out related information such as a document stored in the external source 121. The external source cooperation unit 122 accesses the external source 121 by a predetermined access process. The access process may include an authentication process in addition to the transmission and reception of data.

クロール制御部123は、外部ソース連携部122により読み出された関連情報に対して、外部ソース121の制限等に応じて設定された範囲内でクロール動作を実施する。   The crawl control unit 123 performs a crawl operation on the related information read by the external source cooperation unit 122 within a range set according to the restriction of the external source 121 or the like.

文書収集部124は、クロール制御部123を介して関連情報を収集する。文書収集部124は、クロール制御部123から受信した関連情報を適切なフォーマットに整形し、整形された関連情報に対応するインデックス情報を生成し、インデックス情報をインデックス記憶部125に記憶させる。   The document collection unit 124 collects related information via the crawl control unit 123. The document collection unit 124 formats the related information received from the crawl control unit 123 into an appropriate format, generates index information corresponding to the formatted related information, and stores the index information in the index storage unit 125.

文書検索部126は、情報取得部106(管理サーバ11)から受信したクエリに適合するインデックス情報を検索し、検索されたインデックス情報に対応する関連情報を文書収集部124から取得する。   The document search unit 126 searches for index information that matches the query received from the information acquisition unit 106 (management server 11), and acquires related information corresponding to the searched index information from the document collection unit 124.

なお、外部検索部107の機能は既存のサーチエンジンにより実現することができるため、そのようなサーチエンジンを利用する場合には、情報提示システム1に外部検索部107が備えられていなくてもよい。   In addition, since the function of the external search unit 107 can be realized by an existing search engine, the information presentation system 1 may not be provided with the external search unit 107 when using such a search engine. .

図5は、第1の実施形態に係るインデックス情報130のデータ構造例を示す図である。本例に係るインデックス情報130は、カラムとして、文書の作成者を示す「作成者」、文書の種類を示す「クラス」、文書が作成された日時を示す「作成日時」、文書が格納されているソース(外部ソース121)を特定する「ソース」、テキストの内容を示す「テキスト」、文書のタイトルを示す「タイトル」、文書毎に一意に割り当てられる識別番号である「文書ID」、及び文書が更新された日時を示す「更新日時」を含んでいる。全ての文書は、「文書ID」及び「ソース」により特定可能となる。文書が更新されると、「更新日時」が更新される。「タイトル」が同一である複数文書は、外部ソース121の制限により複数のアイテム(ロウ)に分割されて登録される場合がある。「テキスト」及び「タイトル」は検索対象となる。   FIG. 5 is a view showing an example of the data structure of the index information 130 according to the first embodiment. In the index information 130 according to this example, as columns, a “creator” indicating the creator of the document, a “class” indicating the type of the document, a “creation date” indicating the date and time when the document was created, and the document are stored "Source" to identify the source (external source 121), "text" indicating the content of text, "title" indicating the title of the document, "document ID" which is an identification number uniquely assigned to each document, and the document Contains an "update date and time" indicating the date and time when was updated. All documents can be identified by "document ID" and "source". When the document is updated, the "updated date" is updated. A plurality of documents having the same “title” may be divided into a plurality of items (rows) and registered due to the restriction of the external source 121. "Text" and "Title" are search targets.

図6は、第1の実施形態に係るテキスト化部105の機能構成例を示すブロック図である。本例に係るテキスト化部105は、入力データ受信部131、入力データ処理部132、テキスト送信部133、及び認識データ記憶部134を含む。   FIG. 6 is a block diagram showing an example of a functional configuration of the textification unit 105 according to the first embodiment. The textification unit 105 according to this example includes an input data reception unit 131, an input data processing unit 132, a text transmission unit 133, and a recognition data storage unit 134.

入力データ受信部131は、入力部104から受信した音声データ、画像データ、及びキーワードデータを受信し、キャッシュとして保存し、その後これらのデータを入力データ処理部132に送信する。   The input data receiving unit 131 receives the audio data, the image data, and the keyword data received from the input unit 104, stores the data as a cache, and then transmits these data to the input data processing unit 132.

入力データ処理部132は、音声データをテキスト化して音声テキストデータを生成する音声処理部141、画像データをテキスト化して画像テキストデータを生成する画像処理部142、及びキーワードデータをテキスト化してキーワードテキストデータを生成するキーワード処理部143を含む。入力データ処理部132は、生成された音声テキストデータ、画像テキストデータ、及びキーワードテキストデータをテキスト送信部133に送信する。入力データ処理部132は、音声テキストデータ、画像テキストデータ、及びキーワードテキストデータに基づいて認識データ情報を生成し、認識データ情報を認識データ記憶部134に記憶させる。認識データ情報はその後の検証、学習等に利用される。   The input data processing unit 132 converts voice data into text and generates voice text data. The input data processing unit 132 converts image data into text and generates image text data. The keyword data is converted into text and keyword text. It includes a keyword processing unit 143 that generates data. The input data processing unit 132 transmits the generated voice text data, image text data, and keyword text data to the text transmission unit 133. The input data processing unit 132 generates recognition data information based on voice text data, image text data, and keyword text data, and causes the recognition data storage unit 134 to store recognition data information. The recognition data information is used for subsequent verification, learning and the like.

テキスト送信部133は、受信した音声テキストデータ、画像テキストデータ、及びキーワードテキストデータを情報取得部106に送信する。   The text transmission unit 133 transmits the received voice text data, image text data, and keyword text data to the information acquisition unit 106.

図7は、第1の実施形態に係る認識データ情報150のデータ構造例を示す図である。本例に係る認識データ情報150は、カラムとして、テキスト化の対象となった元データが取得された会議を特定する(会議毎に一意に割り当てられる識別番号である)「会議ID」、テキスト化が行われた日時を示す「認識日時」、テキストの言語の種類を示す「言語」、テキスト化に利用した認識処理の種類(本例ではOCR又はASR)を示す「認識タイプ」、及びテキストの内容を示す「テキスト」を含む。本例においては、各アイテムのパーティションキーは「会議ID」であり、ソートキーは「認識日時」である。   FIG. 7 is a view showing an example data structure of the recognition data information 150 according to the first embodiment. The recognition data information 150 according to the present example specifies, as a column, a “meeting ID” (which is an identification number uniquely assigned to each meeting) that identifies a meeting from which the original data targeted for the texting is acquired. "Recognition date" which indicates the date and time when the event was performed, "language" which indicates the type of language of the text, "recognition type" which indicates the type of recognition processing used for text conversion (in this example, OCR or ASR), and Includes "text" to indicate content. In this example, the partition key of each item is "meeting ID" and the sort key is "recognition date".

図8は、第1の実施形態に係る情報取得部106の機能構成例を示すブロック図である。本例に係る情報取得部106は、テキスト受信部151、テキスト選択部152、クエリ生成部153、検索呼出部154、及び検索結果送信部155を含む。   FIG. 8 is a block diagram showing an example of a functional configuration of the information acquisition unit 106 according to the first embodiment. The information acquisition unit 106 according to this example includes a text reception unit 151, a text selection unit 152, a query generation unit 153, a search call unit 154, and a search result transmission unit 155.

テキスト受信部151は、テキスト化部105(テキスト送信部133)から音声テキストデータ、画像テキストデータ、及びキーワードテキストデータを受信する。   The text reception unit 151 receives voice text data, image text data, and keyword text data from the text conversion unit 105 (text transmission unit 133).

テキスト選択部152は、テキスト受信部151が受信した複数のテキストデータから2つ以上のテキストデータを選択する。本実施形態においては、下記4つの選択パターン(1)〜(4)が存在する。
(1)音声テキストデータ+画像テキストデータ
(2)音声テキストデータ+キーワードテキストデータ
(3)画像テキストデータ+キーワードテキストデータ
(4)音声テキストデータ+画像テキストデータ+キーワードテキストデータ
The text selection unit 152 selects two or more text data from the plurality of text data received by the text reception unit 151. In the present embodiment, the following four selection patterns (1) to (4) exist.
(1) voice text data + image text data (2) voice text data + keyword text data (3) image text data + keyword text data (4) voice text data + image text data + keyword text data

クエリ生成部153は、テキスト選択部152により選択されたテキストデータに基づいてクエリを生成する。クエリ生成部153は、例えば、選択パターンが(2)であれば、音声テキストデータとキーワードテキストデータとを比較し、双方に共通する「共通語」を抽出する。共通語を抽出することで、結果的に、音声テキストデータ又はキーワードテキストデータに生じた誤認識部分を避けることができる。クエリ生成部153は、その後、共通語と共通語の間を適切な論理演算子で接続することで、クエリを生成する。本例においては、下記4種類のクエリ(第1〜第4のクエリ)が生成され得る。   The query generation unit 153 generates a query based on the text data selected by the text selection unit 152. For example, if the selection pattern is (2), the query generation unit 153 compares voice text data with keyword text data, and extracts a “common word” common to both. By extracting the common word, it is possible to avoid the erroneous recognition portion occurring in the audio text data or the keyword text data as a result. Thereafter, the query generation unit 153 generates a query by connecting the common word and the common word with an appropriate logical operator. In this example, the following four types of queries (first to fourth queries) can be generated.

第1のクエリは、選択パターン(1)に対応し、音声テキストデータ及び画像テキストデータを組み合わせて生成されるクエリである。第1のクエリを利用することにより、例えば、会議中に発せられた音声と表示された画像との両方の内容を反映した関連情報を取得することが可能となる。このように、音声テキストデータと画像テキストデータとを組み合わせてクエリを生成することにより、音声認識処理における誤認識及び画像認識処理における誤認識による影響を軽減することが可能となる。音声認識処理及び画像認識処理においてはある程度の確率で誤認識が生じる可能性があるが、音声認識処理と画像認識処理との両方において同じ対象について誤認識が生じる可能性は極めて低いからである。これにより、検索結果の適切性を向上させることができる。また、第1のクエリにおいては、登録されたキーワードによる影響がないため、柔軟性の高い検索結果が得られる。   The first query corresponds to the selection pattern (1) and is a query generated by combining speech text data and image text data. By using the first query, for example, it becomes possible to obtain related information reflecting the contents of both the sound emitted during the meeting and the displayed image. As described above, by combining the voice text data and the image text data to generate a query, it is possible to reduce the effects of false recognition in voice recognition processing and false recognition in image recognition processing. Although misrecognition may occur with a certain probability in the speech recognition process and the image recognition process, the possibility of misrecognition of the same object in both the speech recognition process and the image recognition process is extremely low. This can improve the appropriateness of the search results. Further, in the first query, flexible search results can be obtained because there is no influence of the registered keywords.

第2のクエリは、選択パターン(2)に対応し、音声テキストデータ及びキーワードテキストデータを組み合わせて生成されるクエリである。キーワードテキストデータを利用することにより、関連情報の検索処理における検索方向を定めることができる。第2のクエリを利用することにより、例えば、予め登録されたキーワードとの関連度が高い音声に対応する関連情報を優先的に取得したり、キーワードとの関連度が低い音声に対応する関連情報を排除したりすることが可能となる。これにより、検索結果の適切性を向上させることができる。   The second query corresponds to the selection pattern (2) and is a query generated by combining speech text data and keyword text data. By using keyword text data, it is possible to define a search direction in the search process of related information. By using the second query, for example, related information corresponding to voices having a high degree of association with a pre-registered keyword is preferentially acquired, or related information corresponding to voices having a low degree of association with a keyword It is possible to eliminate This can improve the appropriateness of the search results.

第3のクエリは、選択パターン(3)に対応し、画像テキストデータ及びキーワードテキストデータを組み合わせて生成されるクエリである。キーワードテキストデータを利用することにより、関連情報の検索処理における検索方向を定めることができる。第3のクエリを利用することにより、例えば、予め登録されたキーワードとの関連度が高い画像に対応する関連情報を優先的に取得したり、キーワードとの関連度が低い画像に対応する関連情報を排除したりすることが可能となる。これにより、検索結果の適切性を向上させることができる。   The third query corresponds to the selection pattern (3), and is a query generated by combining the image text data and the keyword text data. By using keyword text data, it is possible to define a search direction in the search process of related information. By using the third query, for example, related information corresponding to an image having a high degree of association with a pre-registered keyword is preferentially acquired, or related information corresponding to an image having a low degree of association with a keyword It is possible to eliminate This can improve the appropriateness of the search results.

第4のクエリは、選択パターン(4)に対応し、音声テキストデータ、画像テキストデータ、及びキーワードテキストデータを組み合わせて生成されるクエリである。キーワードテキストデータを利用することにより、関連情報の検索処理における検索方向を定めることができる。第4のクエリを利用することにより、音声認識処理の誤認識及び画像認識処理の誤認識による影響を軽減することができると共に、例えば、予め登録されたキーワードとの関連度が高い音声及び/又は画像に対応する関連情報を優先的に取得したり、キーワードとの関連度が低い音声及び/又は画像に対応する関連情報を排除したりすることが可能となる。これにより、検索結果の適切性を向上させることができる。   The fourth query corresponds to the selection pattern (4), and is a query generated by combining speech text data, image text data, and keyword text data. By using keyword text data, it is possible to define a search direction in the search process of related information. By using the fourth query, it is possible to reduce the influence of misrecognition in speech recognition processing and misrecognition in image recognition processing, and, for example, to speech and / or speech that have a high degree of association with pre-registered keywords. It is possible to preferentially obtain related information corresponding to an image, or to exclude related information corresponding to voice and / or an image having a low degree of association with a keyword. This can improve the appropriateness of the search results.

「誤認識」された場合の対応方法を以下に例示する。
(1)正しい用語に修正する。
(2)誤認識された可能性のある用語を使わない(クエリに取り込まない)。
The corresponding method in the case of “misrecognized” is exemplified below.
(1) Correct to the correct term.
(2) Do not use terms that may be misrecognized (do not include in queries).

よく使われる用語の対、同義語、類義語、同音異義語等について上記対応方法(1)を行った上で「共通語」を抽出するようにしてもよい。また、上記対応方法(2)は「使わない」ことに限定されるものではなく、例えば、「複数のテキストを比べた際の出現回数に応じて用語に重み付けをする」等の対応であってもよい。具体的には、「共通語の重み付けを大きくし、その他の用語の重み付けを小さくする」等の対応であり得る。   The “common language” may be extracted after performing the above-mentioned correspondence method (1) for a pair of commonly used terms, synonyms, synonyms, homonyms, and the like. Further, the correspondence method (2) is not limited to “do not use”, and is, for example, correspondence such as “weighting terms according to the number of times of appearance when comparing a plurality of texts”. It is also good. Specifically, it may be a response such as “increase weighting of common words and decrease weighting of other terms”.

キーワードテキストデータを利用した検索方向性の調整については、キーワードをフィルタ的に動作させることが望ましい。例えば、キーワードが指定されると、当該キーワードを含まない検索結果を除外する処理等が利用され得る。例えば、選択パターン(4)のように音声テキストデータ、画像テキストデータ、及びキーワードテキストデータがあるとき、{(音声テキスト)OR(画像テキスト)}AND(キーワード)等のクエリを生成することにより、キーワードをフィルタ的に用いることができる。すなわち、キーワード(及びその同義語)が含まれないものは検索結果に含まれないようにしてもよい。なお、キーワードをANDで利用する形式だけでなく、例えば、キーワードを「重み付け」的に利用し、キーワードに基づく概念検索を行うようにしてもよい。   For adjustment of search directionality using keyword text data, it is desirable to operate keywords in a filtering manner. For example, when a keyword is designated, a process of excluding search results not including the keyword may be used. For example, when there are voice text data, image text data, and keyword text data as in selection pattern (4), a query such as {(voice text) OR (image text)} AND (keyword) is generated, Keywords can be used as filters. That is, those that do not include keywords (and their synonyms) may not be included in the search results. Note that not only the form in which the keyword is used in AND, for example, the keyword may be “weighted” to perform concept search based on the keyword.

検索呼出部154は、クエリ生成部153により生成されたクエリを外部検索部107に送信し、クエリの応答として検索結果(クエリに適合する関連情報)を受信する。   The search calling unit 154 transmits the query generated by the query generation unit 153 to the external search unit 107, and receives a search result (related information conforming to the query) as a response to the query.

検索結果送信部155は、検索呼出部154により受信された検索結果を出力部108に送信する。   The search result transmitting unit 155 transmits the search result received by the search calling unit 154 to the output unit 108.

図9は、第1の実施形態に係る情報提示システム1における処理例を示すシーケンス図である。情報取得部106が会議室に設置されたプロジェクタ14により投影された画像のキャプチャを要求すると(S101)、テキスト化部105(画像処理部142)は投影された画像内に存在する文字をテキスト化した画像テキストデータを生成し、画像テキストデータを情報取得部106に送信する(S102)。   FIG. 9 is a sequence diagram showing an example of processing in the information presentation system 1 according to the first embodiment. When the information acquisition unit 106 requests capture of the image projected by the projector 14 installed in the conference room (S101), the textification unit 105 (image processing unit 142) converts the characters present in the projected image into text. The generated image text data is generated, and the image text data is transmitted to the information acquisition unit 106 (S102).

情報取得部106が発言データを要求すると(S103)、テキスト化部105(音声処理部141)は会議室で発せられた音声をテキスト化した音声テキストデータを生成し、音声テキストデータを情報取得部106に送信する(S104)。   When the information acquisition unit 106 requests speech data (S103), the textification unit 105 (voice processing unit 141) generates voice text data in which the voice emitted in the conference room is converted to text, and the voice text data is acquired as an information acquisition unit It transmits to 106 (S104).

情報取得部106が参加者等により登録されたキーワードを要求すると(S105)、テキスト化部105(キーワード処理部143)はキーワード取得部103に対してキーワードを要求する(S106)。キーワード取得部103はテキスト化部105からの要求を受信すると、キーワードデータを正規化した正規化データをテキスト化部105(キーワード処理部143)に送信する(S107)。ここでの正規化とは、クライアント端末16等により登録されたキーワードを示すキーワードデータの形式等を、テキスト化部105によるテキスト化処理、情報取得部106によるクエリ生成処理、外部検索部107による検索処理等を行いやすくするために、変更等することであり、例えばキーワードデータをリレーショナルデータベースの検索に適した形式やインターネット検索に適した形式に変更すること等であり得る。テキスト化部105(キーワード処理部143)は受信した正規化データに基づいてキーワードテキストデータを生成し、キーワードテキストデータを情報取得部106に送信する(S108)。   When the information acquisition unit 106 requests a keyword registered by a participant or the like (S105), the textification unit 105 (keyword processing unit 143) requests the keyword acquisition unit 103 for a keyword (S106). When receiving the request from the textification unit 105, the keyword acquisition unit 103 transmits normalized data obtained by normalizing the keyword data to the textification unit 105 (keyword processing unit 143) (S107). Here, normalization refers to the conversion of the format of keyword data indicating a keyword registered by the client terminal 16 or the like into text processing by the text conversion unit 105, query generation processing by the information acquisition unit 106, and search by the external search unit 107. In order to facilitate processing, etc., it is necessary to change, for example, the keyword data may be changed to a format suitable for searching a relational database or a format suitable for Internet searching. The text conversion unit 105 (keyword processing unit 143) generates keyword text data based on the received normalized data, and transmits the keyword text data to the information acquisition unit 106 (S108).

情報取得部106は、受信した画像テキストデータ、音声テキストデータ、及びキーワードテキストデータのうちの2つ以上を組み合わせてクエリを生成する(S109)。その後、情報取得部106は、クエリを外部検索部107(文書検索部126)に送信して検索を要求する(S110)。文書検索部126は、受信したクエリに基づいて、会議の内容と関連度が高い文書(関連情報)を、インデックス記憶部125に記憶されているインデックス情報130を利用して検索及び抽出する(S111,S112)。文書検索部126は、抽出された文書を含む検索結果をクエリの応答として情報取得部106に送信する(S113)。   The information acquisition unit 106 generates a query by combining two or more of the received image text data, voice text data, and keyword text data (S109). Thereafter, the information acquisition unit 106 transmits a query to the external search unit 107 (document search unit 126) to request a search (S110). Based on the received query, the document search unit 126 searches and extracts a document (related information) having a high degree of association with the content of the meeting using the index information 130 stored in the index storage unit 125 (S111 , S112). The document search unit 126 transmits a search result including the extracted document as a query response to the information acquisition unit 106 (S113).

情報取得部106は受信した検索結果を外部出力部109(クライアント端末16等)に表示可能なデータとなるように処理する(S114)。情報取得部106は処理された検索結果を出力部108に送信し(S115)、出力部108は処理された検索結果を外部出力部109(クライアント端末16等)に出力する(S116)。   The information acquisition unit 106 processes the received search result so as to be data that can be displayed on the external output unit 109 (such as the client terminal 16) (S114). The information acquisition unit 106 transmits the processed search result to the output unit 108 (S115), and the output unit 108 outputs the processed search result to the external output unit 109 (such as the client terminal 16) (S116).

図10は、第1の実施形態に係るクエリを生成する際の処理例を示すフローチャートである。先ず、入力データ処理部132は画像データ又は音声データがあるか否かを判定する(S1001)。画像データ又は音声データがない場合(S1001:No)、情報取得部106は会議が終わるか否かを判定する(S1008)。会議が終わる場合(S1008:Yes)には本ルーチンを終了し、会議が終わらない場合(S1008:No)にはステップS1001に戻る。   FIG. 10 is a flowchart showing an example of processing when generating a query according to the first embodiment. First, the input data processing unit 132 determines whether there is image data or audio data (S1001). When there is no image data or audio data (S1001: No), the information acquisition unit 106 determines whether the meeting is over (S1008). When the meeting is over (S1008: Yes), this routine is ended, and when the meeting is not over (S1008: No), the process returns to step S1001.

画像データ又は音声データがある場合(S1001:Yes)、画像処理部142は画像データに対してOCR処理を行い(S1002)、音声処理部141は音声データに対してASR処理を行う(S1003)。   If there is image data or voice data (S1001: Yes), the image processing unit 142 performs OCR processing on the image data (S1002), and the voice processing unit 141 performs ASR processing on the voice data (S1003).

その後、入力データ処理部132は、キーワードが必要か否かを判定する(S1004)。キーワードが必要か否かの判定方法は特に限定されるべきものではないが、例えば、参加者からのキーワード登録要求の有無に基づいて判定することができる。キーワードが必要でない場合(S1004:No)、クエリ生成部153は、OCR処理により生成された画像テキストデータ及びASR処理により生成された音声テキストデータに基づいてクエリを生成する(S1006)。なお、キーワードが必要でない場合(S1004:No)であって、画像テキストデータ又は音声テキストデータのどちらか一方しか存在しない場合には、テキストデータを空値にできない仕様としたり、プリセットされたデフォルト値を用いたりすることが考えられる。一方、キーワードが必要である場合(S1004:Yes)、キーワード取得部103はキーワード(キーワードデータ)を取得し(S1005)、クエリ生成部153は、OCR処理により生成された画像テキストデータ、ASR処理により生成された音声テキストデータ、及び取得されたキーワードデータをテキスト化したキーワードテキストデータに基づいてクエリを生成する(S1006)。   Thereafter, the input data processing unit 132 determines whether a keyword is necessary (S1004). Although the method of determining whether or not a keyword is necessary should not be particularly limited, for example, it can be determined based on the presence or absence of a keyword registration request from a participant. When the keyword is not necessary (S1004: No), the query generation unit 153 generates a query based on the image text data generated by the OCR processing and the voice text data generated by the ASR processing (S1006). If no keyword is required (S1004: No) and only one of image text data and voice text data exists, the text data can not be nulled, or a preset default value is set. It is conceivable to use On the other hand, when a keyword is required (S1004: Yes), the keyword acquisition unit 103 acquires a keyword (keyword data) (S1005), and the query generation unit 153 generates image text data generated by the OCR process and the ASR process A query is generated based on the generated voice text data and the keyword text data obtained by converting the acquired keyword data into text (S1006).

その後、外部検索部107は、上記のように生成されたクエリに基づいて、会議の内容との関連度が高い文書(関連情報)を検索及び抽出する検索処理を行う(S1007)。その後、情報取得部106は会議が終わるか否かを判定し(S1008)、会議が終わる場合(S1008:Yes)には本ルーチンを終了し、会議が終わらない場合(S1008:No)にはステップS1001に戻る。   Thereafter, the external search unit 107 performs a search process for searching and extracting a document (related information) having a high degree of association with the content of the meeting based on the query generated as described above (S1007). Thereafter, the information acquisition unit 106 determines whether the meeting is over (S1008), and when the meeting is over (S1008: Yes), this routine is finished, and when the meeting is not over (S1008: No), the step is It returns to S1001.

図11は、第1の実施形態に係る設定画面201の例を示す図である。本例に係る設定画面201は、キーワードの登録等を行うための画面であり、クライアント端末16のディスプレイ等に表示される画面の例である。本例に係る設定画面201には、キーワードを入力するためのキーワード入力部202、検索対象とするデータベース(外部ソース121)を選択するデータベース選択部203、検索方法を選択するための検索エンジン選択部204等が設けられている。このような画面を利用することにより、参加者等はキーワードの登録、検索対象とするデータベースの選択、使用する検索方法の選択等を簡便に行うことが可能となる。   FIG. 11 is a view showing an example of the setting screen 201 according to the first embodiment. The setting screen 201 according to the present example is a screen for registering a keyword and the like, and is an example of a screen displayed on a display or the like of the client terminal 16. In the setting screen 201 according to this example, a keyword input unit 202 for inputting a keyword, a database selection unit 203 for selecting a database to be searched (external source 121), and a search engine selection unit for selecting a search method 204 and the like are provided. By using such a screen, it becomes possible for participants and the like to easily register keywords, select a database to be searched, and select a search method to be used.

図12は、第1の実施形態に係る検索結果表示画面211の例を示す図である。本例に係る検索結果表示画面211は、関連情報を表示するための画面であり、クライアント端末16のディスプレイ等に表示される画面の例である。本例に係る検索結果表示画面211には、関連情報(文書)のタイトル及び内容を表示する関連情報表示部212、議論と関連情報との関連度を示す関連度表示部213等が設けられている。このような画面を利用することにより、参加者等は会議中等において議論に関連する各種情報を閲覧することが可能となる。   FIG. 12 is a diagram showing an example of the search result display screen 211 according to the first embodiment. The search result display screen 211 according to the present example is a screen for displaying related information, and is an example of a screen displayed on a display or the like of the client terminal 16. The search result display screen 211 according to this example is provided with a related information display unit 212 for displaying the title and content of the related information (document), a relation degree display unit 213 for showing the relation between the discussion and the related information, and the like. There is. By using such a screen, it becomes possible for participants etc. to browse various information related to the discussion during a meeting or the like.

上記情報提示システム1の機能を実現するプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記禄媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。また、ブラウザを介して提供されるウェブサービスを読み取る方法が利用されてもよい。   The program for realizing the functions of the information presentation system 1 described above is a file in an installable format or an executable format, and a computer readable information such as a CD-ROM, a memory card, a CD-R and a DVD (Digital Versatile Disk). It is stored in a storage medium and provided as a computer program product. Also, a method of reading a web service provided via a browser may be used.

また、プログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。また、プログラムをROM等の適宜な記憶装置に予め組み込んで提供するように構成してもよい。また、プログラムは上記複数の機能のうちプログラムにより実現可能な機能を含むモジュール構成となっていてもよい。プログラムにより実現される機能は、記禄媒体からプログラムを読み出して実行することによりRAM等の主記憶装置にロードされる。すなわち、プログラムにより実現される機能は主記憶装置上に生成される。   Alternatively, the program may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Alternatively, the program may be provided via a network such as the Internet without downloading the program. Also, the program may be configured to be provided by being incorporated in advance in a suitable storage device such as a ROM. Further, the program may have a module configuration including functions that can be realized by the program among the plurality of functions. The functions implemented by the program are loaded to a main storage device such as a RAM by reading and executing the program from the recording medium. That is, the functions implemented by the program are generated on the main storage device.

上記のように、本実施形態に係る情報提示システム1によれば、会議中に発せられた音声をテキスト化したデータ、会議中に表示された画像をテキスト化したデータ、及び参加者等により登録されたキーワードのうちの2つ以上に基づいてクエリが生成され、このようなクエリに適合する関連情報が取得される。これにより、音声認識処理の誤認識及び画像認識処理の誤認識による影響が軽減され、キーワードによって示される検索方向に沿った適切性の高い関連情報を取得することが可能となる。   As described above, according to the information presentation system 1 according to the present embodiment, data obtained by converting voices emitted during a meeting into text, data obtained by converting an image displayed during a meeting into text, and registration by participants or the like A query is generated based on two or more of the selected keywords, and relevant information matching such a query is obtained. As a result, the influence of false recognition in voice recognition processing and false recognition in image recognition processing is reduced, and it becomes possible to obtain highly relevant information along the search direction indicated by the keyword.

以下に、他の実施形態について図面を参照して説明するが、第1の実施形態と同一又は同様の作用効果を奏する箇所については同一の符号を付してその説明を省略する場合がある。   Hereinafter, other embodiments will be described with reference to the drawings, but portions having the same or similar effects as the first embodiment may be denoted by the same reference numerals and description thereof may be omitted.

(第2の実施形態)
図13は、第2の実施形態に係る情報提示システム301の機能構成例を示すブロック図である。本実施形態に係る情報提示システム301は、キーワードの登録を外部のSNS(Social Networking Service)システム302を利用して行うことができる構成を有することを特徴とし、SNS通信部311を含む。
Second Embodiment
FIG. 13 is a block diagram showing an example of a functional configuration of the information presentation system 301 according to the second embodiment. The information presentation system 301 according to the present embodiment is characterized in that it has a configuration that can perform keyword registration using an external social networking service (SNS) system 302, and includes an SNS communication unit 311.

SNSシステム302は、インターネット等を利用して構築される公知のコミュニケーション支援システムである。会議の参加者等がアクセス可能な状態であれば既存のSNSシステム302を利用することができる。   The SNS system 302 is a known communication support system built using the Internet or the like. The existing SNS system 302 can be used as long as the participants of the meeting can access.

SNS通信部311は、SNSシステム302と接続し、SNSシステム302にアクセスしている端末(クライアント端末16等)から入力されたキーワードを示すキーワードデータを受信する。SNS通信部311は、例えば、管理サーバ11の処理能力を利用して実現される。   The SNS communication unit 311 is connected to the SNS system 302, and receives keyword data indicating a keyword input from a terminal (such as the client terminal 16) accessing the SNS system 302. The SNS communication unit 311 is realized, for example, using the processing capacity of the management server 11.

図14は、第2の実施形態に係るキーワード取得部312の機能構成例を示すブロック図である。本実施形態に係るキーワード取得部312は、キーワードデータ取得部321及び正規化部322を含む。   FIG. 14 is a block diagram showing an example of a functional configuration of the keyword acquisition unit 312 according to the second embodiment. The keyword acquisition unit 312 according to the present embodiment includes a keyword data acquisition unit 321 and a normalization unit 322.

キーワードデータ取得部321は、SNS通信部311からキーワードデータを取得する。   The keyword data acquisition unit 321 acquires keyword data from the SNS communication unit 311.

正規化部322は、キーワードデータ取得部321により取得されたキーワードデータを正規化する。ここでの正規化とは、SNSシステム302から受信したキーワードデータの形式等を、テキスト化部105によるテキスト化処理、情報取得部106によるクエリ生成処理、外部検索部313による検索処理等を行いやすくするために、変更等することであり、例えば受信したキーワードデータをインターネット検索に適した形式に変更すること(例えば、OR,AND,NOT等のワードでキーワードをつなげて検索クエリに変換すること)等であり得る。正規化部322により正規化されたキーワードデータは、入力部104に入力される。本実施形態に係る情報取得部106のクエリ生成部153は、第1の実施形態と同様に、テキスト化部105により生成された音声テキストデータ、画像テキストデータ、及びキーワードテキストデータのうちの2つ以上に基づいてクエリを生成する。   The normalization unit 322 normalizes the keyword data acquired by the keyword data acquisition unit 321. Here, normalization means that the format of the keyword data received from the SNS system 302 can be easily converted into text by the text conversion unit 105, query generation by the information acquisition unit 106, and search processing by the external search unit 313. Change the received keyword data into a format suitable for Internet search (for example, connect keywords with words such as OR, AND, NOT, etc. and convert them into a search query) Etc. The keyword data normalized by the normalization unit 322 is input to the input unit 104. As in the first embodiment, the query generation unit 153 of the information acquisition unit 106 according to the present embodiment includes two of speech text data, image text data, and keyword text data generated by the textification unit 105. Generate a query based on the above.

図15は、第2の実施形態に係る外部検索部313の機能構成例を示すブロック図である。本実施形態に係る外部検索部313は、インターネット335上に公開されている情報から関連情報を抽出する機能を有し、文書検索部331及び外部ネットワーク連携部332を含む。   FIG. 15 is a block diagram showing an example of a functional configuration of the external search unit 313 according to the second embodiment. The external search unit 313 according to the present embodiment has a function of extracting related information from information published on the Internet 335, and includes a document search unit 331 and an external network cooperation unit 332.

文書検索部331は、情報取得部106から送信されたクエリを受信し、外部ネットワーク連携部332に送信する。外部ネットワーク連携部332は、文書検索部331から送信されたクエリに適合する情報(関連情報)をインターネット335上に開示されている情報の中から収集する。外部ネットワーク連携部332による関連情報の収集は、既存のインターネット検索エンジンを利用して行われてもよい。外部ネットワーク連携部332により収集された関連情報は、文書検索部331を介して情報取得部106に送信される。このように収集された関連情報は、SNSシステム302にアクセスしてキーワードの登録を行った端末に送信されることが好ましい。   The document search unit 331 receives the query transmitted from the information acquisition unit 106 and transmits the query to the external network cooperation unit 332. The external network cooperation unit 332 collects information (related information) conforming to the query transmitted from the document search unit 331 from among the information disclosed on the Internet 335. Collection of related information by the external network cooperation unit 332 may be performed using an existing Internet search engine. The related information collected by the external network cooperation unit 332 is transmitted to the information acquisition unit 106 via the document search unit 331. The related information collected in this manner is preferably transmitted to the terminal that has accessed the SNS system 302 and registered the keyword.

図16は、第2の実施形態に係る情報提示システム301における処理例を示すシーケンス図である。情報取得部106が会議室に設置されたプロジェクタ14により投影された画像のキャプチャを要求すると(S201)、テキスト化部105(画像処理部142)は投影された画像内に存在する文字をテキスト化した画像テキストデータを生成し、画像テキストデータを情報取得部106に送信する(S202)。   FIG. 16 is a sequence diagram showing an example of processing in the information presentation system 301 according to the second embodiment. When the information acquisition unit 106 requests capture of the image projected by the projector 14 installed in the conference room (S201), the textification unit 105 (image processing unit 142) converts the characters present in the projected image into text The generated image text data is generated, and the image text data is transmitted to the information acquisition unit 106 (S202).

情報取得部106が発言データを要求すると(S203)、テキスト化部105(音声処理部141)は会議室で発せられた音声をテキスト化した音声テキストデータを生成し、音声テキストデータを情報取得部106に送信する(S204)。   When the information acquisition unit 106 requests speech data (S203), the textification unit 105 (voice processing unit 141) generates voice text data in which the voice emitted in the conference room is converted to text, and the voice text data is acquired as an information acquisition unit It transmits to 106 (S204).

情報取得部106が参加者等により登録されたキーワードを要求すると(S205)、テキスト化部105(キーワード処理部143)はキーワード取得部312にキーワードを要求する(S206)。キーワード取得部312はキーワードの要求を受信すると、SNS通信部311を介してSNSシステム302からキーワードデータを取得し、キーワードデータを正規化した正規化データをテキスト化部105(キーワード処理部143)に送信する(S207)。テキスト化部105(キーワード処理部143)は受信した正規化データに基づいてキーワードテキストデータを生成し、キーワードテキストデータを情報取得部106に送信する(S208)。   When the information acquisition unit 106 requests a keyword registered by a participant or the like (S205), the text conversion unit 105 (keyword processing unit 143) requests the keyword acquisition unit 312 for a keyword (S206). When the keyword acquisition unit 312 receives a keyword request, the keyword acquisition unit 312 acquires keyword data from the SNS system 302 via the SNS communication unit 311, and normalizes the keyword data to the text conversion unit 105 (keyword processing unit 143). It transmits (S207). The text conversion unit 105 (keyword processing unit 143) generates keyword text data based on the received normalized data, and transmits the keyword text data to the information acquisition unit 106 (S208).

情報取得部106は、受信した画像テキストデータ、音声テキストデータ、及びキーワードテキストデータのうちの2つ以上を組み合わせてクエリを生成する(S209)。その後、情報取得部106は、クエリを外部検索部313(文書検索部331)に送信して検索を要求する(S210)。文書検索部331は、受信したクエリに基づいて、会議の内容との関連度が高い文書(関連情報)を、外部ネットワーク連携部332を介してインターネット335上に公開されている情報から検索及び抽出し、抽出された文書を含む検索結果をクエリの応答として情報取得部106に送信する(S211)。   The information acquiring unit 106 generates a query by combining two or more of the received image text data, voice text data, and keyword text data (S209). Thereafter, the information acquisition unit 106 transmits a query to the external search unit 313 (document search unit 331) to request a search (S210). Based on the received query, the document search unit 331 searches and extracts a document (related information) having a high degree of association with the contents of the conference from the information disclosed on the Internet 335 via the external network cooperation unit 332. The search result including the extracted document is transmitted to the information acquisition unit 106 as a response to the query (S211).

情報取得部106は、受信した検索結果をSNSシステム302にアクセスした端末(クライアント端末16等)が表示可能なデータとなるように処理する(S212)。情報取得部106は処理された検索結果を出力部108に送信し(S213)、出力部108は処理された検索結果をSNSシステム302にアクセスした端末(クライアント端末16等)に出力する(S214)。   The information acquisition unit 106 processes the received search result so that the terminal (client terminal 16 or the like) that has accessed the SNS system 302 can display data (S212). The information acquisition unit 106 transmits the processed search result to the output unit 108 (S213), and the output unit 108 outputs the processed search result to the terminal (client terminal 16 or the like) that has accessed the SNS system 302 (S214) .

図17は、第2の実施形態に係るSNS画面351の例を示す図である。本例に係るSNS画面351は、SNSシステム302を利用したキーワードの登録、関連情報の表示等を行うための画面であって、SNSシステム302にアクセスしている端末のディスプレイ等に表示される画面の例である。本例に係るSNS画面351には、キーワードを入力するためのキーワード入力部352、登録されたキーワード(本例では「セキュリティ」)を表示するためのキーワード表示部353、関連情報を表示するための関連情報表示部354等が設けられている。このような画面を利用することにより、参加者等はキーワードの登録及び関連情報の閲覧を簡便に行うことが可能となる。   FIG. 17 is a diagram showing an example of the SNS screen 351 according to the second embodiment. The SNS screen 351 according to this example is a screen for registering a keyword using the SNS system 302, displaying related information, and the like, and is a screen displayed on a display of a terminal accessing the SNS system 302 or the like. An example of In the SNS screen 351 according to the present embodiment, a keyword input unit 352 for inputting a keyword, a keyword display unit 353 for displaying a registered keyword (in the present embodiment, "security"), and a related information A related information display unit 354 and the like are provided. By using such a screen, it becomes possible for participants and the like to easily register keywords and view related information.

上記のように、本実施形態に係る情報提示システム301によれば、第1の実施形態に係る情報提示システム1と同様の効果に加え、SNSシステム302を利用してキーワードの登録及び関連情報の閲覧を簡便に行うことが可能となる。   As described above, according to the information presentation system 301 according to the present embodiment, in addition to the same effects as the information presentation system 1 according to the first embodiment, using the SNS system 302 for keyword registration and related information It becomes possible to do browsing easily.

(第3の実施形態)
図18は、第3の実施形態に係る情報提示システム401の機能構成例を示すブロック図である。本実施形態に係る情報提示システム401は、表現の異なる発話内容や投影内容から意味合いが類似している類似文章を抽出し、類似文章に基づいて、関連情報を取得する際に使用されるキーフレーズを作成する構成を有することを特徴とする。本実施形態に係る情報提示システム401は、内部記憶部411、類似文章抽出部412、及びキーフレーズ作成部413を含む。
Third Embodiment
FIG. 18 is a block diagram showing an example of a functional configuration of an information presentation system 401 according to the third embodiment. The information presentation system 401 according to the present embodiment extracts similar sentences whose meanings are similar from utterance contents and projection contents having different expressions, and a key phrase used when acquiring related information based on the similar sentences. It has the composition which creates. An information presentation system 401 according to the present embodiment includes an internal storage unit 411, a similar sentence extraction unit 412, and a key phrase creation unit 413.

内部記憶部411は、任意の期間内にテキスト化部105により生成された全テキストデータ(音声テキストデータ、画像テキストデータ、及びキーワードテキストデータ)を記憶する。内部記憶部411は、例えば、管理サーバ11の処理機能(ストレージ24等)を利用して実現される。   The internal storage unit 411 stores all text data (speech text data, image text data, and keyword text data) generated by the textification unit 105 within an arbitrary period. The internal storage unit 411 is realized, for example, using the processing function (storage 24 or the like) of the management server 11.

類似文章抽出部412は、任意の期間内の任意の時刻にテキスト化部105から取得した直近テキストデータと、内部記憶部411に記憶された全テキストデータとに基づいて、直近テキストデータに類似する類似文章を全テキストデータから抽出する。類似文章抽出部412は、例えば、管理サーバ11の処理能力等を利用して実現される。   The similar sentence extraction unit 412 is similar to the latest text data based on the latest text data acquired from the textification unit 105 at an arbitrary time within an arbitrary period and all the text data stored in the internal storage unit 411. Similar sentences are extracted from all text data. The similar sentence extraction unit 412 is realized, for example, using the processing capability of the management server 11 or the like.

キーフレーズ作成部413は、類似文章抽出部412により抽出された類似文章に基づいて、外部検索部107から関連情報を取得する際に用いられるキーフレーズ(検索キーワード等)を作成する。キーフレーズ作成部413は、管理サーバ11の処理能力等を利用して実現される。   The key phrase creation unit 413 creates, based on the similar sentences extracted by the similar sentence extraction unit 412, a key phrase (a search keyword or the like) used when acquiring the related information from the external search unit 107. The key phrase creation unit 413 is realized using the processing capability of the management server 11 and the like.

図19は、第3の実施形態に係る類似文章抽出部412の機能構成例を示すブロック図である。本実施形態に係る類似文章抽出部412は、データ取得部421、データ記憶部422、含意認識部423、類似文章記憶部424、及び送信部425を含む。   FIG. 19 is a block diagram showing an example of a functional configuration of the similar sentence extraction unit 412 according to the third embodiment. The similar sentence extraction unit 412 according to the present embodiment includes a data acquisition unit 421, a data storage unit 422, an implication recognition unit 423, a similar sentence storage unit 424, and a transmission unit 425.

データ取得部421は、テキスト化部105によりテキスト化されたデータを取得する。データ取得部421は、テキスト化部105から直近テキストデータを取得する直近テキスト取得部430、及び内部記憶部411から全テキストデータを取得する記憶情報取得部434を含む。直近テキスト取得部430は、テキスト化部105のキーワード処理部143からキーワードテキストデータを取得するキーワードテキスト取得部431、テキスト化部105の音声処理部141から音声テキストデータを取得する音声テキスト取得部432、及びテキスト化部105の画像処理部142から画像テキストデータを取得する画像テキスト取得部433を含む。   The data acquisition unit 421 acquires data that has been textified by the textification unit 105. The data acquisition unit 421 includes a latest text acquisition unit 430 that acquires latest text data from the textification unit 105, and a stored information acquisition unit 434 that acquires all text data from the internal storage unit 411. The latest text acquisition unit 430 acquires keyword text data from the keyword processing unit 143 of the text conversion unit 105, and the voice text acquisition unit 432 acquires voice text data from the audio processing unit 141 of the text conversion unit 105. And an image text acquisition unit 433 for acquiring image text data from the image processing unit 142 of the textification unit 105.

データ記憶部422は、データ取得部421により取得されたデータを記憶し、判定元一時記憶部441及び抽出対象一時記憶部442を含む。判定元一時記憶部441は、データ取得部421により取得された直近テキストデータ、すなわち、任意の時刻にキーワードテキスト取得部431により取得されたキーワードテキストデータ、音声テキスト取得部432により取得された音声テキストデータ、及び画像テキスト取得部433により取得された画像テキストデータを、判定元として一時的に記憶する。抽出対象一時記憶部442は、任意の期間に記憶情報取得部434により取得された全テキストデータを、抽出対象として一時的に記憶する。   The data storage unit 422 stores the data acquired by the data acquisition unit 421, and includes a determination source temporary storage unit 441 and an extraction target temporary storage unit 442. The determination source temporary storage unit 441 is the latest text data acquired by the data acquisition unit 421, that is, the keyword text data acquired by the keyword text acquisition unit 431 at an arbitrary time, the voice text acquired by the voice text acquisition unit 432 The data and the image text data acquired by the image text acquisition unit 433 are temporarily stored as a determination source. The extraction target temporary storage unit 442 temporarily stores all text data acquired by the stored information acquisition unit 434 in an arbitrary period as an extraction target.

なお、データ記憶部422は、任意の時刻に音声テキストデータ及び画像テキストデータが取得された場合に、画像テキストデータから音声テキストデータと共通の意味を有する情報を抽出し、抽出された情報のみを判定元として記憶するものであってもよい。これにより、話題となっている情報のみを判定元となるテキストデータとして扱うことができる。   Note that, when voice text data and image text data are obtained at an arbitrary time, the data storage unit 422 extracts information having the same meaning as the voice text data from the image text data, and only the extracted information is extracted. It may be stored as a determination source. In this way, it is possible to treat only the information that is the subject as text data that is the determination source.

含意認識部423は、複数の文章(語句を含む)が共通の意味を有するか否かを判定し、判定元(直近テキストデータ)と共通の意味を有する類似文章を抽出対象(全テキストデータ)から抽出する処理を行う。含意認識部423は、例えば、同義語・類義語辞書データ等を利用して含意認識処理を行う適宜なシステムを利用して実現され得る。含意認識部423は、外部サービス(例えば、特許第5696555号公報や特開2016−045652号公報に開示されている技術を利用したシステム)を利用して実現されてもよいし、管理サーバ11やデータベースサーバ12の処理機能を利用して実現されてもよい。   The implication recognition unit 423 determines whether a plurality of sentences (including phrases) have the same meaning, and extracts similar sentences having the same meaning as the determination source (the latest text data) (all text data) Perform processing to extract from. The implication recognition unit 423 may be realized, for example, using a suitable system that performs implication recognition processing using synonym / synonym dictionary data or the like. The implication recognition unit 423 may be realized using an external service (for example, a system using the technology disclosed in Japanese Patent No. 5696555 or Japanese Patent Application Laid-Open No. 2016-045652), or the management server 11 or the like. It may be realized using the processing function of the database server 12.

類似文章記憶部424は、含意認識部423により抽出された類似文章(判定元として記憶された直近テキストデータが示す文章と共通の意味を有する文章)を記憶する。   The similar sentence storage unit 424 stores the similar sentence extracted by the implication recognition unit 423 (a sentence having the same meaning as the sentence indicated by the latest text data stored as the determination source).

送信部425は、類似文章記憶部424に記憶された類似文章をキーフレーズ作成部413に送信する。   The transmission unit 425 transmits the similar sentence stored in the similar sentence storage unit 424 to the key phrase generation unit 413.

図20は、第3の実施形態に係る類似文章抽出部412における処理例を示すシーケンス図である。先ず、データ取得部421の直近テキスト取得部430が直近テキストデータを取得し(S301)、データ取得部421の記憶情報取得部434が全テキストデータを取得する(S302)。その後、データ取得部421は、取得した直近テキストデータ及び全テキストデータをデータ記憶部422に送信する(S303)。   FIG. 20 is a sequence diagram showing an example of processing in the similar sentence extraction unit 412 according to the third embodiment. First, the latest text acquisition unit 430 of the data acquisition unit 421 acquires latest text data (S301), and the stored information acquisition unit 434 of the data acquisition unit 421 acquires all text data (S302). Thereafter, the data acquisition unit 421 transmits the acquired latest text data and all text data to the data storage unit 422 (S303).

データ記憶部422の判定元一時記憶部441は、受信した直近テキストデータを判定元として一次的に記憶し(S304)、データ記憶部422の抽出対象一時記憶部442は、受信した全テキストデータを抽出対象として一時的に記憶する(S305)。データ記憶部422は、記憶されている直近テキストデータ及び全テキストデータを含意認識部423に送信する(S306)。   The determination source temporary storage unit 441 of the data storage unit 422 temporarily stores the received latest text data as a determination source (S304), and the extraction target temporary storage unit 442 of the data storage unit 422 processes all the received text data. It temporarily stores as an extraction target (S305). The data storage unit 422 transmits the stored immediate text data and all text data to the implication recognition unit 423 (S306).

含意認識部423は、受信した直近テキストデータと共通の意味を有する類似文章を全テキストデータから抽出し(S307)、抽出した類似文章を類似文章記憶部424に送信する(S308)。類似文章記憶部424は、受信した類似文章を一時的に記憶し(S309)、記憶されている類似文章を送信部425に送信する(S310)。   The implication recognition unit 423 extracts similar sentences having the same meaning as the received latest text data from all text data (S307), and transmits the extracted similar sentences to the similar sentence storage unit 424 (S308). The similar sentence storage unit 424 temporarily stores the received similar sentence (S309), and transmits the stored similar sentence to the transmission unit 425 (S310).

送信部425は、受信した類似文章をキーフレーズ作成部413に送信する(S311)。そして、キーフレーズ作成部413は、受信した類似文章に基づいて、外部検索部107から関連文書を取得するためのクエリを生成するためのキーフレーズを作成する(S312)。   The transmitting unit 425 transmits the received similar sentence to the key phrase creating unit 413 (S311). Then, the key phrase generation unit 413 generates a key phrase for generating a query for acquiring the related document from the external search unit 107 based on the received similar sentence (S312).

図21は、第3の実施形態に係るキーフレーズ作成部413の機能構成例を示すブロック図である。本実施形態に係るキーフレーズ作成部413は、類似文章取得部451、クラスタリング部452、キーフレーズ記憶部453、及び送信部454を含む。   FIG. 21 is a block diagram showing an example of a functional configuration of the key phrase creation unit 413 according to the third embodiment. The key phrase creation unit 413 according to the present embodiment includes a similar sentence acquisition unit 451, a clustering unit 452, a key phrase storage unit 453, and a transmission unit 454.

類似文章取得部451は、類似文章抽出部412から送信された類似文章を取得する。   The similar sentence acquisition unit 451 acquires the similar sentence transmitted from the similar sentence extraction unit 412.

クラスタリング部452は、類似文章取得部451により取得された複数の類似文章から、互いに共通の意味を有する1以上の類似文章からなる群を生成するクラスタリングを行い、当該互いに共通の意味を有する1以上の類似文章を代表するキーフレーズを作成する処理を行う。クラスタリング部452は、適宜な外部サービスを利用して実現されてもよいし、管理サーバ11やデータベースサーバ12の処理機能を利用して実現されてもよい。   The clustering unit 452 performs clustering to generate a group consisting of one or more similar sentences having a common meaning from a plurality of similar sentences acquired by the similar sentence acquisition unit 451, and one or more having the common meanings. Perform processing to create a key phrase representing a similar sentence of The clustering unit 452 may be realized using an appropriate external service, or may be realized using the processing function of the management server 11 or the database server 12.

キーフレーズ記憶部453は、クラスタリング部452により作成されたキーフレーズを記憶する。   The key phrase storage unit 453 stores the key phrase created by the clustering unit 452.

送信部454は、キーフレーズ記憶部453に記憶されたキーフレーズを情報取得部106に送信する。   The transmission unit 454 transmits the key phrase stored in the key phrase storage unit 453 to the information acquisition unit 106.

図22は、第3の実施形態に係るキーフレーズ作成部413における処理例を示すフローチャートである。先ず、類似文章取得部451は、類似文章抽出部412から全ての類似文章を取得する(S321)。クラスタリング部452は、取得された全ての類似文章に対してクラスタリングを行い、互いに共通の意味を有する1以上の類似文章からなる群毎にキーフレーズを作成する(S322)。キーフレーズ記憶部453は、作成されたキーフレーズを一時的に記憶する(S323)。送信部454は、キーフレーズ記憶部453に記憶されたキーフレーズを情報取得部106に送信する(S324)。   FIG. 22 is a flowchart showing an example of processing in the key phrase creation unit 413 according to the third embodiment. First, the similar sentence acquisition unit 451 acquires all similar sentences from the similar sentence extraction unit 412 (S321). The clustering unit 452 performs clustering on all the acquired similar sentences, and creates a key phrase for each group of one or more similar sentences having a common meaning (S322). The key phrase storage unit 453 temporarily stores the created key phrase (S323). The transmission unit 454 transmits the key phrase stored in the key phrase storage unit 453 to the information acquisition unit 106 (S324).

図23は、第3の実施形態に係る情報取得部106の機能構成例を示すブロック図である。本実施形態に係る情報取得部106は、キーフレーズ取得部461、検索結果取得部462、検索結果記憶部463、及び送信部464を含む。   FIG. 23 is a block diagram showing an example of a functional configuration of the information acquisition unit 106 according to the third embodiment. The information acquisition unit 106 according to the present embodiment includes a key phrase acquisition unit 461, a search result acquisition unit 462, a search result storage unit 463, and a transmission unit 464.

キーフレーズ取得部461は、キーフレーズ作成部413から送信されたキーフレーズを取得する。   The key phrase acquisition unit 461 acquires the key phrase transmitted from the key phrase generation unit 413.

検索結果取得部462は、キーフレーズ取得部461により取得されたキーフレーズを用いてクエリを生成し、当該クエリを用いて外部検索部107から関連文書を含む検索結果を取得する。   The search result acquisition unit 462 generates a query using the key phrase acquired by the key phrase acquisition unit 461, and acquires a search result including the related document from the external search unit 107 using the query.

検索結果記憶部463は、検索結果取得部462により取得された関連文書を含む検索結果を記憶する。   The search result storage unit 463 stores the search result including the related document acquired by the search result acquisition unit 462.

送信部464は、検索結果記憶部463に記憶された検索結果を出力部108に送信する。   The transmitting unit 464 transmits the search result stored in the search result storage unit 463 to the output unit 108.

図24は、第3の実施形態に係る情報取得部106における処理例を示すフローチャートである。先ず、キーフレーズ取得部461は、キーフレーズ作成部413からキーフレーズを取得する(S331)。検索結果取得部462は、取得されたキーフレーズを用いて(キーフレーズから生成されたクエリを用いて)外部検索部107から関連文書(検索結果)を取得する(S332)。検索結果記憶部463は、取得された関連文書を一時的に記憶し(S333)、記憶されている関連文書を出力部108に送信する(S334)。   FIG. 24 is a flowchart showing an example of processing in the information acquisition unit 106 according to the third embodiment. First, the key phrase acquisition unit 461 acquires a key phrase from the key phrase creation unit 413 (S331). The search result acquisition unit 462 acquires the related document (search result) from the external search unit 107 (using the query generated from the key phrase) using the acquired key phrase (S332). The search result storage unit 463 temporarily stores the acquired related document (S333), and transmits the stored related document to the output unit 108 (S334).

上記のように、本実施形態に係る情報提示システム401によれば、会議中に取得されたテキストデータの中から共通の意味を有する類似文章が抽出され、互いに共通の意味を有する複数の類似文章を代表するキーフレーズが自動作成される。そして、キーフレーズを利用して取得された関連文書が会議参加者等に提示される。これにより、表現上の相違があっても意味的に関連性が高い情報を簡便且つ正確に提示することが可能となる。   As described above, according to the information presentation system 401 according to the present embodiment, similar sentences having a common meaning are extracted from text data acquired during a meeting, and a plurality of similar sentences having a common meaning are extracted. A key phrase representing is automatically created. Then, the related document acquired using the key phrase is presented to the meeting participant or the like. This makes it possible to simply and accurately present information that is semantically related even if there is a difference in expression.

(第4の実施形態)
図25は、第4の実施形態に係る情報提示システム501の機能構成例を示すブロック図である。本実施形態に係る情報提示システム501は、第3の実施形態のように作成されたキーフレーズに用いて外部検索部107から取得された情報(関連文書)の中から、キーフレーズと共通の意味を有する類似情報を抽出して出力する構成を有することを特徴とする。本実施形態に係る情報提示システム501は、類似情報抽出部511を含む。
Fourth Embodiment
FIG. 25 is a block diagram showing an example of a functional configuration of an information presentation system 501 according to the fourth embodiment. The information presentation system 501 according to the present embodiment has the same meaning as the key phrase among the information (related documents) acquired from the external search unit 107 using the key phrase created as in the third embodiment. And the similar information is extracted and output. An information presentation system 501 according to the present embodiment includes a similar information extraction unit 511.

図26は、第4の実施形態に係る類似情報抽出部511の機能構成例を示すブロック図である。本実施形態に係る類似情報抽出部511は、データ取得部521、データ記憶部522、含意認識部523、類似情報記憶部524、及び送信部525を含む。   FIG. 26 is a block diagram showing an example of a functional configuration of the similar information extraction unit 511 according to the fourth embodiment. The similar information extraction unit 511 according to the present embodiment includes a data acquisition unit 521, a data storage unit 522, an implication recognition unit 523, a similar information storage unit 524, and a transmission unit 525.

データ取得部521は、キーフレーズ作成部413から送信されたキーフレーズを取得するキーフレーズ取得部531、及び情報取得部106から送信された検索結果を取得する検索結果取得部532を含む。   The data acquisition unit 521 includes a key phrase acquisition unit 531 for acquiring the key phrase transmitted from the key phrase generation unit 413, and a search result acquisition unit 532 for acquiring the search result transmitted from the information acquisition unit 106.

データ記憶部522は、キーフレーズ取得部531により取得されたキーフレーズを判定元として一時的に記憶する判定元一時記憶部541、及び検索結果取得部532により取得された検索結果(キーフレーズを用いて外部検索部107から取得された関連文書を含む情報)を抽出対象として一時的に記憶する抽出対象一時記憶部542を含む。   The data storage unit 522 temporarily stores the key phrase acquired by the key phrase acquisition unit 531 as a determination source, a determination source temporary storage unit 541, and the search result acquired by the search result acquisition unit 532 (using the key phrase It includes an extraction target temporary storage unit 542 that temporarily stores information including the related document acquired from the external search unit 107 as an extraction target.

含意認識部523は、第2の実施形態に係る含意認識部423と同様に、複数の文章(語句を含む)が共通の意味を有するか否かを判定し、判定元(キーフレーズ)と共通の意味を有するキーフレーズ文章を抽出対象(関連文書)から抽出する処理を行う。含意認識部523は、例えば、同義語・類義語辞書データ等を利用して含意認識処理を行う適宜なシステムを利用して実現され得る。含意認識部523は、外部サービス(例えば、特許第5696555号公報や特開2016−045652号公報に開示されている技術を利用したシステム)を利用して実現されてもよいし、管理サーバ11やデータベースサーバ12の処理機能を利用して実現されてもよい。   Similar to the implication recognition unit 423 according to the second embodiment, the implication recognition unit 523 determines whether a plurality of sentences (including phrases) have a common meaning, and is common to the determination source (key phrase). The key phrase sentence having the meaning of is extracted from the extraction target (related document). The implication recognition unit 523 may be realized, for example, using a suitable system that performs implication recognition processing using synonym / synonym dictionary data or the like. The implication recognition unit 523 may be realized using an external service (for example, a system using the technology disclosed in Japanese Patent No. 5696555 or Japanese Patent Application Laid-Open No. 2016-045652), or the management server 11 or the like. It may be realized using the processing function of the database server 12.

類似情報記憶部524は、含意認識部523により抽出された類似情報を記憶する。   The similar information storage unit 524 stores the similar information extracted by the implication recognition unit 523.

送信部525は、類似情報記憶部524に記憶された類似情報を出力部108に出力する。   The transmission unit 525 outputs the similarity information stored in the similarity information storage unit 524 to the output unit 108.

図27は、第4の実施形態に係る類似情報抽出部511における処理例を示すシーケンス図である。先ず、データ取得部521のキーフレーズ取得部531がキーフレーズ作成部413からキーフレーズを取得し(S401)、データ取得部521の検索結果取得部532が検索結果(関連文書を含む情報)を取得する(S402)。その後、データ取得部521は、取得したキーフレーズ及び検索結果をデータ記憶部522に送信する(S403)。   FIG. 27 is a sequence diagram showing a process example of the similar information extraction unit 511 according to the fourth embodiment. First, the key phrase acquisition unit 531 of the data acquisition unit 521 acquires a key phrase from the key phrase generation unit 413 (S401), and the search result acquisition unit 532 of the data acquisition unit 521 acquires a search result (information including related documents) (S402). Thereafter, the data acquisition unit 521 transmits the acquired key phrase and the search result to the data storage unit 522 (S403).

データ記憶部522の判定元一時記憶部541は、受信したキーフレーズを判定元として一時的に記憶し(S404)、データ記憶部422の抽出対象一時記憶部542は、受信した検索結果を抽出対象として一時的に記憶する(S405)。データ記憶部522は、記憶されているキーフレーズ及び検索結果を含意認識部523に送信する(S406)。   The determination source temporary storage unit 541 of the data storage unit 522 temporarily stores the received key phrase as a determination source (S404), and the extraction target temporary storage unit 542 of the data storage unit 422 extracts the received search result. It temporarily stores as (S405). The data storage unit 522 transmits the stored key phrase and the search result to the implication recognition unit 523 (S406).

含意認識部523は、検索結果(関連文書)から、受信したキーフレーズと共通の意味を有する類似情報、及び抽出元となった関連文書のタイトルを抽出し(S407)、抽出した類似情報及びタイトルを類似情報記憶部524に送信する(S408)。類似情報記憶部524は、受信した類似情報及びタイトルを一時的に記憶し(S409)、記憶されている類似情報及びタイトルを送信部525に送信する(S410)。   The implication recognition unit 523 extracts, from the search result (related document), similar information having the same meaning as the received key phrase, and the title of the related document as the extraction source (S407), and the extracted similar information and title Are transmitted to the similar information storage unit 524 (S408). The similarity information storage unit 524 temporarily stores the received similarity information and title (S409), and transmits the stored similarity information and title to the transmission unit 525 (S410).

送信部525は、受信した類似情報及びタイトルを出力部108に送信する(S411)。そして、出力部108は、受信した類似情報及びタイトルを所定の表示装置に出力する(S412)。   The transmitting unit 525 transmits the received similar information and title to the output unit 108 (S411). Then, the output unit 108 outputs the received similar information and title to a predetermined display device (S412).

上記のように、本実施形態に係る情報提示システム501によれば、第3の実施形態のように自動作成されたキーフレーズを用いて外部検索部107から取得された関連文書の中から、当該キーフレーズと共通の意味を有する類似情報を抽出し、当該類似情報を会議参加者等に提示することが可能となる。   As described above, according to the information presentation system 501 according to the present embodiment, among the related documents acquired from the external search unit 107 using the key phrase automatically generated as in the third embodiment, It becomes possible to extract similar information having a common meaning with the key phrase and present the similar information to the conference participants and the like.

(第5の実施形態)
図28は、第5の実施形態に係る情報提示システム601の機能構成例を示すブロック図である。本実施形態に係る情報提示システム601は、第3の実施形態のように作成されたキーフレーズを用いて外部検索部107から取得した関連文書をクラスタリングして出力する構成を有することを特徴とする。本実施形態に係る情報提示システム601は、取得情報クラスタリング部611を含む。
Fifth Embodiment
FIG. 28 is a block diagram showing an example of a functional configuration of an information presentation system 601 according to the fifth embodiment. The information presentation system 601 according to the present embodiment is characterized by having a configuration for clustering and outputting related documents acquired from the external search unit 107 using the key phrase created as in the third embodiment. . An information presentation system 601 according to the present embodiment includes an acquired information clustering unit 611.

図29は、第5の実施形態に係る取得情報クラスタリング部611の機能構成例を示すブロック図である。本実施形態に係る取得情報クラスタリング部611は、検索結果取得部621、クラスタリング部622、クラスタリング結果記憶部623、及び送信部624を含む。   FIG. 29 is a block diagram showing an example of a functional configuration of the acquired information clustering unit 611 according to the fifth embodiment. The acquired information clustering unit 611 according to the present embodiment includes a search result acquisition unit 621, a clustering unit 622, a clustering result storage unit 623, and a transmission unit 624.

検索結果取得部621は、情報取得部106から取得された検索結果、すなわちキーフレーズ作成部413により作成されたキーフレーズを利用して外部検索部107から取得された関連文書を含む情報を取得する。   The search result acquisition unit 621 acquires information including the related document acquired from the external search unit 107 using the search result acquired from the information acquisition unit 106, that is, the key phrase generated by the key phrase generation unit 413. .

クラスタリング部622は、検索結果取得部621により取得された関連文書(関連情報)に含まれる1以上の文章を、キーフレーズと共通の意味を有する1以上の文章からなる群に分類し、群毎に1以上の文章を代表する代表文章を作成する。クラスタリング部622は、適宜な外部サービスを利用して実現されてもよいし、管理サーバ11やデータベースサーバ12の処理機能を利用して実現されてもよい。   The clustering unit 622 classifies one or more sentences included in the related document (related information) acquired by the search result acquisition unit 621 into a group consisting of one or more sentences having the same meaning as the key phrase, and for each group Create a representative sentence that represents one or more sentences. The clustering unit 622 may be realized using an appropriate external service, or may be realized using the processing function of the management server 11 or the database server 12.

クラスタリング結果記憶部623は、クラスタリング部622により作成された代表文章を含むクラスタリング結果を記憶する。   The clustering result storage unit 623 stores the clustering result including the representative sentence created by the clustering unit 622.

送信部624は、クラスタリング結果記憶部623に記憶されたクラスタリング結果を出力部108に送信する。   The transmission unit 624 transmits the clustering result stored in the clustering result storage unit 623 to the output unit 108.

図30は、第5の実施形態に係る取得情報クラスタリング部611における処理例を示すシーケンス図である。先ず、検索結果取得部621が情報取得部106から検索結果(関連文書を含む情報)を取得する(S501)。その後、検索結果取得部621は、取得した検索をクラスタリング部622に送信する(S502)。   FIG. 30 is a sequence diagram showing a process example of the acquired information clustering unit 611 according to the fifth embodiment. First, the search result acquisition unit 621 acquires a search result (information including related documents) from the information acquisition unit 106 (S501). Thereafter, the search result acquisition unit 621 transmits the acquired search to the clustering unit 622 (S502).

クラスタリング部622は、検索結果に含まれる関連文書に含まれる1以上の文章を、キーフレーズと共通の意味を有する1以上の文章からなる群に分類し、群毎に1以上の文章を代表する代表文章を作成し(S503)、当該代表文章を含むクラスタリング結果をクラスタリング結果記憶部623に送信する(S504)。   The clustering unit 622 classifies one or more sentences included in the related documents included in the search result into a group consisting of one or more sentences having the same meaning as the key phrase, and represents one or more sentences in each group. A representative sentence is created (S 503), and the clustering result including the representative sentence is transmitted to the clustering result storage unit 623 (S 504).

クラスタリング結果記憶部623は、受信したクラスタリング結果を一時的に記憶し(S505)、記憶されているクラスタリング結果を送信部624に送信する(S506)。   The clustering result storage unit 623 temporarily stores the received clustering result (S505), and transmits the stored clustering result to the transmitting unit 624 (S506).

送信部624は、受信したクラスタリング結果を出力部108に送信する(S507)。そして、出力部108は、受信したクラスタリング結果を所定の表示装置に出力する(S508)。   The transmitting unit 624 transmits the received clustering result to the output unit 108 (S507). Then, the output unit 108 outputs the received clustering result to a predetermined display device (S508).

上記のように、本実施形態に係る情報提示システム601によれば、第3の実施形態のように自動作成されたキーフレーズを用いて外部検索部107から取得された関連文書に含まれる1以上の文章を、当該キーフレーズと共通の意味を有する1以上の文章からなる群に分類し、群毎に1以上の文章を代表する代表文章を作成し、当該代表文書を含むクラスタリング結果を会議参加者等に提示することが可能となる。   As described above, according to the information presentation system 601 according to the present embodiment, at least one of the related documents acquired from the external search unit 107 using the key phrase automatically generated as in the third embodiment is used. Are classified into a group consisting of one or more sentences having the same meaning as the key phrase, a representative sentence representing one or more sentences is prepared for each group, and the clustering result including the representative Can be presented to

(変形例)
上述した実施形態におけるテキスト化は、様々な手法により実現することができる。例えば、画像データのテキスト化に関しては、表示装置(プロジェクタ14、ディスプレイ15等)に表示・投影された画像からではなく、表示・投影用の電子ファイル(表示・投影用データファイル)から直接テキストデータを取得してもよい。例えば、表示・投影用データファイル(複数のファイルであってもよい)を管理サーバ11に予めアップロードしておき、管理サーバ11を介して表示・投影用データファイルにアクセス可能なシステムを構築してもよい。このようなシステムにおいては、通常、表示内容(画面構成)を示す表示画像信号が管理サーバ11から表示装置に送信される。
(Modification)
Textification in the above-described embodiment can be realized by various methods. For example, regarding conversion of image data into text, text data directly from an electronic file for display and projection (data file for display and projection), not from an image displayed and projected on a display device (projector 14, display 15, etc.) You may get For example, upload a display / projection data file (or a plurality of files) in advance to the management server 11, and construct a system capable of accessing the display / projection data file via the management server 11. It is also good. In such a system, normally, a display image signal indicating display content (screen configuration) is transmitted from the management server 11 to the display device.

上記のような構成とすることで、表示画像信号等から直接テキストデータを抽出することができる。これにより、例えば、複数の表示装置のうちの一部に画像が表示されない場合等であっても、画像テキストデータを適切に取得することができる。このような構成は、例えば、プレゼンテーション用の資料が一部の参加者には表示装置を通して閲覧可能となっているが、他の参加者には印刷物のみにより閲覧可能となっている場合等に有効となる。   With the above configuration, text data can be directly extracted from a display image signal or the like. Thereby, for example, even when the image is not displayed on a part of the plurality of display devices, the image text data can be properly acquired. Such a configuration is effective, for example, when materials for presentation can be viewed by some participants through the display device, but can be viewed only by printed matter by other participants. It becomes.

また、テキスト化処理を行う機能を有する表示装置(例えば、電子黒板、IWB(Interactive Whiteboard)等)を用いる場合には、表示装置がUSBメモリ等から直接表示用データファイルを読み込み、画像を表示させ(又は表示させずに)、表示用データファイルから直接テキストデータを取得してもよい。このような場合には、管理サーバ11を介さずに画像テキストデータを取得することができる。   In addition, when using a display device (for example, an electronic blackboard, IWB (Interactive Whiteboard), etc.) having a function of performing text conversion processing, the display device directly reads a display data file from a USB memory or the like to display an image. The text data may be obtained directly from the display data file (or not displayed). In such a case, the image text data can be acquired without the management server 11.

また、他の記憶装置に表示・投影用データファイルが記憶されている場合には、当該表示・投影用データファイルへのアクセス権を有するデバイス(管理サーバ11、表示装置等)が当該記憶装置から表示・投影用データファイルを取得することにより、画像テキストデータを取得することが可能である。   Also, when the display / projection data file is stored in another storage device, a device (management server 11, display device, etc.) having access to the display / projection data file is Image text data can be acquired by acquiring a display / projection data file.

また、複数ページの資料を用いる場合には、進行状況、ページ数等を示す発言の音声データに基づいて、どのページについての発言かを推測する処理を行うことが好ましい。   In addition, in the case of using materials of a plurality of pages, it is preferable to perform processing of estimating which page the speech is about based on voice data of the speech indicating the progress status, the number of pages, and the like.

以上、本発明の実施形態を説明したが、上記実施形態は例として提示したものであり、発明の範囲を限定することを意図するものではない。この新規な実施形態はその他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更、及び組み合わせを行うことができる。この実施形態及びその変形は発明の範囲及び要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   While the embodiments of the present invention have been described above, the above embodiments are presented as examples, and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other forms, and various omissions, substitutions, changes, and combinations can be made without departing from the scope of the invention. While this embodiment and its modification are included in the range and subject matter of an invention, they are included in the invention indicated to the claim, and the equivalent range.

1,301,401 情報提示システム
11 管理サーバ
12 データベースサーバ
13 マイク
14 プロジェクタ
15 ディスプレイ
16 クライアント端末
19 ネットワーク
21 CPU
22 RAM
23 ROM
24 ストレージ
25 入力デバイス
26 出力デバイス
27 通信I/F
101 音声データ取得部
102 画像データ取得部
103,312 キーワード取得部
104 入力部
105 テキスト化部
106 情報取得部
107,313 外部検索部
108 出力部
109 外部出力部
121 外部ソース
122 外部ソース連携部
123 クロール制御部
124 文書収集部
125 インデックス記憶部
126,331 文書検索部
130 インデックス情報
131 入力データ受信部
132 入力データ処理部
133 テキスト送信部
134 認識データ記憶部
141 音声処理部
142 画像処理部
143 キーワード処理部
150 認識データ情報
151 テキスト受信部
152 テキスト選択部
153 クエリ生成部
154 検索呼出部
155 検索結果送信部
201 設定画面
202 キーワード入力部
203 データベース選択部
204 検索エンジン選択部
211 検索結果表示画面
212 関連情報表示部
213 関連度表示部
302 SNSシステム
311 SNS通信部
321 キーワードデータ取得部
322 正規化部
332 外部ネットワーク連携部
335 インターネット
351 SNS画面
352 キーワード入力部
353 キーワード表示部
354 関連情報表示部
412 類似文章抽出部
413 キーフレーズ作成部
511 類似情報抽出部
611 取得情報クラスタリング部
1,301,401 Information Presentation System 11 Management Server 12 Database Server 13 Microphone 14 Projector 15 Display 16 Client Terminal 19 Network 21 CPU
22 RAM
23 ROM
24 storage 25 input device 26 output device 27 communication I / F
101 voice data acquisition unit 102 image data acquisition unit 103, 312 keyword acquisition unit 104 input unit 105 text conversion unit 106 information acquisition unit 107, 313 external search unit 108 output unit 109 external output unit 121 external source 122 external source cooperation unit 123 crawl Control unit 124 Document collection unit 125 Index storage unit 126, 331 Document search unit 130 Index information 131 Input data reception unit 132 Input data processing unit 133 Text transmission unit 134 Recognition data storage unit 141 Speech processing unit 142 Image processing unit 143 Keyword processing unit 150 recognition data information 151 text reception unit 152 text selection unit 153 query generation unit 154 search call unit 155 search result transmission unit 201 setting screen 202 keyword input unit 203 database Selection unit 204 Search engine selection unit 211 Search result display screen 212 Related information display unit 213 Relevance display unit 302 SNS system 311 SNS communication unit 321 Keyword data acquisition unit 322 Normalization unit 332 External network cooperation unit 335 Internet 351 SNS screen 352 Keyword Input part 353 Keyword display part 354 Related information display part 412 Similar sentence extraction part 413 Key phrase creation part 511 Similar information extraction part 611 Acquisition information clustering part

特開2017−111678号公報Unexamined-Japanese-Patent No. 2017-111678

Claims (14)

任意の期間内の任意の時刻に提示又は取得される情報に関連する関連情報を提示する情報提示システムであって、
前記任意の期間内に取得される音声の音声データ、所定の表示装置に表示されるか又は媒体への印刷用途として用意される画像データ、及び登録されたキーワードを示すキーワードデータのうちの少なくとも2つのデータに含まれる複数のテキストデータに共通する共通語に基づいてクエリを生成し、所定のデータベースから前記クエリによる検索結果を取得する情報取得部と、
前記検索結果又は前記検索結果の一部を所定の出力装置に出力する出力部と、
を備える情報提示システム。
An information presentation system for presenting related information related to information presented or acquired at any time within any period of time, comprising:
At least two of voice data of voice acquired within the arbitrary period, image data displayed on a predetermined display device or prepared for printing on a medium, and keyword data indicating a registered keyword An information acquisition unit that generates a query based on a common word common to a plurality of text data included in one data and acquires a search result by the query from a predetermined database;
An output unit that outputs the search result or a part of the search result to a predetermined output device;
An information presentation system comprising:
前記テキストデータは、前記画像データに代えて、当該画像データを生成するための電子ファイル内のテキストデータである、
請求項1に記載の情報提示システム。
The text data is text data in an electronic file for generating the image data, instead of the image data.
The information presentation system according to claim 1.
前記情報取得部は、前記音声データに基づく音声テキストデータ及び前記画像データに基づく画像テキストデータを利用して前記クエリを生成する場合、前記音声データをテキスト化する際に実行される音声認識処理における誤認識及び前記画像データをテキスト化する際に実行される画像認識処理における誤認識による影響が軽減されるように、前記クエリを生成する、
請求項1又は2に記載の情報提示システム。
When the information acquisition unit generates the query using voice text data based on the voice data and image text data based on the image data, the information recognition unit executes voice recognition processing when the voice data is converted into text. The query is generated so as to reduce the effects of false recognition and false recognition in image recognition processing performed when converting the image data into text.
The information presentation system according to claim 1 or 2.
前記情報取得部は、前記キーワードデータに基づくテキストデータを利用して前記クエリを生成する場合、前記データベースを検索する際の検索方向が前記キーワードに沿ったものとなるように、前記クエリを生成する、
請求項1〜3のいずれか1項に記載の情報提示システム。
The information acquisition unit generates the query so that a search direction when searching the database conforms to the keyword when the query is generated using text data based on the keyword data. ,
The information presentation system according to any one of claims 1 to 3.
所定の端末を用いて前記キーワードの登録を可能にするキーワード取得部、
を更に備える請求項1〜4のいずれか1項に記載の情報提示システム。
A keyword acquisition unit that enables registration of the keyword using a predetermined terminal;
The information presentation system according to any one of claims 1 to 4, further comprising:
前記キーワード取得部は、前記端末がアクセス可能なSNSシステムを利用して前記キーワードを取得する、
請求項5に記載の情報提示システム。
The keyword acquisition unit acquires the keyword using an SNS system accessible by the terminal.
The information presentation system according to claim 5.
前記関連情報は、前記SNSシステムを利用して前記キーワードの登録を行った前記端末に送信される、
請求項6に記載の情報提示システム。
The related information is transmitted to the terminal that has registered the keyword using the SNS system.
The information presentation system according to claim 6.
前記任意の期間に取得された前記テキストデータを記憶する内部記憶部と、
前記内部記憶部に記憶されたテキストデータから、前記任意の時刻に取得された前記テキストデータである直近テキストデータと共通の意味を有する類似文章を抽出する類似文章抽出部と、
前記類似文章に基づいてキーフレーズを作成するキーフレーズ作成部と、
を更に備え、
前記情報取得部は、前記キーフレーズに基づいて生成されたクエリを用いて前記データベースから前記関連情報を取得する、
請求項1〜7のいずれか1項に記載の情報提示システム。
An internal storage unit for storing the text data acquired during the arbitrary period;
A similar sentence extraction unit which extracts similar sentences having the same meaning as the latest text data which is the text data acquired at the arbitrary time, from the text data stored in the internal storage unit;
A key phrase creation unit that creates a key phrase based on the similar sentence;
And further
The information acquisition unit acquires the related information from the database using a query generated based on the key phrase.
The information presentation system according to any one of claims 1 to 7.
前記キーフレーズに基づいて生成されたクエリを用いて取得された前記関連情報から、前記キーフレーズと共通の意味を有するキーフレーズ文章を抽出するキーフレーズ文章抽出部、
を更に備え、
前記出力部は、前記キーフレーズ文章を所定の出力装置に出力する、
請求項8に記載の情報提示システム。
A key phrase sentence extraction unit for extracting a key phrase sentence having a common meaning with the key phrase from the related information acquired using the query generated based on the key phrase;
And further
The output unit outputs the key phrase sentence to a predetermined output device.
The information presentation system according to claim 8.
前記キーフレーズに基づいて生成されたクエリを用いて取得された前記関連情報に含まれる1以上の文章を、当該キーフレーズと共通の意味を有する1以上の文章からなる群に分類し、前記群毎に1以上の文章を代表する代表文章を作成する取得情報クラスタリング部、
を更に備え、
前記出力部は、前記代表文章を含むクラスタリング結果を所定の出力装置に出力する、
請求項8に記載の情報提示システム。
The one or more sentences included in the related information acquired using the query generated based on the key phrase are classified into a group consisting of one or more sentences having the same meaning as the key phrase, and the group Acquisition information clustering unit which creates representative sentences representing one or more sentences each time
And further
The output unit outputs a clustering result including the representative sentence to a predetermined output device.
The information presentation system according to claim 8.
前記類似文章抽出部は、前記任意の時刻に前記音声データに基づく音声テキストデータ及び前記画像データに基づく画像テキストデータが取得された場合に、当該画像テキストデータから当該音声テキストデータと共通に意味を有する情報を抽出する、
請求項8〜10のいずれか1項に記載の情報提示システム。
When similar text extraction unit acquires voice text data based on the voice data and image text data based on the image data at the arbitrary time, the similar text extraction unit makes a meaning in common with the voice text data from the picture text data. Extract information that you have,
The information presentation system according to any one of claims 8 to 10.
任意の期間内の任意の時刻に提示又は取得される情報に関連する関連情報を提示する情報提示方法であって、
前記任意の期間内に取得される音声の音声データ、所定の表示装置に表示されるか又は媒体への印刷用途として用意される画像データ、及び登録されたキーワードを示すキーワードデータのうちの少なくとも2つのデータに含まれる複数のテキストデータに共通する共通語に基づいてクエリを生成するステップと、
所定のデータベースから前記クエリによる検索結果を取得するステップと、
前記検索結果又は前記検索結果の一部を所定の出力装置に出力するステップと、
を含む情報提示方法。
What is claimed is: 1. A method for presenting information related to information presented or obtained at an arbitrary time within an arbitrary period, comprising:
At least two of voice data of voice acquired within the arbitrary period, image data displayed on a predetermined display device or prepared for printing on a medium, and keyword data indicating a registered keyword Generating a query based on a common word common to a plurality of text data included in one data;
Acquiring a search result by the query from a predetermined database;
Outputting the search result or a part of the search result to a predetermined output device;
Information presentation method including
任意の期間内の任意の時刻に提示又は取得される情報に関連する関連情報を提示するための処理を行うコンピュータに、
前記任意の期間内に取得される音声の音声データ、所定の表示装置に表示されるか又は媒体への印刷用途として用意される画像データ、及び登録されたキーワードを示すキーワードデータのうちの少なくとも2つのデータに含まれる複数のテキストデータに共通する共通語に基づいてクエリを生成する処理と、
所定のデータベースから前記クエリによる検索結果を取得する処理と、
前記検索結果又は前記検索結果の一部を所定の出力装置に出力する処理と、
を実行させるプログラム。
A computer performing processing for presenting related information related to information presented or acquired at any time within any period of time;
At least two of voice data of voice acquired within the arbitrary period, image data displayed on a predetermined display device or prepared for printing on a medium, and keyword data indicating a registered keyword A process of generating a query based on a common word common to a plurality of text data included in one data;
A process of acquiring a search result by the query from a predetermined database;
A process of outputting the search result or a part of the search result to a predetermined output device;
A program that runs
請求項13に記載のプログラムを格納した記録媒体。   A recording medium storing the program according to claim 13.
JP2018163122A 2017-12-04 2018-08-31 Information presentation system, information presentation method, program, and recording medium Pending JP2019102060A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017232883 2017-12-04
JP2017232883 2017-12-04

Publications (1)

Publication Number Publication Date
JP2019102060A true JP2019102060A (en) 2019-06-24

Family

ID=66973892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163122A Pending JP2019102060A (en) 2017-12-04 2018-08-31 Information presentation system, information presentation method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2019102060A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005011180A (en) * 2003-06-20 2005-01-13 Nec Corp Url retrieval system, server therefor, and url retrieval method
US20090006345A1 (en) * 2007-06-28 2009-01-01 Microsoft Corporation Voice-based search processing
US20090254415A1 (en) * 2008-04-07 2009-10-08 Nirav Bhavsar Method and System for Comparing Effects of Audio-Visual Ads on Internet Searches
JP2011049707A (en) * 2009-08-26 2011-03-10 Nec Corp Moving image playback device, moving image playback method, and program
JP2014178621A (en) * 2013-03-15 2014-09-25 Nikon Corp Information providing device and program
JP2017016296A (en) * 2015-06-30 2017-01-19 シャープ株式会社 Image display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005011180A (en) * 2003-06-20 2005-01-13 Nec Corp Url retrieval system, server therefor, and url retrieval method
US20090006345A1 (en) * 2007-06-28 2009-01-01 Microsoft Corporation Voice-based search processing
US20090254415A1 (en) * 2008-04-07 2009-10-08 Nirav Bhavsar Method and System for Comparing Effects of Audio-Visual Ads on Internet Searches
JP2011049707A (en) * 2009-08-26 2011-03-10 Nec Corp Moving image playback device, moving image playback method, and program
JP2014178621A (en) * 2013-03-15 2014-09-25 Nikon Corp Information providing device and program
JP2017016296A (en) * 2015-06-30 2017-01-19 シャープ株式会社 Image display device

Similar Documents

Publication Publication Date Title
JP5257071B2 (en) Similarity calculation device and information retrieval device
US8577882B2 (en) Method and system for searching multilingual documents
KR101661198B1 (en) Method and system for searching by using natural language query
US20220050833A1 (en) Dynamically suppressing query answers in search
US20220405484A1 (en) Methods for Reinforcement Document Transformer for Multimodal Conversations and Devices Thereof
US11263403B2 (en) Interpreting a most likely meaning of a phrase
US7359896B2 (en) Information retrieving system, information retrieving method, and information retrieving program
US20140348400A1 (en) Computer-readable recording medium storing program for character input
JP6745127B2 (en) Information processing system, server, terminal device, information processing method, and program
US11816434B2 (en) Utilizing inflection to select a meaning of a word of a phrase
JP2017182646A (en) Information processing device, program and information processing method
JP2011165092A (en) Providing device and acquisition system of document image relevant information
KR101440887B1 (en) Method and apparatus of recognizing business card using image and voice information
Bakar The development of an integrated corpus for Malay language
JP2019102060A (en) Information presentation system, information presentation method, program, and recording medium
JP6640519B2 (en) Information analysis device and information analysis method
CN109284364B (en) Interactive vocabulary updating method and device for voice microphone-connecting interaction
JPH07219957A (en) Information sorting device, information retrieving device and information collecting device
Martins et al. A geo-temporal information extraction service for processing descriptive metadata in digital libraries
JP2011248827A (en) Cross-lingual information searching method, cross-lingual information searching system and cross-lingual information searching program
JP6976537B1 (en) Information retrieval device, information retrieval method and information retrieval program
CN116991969B (en) Method, system, electronic device and storage medium for retrieving configurable grammar relationship
JP5843235B2 (en) WEB information processing apparatus, WEB information processing method, and program
US20200320140A1 (en) Processing a query to produce an embellished query response
US20220383148A1 (en) Processing a contradiction in a knowledge database

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230516