JP2024010748A - Search support system, information processing apparatus, method, and program - Google Patents

Search support system, information processing apparatus, method, and program Download PDF

Info

Publication number
JP2024010748A
JP2024010748A JP2022112214A JP2022112214A JP2024010748A JP 2024010748 A JP2024010748 A JP 2024010748A JP 2022112214 A JP2022112214 A JP 2022112214A JP 2022112214 A JP2022112214 A JP 2022112214A JP 2024010748 A JP2024010748 A JP 2024010748A
Authority
JP
Japan
Prior art keywords
information
search
keywords
support system
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022112214A
Other languages
Japanese (ja)
Inventor
健太 椎名
Kenta Shiina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022112214A priority Critical patent/JP2024010748A/en
Publication of JP2024010748A publication Critical patent/JP2024010748A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system, an apparatus, a method, and a program that allow a search in a specific management destination.
SOLUTION: A search support system supports a search of information, and the system includes: a first receiving unit 60 that receives designation of a management destination managing the information; an extraction unit 61 that extracts one or more keywords from character strings acquired from an output source outputting the character strings; a second receiving unit 62 that receives selection of one keyword from the extracted one or more keywords; and a transmission unit 63 that transmits an instruction to execute the search and the selected keywords to a designated company's own tool 41.
SELECTED DRAWING: Figure 5
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、情報の検索を支援するシステム、情報処理装置、方法およびプログラムに関する。 The present invention relates to a system, an information processing device, a method, and a program that support information searching.

近年、離れた場所にいる相手と会話を行うためのツールとして、Microsoft teams(登録商標)等のコミュニケーションツールが普及している。Microsoft teams(登録商標)は、入力された音声を文字列(テキスト)に変換する音声認識ツールを備えている。このため、会話中に分からない用語が出てきたとしても、テキストに変換して表示することで、聞き逃しを防ぐことができる。 In recent years, communication tools such as Microsoft Teams (registered trademark) have become popular as tools for having conversations with people who are located far away. Microsoft Teams (registered trademark) is equipped with a speech recognition tool that converts input speech into character strings (text). Therefore, even if an unfamiliar term comes up during a conversation, converting it to text and displaying it can prevent you from missing it.

テキスト中に分からない用語が出てきた場合、分からない用語をキーワードとして検索する際に、テキストから特定のキーワードを抽出する必要があるが、音声認識ツールは、特定のキーワードを抽出する機能は有していない。このため、音声から変換されたテキスト中の特定のキーワードを調べるには、ユーザ自身でテキストから特定のキーワードを抽出する必要があった。なお、音声から変換されたテキストではないが、文字列から特定のキーワードを抽出する技術は既に知られている(例えば、特許文献1~3参照)。 When an unknown term appears in a text, it is necessary to extract a specific keyword from the text when searching for the unknown term as a keyword, but voice recognition tools do not have the ability to extract specific keywords. I haven't. Therefore, in order to search for specific keywords in the text converted from speech, the user had to extract the specific keywords from the text himself. Although it is not text converted from speech, techniques for extracting specific keywords from character strings are already known (for example, see Patent Documents 1 to 3).

キーワードは、Yahoo!(登録商標)やgoogle(登録商標)等の検索エンジンを用いて検索することができる。従来においては、検索を最適化する目的で、最適な検索エンジンを選択する技術が知られている(例えば、特許文献4参照)。 The keyword is Yahoo! (registered trademark), Google (registered trademark), and other search engines. Conventionally, a technique for selecting an optimal search engine for the purpose of optimizing a search has been known (for example, see Patent Document 4).

会社等の組織では、活動時の困り事に対する答えやヒント等を組織内でまとめ、管理していることが多い。調べたい情報が、組織のような特定の管理先内にある場合、特定の管理先で管理されている情報を検索する必要があるが、上記従来の技術では、検索対象に特定の管理先は含まれていないため、特定の管理先で管理されている情報を検索することはできなかった。 In organizations such as companies, answers and hints for problems encountered during activities are often compiled and managed within the organization. If the information you want to investigate is within a specific management location such as an organization, it is necessary to search for information managed by the specific management location, but with the above conventional technology, the search target does not include a specific management location. Because it was not included, it was not possible to search for information managed by a specific management destination.

本発明は上述した課題を解決するものであり、特定の管理先で管理されている情報を検索することを可能にするシステム、装置、方法およびプログラムを提供することを目的とする。 The present invention solves the above-mentioned problems, and aims to provide a system, device, method, and program that make it possible to search for information managed by a specific management destination.

本発明によれば、情報の検索を支援するシステムであって、
情報を管理する管理先の指定を受け付ける第1の受付手段と、
文字列の出力元から取得した該文字列から1以上のキーワードを抽出する抽出手段と、
抽出された1以上のキーワードから1のキーワードの選択を受け付ける入力受付手段と、
指定された管理先に対して検索実行の指示と選択されたキーワードとを送信する送信手段と
を含む、検索支援システムを提供する。
According to the present invention, there is provided a system for supporting information retrieval, comprising:
a first reception means for accepting the designation of a management destination that manages the information;
Extracting means for extracting one or more keywords from the character string obtained from the character string output source;
input reception means for accepting selection of one keyword from the one or more extracted keywords;
A search support system is provided that includes a transmitting means for transmitting a search execution instruction and a selected keyword to a specified management destination.

本発明によれば、特定の管理先で管理されている情報を検索することが可能となる。 According to the present invention, it is possible to search for information managed by a specific management destination.

情報処理システムの構成例を示した図。FIG. 1 is a diagram showing a configuration example of an information processing system. 情報処理装置のハードウェア構成の一例を示した図。FIG. 1 is a diagram showing an example of a hardware configuration of an information processing device. 検索支援システムの起動から検索結果を表示するまでの概略を説明する図。FIG. 2 is a diagram illustrating an outline of the process from starting up the search support system to displaying search results. 自社ツールを指定するための画面の一例を示した図。The figure which showed an example of the screen for specifying an in-house tool. 検索支援システムの第1の構成例を示したブロック図。FIG. 1 is a block diagram showing a first configuration example of a search support system. 音声認識ツールにより変換したテキストを表示した画面の一例を示した図。The figure which showed an example of the screen which displayed the text converted by the speech recognition tool. 検索支援システムの起動から検索結果を表示するまでの処理の第1の例を示したフローチャート。2 is a flowchart showing a first example of processing from starting the search support system to displaying search results. キーワードの一覧を表示した画面の一例を示した図。The figure which showed an example of the screen which displayed the list of keywords. キーワードの一覧から1のキーワードが選択されたときの画面の一例を示した図。The figure which showed an example of the screen when one keyword is selected from the list of keywords. 検索結果を表示した画面の一例を示した図。The figure which showed an example of the screen which displayed the search result. 検索支援システムの第2の構成例を示したブロック図。FIG. 3 is a block diagram showing a second configuration example of the search support system. ツール間の紐付け、認証の際に表示部に表示される画面の一例を示した図。The figure which showed an example of the screen displayed on a display part at the time of linking between tools and authentication. 検索支援ツールの起動から検索結果を表示するまでの処理の第2の例を示したフローチャート。7 is a flowchart showing a second example of processing from starting the search support tool to displaying search results. 情報処理システムの別の構成例を示した図。The figure showing another example of composition of an information processing system.

以下、本発明について実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。 The present invention will be described below with reference to embodiments, but the present invention is not limited to the embodiments described below.

図1は、情報処理システムの構成例を示した図である。情報処理システムは、離れた場所にいる相手と会話を行うためのシステムであり、情報処理装置として少なくとも2つのPC(Personal Computer)10、11と、PC10、11間を繋ぐネットワーク12とを含む。 FIG. 1 is a diagram showing an example of the configuration of an information processing system. The information processing system is a system for having a conversation with a person located at a remote location, and includes at least two PCs (Personal Computers) 10 and 11 as information processing devices, and a network 12 that connects the PCs 10 and 11.

PC10、11は、ノートPC、デスクトップPC、ウェアラブルPC等のいずれであってもよい。PC10、11は、ユーザ間の会話を可能にするため、音声入力手段としてマイク、音声出力手段としてスピーカーを少なくとも備える。PC10、11は、相手の顔を見ながら会話を行うことを可能にするため、撮像装置してカメラを備えることができる。なお、少なくともマイク、スピーカーを備え、ネットワーク12を介して通信を行うことができる機器であれば、PC10、11に限定されず、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)等であってもよい。 The PCs 10 and 11 may be notebook PCs, desktop PCs, wearable PCs, or the like. The PCs 10 and 11 are equipped with at least a microphone as an audio input means and a speaker as an audio output means to enable conversation between users. The PCs 10 and 11 can be equipped with a camera as an imaging device to enable conversation while looking at the other party's face. Note that any device that is equipped with at least a microphone and a speaker and that can communicate via the network 12 is not limited to the PCs 10 and 11, but may also be a mobile phone, a smartphone, a tablet terminal, a game console, or a PDA (Personal Digital Assistant). etc. may be used.

ネットワーク12は、有線、無線のいずれであってもよく、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットのいずれであってもよい。また、ネットワーク12は、1つのネットワークに限らず、ルータ等の中継装置により接続された2以上のネットワークから構成されていてもよい。 The network 12 may be wired or wireless, and may be a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. Further, the network 12 is not limited to one network, but may be composed of two or more networks connected by a relay device such as a router.

PC10、11には、互いに会話を行うためのツールとして、Microsoft teams(登録商標)等のコミュニケーションツールが実装される。コミュニケーションツールは、音声認識ツールを含む。音声認識ツールは、会話中の音声をリアルタイムで文字列(テキスト)に変換する機能を有している。このため、会話中に分からない用語が出てきたとしても、それが文字で表示されるため、聞き逃しを防ぐことができる。 A communication tool such as Microsoft Teams (registered trademark) is installed in the PCs 10 and 11 as a tool for mutual conversation. Communication tools include voice recognition tools. Speech recognition tools have the ability to convert speech during a conversation into character strings (text) in real time. Therefore, even if a term that you do not understand comes up during a conversation, it will be displayed in text, making it possible to prevent you from missing it.

会話中の分からない用語が、変換されたテキスト中にある場合、その用語を抽出し、汎用の検索エンジンに入力して検索を行い、その意味を調べることができる。検索エンジンとしては、Google(登録商標)、Yahoo!(登録商標)、Bing(登録商標)等を使用することができる。 If an unknown term in a conversation appears in the converted text, the user can extract the term and enter it into a general-purpose search engine to search and find out its meaning. Search engines include Google (registered trademark) and Yahoo! (registered trademark), Bing (registered trademark), etc. can be used.

テキストをテキストの一部の文字もしくは文字列に分割し、検索時に使用するキーワードを生成する技術は、上記のように既に知られており、この技術を使用すれば、キーワードの抽出までを自動で行い、ユーザが、抽出したキーワードの1つを選択することで、そのキーワードに関連した情報を検索することができる。 As mentioned above, the technology of dividing text into parts of characters or character strings and generating keywords for use in searches is already known, and if this technology is used, it is possible to automatically extract keywords. By selecting one of the extracted keywords, the user can search for information related to that keyword.

ところで、会社等の組織において、業務等の活動中、困り事があると、その答えやヒント等をまとめ、組織内でその情報を管理しているケースが多々ある。組織は、会社、部署、自治体、組合等の共通の目的をもった集団である。組織内の情報は、情報管理ツールを用いて管理することができ、組織が会社である場合、情報管理ツールとして、自社ツールもしくは社内ツールが使用される。以下、情報管理ツールを自社ツールとして説明する。 By the way, there are many cases in organizations such as companies that when they encounter a problem during their business activities, they compile answers, hints, etc., and manage this information within the organization. An organization is a group with a common purpose, such as a company, department, local government, or union. Information within an organization can be managed using an information management tool, and if the organization is a company, an in-house tool or an in-house tool is used as the information management tool. The information management tool will be explained below as an in-house tool.

ユーザにより選択されたキーワードに関連する情報が、自社ツールで管理されている情報の中にある場合、自社ツール内で検索する必要がある。これまでは、音声認識ツールと自社ツールを連携させることができず、自社ツール内で検索する場合、ユーザが自社ツールを起動させ、キーワードを入力し、検索ボタンを押下する等して検索を実行させる必要があった。 If the information related to the keyword selected by the user is among the information managed by the company's tool, it is necessary to search within the company's tool. Until now, it was not possible to link voice recognition tools with in-house tools, and when searching within an in-house tool, the user had to launch the in-house tool, enter a keyword, and press the search button. I needed to do it.

しかしながら、この情報処理システムでは、自社ツールを指定することを可能にし、音声認識ツールと自社ツールとを連携させることができるため、ユーザが抽出されたキーワードの1つを選択するのみで、指定された自社ツールにより、選択されたキーワードを基に検索を実行させることができる。 However, with this information processing system, it is possible to specify the in-house tool, and the voice recognition tool and the in-house tool can be linked, so the user can simply select one of the extracted keywords and the specified tool can be specified. Our in-house tools allow you to perform searches based on selected keywords.

図1に示す例では、自社ツールがPC10、11のそれぞれに実装されている。なお、PC10、11が同じ会社や同じグループ企業に設置される場合は、使用する自社ツールが同じツールでよいため、PC10、11のいずれかに自社ツールが実装されていてもよい。なお、ネットワーク12に接続されるPCは、PC10、11の2つに限定されるものではなく、3以上のPCが接続されていてもよい。 In the example shown in FIG. 1, in-house tools are installed in each of the PCs 10 and 11. Note that if the PCs 10 and 11 are installed in the same company or the same group company, the same in-house tools may be used, so the in-house tools may be installed in either the PCs 10 or 11. Note that the PCs connected to the network 12 are not limited to the two PCs 10 and 11, and three or more PCs may be connected.

図2は、情報処理装置としてPC10のハードウェア構成の一例を示した図である。PC10とPC11は、同じハードウェア構成であるため、ここではPC10のハードウェア構成のみを説明する。PC10は、コンピュータにより構築されており、CPU(Central Processing unit)20、ROM(Read Only Memory)21、RAM(Random Access Memory)22、HD(Hard Disk)23、HDD(Hard Disk Drive)コントローラ24を備える。 FIG. 2 is a diagram showing an example of the hardware configuration of the PC 10 as an information processing device. Since the PC 10 and the PC 11 have the same hardware configuration, only the hardware configuration of the PC 10 will be described here. The PC 10 is constructed of a computer, and includes a CPU (Central Processing unit) 20, a ROM (Read Only Memory) 21, a RAM (Random Access Memory) 22, an HD (Hard Disk) 23, and an HDD (Hard Disk Drive) controller 24. Be prepared.

また、情報処理装置は、ディスプレイ25、外部機器接続I/F(interface)26、ネットワークI/F27、バスライン28、キーボード29、ポインティングデバイス30、DVD-RW(Digital Versatile Disk Rewritable)ドライブ31、メディアI/F32を備える。 The information processing device also includes a display 25, an external device connection I/F (interface) 26, a network I/F 27, a bus line 28, a keyboard 29, a pointing device 30, a DVD-RW (Digital Versatile Disk Rewritable) drive 31, a media Equipped with I/F32.

CPU20は、情報処理装置全体の動作を制御する。ROM21は、IPL(Initial Program Loader)等のCPU20の駆動に用いられるプログラムを記憶する。RAM22は、CPU20に対する作業領域を提供する。HD23は、プログラム等の各種データを記憶する。なお、各種データの記憶は、HD23に限定されるものではなく、SSD(Solid State Drive)等であってもよい。HDDコントローラ24は、CPU20の制御に従ってHD23に対する各種データの読み出し、または書き込みを制御する。 The CPU 20 controls the operation of the entire information processing device. The ROM 21 stores programs used to drive the CPU 20, such as IPL (Initial Program Loader). RAM 22 provides a work area for CPU 20. The HD 23 stores various data such as programs. Note that the storage of various data is not limited to the HD 23, and may be stored in an SSD (Solid State Drive) or the like. The HDD controller 24 controls reading and writing of various data to the HD 23 under the control of the CPU 20 .

ディスプレイ25は、カーソル、メニュー、ウィンドウ、文字または画像等の各種情報を表示する。外部機器接続I/F26は、各種の外部機器を接続するためのインターフェースである。外部機器は、例えばUSB(Universal Serial Bus)ケーブル等によって接続される外付けマイク、外付けスピーカー、外付けカメラや、USBメモリ等である。PC10は、音声の入力および出力を行うために、少なくとも外付けマイク、外付けスピーカーが接続される。ネットワークI/F27は、ネットワーク12を利用してデータ通信をするためのインターフェースである。バスライン28は、図2に示されているCPU20等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display 25 displays various information such as a cursor, menu, window, characters, or images. The external device connection I/F 26 is an interface for connecting various external devices. External devices include, for example, an external microphone, an external speaker, an external camera, and a USB memory connected via a USB (Universal Serial Bus) cable. The PC 10 is connected to at least an external microphone and an external speaker in order to input and output audio. The network I/F 27 is an interface for data communication using the network 12. The bus line 28 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 20 shown in FIG. 2.

キーボード29は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス30は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。DVD-RWドライブ31は、着脱可能な記録媒体の一例であるDVD-RW33に対する各種データの読み出し、または書き込みを制御する。なお、DVD-RW33に限らず、DVD-R、CD-R、CD-RW等であってもよい。メディアI/F32は、フラッシュメモリ等の記録メディア34に対するデータの読み出し、または書き込み(記憶)を制御する。 The keyboard 29 is a type of input means that includes a plurality of keys for inputting characters, numerical values, various instructions, and the like. The pointing device 30 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 31 controls reading and writing of various data on a DVD-RW 33, which is an example of a removable recording medium. Note that it is not limited to the DVD-RW 33, but may be a DVD-R, a CD-R, a CD-RW, or the like. The media I/F 32 controls reading or writing (storage) of data to a recording medium 34 such as a flash memory.

PC10は、音声入力手段としてマイク、音声出力手段としてスピーカー、撮像手段としてカメラを内蔵していてもよい。 The PC 10 may have a built-in microphone as a voice input means, a speaker as a voice output means, and a camera as an imaging means.

図3は、自社ツールの指定からPC10による自動検索の結果を表示するまでの処理の概略を説明する図である。PC11も同様の処理を実行するため、ここではPC10についてのみ説明する。PC10は、相手と会話した音声を認識し、テキストに変換し、そのテキストからキーワードを抽出し、ユーザが選択したキーワードを基に検索を実行する。このため、PC10は、音声を認識し、テキストに変換する音声認識ツール40と、自社ツール41と、キーワードを抽出し、自社ツール41に対して選択されたキーワードと検索実行の指示を送信する検索支援システム42とを含む。図3に示す例では、検索支援システム42に対して操作を行うユーザ43も示されている。 FIG. 3 is a diagram illustrating an outline of the process from specifying an in-house tool to displaying the results of automatic search by the PC 10. Since the PC 11 also executes similar processing, only the PC 10 will be described here. The PC 10 recognizes the voice spoken with the other party, converts it into text, extracts a keyword from the text, and executes a search based on the keyword selected by the user. For this reason, the PC 10 uses a voice recognition tool 40 that recognizes speech and converts it into text, an in-house tool 41, and a search engine that extracts keywords and sends the selected keywords and search execution instructions to the in-house tool 41. support system 42. In the example shown in FIG. 3, a user 43 who operates the search support system 42 is also shown.

音声認識ツール40は、マイク等の音声入力手段に入力された音声を理解し、テキストに変換して出力する。音声認識ツール40は、例えば入力された音声から周波数や音の大きさ等の特徴を抽出する音響分析を行い、特徴量と音の最小単位である音素の組み合わせを統計的に示す音響モデルと照合し、1つずつ音素を特定し、単語と発音の組として登録された発音辞書を用いて単語の候補を推定し、単語間の出現度合いを登録した言語モデルを用いて文章化する方法を採用することができる。上記の音素の特定から文章化までのテキスト変換は、AI(Artificial Intelligence)を用いて実施することができる。AIは、膨大なデータを機械学習することにより精度の高いテキスト変換を実現することができる。 The speech recognition tool 40 understands speech input into a speech input means such as a microphone, converts it into text, and outputs the text. The speech recognition tool 40 performs acoustic analysis to extract features such as frequency and loudness from input speech, for example, and compares it with an acoustic model that statistically shows the combination of features and phonemes, which are the smallest units of sound. Then, we identify each phoneme one by one, estimate word candidates using a pronunciation dictionary registered as pairs of words and pronunciations, and convert them into sentences using a language model that registers the degree of occurrence between words. can do. The text conversion from identifying phonemes to writing can be performed using AI (Artificial Intelligence). AI can achieve highly accurate text conversion by performing machine learning on vast amounts of data.

ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術をいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 Here, machine learning is a technology that allows computers to acquire human-like learning abilities, and computers autonomously generate algorithms necessary for decisions such as data identification from learning data that has been captured in advance. A technology that applies this to new data to make predictions. The learning method for machine learning may be supervised learning, unsupervised learning, semi-supervised learning, reinforcement learning, or deep learning, or it may be a learning method that combines these learning methods. It doesn't matter what learning method you use.

検索支援システム42は、テキストの出力元となる音声認識ツール40からテキストを取得し、取得したテキストから1以上のキーワードを抽出する。検索支援システム42は、抽出したキーワードの一覧をユーザ43に提示し、ユーザ43から提示したキーワードの中から1のキーワードの選択を受け付ける。検索支援システム42は、自社ツール41に対して検索実行の指示とともに選択されたキーワードを送信する。 The search support system 42 acquires text from the speech recognition tool 40 that is the output source of the text, and extracts one or more keywords from the acquired text. The search support system 42 presents a list of extracted keywords to the user 43, and accepts selection of one keyword from the keywords presented by the user 43. The search support system 42 transmits the selected keyword to the in-house tool 41 along with an instruction to execute the search.

自社ツール41は、検索支援システム42からの検索実行の指示およびキーワードを受信し、受信したキーワードを基に検索を実行する。検索実行の指示は、例えば検索実行のコマンドである。このため、自社ツール41は、自動で、キーワードを入力し、入力したキーワードを基に検索を実行する。また、自社ツール41は、検索結果を表示する。 The in-house tool 41 receives a search execution instruction and keywords from the search support system 42, and executes a search based on the received keywords. The search execution instruction is, for example, a search execution command. Therefore, the in-house tool 41 automatically inputs keywords and executes a search based on the input keywords. Further, the in-house tool 41 displays search results.

検索結果は、入力されたキーワードに関連する情報の一覧であり、例えばキーワードに関連する度合い(関連度)に基づき、閾値以上の関連性を有する情報を抽出し、抽出した情報を関連度に基づき順序を決め、決定した順序で表示することができる。関連度は、各情報内の要素を使用し、各要素につき関連度を計算し、各関連度に重みを加え、最終的な関連度として導出することができる。関連度としては、例えば共分散や相関係数等を用いることができる。共分散や相関係数については、良く知られているため、ここでは詳述しない。 The search result is a list of information related to the input keyword. For example, based on the degree of relevance to the keyword (relevance), information that has relevance above a threshold is extracted, and the extracted information is extracted based on the degree of relevance. You can decide the order and display them in the decided order. The degree of association can be derived as the final degree of association by using the elements in each piece of information, calculating the degree of association for each element, and adding weight to each degree of association. As the degree of association, for example, covariance, correlation coefficient, etc. can be used. Since covariance and correlation coefficients are well known, they will not be discussed in detail here.

音声認識ツール40は、コミュニケーションツールの起動と同時、もしくはコミュニケーションツールの起動後のユーザ43からの要求に応じて起動させることができる。検索支援システム42は、音声認識ツール40の起動後のユーザ43からの要求に応じて起動させることができる。なお、これらの起動のタイミングは一例であり、これらのタイミングに限定されるものではない。 The voice recognition tool 40 can be activated at the same time as the communication tool is activated, or in response to a request from the user 43 after the communication tool is activated. The search support system 42 can be activated in response to a request from the user 43 after the voice recognition tool 40 has been activated. Note that these activation timings are merely examples, and are not limited to these timings.

検索支援システム42は、ユーザ43に対し、自社ツール41を指定する画面を提供し、自社ツール41の指定を受け付ける(S1)。図4は、自社ツール41を指定するための初期画面とキーワード一覧を表示するための画面の一例を示した図である。 The search support system 42 provides the user 43 with a screen for specifying the in-house tool 41, and accepts the specification of the in-house tool 41 (S1). FIG. 4 is a diagram showing an example of an initial screen for specifying the in-house tool 41 and a screen for displaying a list of keywords.

初期画面は、自社ツール41の所在を示すパスを入力する入力フィールド50と、自動検索のコマンドとして自動検索のショートカットを入力する入力フィールド51を含む。入力フィールド50、51は、初期画面が表示されるたびに空欄となってもよいし、前回入力された情報が自動で入力されてもよい。ここでは、自社ツール41ごとにコマンドが異なるものとして、コマンドも指定できるように入力フィールド51を設けているが、コマンドが共通である場合、入力フィールド50のみを設けた形であってもよい。 The initial screen includes an input field 50 for inputting a path indicating the location of the company's tool 41, and an input field 51 for inputting an automatic search shortcut as an automatic search command. The input fields 50 and 51 may be left blank each time the initial screen is displayed, or the information input last time may be automatically input. Here, an input field 51 is provided so that a command can be specified as the command is different for each in-house tool 41, but if the command is common, only the input field 50 may be provided.

初期画面は、音声認識ツール40と自社ツール41の連携を開始させるための連携開始ボタン52を含む。ユーザ43は、入力フィールド50、51に所定の情報を入力し、連携開始ボタン52を押下することで、音声認識ツール40と自社ツール41の連携を開始させることができる。連携を開始させると、指定された自社ツール41が起動される。自社ツール41が起動すると、初期画面からキーワードの一覧を表示させるための画面53が表示される。画面53は、コミュニケーションツールにより表示される画面に重畳して表示される検索支援システム42の画面(例えば、ポップアップウィンドウ)である。このとき、画面53には、まだキーワードが抽出されていないので、キーワードの一覧は表示されない。 The initial screen includes a collaboration start button 52 for starting collaboration between the voice recognition tool 40 and the in-house tool 41. The user 43 can start collaboration between the voice recognition tool 40 and the in-house tool 41 by inputting predetermined information into the input fields 50 and 51 and pressing the collaboration start button 52. When the collaboration is started, the designated in-house tool 41 is activated. When the in-house tool 41 is activated, a screen 53 for displaying a list of keywords is displayed from the initial screen. The screen 53 is a screen (for example, a pop-up window) of the search support system 42 that is displayed superimposed on the screen displayed by the communication tool. At this time, the list of keywords is not displayed on the screen 53 because no keywords have been extracted yet.

なお、音声認識ツール40と連携させるツールは、自社ツール41に限定されるものではなく、ユーザ43が閲覧可能な情報を管理し、情報の検索が可能なツールであれば、いかなるツールであってもよい。 Note that the tool to be linked with the voice recognition tool 40 is not limited to the in-house tool 41, but may be any tool as long as it manages information that the user 43 can view and can search for information. Good too.

再び図3を参照して、音声認識ツール40は、入力された音声をテキストに変換する(S2)。検索支援システム42は、音声認識ツール40が変換したテキストを取得する(S3)。 Referring again to FIG. 3, the speech recognition tool 40 converts the input speech into text (S2). The search support system 42 acquires the text converted by the speech recognition tool 40 (S3).

検索支援システム42は、取得したテキストから1以上のキーワードを抽出する(S4)。そして、検索支援システム42は、抽出したキーワードを一覧にし、選択可能にした状態で表示する(S5)。ユーザ43が表示されたキーワードの一覧の中から1のキーワードを選択し(S6)、検索支援システム42がその選択を受け付ける。 The search support system 42 extracts one or more keywords from the acquired text (S4). Then, the search support system 42 makes a list of the extracted keywords and displays them in a selectable state (S5). The user 43 selects one keyword from the displayed list of keywords (S6), and the search support system 42 accepts the selection.

検索支援システム42は、ユーザ43により選択されたキーワードをコマンドとともに自社ツール41へ送信する(S7)。自社ツール41は、コマンドに従って、受信したキーワードを基に検索を実行する(S8)。自社ツール41は、検索結果を表示する(S9)。これにより、ユーザ43が自社ツール41で検索した結果を閲覧することが可能となる。 The search support system 42 transmits the keyword selected by the user 43 to the in-house tool 41 along with a command (S7). The in-house tool 41 executes a search based on the received keyword according to the command (S8). The in-house tool 41 displays the search results (S9). This allows the user 43 to view the search results using the in-house tool 41.

図5は、検索支援システム42の第1の構成例を示したブロック図である。検索支援システム42の各機能は、1または複数の処理回路によって実現することが可能である。処理回路は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようにプログラミングされたプロセッサや、各機能を実行するように設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や、従来の回路モジュール等のデバイスであってもよい。 FIG. 5 is a block diagram showing a first configuration example of the search support system 42. As shown in FIG. Each function of the search support system 42 can be realized by one or more processing circuits. Processing circuits include processors that are programmed to execute each function using software, such as processors implemented using electronic circuits, ASICs (Application Specific Integrated Circuits) designed to execute each function, and DSPs (Digital It may be a device such as a signal processor), an FPGA (field programmable gate array), or a conventional circuit module.

検索支援システム42は、少なくとも第1の受付部60、抽出部61、第2の受付部62、送信部63を含む。検索支援システム42は、その他の機能部を備えていてもよく、表示部64、取得部65を備えることができる。なお、これらの機能部は一例であり、さらにその他の機能部を備えていてもよい。また、第1の受付部60と第2の受付部62は、これら2つの受付部に分割されている必要はなく、1つの入力受付部とし、入力受付部が第1の受付部60と第2の受付部62の処理を実行してもよい。 The search support system 42 includes at least a first reception section 60, an extraction section 61, a second reception section 62, and a transmission section 63. The search support system 42 may include other functional units, and may include a display unit 64 and an acquisition unit 65. Note that these functional units are merely examples, and other functional units may also be provided. Further, the first reception section 60 and the second reception section 62 do not need to be divided into these two reception sections, but are made into one input reception section, and the input reception section is connected to the first reception section 60 and the second reception section 62. The processing of the second receiving unit 62 may be executed.

第1の受付部60は、テキストを出力する出力元としての音声認識ツール40と連携させる管理先としての自社ツール41の指定を受け付ける。 The first reception unit 60 accepts the designation of the in-house tool 41 as a management destination to be linked with the speech recognition tool 40 as an output source that outputs text.

取得部65は、音声認識ツール40から該音声認識ツール40が出力したテキストを取得する。抽出部61は、取得部65が取得したテキストからテキストの一部の文字もしくは文字列である1以上のキーワードを抽出する。キーワードは、上記の従来から知られた技術を用いて抽出することができる。抽出部61は、例えば、テキストとしての1つの文章に含まれる全ての名詞をキーワードとして抽出することができる。なお、名詞は、普通名詞、固有名詞、代名詞、抽象名詞等の全ての種類の名詞を含むが、特定の種類の名詞のみを抽出してもよい。また、名詞に限定されるものではなく、形容詞、動詞等も抽出してもよい。 The acquisition unit 65 acquires from the voice recognition tool 40 the text output by the voice recognition tool 40 . The extraction unit 61 extracts one or more keywords that are part of characters or character strings from the text acquired by the acquisition unit 65. Keywords can be extracted using the conventionally known techniques described above. For example, the extraction unit 61 can extract all nouns included in one sentence as a text as keywords. Note that nouns include all types of nouns such as common nouns, proper nouns, pronouns, and abstract nouns, but only specific types of nouns may be extracted. Furthermore, the extraction is not limited to nouns, and adjectives, verbs, etc. may also be extracted.

表示部64は、抽出部61により抽出されたキーワードを一覧にして表示する。表示部64は、キーワードの一覧を、1のキーワードを選択可能な状態で表示する。第2の受付部62は、表示部64により表示されたキーワードの一覧からユーザ43による1のキーワードの選択を受け付ける。 The display section 64 displays a list of keywords extracted by the extraction section 61. The display unit 64 displays a list of keywords with one keyword selectable. The second accepting unit 62 accepts the selection of one keyword by the user 43 from the list of keywords displayed on the display unit 64.

送信部63は、自社ツール41に検索を実行させるため、検索実行の指示としてコマンドと、ユーザ43により選択されたキーワードとを送信する。 The transmitter 63 transmits a command and the keyword selected by the user 43 as an instruction to execute the search in order to cause the in-house tool 41 to execute the search.

検索支援システム42は、ユーザ43から検索支援システム42の起動もしくは終了の指示を受け付けることができ、終了の指示を受け付けた場合、テキスト内の分からない用語は、ユーザ43がその用語をキーワードして抽出し、google(登録商標)等の検索エンジンを使用し、抽出したキーワードを基に検索を実行させることができる。例えば、検索エンジンで検索を実行したが、思うような結果が得られない場合等に、検索支援システム42を起動させ、自社ツール41を指定し、自社ツール41内で検索を実行させることができる。これは一例であるので、ユーザの必要に応じて検索支援システム42を起動させ、自社ツール41内で検索を実行させることができる。 The search support system 42 can receive an instruction to start or terminate the search support system 42 from the user 43. When the search support system 42 receives an instruction to terminate the search support system 42, the user 43 can search for an unknown term in the text by using the term as a keyword. A search engine such as Google (registered trademark) can be used to perform a search based on the extracted keywords. For example, if you perform a search using a search engine but do not get the desired results, you can start up the search support system 42, specify your company's tool 41, and have the search executed within your company's tool 41. . Since this is just an example, the search support system 42 can be activated according to the user's needs, and the search can be executed within the in-house tool 41.

はじめに、検索支援システム42の起動前の、音声認識ツール40によりコミュニケーションツールが表示する画面に変換したテキストを表示した例を、図6に示す。コミュニケーションツールが表示する画面70は、PC10やPC11のディスプレイ25上に表示され、会話する自分と相手の画像や共有する資料等を表示する第1の領域71と、変換されたテキストを表示する第2の領域72とを含む。 First, FIG. 6 shows an example in which text converted by the voice recognition tool 40 is displayed on a screen displayed by the communication tool before the search support system 42 is activated. The screen 70 displayed by the communication tool is displayed on the display 25 of the PC 10 or PC 11, and includes a first area 71 that displays images of yourself and the other party having a conversation, materials to be shared, etc., and a second area 71 that displays converted text. 2 areas 72.

第2の領域72には、発言したユーザを識別するためのユーザ識別情報とともに発言内容を変換したテキストがリアルタイムに表示される。したがって、ユーザAが「わかりました。」と発言すれば、ユーザAのユーザ識別情報とともに「わかりました。」とテキスト表示される。続いて、ユーザBが「こちらはどうですか?」と発言すると、ユーザBのユーザ識別情報とともに「こちらはどうですか?」とテキスト表示される。ユーザ識別情報は、ユーザを識別することができれば、いかなる情報であってもよく、ユーザの氏名、イニシャル、顔写真等を挙げることができる。 In the second area 72, text obtained by converting the content of the statement is displayed in real time along with user identification information for identifying the user who made the statement. Therefore, if user A says, "I understand.", the text "I understand." is displayed together with user A's user identification information. Subsequently, when user B says, "How do you like this?", the text "How do you like this?" is displayed together with user B's user identification information. The user identification information may be any information as long as it can identify the user, and may include the user's name, initials, facial photograph, etc.

図7は、検索支援システムの起動から検索結果を表示するまでの処理の第1の例を示したフローチャートである。音声認識ツール40の起動後、自社ツール41での検索を必要とする任意のタイミングで、検索支援システム42を起動させることができる。ステップ100で検索支援システム42を起動させると、ステップ101で、表示部64が、自社ツール41を指定するための画面を表示し、第1の受付部60が、ユーザ43から自社ツール41の指定、連携開始ボタン52の押下を受け付け、音声認識ツール40と自社ツール41の連携を開始させる。そして、表示部64が、キーワードの一覧を表示させるための画面53を表示する。 FIG. 7 is a flowchart showing a first example of processing from starting the search support system to displaying search results. After the voice recognition tool 40 is activated, the search support system 42 can be activated at any timing when a search using the in-house tool 41 is required. When the search support system 42 is activated in step 100, the display unit 64 displays a screen for specifying the in-house tool 41 in step 101, and the first reception unit 60 receives the in-house tool 41 specification from the user 43. , the press of the cooperation start button 52 is accepted, and the cooperation between the voice recognition tool 40 and the in-house tool 41 is started. Then, the display unit 64 displays a screen 53 for displaying a list of keywords.

ステップ102で、取得部65が、音声認識ツール40により変換されたテキストを取得する。ステップ103で、抽出部61が、テキストから1以上のキーワードを抽出する。ステップ104で、表示部64が、抽出されたキーワードの一覧を選択可能にした状態で表示する。抽出されたキーワードは、検索支援システム42により表示された画面53に一覧として表示される。図8は、キーワードの一覧を表示した画面の一例を示した図である。図8に示す例では、キーワード1~3までが一覧として、選択可能な状態で表示されている。 In step 102, the acquisition unit 65 acquires the text converted by the speech recognition tool 40. In step 103, the extraction unit 61 extracts one or more keywords from the text. In step 104, the display section 64 displays a list of extracted keywords in a selectable state. The extracted keywords are displayed as a list on a screen 53 displayed by the search support system 42. FIG. 8 is a diagram showing an example of a screen displaying a list of keywords. In the example shown in FIG. 8, keywords 1 to 3 are displayed as a list in a selectable state.

再び図7を参照すると、ステップ105で、ユーザ43がキーワードを選択したかどうかを判断する。キーワードの選択は、第2の受付部62がユーザ43からキーワードの選択を受け付けたかどうかにより判断することができる。ユーザ43がキーワードを選択するまで、ステップ105の処理が繰り返される。 Referring again to FIG. 7, in step 105 it is determined whether the user 43 has selected a keyword. The selection of a keyword can be determined based on whether the second reception unit 62 has received a keyword selection from the user 43. The process of step 105 is repeated until the user 43 selects a keyword.

図9は、キーワードの一覧から1のキーワードが選択されたときの画面の一例を示した図である。通常、白色の背景に黒色の文字で記述されたキーワードが、選択されたキーワードの部分の背景が黒色や青色等となり、選択されたキーワードの部分が白色に反転している。図9に示す例では、「キーワード1」がユーザ43により選択されている。キーワードは、例えばポインティングデバイス30を使用し、選択したいキーワードをクリックする等して選択することができる。クリックする場所は、選択したいキーワード上の領域内であれば、いかなる箇所であってもよい。なお、キーワードの選択方法は、ポインティングデバイス30による方法に限られるものではなく、例えば、キーボード29の方向キー等を使用して選択する方法や、ディスプレイ25がタッチパネルを搭載している場合、指等で画面の所定の領域をタッチして選択する方法等を採用することができる。 FIG. 9 is a diagram showing an example of a screen when one keyword is selected from a list of keywords. Usually, a keyword is written in black characters on a white background, but the background of the selected keyword part is black, blue, etc., and the selected keyword part is reversed to white. In the example shown in FIG. 9, "keyword 1" is selected by the user 43. A keyword can be selected by, for example, using the pointing device 30 and clicking on the desired keyword. You can click anywhere as long as it is within the area on the keyword you want to select. Note that the method for selecting a keyword is not limited to the method using the pointing device 30; for example, the method for selecting the keyword using the direction keys of the keyboard 29, or when the display 25 is equipped with a touch panel, the method for selecting the keyword is not limited to the method using the pointing device 30. It is possible to adopt a method of selecting by touching a predetermined area on the screen.

ステップ105でキーワードが選択されたと判断した場合、ステップ106へ進み、自社ツール41へ選択されたキーワードとコマンドを送信する。これにより、自社ツール41を自動で起動し、自動で検索を実行する。ステップ107で、自社ツール41が検索結果を表示する。なお、検索結果は、自社ツール41が、検索支援システム42が備える表示部64へ送信し、表示部64が表示してもよい。 If it is determined in step 105 that the keyword has been selected, the process proceeds to step 106 and the selected keyword and command are sent to the in-house tool 41. As a result, the in-house tool 41 is automatically started and the search is automatically executed. In step 107, the in-house tool 41 displays the search results. Note that the search results may be transmitted by the in-house tool 41 to the display unit 64 included in the search support system 42, and displayed by the display unit 64.

図10は、検索結果を表示した画面の一例を示した図である。検索結果は、キーワードの一覧を表示する画面53とは別の新たな画面73に表示される。検索結果は、検索のキーワード「キーワード1」とともに、自社ツール41が管理する情報として「すべてのノートブック」の中の関連するページの一覧と、ページの一覧の中の選択されたページの内容とを含んでいる。図10に示すページの一覧では、「A設定」~「D設定」が示され、現在選択されている「C設定」の内容が示されている。図10に示す例では、複数のノートブックの各ページに情報が記載され、管理されているが、これに限定されるものではない。 FIG. 10 is a diagram showing an example of a screen displaying search results. The search results are displayed on a new screen 73 that is separate from the screen 53 that displays the list of keywords. The search results include the search keyword "keyword 1", a list of related pages in "all notebooks" as information managed by the in-house tool 41, and the content of the selected page in the list of pages. Contains. In the list of pages shown in FIG. 10, "A setting" to "D setting" are shown, and the contents of the currently selected "C setting" are shown. In the example shown in FIG. 10, information is written and managed on each page of a plurality of notebooks, but the information is not limited to this.

図11は、検索支援システム42の第2の構成例を示したブロック図である。検索支援システム42は、図5に示す構成と同様、第1の受付部60、抽出部61、第2の受付部62、送信部63、表示部64、取得部65を備える。図11に示す第2の構成例では、検索支援システム42は、さらに、認証部66を備えている。ここでは、認証部66と、第1の受付部60や表示部64等において、図5に示す実施形態と異なる処理を実行する部分について詳細に説明する。 FIG. 11 is a block diagram showing a second configuration example of the search support system 42. Similar to the configuration shown in FIG. 5, the search support system 42 includes a first reception section 60, an extraction section 61, a second reception section 62, a transmission section 63, a display section 64, and an acquisition section 65. In the second configuration example shown in FIG. 11, the search support system 42 further includes an authentication section 66. Here, parts of the authentication unit 66, the first reception unit 60, the display unit 64, etc. that execute processing different from the embodiment shown in FIG. 5 will be described in detail.

表示部64は、音声認識ツール40と自社ツール41の所在を示すパス、検索実行を指示するコマンドを指定し、音声認識ツール40と自社ツール41の連携を開始させるための初期画面を表示する。なお、初期画面は、図4に示す初期画面と同様、自社ツール41のパスとコマンドを指定するのみの初期画面であってもよい。 The display unit 64 specifies a path indicating the location of the voice recognition tool 40 and the company's tool 41, a command to instruct search execution, and displays an initial screen for starting the cooperation between the voice recognition tool 40 and the company's tool 41. Note that, like the initial screen shown in FIG. 4, the initial screen may be an initial screen where only the path and command of the in-house tool 41 are specified.

第1の受付部60は、表示部64に表示された初期画面に対してユーザ43が指定したパスやコマンドの入力を受け付け、連携指示を受け付ける。パスやコマンドの入力欄は、初期画面を表示するたびに空欄とされ、その都度入力させるように構成されていてもよいし、前回入力された内容が表示されてもよい。前回入力された内容が表示される場合、その内容を削除し、別途入力することでその内容を変更してもよい。 The first reception unit 60 receives input of a path and command specified by the user 43 on the initial screen displayed on the display unit 64, and receives cooperation instructions. The input fields for paths and commands may be configured to be left blank each time the initial screen is displayed and inputted each time, or the contents input last time may be displayed. If the content entered last time is displayed, the content may be changed by deleting the content and inputting it separately.

認証部66は、第1の受付部60が連携指示を受け付けた場合であって、音声認識ツール40および自社ツール41に認証が必要な場合、表示部64に対して認証情報を入力するための画面を表示し、ユーザ43に対して認証情報の入力を要求する。第1の受付部60は、認証情報の入力を受け付ける。認証部66は、第1の受付部60が受け付けた認証情報に基づき、認証処理を実行する。認証情報は、ユーザID、パスワード等であり、ユーザIDに代えて、メールアドレス等を使用してもよい。また、認証情報は、ユーザID、パスワードに限定されるものではなく、ユーザが占有する通信端末のMAC(Media Access Control)アドレスや電話番号等の機器識別情報、ユーザに固有な指紋等の生体情報であってもよい。なお、機器識別情報や生体情報を使用する場合、情報処理装置は、これらの情報を読み取る読取手段を備えることができる。 The authentication unit 66 is configured to input authentication information to the display unit 64 when the first reception unit 60 receives a cooperation instruction and authentication is required for the voice recognition tool 40 and the in-house tool 41. A screen is displayed to request the user 43 to input authentication information. The first reception unit 60 receives input of authentication information. The authentication unit 66 executes authentication processing based on the authentication information received by the first reception unit 60. The authentication information is a user ID, password, etc., and an e-mail address or the like may be used instead of the user ID. Authentication information is not limited to user IDs and passwords, but also equipment identification information such as the MAC (Media Access Control) address and telephone number of the communication terminal occupied by the user, and biometric information such as a fingerprint unique to the user. It may be. Note that when using device identification information or biometric information, the information processing device can include a reading means for reading these information.

認証部66による認証が成功した場合、送信部63が自社ツール41に対して起動指示を送信し、表示部64がキーワードの一覧を表示するための画面53を表示する。 If the authentication by the authentication unit 66 is successful, the transmission unit 63 transmits a startup instruction to the in-house tool 41, and the display unit 64 displays a screen 53 for displaying a list of keywords.

図12は、ツール間の紐付け、認証の際に表示部64に表示される画面の一例を示した図である。図12は、音声認識ツール40と自社ツール41のツール間を紐付ける初期画面と、認証時のUI(User interface)画面と、検索支援システム42の起動後の画面とを表示している。 FIG. 12 is a diagram showing an example of a screen displayed on the display unit 64 when linking tools and performing authentication. FIG. 12 shows an initial screen for linking the voice recognition tool 40 and the in-house tool 41, a UI (User interface) screen at the time of authentication, and a screen after the search support system 42 is started.

初期画面では、音声認識ツール40の所在を示すパス、自社ツール41の所在を示すパス、自動検索のコマンドを指定する自動検索のショートカットを入力する入力フィールド74~76を含む。入力フィールド74~76は、初期画面が表示されるたびに空欄となってもよいし、前回入力された情報が自動で入力されてもよい。 The initial screen includes input fields 74 to 76 for inputting a path indicating the location of the voice recognition tool 40, a path indicating the location of the in-house tool 41, and an automatic search shortcut for specifying an automatic search command. The input fields 74 to 76 may be left blank each time the initial screen is displayed, or the information entered last time may be automatically entered.

初期画面は、音声認識ツール40と自社ツール41の連携を開始させるための連携開始ボタン77を含む。ユーザ43は、入力フィールド74~76に所定の情報を入力し、連携開始ボタン77を押下することで、所定の音声認識ツール40と自社ツール41の連携を開始させることができる。 The initial screen includes a collaboration start button 77 for starting collaboration between the voice recognition tool 40 and the in-house tool 41. The user 43 can start cooperation between the predetermined speech recognition tool 40 and the in-house tool 41 by inputting predetermined information into the input fields 74 to 76 and pressing the start cooperation button 77.

ツール間の連携は、連携開始ボタン77の押下により開始させることができるが、各ツールを起動させるにあたって、各ツールに対する認証を要求することができる。UI画面は、メールアドレスもしくはユーザIDと、パスワードとを入力する入力フィールド78、79を含む。UI画面は、連携するツールに応じて、入力フィールド78に入力させる情報の表記を、メールアドレスおよびユーザIDのいずれかに切り替えることができる。なお、入力フィールド78に入力させる情報の表記は、メールアドレス、ユーザIDに限定されるものではなく、ユーザ43が所有する携帯電話やスマートフォン等の電話番号等であってもよい。 Cooperation between tools can be started by pressing the cooperation start button 77, but when starting each tool, authentication for each tool can be requested. The UI screen includes input fields 78 and 79 for inputting an email address or user ID, and a password. On the UI screen, the notation of information input in the input field 78 can be switched to either an email address or a user ID, depending on the tool to be linked. Note that the notation of the information input into the input field 78 is not limited to an email address or a user ID, but may also be a telephone number of a mobile phone, smart phone, etc. owned by the user 43.

認証は、入力されたメールアドレスもしくはユーザIDとパスワードによる1段階の認証であってもよいし、その1段階認証に、ユーザが所有する携帯電話やスマートフォン等の電話番号やメールアドレスに宛てて認証コードを送り、認証コードによる認証や生体情報による認証、これら2つの認証を含めた多段階認証であってもよい。 Authentication may be a one-step authentication using the entered email address or user ID and password, or the one-step authentication may include authentication using the phone number or email address of the user's mobile phone or smartphone, etc. A code may be sent, and multi-step authentication including authentication using an authentication code, authentication using biometric information, or these two types of authentication may be used.

ユーザ43は、入力フィールド78、79に所定の情報を入力し、OKボタン80を押下することができる。認証部66は、OKボタン80が押下されたことを受けて、入力フィールド78、79に入力された認証情報を基に認証処理を実行する。具体的には、認証部66は、入力フィールド78、79に入力された情報と、連携させる2つのツールに対して予め登録されたメールアドレスもしくはユーザIDとパスワードを照合し、一致する場合、認証成功とし、一致しない場合、認証失敗とする。送信部63は、認証成功の場合、各ツールの起動を指示し、表示部64は、ツール起動後の画面として、キーワードの一覧を表示させるための画面53を表示させる。このときの画面53には、まだキーワードが抽出されていないので、キーワードの一覧は表示されない。 The user 43 can input predetermined information into the input fields 78 and 79 and press the OK button 80. In response to the OK button 80 being pressed, the authentication unit 66 executes authentication processing based on the authentication information input into the input fields 78 and 79. Specifically, the authentication unit 66 compares the information entered in the input fields 78 and 79 with the email address or user ID and password registered in advance for the two tools to be linked, and if they match, the authentication is performed. It is considered a success, and if they do not match, it is considered an authentication failure. If the authentication is successful, the transmitting unit 63 instructs the activation of each tool, and the display unit 64 displays a screen 53 for displaying a list of keywords as a screen after the tool is activated. At this time, the screen 53 does not display a list of keywords because no keywords have been extracted yet.

図13を参照して、検索支援システム42の起動から自社ツール41内の自動検索の結果を表示するまでの処理について詳細に説明する。ステップ200で検索支援システム42を起動すると、ステップ201で、表示部64が、自社ツール41を指定するための画面を表示し、第1の受付部60が、ユーザ43から自社ツール41の指定を受け付ける。画面には、自社ツール41のほか、音声認識ツール40を指定する入力フィールドや、連携開始を指示するボタンが含まれていてもよい。これらの入力フィールドやボタンが含まれる場合、第1の受付部60は、音声認識ツール40の指定と連携指示を受け付けることができる。 With reference to FIG. 13, the process from starting the search support system 42 to displaying the results of automatic search within the in-house tool 41 will be described in detail. When the search support system 42 is started in step 200, the display unit 64 displays a screen for specifying the in-house tool 41 in step 201, and the first reception unit 60 accepts the in-house tool 41 specification from the user 43. accept. The screen may include an input field for specifying the voice recognition tool 40 in addition to the in-house tool 41, and a button for instructing the start of collaboration. When these input fields and buttons are included, the first reception unit 60 can accept the designation of the voice recognition tool 40 and the cooperation instruction.

ステップ202で、認証部66が、ユーザ43に対して認証情報の入力を要求し、入力された認証情報に基づき、指定された音声認識ツール40と自社ツール41の認証処理を実行する。認証が失敗した場合、ステップ203へ進み、表示部64が、認証失敗のアラート表示を行い、ユーザ43に対して認証が失敗したことを通知する。アラートは、ユーザ43に知らせたい内容を含むメッセージであり、アラート表示では、「認証が失敗しました。」等のメッセージを表示させることができる。認証が失敗した場合、ステップ202へ戻り、メールアドレスもしくはユーザID、パスワードの入力をやり直すことができる。 In step 202, the authentication unit 66 requests the user 43 to input authentication information, and executes authentication processing for the designated voice recognition tool 40 and in-house tool 41 based on the input authentication information. If the authentication fails, the process proceeds to step 203, where the display unit 64 displays an alert indicating that the authentication has failed, and notifies the user 43 that the authentication has failed. An alert is a message that includes content that the user 43 wants to be informed of, and in the alert display, a message such as "Authentication has failed." can be displayed. If the authentication fails, the process returns to step 202 and the user can re-enter the email address, user ID, and password.

ステップ203で認証が成功した場合、ステップ204へ進む。ステップ204~ステップ209は、図7に示したステップ102~107と同様の処理であるため、ここではその説明については省略する。 If the authentication is successful in step 203, the process advances to step 204. Steps 204 to 209 are the same processes as steps 102 to 107 shown in FIG. 7, so their explanation will be omitted here.

図14は、情報処理システムの別の構成例を示した図である。情報処理システムは、図1に示した構成に限定されるものではなく、図14(a)、(b)に示す構成としてもよい。図14(a)は、ネットワーク12にPC10、11のほか、自社サーバ13が接続された例を示している。自社サーバ13は、自社ツール41を実装し、自社の情報を管理している。このため、PC10、11に実装される音声認識ツール40を、ネットワーク12を介して自社サーバ13に実装される自社ツール41と連携させ、自社ツール41内で、選択されたキーワードを基に検索を実行させることができる。自社サーバ13は、情報を管理し、管理する情報を検索することが可能な機器であれば、いかなる機器であってもよく、例えば、MFP(Multi-Function Peripheral)等を自社サーバ13として用いてもよい。 FIG. 14 is a diagram showing another configuration example of the information processing system. The information processing system is not limited to the configuration shown in FIG. 1, but may have the configurations shown in FIGS. 14(a) and 14(b). FIG. 14A shows an example in which a company server 13 is connected to the network 12 in addition to the PCs 10 and 11. The in-house server 13 implements in-house tools 41 and manages in-house information. For this reason, the voice recognition tool 40 installed in the PCs 10 and 11 is linked with the in-house tool 41 installed in the in-house server 13 via the network 12, and the in-house tool 41 performs a search based on the selected keyword. can be executed. The in-house server 13 may be any device as long as it is capable of managing information and searching for managed information; for example, an MFP (Multi-Function Peripheral) or the like may be used as the in-house server 13. Good too.

図14(b)は、ネットワーク12にPC10、11、自社サーバ13のほか、管理サーバ14が接続された例を示している。図14(b)に示す例では、音声認識のみをPC10、11で行い、キーワードの抽出、キーワードの一覧の生成、コマンドと選択されたキーワードの送信を管理サーバ14で行い、検索を自社サーバ13が行い、自社サーバ13が検索結果をPC10、11へ送信する構成とされている。この場合、管理サーバ14は、PC10、11からPC10、11を識別するための機器識別情報を受け取り、機器識別情報を使用してキーワードの一覧の送信を行い、自社サーバ13に対して機器識別情報を付与して選択されたキーワード等の送信を行う。これにより、自社サーバ13は、機器識別情報を使用して、検索結果をPC10、11へ送信し、PC10、11に検索結果を表示させることができる。なお、管理サーバ14は、クラウド上に設置されていてもよい。 FIG. 14B shows an example in which a management server 14 is connected to the network 12 in addition to the PCs 10 and 11 and the company's server 13. In the example shown in FIG. 14(b), only voice recognition is performed by the PCs 10 and 11, keyword extraction, generation of a list of keywords, and transmission of commands and selected keywords are performed by the management server 14, and the search is performed by the in-house server 13. The configuration is such that the in-house server 13 sends the search results to the PCs 10 and 11. In this case, the management server 14 receives device identification information for identifying the PCs 10 and 11 from the PCs 10 and 11, uses the device identification information to transmit a list of keywords, and sends the device identification information to the own server 13. The selected keywords, etc. are sent by adding . Thereby, the in-house server 13 can transmit the search results to the PCs 10 and 11 using the device identification information, and display the search results on the PCs 10 and 11. Note that the management server 14 may be installed on the cloud.

以上に説明してきたように、検索対象に特定の管理先を指定することが可能となり、検索したいキーワードを選択するだけで、指定された管理先において自動で検索された結果を閲覧することが可能になる。 As explained above, it is now possible to specify a specific management destination as a search target, and by simply selecting the keyword you want to search, you can view the automatically searched results for the specified management destination. become.

これまで本発明の一実施形態について説明してきたが、本発明は、上述した実施形態に限定されるものではなく、本実施形態の構成要素を変更若しくは削除し、または本実施形態の構成要素を他の構成要素を追加するなど、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用効果を奏する限り、本発明の範囲に含まれるものである。 Although one embodiment of the present invention has been described so far, the present invention is not limited to the embodiment described above, and the present invention may be modified or deleted from the constituent elements of this embodiment, or the constituent elements of this embodiment may be modified or deleted. Changes can be made within the range that can be conceived by those skilled in the art, such as adding other components, and any aspect is included in the scope of the present invention as long as the effects of the present invention are achieved. .

10、11…PC
12…ネットワーク
13…自社サーバ
14…管理サーバ
20…CPU
21…ROM
22…RAM
23…HD
24…HDDコントローラ
25…ディスプレイ
26…外部機器接続I/F
27…ネットワークI/F
28…バスライン
29…キーボード
30…ポインティングデバイス
31…DVD-RWドライブ
32…メディアI/F
33…DVD-RW
34…記録メディア
40…音声認識ツール
41…自社ツール
42…検索支援ツール
43…ユーザ
50、51…入力フィールド
52…連携開始ボタン
53…画面
60…第1の受付部
61…抽出部
62…第2の受付部
63…送信部
64…表示部
65…取得部
66…認証部
70、73…画面
71…第1の領域
72…第2の領域
74~76、78、79…入力フィールド
77…連携開始ボタン
80…OKボタン
10, 11...PC
12...Network 13...In-house server 14...Management server 20...CPU
21...ROM
22...RAM
23...HD
24...HDD controller 25...Display 26...External device connection I/F
27...Network I/F
28...Bus line 29...Keyboard 30...Pointing device 31...DVD-RW drive 32...Media I/F
33...DVD-RW
34...Recording media 40...Voice recognition tool 41...In-house tool 42...Search support tool 43...Users 50, 51...Input field 52...Cooperation start button 53...Screen 60...First reception section 61...Extraction section 62...Second Reception unit 63...Transmission unit 64...Display unit 65...Acquisition unit 66...Authentication unit 70, 73...Screen 71...First area 72...Second area 74-76, 78, 79...Input field 77...Start of cooperation Button 80...OK button

国際公開第2013/115235号International Publication No. 2013/115235 特開2006-186426号公報Japanese Patent Application Publication No. 2006-186426 特開2017-120613号公報JP 2017-120613 Publication 特表2019-501466号公報Special table 2019-501466 publication

Claims (11)

情報の検索を支援するシステムであって、
情報を管理する管理先の指定を受け付ける第1の受付手段と、
文字列の出力元から取得した該文字列から1以上のキーワードを抽出する抽出手段と、
抽出された前記1以上のキーワードから1のキーワードの選択を受け付ける第2の受付手段と、
指定された前記管理先に対して検索実行の指示と選択された前記キーワードとを送信する送信手段と
を含む、検索支援システム。
A system that supports searching for information,
a first reception means for accepting the designation of a management destination that manages the information;
Extracting means for extracting one or more keywords from the character string obtained from the character string output source;
a second reception means that receives a selection of one keyword from the one or more extracted keywords;
A search support system comprising a transmitting means for transmitting a search execution instruction and the selected keyword to the specified management destination.
前記出力元と前記管理先を認証する認証手段と、
認証された前記出力元から前記文字列を取得する取得手段と
を含み、
前記送信手段は、認証された前記管理先に対して前記指示と前記キーワードとを送信する、請求項1に記載の検索支援システム。
authentication means for authenticating the output source and the management destination;
an acquisition means for acquiring the character string from the authenticated output source,
The search support system according to claim 1, wherein the transmitting means transmits the instruction and the keyword to the authenticated management destination.
前記第1の受付手段は、文字列の出力元の指定と、指定した前記出力元と前記管理先とを連携させる連携指示とを受け付け、
前記認証手段は、前記連携指示を受け付けた場合に、指定された前記出力元と前記管理先の認証に必要な認証情報の入力を要求する、請求項2に記載の検索支援システム。
The first receiving means receives a specification of an output source of a character string and a cooperation instruction for coordinating the specified output source and the management destination,
3. The search support system according to claim 2, wherein the authentication means requests input of authentication information necessary for authentication of the specified output source and the management destination when the cooperation instruction is received.
前記認証手段による認証が失敗したことを通知する通知手段を含む、請求項2または3に記載の検索支援システム。 4. The search support system according to claim 2, further comprising a notification means for notifying that the authentication by the authentication means has failed. 前記認証手段による認証が成功した場合に、前記抽出手段により抽出された前記1以上のキーワードを選択可能に表示する表示手段を含む、請求項2または3に記載の検索支援システム。 4. The search support system according to claim 2, further comprising a display unit that selectably displays the one or more keywords extracted by the extraction unit when authentication by the authentication unit is successful. 前記出力元は、入力された音声を文字列に変換する音声認識手段であり、
前記管理先は、組織内の情報を管理する情報管理手段であり、
前記表示手段は、前記情報管理手段により実行された検索の結果を表示する、請求項5に記載の検索支援システム。
The output source is a voice recognition means that converts input voice into a character string,
The management destination is an information management means that manages information within the organization,
6. The search support system according to claim 5, wherein said display means displays the results of the search executed by said information management means.
情報の検索を支援する検索支援システムを含む情報処理装置であって、
前記検索支援システムが、
情報を管理する管理先の指定を受け付ける第1の受付手段と、
文字列の出力元から取得した該文字列から1以上のキーワードを抽出する抽出手段と、
抽出された前記1以上のキーワードから1のキーワードの選択を受け付ける入力受付手段と、
指定された前記管理先に対して検索実行の指示と選択された前記キーワードとを送信する送信手段と
を含む、情報処理装置。
An information processing device including a search support system that supports information searches,
The search support system includes:
a first reception means for accepting the designation of a management destination that manages the information;
Extracting means for extracting one or more keywords from the character string obtained from the character string output source;
input receiving means for receiving a selection of one keyword from the one or more extracted keywords;
An information processing apparatus, comprising: a transmitting means for transmitting a search execution instruction and the selected keyword to the specified management destination.
前記出力元として、入力された音声を前記文字列に変換する音声認識手段を含む、請求項7に記載の情報処理装置。 8. The information processing apparatus according to claim 7, further comprising, as the output source, speech recognition means for converting input speech into the character string. 前記管理先として、組織内の情報を管理する情報管理手段を含む、請求項7または8に記載の情報処理装置。 9. The information processing apparatus according to claim 7, wherein the management destination includes information management means for managing information within an organization. 検索支援システムにより情報の検索を支援する方法であって、
情報を管理する管理先の指定を受け付けるステップと、
文字列の出力元から取得した該文字列から1以上のキーワードを抽出するステップと、
抽出された前記1以上のキーワードから1のキーワードの選択を受け付けるステップと、
指定された前記管理先に対して検索実行の指示と選択された前記キーワードとを送信するステップと
を含む、方法。
A method for supporting information retrieval using a retrieval support system, the method comprising:
a step of accepting the designation of a management destination that manages the information;
extracting one or more keywords from the string obtained from the string output source;
accepting the selection of one keyword from the one or more extracted keywords;
A method comprising the step of transmitting a search execution instruction and the selected keyword to the specified management destination.
情報の検索を支援する処理をコンピュータに実行させるためのプログラムであって、
情報を管理する管理先の指定を受け付けるステップと、
文字列の出力元から取得した該文字列から1以上のキーワードを抽出するステップと、
抽出された前記1以上のキーワードから1のキーワードの選択を受け付けるステップと、
指定された前記管理先に対して検索実行の指示と選択された前記キーワードとを送信するステップと
を実行させる、プログラム。
A program that causes a computer to perform processing that supports information retrieval,
a step of accepting the designation of a management destination that manages the information;
extracting one or more keywords from the string obtained from the string output source;
accepting the selection of one keyword from the one or more extracted keywords;
A program that executes the step of transmitting a search execution instruction and the selected keyword to the specified management destination.
JP2022112214A 2022-07-13 2022-07-13 Search support system, information processing apparatus, method, and program Pending JP2024010748A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022112214A JP2024010748A (en) 2022-07-13 2022-07-13 Search support system, information processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022112214A JP2024010748A (en) 2022-07-13 2022-07-13 Search support system, information processing apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2024010748A true JP2024010748A (en) 2024-01-25

Family

ID=89622337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022112214A Pending JP2024010748A (en) 2022-07-13 2022-07-13 Search support system, information processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2024010748A (en)

Similar Documents

Publication Publication Date Title
JP7379562B2 (en) Long-distance extension of digital assistant services
US20180285595A1 (en) Virtual agent for the retrieval and analysis of information
CN111462740B (en) Voice command matching for non-phonetic alphabet language voice assisted application prototype testing
JP6204982B2 (en) Contextual query tuning using natural motion input
JP3962763B2 (en) Dialogue support device
KR101213835B1 (en) Verb error recovery in speech recognition
US20070174326A1 (en) Application of metadata to digital media
US10108698B2 (en) Common data repository for improving transactional efficiencies of user interactions with a computing device
JP7231190B2 (en) INFORMATION PROVISION SYSTEM AND INFORMATION PROVISION CONTROL METHOD
JP6889448B1 (en) Program code automatic generation system and program
JP7421859B2 (en) Creation support device and creation support method
CN109977390B (en) Method and device for generating text
US20150169287A1 (en) Artificial intelligence user input systems and methods
Dasgupta et al. VoiceMail architecture in desktop and mobile devices for the Blind people
US20210055909A1 (en) Systems and methods for voice activated interface
JP2024010748A (en) Search support system, information processing apparatus, method, and program
US20220207066A1 (en) System and method for self-generated entity-specific bot
WO2003079188A1 (en) Method for operating software object using natural language and program for the same
CN107368602A (en) A kind of photo storage method and photo storage device for smart machine
KR102249109B1 (en) A method for providing answer sets for questions which require variable answers and an apparatus using the same
WO2021108130A1 (en) Speech to project framework
JP2015141540A (en) Information processor, wording association presentation system, and information processing program
US20230376265A1 (en) Communication system, information processing system, and information processing method
JP7370521B2 (en) Speech analysis device, speech analysis method, online communication system, and computer program
Sharma et al. An Email Assistant System based on Voice Command