JP2020107283A - Information processor, information processing method, program - Google Patents

Information processor, information processing method, program Download PDF

Info

Publication number
JP2020107283A
JP2020107283A JP2018248415A JP2018248415A JP2020107283A JP 2020107283 A JP2020107283 A JP 2020107283A JP 2018248415 A JP2018248415 A JP 2018248415A JP 2018248415 A JP2018248415 A JP 2018248415A JP 2020107283 A JP2020107283 A JP 2020107283A
Authority
JP
Japan
Prior art keywords
search
character string
user
voice recognition
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018248415A
Other languages
Japanese (ja)
Inventor
義明 佐原
Yoshiaki Sahara
義明 佐原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2018248415A priority Critical patent/JP2020107283A/en
Publication of JP2020107283A publication Critical patent/JP2020107283A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a mechanism for enhancing search efficiency when searching by voice recognition.SOLUTION: The mechanism narrows down customer data to be searched for a search target group determined by a search expression part 402 corresponding to the search condition on the basis of a priority determined for an overlapped search target when searching using a character string obtained by recognizing a voice spoken to a client 101 and a search condition designated by a user, and search customer data having high similarity with the character string obtained by recognizing the voice for the narrowed down customer data.SELECTED DRAWING: Figure 4

Description

本発明は、音声認識により検査を行う技術に関する。 The present invention relates to a technique for performing inspection by voice recognition.

音声入力は、キーボードやタッチパネルより早く入力できたり、手がふさがっている状態でも入力できたりするため、企業組織において外出中の業務で利用されるケースが増えている。 Voice input can be input faster than a keyboard or touch panel, or can be input even when the user's hands are occupied. Therefore, it is increasingly used in business operations in business organizations.

例えば、営業員が訪問先までの道順を調べるケースでは、取引先の名称を発話すると、発話した音声を文字列に変換し、該文字列に一致する取引先を検索して、現在地から該取引先までの経路を表示するといった活用方法が考えられる。 For example, in the case where the salesperson checks the route to the visited place, when the name of the customer is uttered, the uttered voice is converted into a character string, the customer matching the character string is searched, and the transaction is performed from the current location. It is possible to use it by displaying the route to the destination.

このように、音声入力はユーザに対して便利な操作性を提供する一方、その利用効果は、入力された音声が、ユーザの意図に合う文字列に変換されたのか否かという認識精度に依存する。 Thus, while voice input provides convenient operability to the user, its use effect depends on the recognition accuracy of whether the input voice is converted into a character string that matches the user's intention. To do.

例えば、誤認識があると、ユーザは意図した結果が得られるまで何度も発話することを強いられる。これでは、早く入力するという音声入力の利点が失われてしまう。 For example, misrecognition forces the user to speak multiple times until the intended result is achieved. This loses the advantage of voice input, which is faster input.

音声入力の認識精度は日進月歩で向上しているが、外出先など周囲に騒音がある使用環境では、雑音が混入しやすく、誤認識の可能性を排除することはできない。 Although the recognition accuracy of voice input is improving day by day, noise is likely to be mixed in a use environment where there is noise in the surroundings such as a place where people go out, and the possibility of erroneous recognition cannot be excluded.

そこで、特許文献1では、誤認識された文字列に対して、複数の類似の検索結果候補を表示して、ユーザが意図する検索結果を、クリックもしくはタップにより選択させる方法が開示されている。 Therefore, Patent Document 1 discloses a method of displaying a plurality of similar search result candidates for a character string that is erroneously recognized and selecting a search result intended by the user by clicking or tapping.

特開2012―22251号公報JP, 2012-22251, A

特許文献1には、検索結果候補を抽出する方法として、データベースの検索対象データに対して類似度を計算して、類似度の高い順に表示する方法が記載されている。 As a method of extracting search result candidates, Patent Document 1 describes a method of calculating the similarity with respect to the search target data in the database and displaying the similarity in descending order of similarity.

この方法を用いることで、誤認識があっても、ユーザが意図する検索結果を、検索結果候補からクリックもしくはタップで選択することで、何回も発話する手間を省くことができる。 By using this method, even if there is an erroneous recognition, it is possible to save the trouble of uttering many times by selecting the search result intended by the user from the search result candidates by clicking or tapping.

しかしながら、検索対象データが数万を超えるような場合、それら全ての類似度を計算していると、ユーザに検索結果候補を表示するのが遅くなってしまう問題がある。 However, when the search target data exceeds tens of thousands, displaying the search result candidates to the user becomes slow when the similarity of all of them is calculated.

また、明らかに検索結果に該当しないデータに対して、類似度を計算するのは効率が悪いという問題がある。 In addition, there is a problem that it is inefficient to calculate the similarity for data that does not correspond to the search result.

例えば、前述した営業員が訪問先への道順を調べるケースでは、東京本社の営業員なら東京近郊の取引先を調べることが多く、その場合、大阪など遠く離れた場所にある取引先まで検索対象とするのは効率が悪い。 For example, in the case where the above-mentioned salesperson checks the route to the destination, the salesperson at the Tokyo head office often looks up the business partner in the suburbs of Tokyo. In that case, the search target is the business partner in a remote place such as Osaka. Is inefficient.

そのため、検証対象データの内、ユーザが意図する検索結果に該当する可能性の高いデータ群から類似度を計算することが望まれる。 Therefore, it is desirable to calculate the similarity from the data group that is highly likely to correspond to the search result intended by the user among the verification target data.

そこで、本発明は、音声認識により検索を行う際にかかる検索効率を高める仕組みを提供することを目的とする。 Therefore, an object of the present invention is to provide a mechanism for improving the search efficiency when performing a search by voice recognition.

上記目的を達成するための本発明は、音声認識により得られた文字列を用いて検索を行う情報処理装置であって、複数の検索条件のうちそれぞれの検索条件に対応するように検索対象データを分類して記憶する記憶手段と、指定された検索条件に対応する前記記憶手段の分類された検索対象データに対して前記音声認識により得られた文字列を用いて検索を行う検索手段と、を備えたことを特徴とする。 The present invention for achieving the above object is an information processing device for performing a search using a character string obtained by voice recognition, wherein search target data is provided so as to correspond to each search condition among a plurality of search conditions. Storage means for classifying and storing, and search means for performing a search using the character string obtained by the voice recognition for the search target data classified by the storage means corresponding to the specified search condition, It is characterized by having.

本発明によれば、音声認識により検索を行う際にかかる検索効率を高めることができる、という効果を奏する。 According to the present invention, there is an effect that it is possible to enhance the search efficiency when performing a search by voice recognition.

取引先検索システムのシステム構成の一例を示す図である。It is a figure showing an example of a system configuration of a business partner search system. クライアント、業務システムサーバ、及び音声認識サーバのハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of hardware constitutions of a client, a business system server, and a voice recognition server. 取引先の検索処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of a search process of a supplier. 検索設定テーブルの構成を示す構成図と検索対象のグループ化を説明するための図である。It is a block diagram which shows the structure of a search setting table, and a figure for demonstrating grouping of a search object. 取引先テーブルと検索履歴テーブルとの構成の一例を示す構成図である。It is a block diagram which shows an example of a structure of a supplier table and a search history table. 検索画面の一例の構成を示す構成図である。It is a block diagram which shows the structure of an example of a search screen. 検索結果画面の一例の構成を示す構成図である。It is a block diagram which shows the structure of an example of a search result screen.

以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態における取引先検索システム100のシステム構成の一例を示す図である。 FIG. 1 is a diagram showing an example of a system configuration of a supplier search system 100 according to the embodiment of the present invention.

本発明の取引先検索システム100は、ネットワーク上にクライアント101、業務システムサーバ102、及び音声認識サーバ103が接続され構成される。 A supplier search system 100 of the present invention is configured by connecting a client 101, a business system server 102, and a voice recognition server 103 on a network.

クライアント101は、スマートデバイスやノートPCなどのパーソナルコンピュータを想定し、ユーザからの発話を受け付けたり、ユーザへ画面を表示したりする。 The client 101 is assumed to be a personal computer such as a smart device or a notebook PC, and receives an utterance from the user and displays a screen to the user.

業務システムサーバ102は、取引先データを保管するデータベースを有し、ユーザから取引先名による検索要求を受けたら、それに一致する取引先データを返信する。 The business system server 102 has a database for storing business partner data, and when a search request by a business partner name is received from a user, the business system server 102 returns business partner data matching the request.

音声認識サーバ103は、ユーザがクライアント101に対して発話した音声データを受け付けて、該音声データを認識し、文字列に変換して返信する。 The voice recognition server 103 receives voice data uttered by the user to the client 101, recognizes the voice data, converts the voice data into a character string, and returns the character string.

本発明の実施形態では、音声認識サーバ103は、クラウドサービスの音声認識APIや音声認識製品の利用を想定する。 In the embodiment of the present invention, the voice recognition server 103 is assumed to use a voice recognition API of a cloud service or a voice recognition product.

なお、外出先など周囲に騒音がある環境で発話された音声データには雑音が混入するため、必ずしもユーザが意図した文字列を、認識文字列として返信できるとは限らない。 Since noise is mixed in the voice data spoken in a noisy environment such as a place where the user is outside, the character string intended by the user cannot always be returned as a recognized character string.

ネットワーク104は、各サーバおよび情報処理装置を通信可能に接続する。同一企業であればLAN(Local Area Network)にて、企業組織間のサーバと接続する場合はインターネットにて実現される。 The network 104 connects each server and the information processing device so that they can communicate with each other. It is realized by LAN (Local Area Network) for the same company, and by the Internet when connecting to a server between company organizations.

図2は、本発明の実施形態におけるクライアント101、及び業務システムサーバ102のハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the hardware configuration of the client 101 and the business system server 102 according to the embodiment of the present invention.

図2に示すように、情報処理装置は、システムバス204を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、及び通信I/Fコントローラ208が接続される。 As illustrated in FIG. 2, the information processing apparatus includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an input controller 205, a video controller 206, via a system bus 204. A memory controller 207 and a communication I/F controller 208 are connected.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。 The CPU 201 centrally controls each device and controller connected to the system bus 204.

ROM202あるいは外部メモリ211は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。 The ROM 202 or the external memory 211 is a control program executed by the CPU 201, such as a BIOS (Basic Input/Output System), an OS (Operating System), a computer-readable executable program for implementing this information processing method, and various necessary programs. Holds data (including data table).

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。 The RAM 203 functions as a main memory, a work area, etc. of the CPU 201. The CPU 201 loads various programs necessary for executing the processing from the ROM 202 or the external memory 211 into the RAM 203, and executes the loaded programs to realize various operations.

入力コントローラ205は、キーボードや不図示のマウス等のポインティングデバイス等の入力デバイス209からの入力を制御する。 The input controller 205 controls input from an input device 209 such as a keyboard or a pointing device such as a mouse (not shown).

入力装置がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。 When the input device is a touch panel, the user can give various instructions by pressing (touching with a finger or the like) in accordance with an icon, a cursor, or a button displayed on the touch panel.

また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。 Further, the touch panel may be a touch panel such as a multi-touch screen capable of detecting a position touched by a plurality of fingers.

ビデオコントローラ206は、ディスプレイ210などの外部出力装置への表示を制御する。 The video controller 206 controls display on an external output device such as the display 210.

ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。 The display shall include the display of a laptop computer integrated with the main body.

なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作を受け付け可能な装置については、入力装置も提供する。 The external output device is not limited to the display, and may be a projector, for example. An input device is also provided for the device that can accept the touch operation described above.

なおビデオコントローラ206は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。 Note that the video controller 206 can control a video memory (VRAM) for performing display control, can use part of the RAM 203 as a video memory area, or can be provided with a dedicated video memory separately. It is possible.

メモリコントローラ207は、外部メモリ211へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。 The memory controller 207 controls access to the external memory 211. The external memory is connected to an external storage device (hard disk), a flexible disk (FD), or a PCMCIA card slot that stores a boot program, various applications, font data, user files, edit files, and various data via an adapter. A compact flash (registered trademark) memory or the like can be used.

通信I/Fコントローラ208は、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。 The communication I/F controller 208 connects and communicates with an external device via a network, and executes communication control processing on the network.

例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の3G回線を用いた通信が可能である。 For example, communication using TCP/IP, communication using a telephone line such as ISDN, and communication using a 3G line of a mobile phone are possible.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。 Note that the CPU 201 enables display on the display 210, for example, by executing outline font rasterization processing in the display information area in the RAM 203. Further, the CPU 201 enables a user instruction using a mouse cursor or the like (not shown) on the display 210.

次に、図3に示すフローチャートを用いて、本発明の実施形態における取引先検索システムが実行する取引先の検索処理について説明する。 Next, with reference to the flowchart shown in FIG. 3, a supplier search process executed by the supplier search system according to the embodiment of the present invention will be described.

図3に示すフローチャートは、クライアント101及び業務システムサーバ102のCPU201が所定の制御プログラムを読み出して実行する処理であり、音声入力受付から取引先までの経路を表示する処理を示すフローチャートである。 The flowchart shown in FIG. 3 is a process in which the CPU 201 of the client 101 and the business system server 102 reads and executes a predetermined control program, and is a flowchart showing a process of displaying a route from the voice input reception to the customer.

ステップS301では、クライアント101のCPU201は、ユーザが発話した取引先名の音声を受け付ける。 In step S301, the CPU 201 of the client 101 receives the voice of the customer name uttered by the user.

図6には、ユーザが発話する際に表示する検索画面601の一例の構成が示されており、検索画面601は、発話してくださいのメッセージと検索条件602を含んで構成されている。 FIG. 6 shows an example of the configuration of the search screen 601 displayed when the user speaks. The search screen 601 is configured to include a message to speak and a search condition 602.

検索条件602は、ユーザが望む検索条件を設定し、検索条件は、検索式パーツ説明(ユーザ表示用)403の文字列を表示する。ユーザが選択した検索条件は、ステップS304の検索式の作成時に利用される。 The search condition 602 sets the search condition desired by the user, and the search condition displays the character string of the search expression part description (for user display) 403. The search condition selected by the user is used when creating the search expression in step S304.

図6に示すように、検索条件としては、例えば、過去に検索した取引先であったり、営業所から10km以上離れている取引先であったり、新規に取引先としてシステムへ唐楽され、さらに、登録されてから6カ月以内の取引先であったり、と利用するユーザが検索対象を絞り込むための条件を少なくとも1以上選択できるが、選択せずに検索を行うことも可能である。 As shown in FIG. 6, as a search condition, for example, a customer searched in the past, a customer who is 10 km or more away from the sales office, or a new customer who can be enjoyed by the system. A user who is within 6 months after registration, or a user who uses it can select at least one or more conditions for narrowing down the search target, but it is also possible to search without selecting.

ステップS302では、クライアント101のCPU201は、音声認識サーバ103にステップS301で受け付けた音声を送信して音声認識の結果を要求する。そして、音声認識サーバ103から該音声認識による結果として、認識文字列を受信する。 In step S302, the CPU 201 of the client 101 transmits the voice accepted in step S301 to the voice recognition server 103 to request the voice recognition result. Then, the recognition character string is received from the voice recognition server 103 as a result of the voice recognition.

ステップS303では、クライアント101のCPU201は、ステップS301でユーザが指定した検索条件と、ステップS302で受信した認識文字列とを、業務システムサーバ102に送信し、認識文字列に一致する取引先データの検索結果を要求する。 In step S303, the CPU 201 of the client 101 transmits the search condition specified by the user in step S301 and the recognition character string received in step S302 to the business system server 102, and the customer data matching the recognition character string is displayed. Request search results.

ステップS304では、業務システムサーバ102のCPU201は、クライアント101かユーザが指定した検索条件と認識文字列とを受信し、認識文字列に一致する取引先データを検索するための検索式を作成する。 In step S304, the CPU 201 of the business system server 102 receives the search condition and the recognition character string designated by the client 101 or the user, and creates a search formula for searching the customer data that matches the recognition character string.

検索式は、図4に示す検索設定テーブル400の検索式パーツ402のSQL(Structured Query Language)を組み合わせて作成する。 The search expression is created by combining the SQL (Structured Query Language) of the search expression part 402 of the search setting table 400 shown in FIG.

検索式パーツ402を組み合わせる際は、ステップS301でユーザが指定した検索条件に該当する検索式パーツのみ組み合わせて検索式を作成することができる。 When the search expression parts 402 are combined, a search expression can be created by combining only the search expression parts corresponding to the search condition specified by the user in step S301.

図4には、取引先データを検索するための検索式を作成するための検索設定テーブル400と検索対象グループ化方法404が示されている。 FIG. 4 shows a search setting table 400 and a search target grouping method 404 for creating a search expression for searching for supplier data.

検索設定テーブル400は、優先順位401と検索式パーツ402と検索式パーツ説明(ユーザ表示用)403を含んで構成されており、これらはユーザや管理者等が予め設定することが可能である。 The search setting table 400 includes a priority order 401, a search expression part 402, and a search expression part explanation (for user display) 403, which can be set in advance by a user, an administrator, or the like.

優先順位401には、優先順位の高いレコードから昇順の値が設定され、検索式パーツ402には、取引先テーブル500を検索するための検索式パーツ(SQL)が格納される。 Ascending order values are set in the priority order 401 from the record with the highest priority order, and the search expression parts 402 store search expression parts (SQL) for searching the supplier table 500.

検索式パーツ説明(ユーザ表示用)403には、ステップS301でユーザに検索条件を指定させる際に表示する文字列が格納される。 The search expression part description (for user display) 403 stores a character string displayed when the user specifies the search condition in step S301.

検索対象の取引先データをグループ化する方法の一例を404に示す。404では類似度を計算する優先順位が付与された8つのグループに分類されており、それぞれのグループに該当する検索結果を抽出するための検索式を8つ作成することを示している。 An example of a method of grouping the customer data to be searched is shown at 404. In 404, it is classified into eight groups to which a priority order for calculating the similarity is assigned, and eight search expressions for extracting the search results corresponding to each group are created.

検索対象グループ化方法404は、検索式パーツ402の組み合わせた検索対象のグループとその優先順位を示している。 The search target grouping method 404 indicates a search target group combined with the search expression parts 402 and its priority.

本実施形態においては、ステップS301でユーザから検索画面601上の全ての検索条件が指定されたと仮定し、図4を用いて検索式の作成方法を説明する。 In the present embodiment, assuming that all the search conditions on the search screen 601 are specified by the user in step S301, a method of creating a search expression will be described with reference to FIG.

Aの円内には、最も優先順位の高い優先度1の検索式パーツ(SQL)の検索結果が入る。 In the circle of A, the search result of the search expression part (SQL) with the highest priority of 1 is entered.

Bの円内には、2番目に優先順位の高い優先度2の検索式パーツ(SQL)の検索結果が入る。 In the circle of B, the search result of the search expression part (SQL) having the second highest priority and the priority of 2 is entered.

Cの円内には、3番目に優先順位の高い優先度3の検索式パーツ(SQL)の検索結果が入る。 In the circle of C, the search result of the search expression part (SQL) of the third highest priority is entered.

次に各グループの検索結果を抽出するための検索式(SQL)の作成方法を述べる。 Next, a method of creating a search expression (SQL) for extracting the search result of each group will be described.

AとBとCの共通部分である1のグループは、最も優先順位が高い検索式になる。 The group of 1, which is the common part of A, B and C, has the highest priority.

実際の検索式(SQL)は「(Aの検索式パーツ) INTERSECT (Bの検索式パーツ) INTERSECT (Cの検索式パーツ)」となる。 The actual search expression (SQL) is "(search expression part of A) INTERSECT (search expression part of B) INTERSECT (search expression part of C)".

AとBの共通部分の内、Cが属さない2のグループは、2番目の優先順位の検索式になる。 Among the common parts of A and B, the second group to which C does not belong becomes the second priority search formula.

実際の検索式(SQL)は「(Aの検索式パーツ) INTERSECT (Bの検索式パーツ) EXCEPT (Cの検索式パーツ)」となる。 The actual search expression (SQL) is "(A search expression part) INTERSECT (B search expression part) EXCEPT (C search expression part)".

AとCの共通部分の内、Bが属さない3のグループは、3番目の優先順位の検索式になる。 Of the common parts of A and C, the group of 3 to which B does not belong becomes the search expression of the third priority.

実際の検索式(SQL)は「(Aの検索式パーツ) INTERSECT (Cの検索式パーツ) EXCEPT (Bの検索式パーツ)」となる。 The actual search expression (SQL) is "(A search expression part) INTERSECT (C search expression part) EXCEPT (B search expression part)".

BとCの共通部分の内、Aが属さない4のグループは、4番目の優先順位の検索式になる。 Among the common parts of B and C, the group of 4 to which A does not belong becomes the search expression of the fourth priority.

実際の検索式(SQL)は「(Bの検索式パーツ) INTERSECT (Cの検索式パーツ) EXCEPT (Aの検索式パーツ)」となる。 The actual search formula (SQL) is "(B search formula parts) INTERSECT (C search formula parts) EXCEPT (A search formula parts)".

Aに属すが、BとCに属さない5のグループは、5番目の優先順位の検索式になる。 A group of 5 belonging to A but not to B or C becomes a search expression of fifth priority.

実際の検索式(SQL)は「(Aの検索式パーツ) EXCEPT (Bの検索式パーツ) EXCEPT (Cの検索式パーツ)」となる。 The actual search expression (SQL) is "(A search expression part) EXCEPT (B search expression part) EXCEPT (C search expression part)".

Bに属すが、AとCに属さない6のグループは、6番目の優先順位の検索式になる。 A group of 6 belonging to B but not A or C becomes a search expression having the sixth priority.

実際の検索式(SQL)は「(Bの検索式パーツ) EXCEPT (Aの検索式パーツ) EXCEPT (Cの検索式パーツ)」となる。 The actual search expression (SQL) is "(B search expression parts) EXCEPT (A search expression parts) EXCEPT (C search expression parts)".

Cに属すが、AとBに属さない7のグループは、7番目の優先順位の検索式になる。 A group of 7 belonging to C but not A or B becomes a search expression of the 7th priority.

実際の検索式(SQL)は「(Cの検索式パーツ) EXCEPT (Aの検索式パーツ) EXCEPT (Bの検索式パーツ)」となる。 The actual search expression (SQL) is “(C search expression parts) EXCEPT (A search expression parts) EXCEPT (B search expression parts)”.

A、B、Cのいずれにも属さない8のグループは、最も優先順位が低い検索式になる。 The group of 8 that does not belong to any of A, B, and C becomes the search expression having the lowest priority.

実際の検索式(SQL)は「SELECT COMPANY_NAME FROM COMPANY EXCEPT (Aの検索式パーツ) EXCEPT (Bの検索式パーツ) EXCEPT (Cの検索式パーツ) 」となる。 The actual search expression (SQL) is "SELECT COMPANY_NAME FROM COMPANY EXCEPT (A search expression part) EXCEPT (B search expression part) EXCEPT (C search expression part)".

ステップS305では、業務システムサーバ102のCPU201は、ステップS304で作成した検索式を優先順位の高い順番で実行する。 In step S305, the CPU 201 of the business system server 102 executes the search expressions created in step S304 in descending order of priority.

ステップS306では、業務システムサーバ102のCPU201は、ステップ305で実行した検索結果リスト(取引先データの配列)を取引先テーブル500(図5参照)から取得する。 In step S306, the CPU 201 of the business system server 102 acquires the search result list (array of customer data) executed in step 305 from the customer table 500 (see FIG. 5).

図5には、取引先テーブル500及び検索履歴テーブル510の構成が示されており、取引先テーブル500は、取引先データを保管しており、ID501と取引先名502と取引先住所503と営業所からの距離504と登録日505からなる。 FIG. 5 shows the configuration of the supplier table 500 and the search history table 510. The supplier table 500 stores supplier data, and has an ID 501, a supplier name 502, a supplier address 503, and sales. It consists of a distance 504 from the place and a registration date 505.

ID501は、取引先を一意に識別するためのIDが格納され、取引先名502は、取引先名称が格納される。該取引先名称は、認識文字列との類似度を計算するために用いられる。 The ID 501 stores an ID for uniquely identifying the supplier, and the supplier name 502 stores the supplier name. The supplier name is used to calculate the degree of similarity with the recognized character string.

取引先住所503は、取引先の住所が格納される。該取引先住所は、取引先までの経路を表示する際に地図表示の引数として用いられる。 The customer address 503 stores the address of the customer. The supplier address is used as an argument for map display when displaying the route to the supplier.

営業所からの距離504は、営業所からの距離(キロメートル)が格納される。検索設定テーブル400の優先順位2として登録されている営業所から10km以上離れている取引先を検索するときの条件として利用される。 The distance 504 from the sales office stores the distance (km) from the sales office. It is used as a condition when searching for a supplier who is 10 km or more away from the sales office registered as priority 2 in the search setting table 400.

登録日505は、取引先データが登録された日付が保管される。検索設定テーブル400の優先順位3として登録されている新規登録されて6カ月以内の取引先を検索するときの条件として利用される。 As the registration date 505, the date when the customer data is registered is stored. It is used as a condition when searching for a customer who is newly registered within 6 months and is registered as priority 3 in the search setting table 400.

検索履歴テーブル510は、ユーザの検索履歴を保管しており、ユーザID511と検索した取引先512からなる。 The search history table 510 stores the search history of the user, and includes the user ID 511 and the business partner 512 who has searched.

ユーザID511は、検索したユーザのIDが格納され、検索した取引先512は、ユーザID511に該当するユーザが検索した取引先名が入る。 The user ID 511 stores the ID of the searched user, and the searched supplier 512 has the supplier name searched by the user corresponding to the user ID 511.

検索設定テーブル400の優先順位1として登録されている過去に検索した取引先を検索するときの条件として利用される。 It is used as a condition when searching for a previously searched customer registered as priority 1 in the search setting table 400.

ステップS307では、業務システムサーバ102のCPU201は、ステップ306で取得した検索結果リストの取引先名称と認識文字列との類似度を計算する。 In step S307, the CPU 201 of the business system server 102 calculates the degree of similarity between the customer name and the recognized character string in the search result list acquired in step 306.

類似度の計算方法例としては、比較する二つの文字列がどの程度異なっているかを示すレーベンシュタイン距離など既知の技術を用いる。レーベンシュタイン距離の場合は、距離が少ないほど類似度が高いと判断される。 As an example of a method of calculating the degree of similarity, a known technique such as Levenshtein distance, which indicates how different two character strings to be compared are, is used. In the case of the Levenshtein distance, the smaller the distance, the higher the similarity.

ステップS308では、業務システムサーバ102のCPU201は、ステップS307で計算した類似度が高い(レーベンシュタイン距離が少ない)取引先名称に該当する取引先データの配列を抽出し、クライアント101に送信する。 In step S 308, the CPU 201 of the business system server 102 extracts an array of supplier data corresponding to the supplier name calculated in step S 307 with a high degree of similarity (small Levenshtein distance), and sends it to the client 101.

ステップS309では、クライアント101のCPU201は、ステップS308で送信された取引先データの配列を受信する。 In step S309, the CPU 201 of the client 101 receives the array of customer data transmitted in step S308.

ステップS310では、クライアント101のCPU201は、ステップS309で送信された取引先データの配列の内、最も類似度の高い取引先について、現在地点から該取引先住所までの経路を検索結果画面701に表示する。 In step S310, the CPU 201 of the client 101 displays, on the search result screen 701, the route from the current location to the business partner address for the business partner having the highest degree of similarity in the business partner data array transmitted in step S309. To do.

なお、経路の表示方法は、Google Mapsなどの地図サービスを利用してもよい。 The route may be displayed by using a map service such as Google Maps.

また、2番目以降の取引先データの配列については、検索結果候補として検索結果画面701(図7参照)に表示する。 The second and subsequent customer data arrays are displayed on the search result screen 701 (see FIG. 7) as search result candidates.

図7には、取引先までの経路及び検索結果候補を表示する検索結果画面701の構成の一例が示されており、ユーザに取引先までの経路を示すための地図サービスの経路表示702と検索結果候補703と別の検索条件で再検索を行うための再検索領域704を含んで構成されている。 FIG. 7 shows an example of the configuration of a search result screen 701 that displays the route to the customer and the search result candidates. The route display 702 and the search of the map service for showing the user the route to the customer. The result candidate 703 and the re-search area 704 for re-searching under different search conditions are included.

地図サービスの経路表示702は、現在地点から類似度の最も高かった取引先までの経路を地図上に表示する。 The route display 702 of the map service displays the route from the current position to the customer who has the highest degree of similarity on the map.

検索結果候補703は、クライアント101が受信した取引先の配列の内、2番目以降の類似度の高さを有する取引先の名称を検索結果の候補として表示する。ユーザは、取引先の名称を選択することで、再度発話せずに該取引先までの経路を表示する。 The search result candidate 703 displays, as a search result candidate, the name of the customer having the second or higher similarity degree in the customer array received by the client 101. By selecting the name of the customer, the user displays the route to the customer without speaking again.

別の検索条件で再検索領域704は、ユーザが意図する取引先が検索結果画面701にも検索結果候補703にも存在しなかった際に、ユーザが検索条件を変更して再検索したい場合に設定する検索条件と再検索を実行するためのボタンを備えている。 The re-search area 704 with another search condition is used when the user wants to change the search condition and search again when the user's intended supplier does not exist in the search result screen 701 or the search result candidates 703. It has a search condition to set and a button to execute a re-search.

なお、ユーザは検索結果画面701において別の検索条件を指定して再検索することによって、ステップ301からの処理を実行することも可能である。 The user can also execute the processing from step 301 by designating another search condition on the search result screen 701 and performing a search again.

以上、本発明の実施形態によれば、音声認識による検索効率を高めることができる。 As described above, according to the embodiments of the present invention, it is possible to improve the search efficiency by voice recognition.

以上、実施形態について示したが、本発明は、例えば、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。 Although the embodiments have been described above, the present invention can be implemented as, for example, an apparatus, a method, a program, a recording medium, or the like.

具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Specifically, it may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of one device.

また、本発明におけるプログラムは、図3に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は図3の処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは図3の各装置の処理方法ごとのプログラムであってもよい。 Further, the program in the present invention is a program that allows a computer to execute the processing method of the flowchart shown in FIG. 3, and the storage medium of the present invention stores a program that allows the computer to execute the processing method in FIG. The program in the present invention may be a program for each processing method of each device in FIG.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。 As described above, the recording medium recording the program that realizes the functions of the above-described embodiments is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus executes the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium recording the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。 As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, non-volatile memory card, ROM, EEPROM, silicon. A disk or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, not only the functions of the above-described embodiments are realized by executing the program read by the computer, but also the OS (operating system) running on the computer is actually executed based on the instructions of the program. It goes without saying that a case where a part or all of the processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written in the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the function expansion board is instructed based on the instruction of the program code. Needless to say, this also includes the case where the CPU or the like included in the function expansion unit performs some or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。 Further, the present invention may be applied to a system including a plurality of devices or an apparatus including a single device.

また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適用できることは言うまでもない。 Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 In this case, by reading the recording medium storing the program for achieving the present invention into the system or device, the system or device can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Furthermore, by downloading and reading a program for achieving the present invention from a server, a database or the like on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. It should be noted that the present invention also includes all configurations that combine the above-described embodiments and modifications thereof.

100 取引先検索システム
101 クライアント
102 業務システムサーバ
103 音声認識サーバ
100 Business Partner Search System 101 Client 102 Business System Server 103 Voice Recognition Server

Claims (4)

音声認識により得られた文字列を用いて検索を行う情報処理装置であって、
複数の検索条件のうちそれぞれの検索条件に対応するように検索対象データを分類して記憶する記憶手段と、
指定された検索条件に対応する前記記憶手段の分類された検索対象データに対して前記音声認識により得られた文字列を用いて検索を行う検索手段と、
を備えたことを特徴とする情報処理装置。
An information processing device for performing a search using a character string obtained by voice recognition,
A storage unit that classifies and stores the search target data so as to correspond to each of the plurality of search conditions;
Search means for performing a search using the character string obtained by the voice recognition on the classified search target data of the storage means corresponding to the specified search condition;
An information processing apparatus comprising:
前記記憶手段は、検索条件により重なり合う検索範囲に基づいて、当該検索範囲に対する検索の優先付けに係る情報を記憶し、
前記検索手段は、前記記憶手段に記憶された検索範囲に対する優先付けに係る情報に基づいて、優先順に検索範囲における検索対象データに対して、前記音声認識により得られた文字列を用いて検索を行うことを特徴とする請求項1に記載の情報処理装置。
The storage means stores information related to prioritizing a search for the search range based on search ranges overlapping with each other according to the search condition,
The search unit searches the search target data in the search range in the order of priority using the character string obtained by the voice recognition based on the information related to prioritizing the search range stored in the storage unit. The information processing apparatus according to claim 1, which is performed.
音声認識により得られた文字列を用いて検索を行う情報処理装置の制御方法であって、
前記情報処理装置が、
指定された検索条件に対応する、複数の検索条件のうちそれぞれの検索条件に対応するように検索対象データを分類して記憶する記憶手段の分類された検索対象データに対して前記音声認識により得られた文字列を用いて検索を行う検索ステップ、
を実行することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing device that performs a search using a character string obtained by voice recognition,
The information processing device is
Obtained by the voice recognition with respect to the classified search target data of the storage unit that classifies and stores the search target data so as to correspond to each search condition among the plurality of search conditions corresponding to the specified search condition. A search step for performing a search using the obtained character string,
A method for controlling an information processing device, comprising:
コンピュータを、
指定された検索条件に対応する、複数の検索条件のうちそれぞれの検索条件に対応するように検索対象データを分類して記憶する記憶手段の分類された検索対象データに対して音声認識により得られた文字列を用いて検索を行う検索手段と、
して機能させるためのコンピュータプログラム。
Computer,
It is obtained by voice recognition with respect to the classified search target data of the storage unit that classifies and stores the search target data so as to correspond to each search condition among the plurality of search conditions corresponding to the specified search condition. A search means for searching using the character string
A computer program to do so.
JP2018248415A 2018-12-28 2018-12-28 Information processor, information processing method, program Pending JP2020107283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018248415A JP2020107283A (en) 2018-12-28 2018-12-28 Information processor, information processing method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248415A JP2020107283A (en) 2018-12-28 2018-12-28 Information processor, information processing method, program

Publications (1)

Publication Number Publication Date
JP2020107283A true JP2020107283A (en) 2020-07-09

Family

ID=71449221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248415A Pending JP2020107283A (en) 2018-12-28 2018-12-28 Information processor, information processing method, program

Country Status (1)

Country Link
JP (1) JP2020107283A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022070208A (en) * 2020-10-26 2022-05-12 株式会社エクサウィザーズ Work record generating method, program, work record generating apparatus, and word record system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022070208A (en) * 2020-10-26 2022-05-12 株式会社エクサウィザーズ Work record generating method, program, work record generating apparatus, and word record system

Similar Documents

Publication Publication Date Title
Johnston et al. MATCH: An architecture for multimodal dialogue systems
JP3962763B2 (en) Dialogue support device
US10698654B2 (en) Ranking and boosting relevant distributable digital assistant operations
JP5421239B2 (en) Multiple mode input method editor
EP3513324B1 (en) Computerized natural language query intent dispatching
US11016968B1 (en) Mutation architecture for contextual data aggregator
JP5860171B2 (en) Input processing method and apparatus
US11829723B2 (en) System for predicting document reuse
KR102596841B1 (en) Electronic device and method for providing one or more items responding to speech of user
US20150088524A1 (en) Apparatus and method for generating an event by voice recognition
WO2013071305A2 (en) Systems and methods for manipulating data using natural language commands
JP2006053906A (en) Efficient multi-modal method for providing input to computing device
CN110377676B (en) Voice instruction processing method, device, equipment and computer storage medium
US20150095024A1 (en) Function execution instruction system, function execution instruction method, and function execution instruction program
US20140040298A1 (en) Apparatus and method for starting up software
KR100490406B1 (en) Apparatus and method for processing voice command
JP2020107283A (en) Information processor, information processing method, program
US20210165540A1 (en) Information processing device, information processing method, and program
KR20200097949A (en) Method and system for extracting synonym by using keyword relation structure
JP6113392B1 (en) FACILITY SEARCH DEVICE, FACILITY SEARCH METHOD, COMPUTER PROGRAM, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM
KR20090108239A (en) System for searching korean word in mobile termianl and method thereof
KR20220146058A (en) Method and system for providing information based on pointing
JP6537477B2 (en) Search system, search method, computer program thereof and recording medium recording the computer program
KR101699478B1 (en) Server for analyzing naming and method for analyzing the same
JP7496712B2 (en) Search database update method, device and computer program